tgoop.com/vibe_coding_channel/338
Last Update:
Лежал вчера вспоминал свой давний пост «выравниваем ожидания от вайб-кодинга» от 19 марта, и понял что его пора обновить.
В нем я писал о том, что вайб-кодинг не замена разработчика, а его сила. Что нужно время, чтобы этому научится. И что нужно понимать возможности и ограничения.
Хорошо, что я тогда не написал про возможности и ограничения, потому что за пол года, кодинг агенты сильно шагнули вперед и пост все еще не потерял актуальности.
Теперь пришло время написать про возможности и и ограничения. И начну я пожалуй с ограничений.
Когда я думал, с чего начать, и почему вообще возникла такая проблема - завышенные ожидания к вайб-кодингу. Я понял, что это произошло отчасти из-за громкого названия «интеллект» при упоминании LLM.
Интеллект, сильно упрощенно говоря - это способность системы воспринимать, понимать и осознавать себя и окружающий мир. Способность генерировать новые идеи, управлять эмоциями. Это память, внимание, логика, рассуждение, творчество.
LLM не «понимают» смысл слов или контекста так, как это делает человек. Они работают на основе статистических закономерностей: предсказывают наиболее вероятное продолжение текста на основе огромного массива обучающих данных.
Ответ LLM - это не истина, это предложение (предположение). Это математика. Еще и со стохастической природой. Каждый раз выбирает наиболее вероятный токен случайным образом, давая разные ответы на одни и те же запросы. Без дополнительных инструментов не помнит историю коммуникации с вами.
Как это должно влиять на наши ожидания?
1. Мы не ждем продакшен решения с первого промпта, не ждем что он догадается сделать то, о чем мы забыли ему сообщить. Он не читает мысли, не считывает сигналы тела, не понимает между строк. Он оперирует вероятностями.
2. Мы не ругаемся на агента, если он допустил ошибку. Мы ее анализируем, возвращаемся к нашему запросу и дополняем его. Агенту просто не хватило контекста для того, чтобы его предсказание совпало с вашими ожиданиями.
3. Мы не ждем, что агент вспомнит нюанс, который мы обсуждали в другом чате, или что он знает ваш проект также хорошо, как вы. Каждый новый запуск - это джун с амнезией, требующий онбординга.
Возможности
Понимая природу LLM, мы не строим иллюзий. Но и не отрицаем пользу.
Благодаря своей стохастической природе, LLM может сгенерировать такое решение, о котором вы бы никогда не подумали.
Благодаря скорости инференса (предсказания), мы можем генерировать одновременно несколько вариантов решений. Быстро откатываться назад, дополнять, и сразу видеть исправленный результат.
Будущее
LLM — это отражение человеческого интеллекта в зеркале данных, но не сам интеллект.
Современные кодинг агенты обвешивают дополнительными фичами, чтобы хоть как-то сделать похожим на интеллект: добавляют долгосрочную память, разделяют задачи между разными субагентами. Внедряют этап планирования и ревью результата.
Но это все равно остается математическая модель предсказания вероятностей со стохастической природой. Не будем об этом забывать.
Чтобы это стало настоящим интеллектом, это должно сильно архитектурно измениться. А пока так.
Поделитесь этим постом с друзьями и коллегами, которые до сих пор ругают нейросеть в Cursor, и спрашивают почему она что-то не так сделала.
