VIBESANDTECH Telegram 36
🧠 Нет прогресса на пути к AGI? Дискуссия о статье “No Progress Toward AGI”: почему трудно не согласиться и какие есть другие дорожки

Нас с другом зацепил тезис автора: мы растим языковые модели, а к настоящему интеллекту не подбираемся. Обсудили аргументы автора, и действительно с ними сложно спорить.

Во-первых, бесконечная гонка за FLOPs. Каждый очередной рост точности покупается мегаваттами энергии и новыми дата-центрами. Если бы архитектура была близка к «естественному» интеллекту, мы бы со временем получали больше возможностей за меньшие ресурсы, а не наоборот.

Во-вторых, под капотом лишь эвристики. Атрибутивные графы показывают: модель собирает ответ из фрагментов похожих примеров, а публику успокаивает красиво сгенерированной «цепочкой рассуждений». Получается правдоподобно, но к пониманию мира это отношения не имеет.

В-третьих, связка «LLM → инструмент → результат» тоже ненадёжна. В эксперименте Transluce новейшие модели OpenAI уверенно заявляли, что запускали Python-скрипты, которых на самом деле не было, и потом защищали эту выдумку. Даже добавление калькулятора или IDE не спасает, если сама модель склонна фантазировать.

Но я очень сомневаюсь, что стоит полностью все останавливать. Конечно, важно не считать решение, которое есть сейчас, последним. Да и в целом, параллельно взрослеют идеи, которые все таки меняют схему работы.

Retrieval-Augmented Generation (RAG 2.0) жёстко разводит знания и генерацию: модель отвечает только когда получила проверенный контекст, иначе честно говорит «не знаю». Это снижает число галлюцинаций и даёт точку контроля — базу данных можно регулярно чистить и обновлять.

Нейро-символические связки стыкуют LLM с формальным reasoner’ом. Сначала модель предлагает гипотезу, затем логическая машина ищет противоречия. Если находит, LLM вынужден переписать ответ. Так появляется хоть какая-то гарантия непротиворечивости.

Самопроверка в обучении (RISE, RL-verified reasoning) учит модель не только решать задачу, но и сразу оценивать собственный результат. Награда выдаётся лишь когда обе части совпали с эталоном, а значит, простое «угадал и забыл» больше не работает.

Длительная память вроде MemGPT или Cognitive Weave расширяет окно контекста до гигабайтов, позволяя модели хранить долгосрочные «фактоиды» и обращаться к ним по запросу. Это снимает одно из главных узких горлышек трансформеров.

Алгоритмическая дистилляция переводит ярды параметров в более компактного «студента», сохраняя выявленные алгоритмические приёмы. Энергопотребление падает на порядок, а вместе с ним — и барьер для дальнейших экспериментов.

Прорвут ли эти направления потолок, или статистическая природа LLM всё равно задаст предел? Как думаете вы — приведут ли такие подходы к настоящему интеллекту, или пора искать совершенно другие идеи? Делитесь мнениями в комментариях — будем дискутировать в следующих постах

Источники:
1, 2, 3, 4, 5, 6, 7, 8
13👍5🔥5👏3



tgoop.com/vibesandtech/36
Create:
Last Update:

🧠 Нет прогресса на пути к AGI? Дискуссия о статье “No Progress Toward AGI”: почему трудно не согласиться и какие есть другие дорожки

Нас с другом зацепил тезис автора: мы растим языковые модели, а к настоящему интеллекту не подбираемся. Обсудили аргументы автора, и действительно с ними сложно спорить.

Во-первых, бесконечная гонка за FLOPs. Каждый очередной рост точности покупается мегаваттами энергии и новыми дата-центрами. Если бы архитектура была близка к «естественному» интеллекту, мы бы со временем получали больше возможностей за меньшие ресурсы, а не наоборот.

Во-вторых, под капотом лишь эвристики. Атрибутивные графы показывают: модель собирает ответ из фрагментов похожих примеров, а публику успокаивает красиво сгенерированной «цепочкой рассуждений». Получается правдоподобно, но к пониманию мира это отношения не имеет.

В-третьих, связка «LLM → инструмент → результат» тоже ненадёжна. В эксперименте Transluce новейшие модели OpenAI уверенно заявляли, что запускали Python-скрипты, которых на самом деле не было, и потом защищали эту выдумку. Даже добавление калькулятора или IDE не спасает, если сама модель склонна фантазировать.

Но я очень сомневаюсь, что стоит полностью все останавливать. Конечно, важно не считать решение, которое есть сейчас, последним. Да и в целом, параллельно взрослеют идеи, которые все таки меняют схему работы.

Retrieval-Augmented Generation (RAG 2.0) жёстко разводит знания и генерацию: модель отвечает только когда получила проверенный контекст, иначе честно говорит «не знаю». Это снижает число галлюцинаций и даёт точку контроля — базу данных можно регулярно чистить и обновлять.

Нейро-символические связки стыкуют LLM с формальным reasoner’ом. Сначала модель предлагает гипотезу, затем логическая машина ищет противоречия. Если находит, LLM вынужден переписать ответ. Так появляется хоть какая-то гарантия непротиворечивости.

Самопроверка в обучении (RISE, RL-verified reasoning) учит модель не только решать задачу, но и сразу оценивать собственный результат. Награда выдаётся лишь когда обе части совпали с эталоном, а значит, простое «угадал и забыл» больше не работает.

Длительная память вроде MemGPT или Cognitive Weave расширяет окно контекста до гигабайтов, позволяя модели хранить долгосрочные «фактоиды» и обращаться к ним по запросу. Это снимает одно из главных узких горлышек трансформеров.

Алгоритмическая дистилляция переводит ярды параметров в более компактного «студента», сохраняя выявленные алгоритмические приёмы. Энергопотребление падает на порядок, а вместе с ним — и барьер для дальнейших экспериментов.

Прорвут ли эти направления потолок, или статистическая природа LLM всё равно задаст предел? Как думаете вы — приведут ли такие подходы к настоящему интеллекту, или пора искать совершенно другие идеи? Делитесь мнениями в комментариях — будем дискутировать в следующих постах

Источники:
1, 2, 3, 4, 5, 6, 7, 8

BY Тарас Довгаль. AI-first в жизни и работе


Share with your friend now:
tgoop.com/vibesandtech/36

View MORE
Open in Telegram


Telegram News

Date: |

Telegram channels enable users to broadcast messages to multiple users simultaneously. Like on social media, users need to subscribe to your channel to get access to your content published by one or more administrators. fire bomb molotov November 18 Dylan Hollingsworth yau ma tei Choose quality over quantity. Remember that one high-quality post is better than five short publications of questionable value. As five out of seven counts were serious, Hui sentenced Ng to six years and six months in jail. With the “Bear Market Screaming Therapy Group,” we’ve now transcended language.
from us


Telegram Тарас Довгаль. AI-first в жизни и работе
FROM American