tgoop.com/eugenes_notes/1272
Last Update:
Нейронные сети и чат-боты не приведут к созданию универсального ИИ на уровне человека (AGI) — так считают 84% опрошенных специалистов
В марте 2025 года был опубликован интересный отчёт от Ассоциации развития искусственного интеллекта (AAAI). В нём опросили 475 ведущих специалистов по ИИ. Среди участников — учёные из Стэнфорда, MIT, Корнелла и других университетов (67% опрошенных), специалисты из крупнейших технологических компаний, таких как IBM Research, Microsoft, Google, NVIDIA, а также эксперты в разных дисциплинах, занимающиеся ИИ. Я законспектировал самые интересные вопросы, которые им задавали, и ответы на них.
AGI (Artificial General Intelligence) — это искусственный интеллект, способный обучаться, понимать и решать любые интеллектуальные задачи на уровне человека. Современные нейросети могут превосходить человека в отдельных задачах, но не обладают универсальным интеллектом, характерным для AGI.
Приведут ли современные нейросети к созданию AGI? Большинство исследователей скептически относятся к тому, что одни только нейросети смогут создать интеллект, равный человеческому. 84% считают, что этого недостаточно, и лишь 16% уверены в обратном. 76% специалистов говорят, что простое увеличение мощности и данных для обучения моделей не поможет достичь AGI.
Как можно достичь AGI? Оптимальным вариантом большинство опрошенных считают комбинированный подход: 60% уверены, что для создания AGI потребуется сочетание нейросетей с символическим ИИ (использует логические правила).
Стоит ли вообще сейчас гнаться за AGI? 77% считают, что приоритетом должно быть создание безопасного ИИ с контролируемым балансом рисков и пользы, а не погоня за AGI любой ценой. Только 23% полагают, что AGI должен быть главной целью исследований.
Стоит ли приостановить разработку AGI? 70% выступают против идеи остановить исследования до того момента, пока не появятся надёжные механизмы контроля. И только 30% респондентов считают, что без таких механизмов разработку AGI следует приостановить.
Если AGI создадут, кому он должен принадлежать? 82% опрошенных уверены, что, если частные компании создадут AGI, он должен принадлежать обществу, а не отдельным корпорациям.
Сможет ли ИИ получить Нобелевскую премию? Мнения учёных разделились, но большинство считает, что это вопрос времени. 45% респондентов уверены, что ИИ сможет сделать открытие, достойное Нобелевской премии, уже к 2050-м годам. Ещё 11% считают, что это возможно даже раньше, уже в 2020-х. Однако 25% признались, что просто не знают, когда это может произойти. Только 13% убеждены, что ИИ никогда не сможет достичь такого уровня.
Какие виды ИИ стоит развивать? Учёные почти единодушны во мнении: 92% считают, что нельзя зацикливаться только на нейросетях. 94% уверены, что как минимум четверть исследований должна быть направлена на гибридные системы, сочетающие нейросети с другими методами. А 86% выступают за то, чтобы не менее 25% исследований были посвящены другим подходам, не связанным с нейросетями.
Переоценивают ли сейчас возможности ИИ? Большинство экспертов считает, что общественное восприятие ИИ искажено. 79% уверены, что его возможности сильно преувеличены. 47% не согласны с тем, что ИИ уже обладает всеми возможностями, о которых говорят в СМИ, а 32% категорически не согласны с завышенными представлениями о возможностях ИИ.
Какая самая большая проблема современного ИИ? 75% называют главной угрозой дезинформацию — ИИ часто выдаёт ложные или неточные данные. Также 75% отмечают, что на данный момент нет хороших способов проверки надёжности ИИ, что тормозит развитие науки.
В чём проблема хайпа вокруг ИИ? Разрыв между реальностью и завышенными ожиданиями ведёт к искажённым приоритетам в исследованиях. 90% считают, что из-за этого наука движется не в ту сторону. Из них 74% говорят, что учёные теперь чаще работают над популярными темами, а не над фундаментальными проблемами. 12% отмечают, что из-за этого страдают теоретические исследования. А 4% беспокоятся, что студенты теряют интерес к академической науке и уходят в индустрию.
BY Конспекты Юджина 📗

Share with your friend now:
tgoop.com/eugenes_notes/1272