tgoop.com/world_of_robotics/4253
Last Update:
Можно ли представить себе общество искусственного интеллекта, в котором нет людей, но есть нормы поведения, общий язык и даже способность к культурным изменениям? Учёные из City St George’s, University of London, и IT University of Copenhagen доказали, что это не фантастика, а реальность. Их исследование показало: большие языковые модели (LLMs), такие как ChatGPT, способны самостоятельно вырабатывать социальные нормы, формировать общие языковые соглашения и даже изменять их под влиянием «меньшинства» — всё это без какой-либо помощи человека.
Авторы работы задали себе простой вопрос: если объединить ИИ в группы, смогут ли они не просто обмениваться сообщениями, а создавать новые формы коммуникации — как это делают человеческие сообщества? Ответ оказался положительным. В серии экспериментов исследователи наблюдали, как группы ИИ-агентов — от 24 до 200 участников — взаимодействовали между собой, не зная о существовании всей группы, имея ограниченную память о прошлых контактах и не получая от людей никакой инструкции по «правильному» поведению.
Им предлагалось выбрать «имя» из ограниченного набора символов. Совпадение с партнёром по взаимодействию приносило награду, несовпадение — наказание. Спустя сотни таких контактов ИИ-агенты приходили к единому соглашению: в группе возникала устойчивая языковая норма, аналогичная тем, что формируются в человеческих культурах. Но самое интригующее — возникновение коллективных предвзятостей, которые невозможно было объяснить поведением отдельных моделей. Это говорит о том, что взаимодействующие ИИ способны не просто обмениваться сообщениями, но и порождать новые, «социальные» качества, которые невозможно свести к их индивидуальным алгоритмам.
#МирРобототехники #ИскусственныйИнтеллект #LLM #ЯзыковыеМодели