tgoop.com/andrey_kiselnikov/673
Last Update:
Мнение Ричарда Саттона и прогноз Дарио Амадеи позволяют сделать несколько огорчающий вывод в отношении психологии и когнитивной нейронауки – получается, что все наши психологические и психофизиологические модели мало помогут создать искусственный интеллект человеческого уровня, т.к. он будет создан "снизу", без нашего прямого участия, опираясь на общие вычислительные принципы и масштабирование компьютерных мощностей. Если такой сценарий действительно реализуется, то созданная в результате искусственная психика (как субъективный аспект равного человеческому искусственного интеллекта) будет существенно отличаться от нашей (проблема скорого возникновения чуждой "ксенопсихики" с ее "ксеносознанием"). И тогда психология, раз уж она так и не смогла помочь создать человекоподобный ИИ с человекоподобной, а не чуждой нам искусственной психикой / сознанием, должна будет хотя бы постараться помочь понять этот зарождающийся новый тип психики / сознания. Это психологическое понимание должно будет "подставить плечо" академической дисциплине "AI alignment" (изучает принципы создания безопасного ИИ/сверхИИ, см. работы Романа Ямпольского) и увеличить вероятность того, что дальше – когда равный человеку искусственный интеллект быстро саморазовьется до уровня сверхинтеллекта, превышающего человеческий уровень, и у него возникнет сверхпсихика и сверхсознание – мы все-таки не увидим реализацию самых худших для нас сценариев. Психологии и когнитивной нейронауке, судя по всему, осталось всего около 6-7 лет (до конца текущего десятилетия, по основному корпусу прогнозов), чтобы все-таки хотя бы в этом попытаться реализовать свою основную историческую миссию перед переходом эволюции человечества и глобальной эволюции в целом ("Большой Истории", по Акопу Погосовичу Назаретяну) на следующую, абсолютно непредсказуемую ступень.
В конце хочется еще раз подчеркнуть ключевой момент – для того, чтобы этот прогноз в 6-7 лет действительно начал реализовываться, мы должны увидеть, что грядущие модели класса GPT-5 / Claude-3, построенные на дальнейшем масштабировании вычислительных мощностей и размера моделей, перестают допускать "детские" ошибки в логике, перестают "галлюцинировать" в мышлении в целом и т.д. Если по этим важнейшим метрикам прогресса не будет, то, значит, большие языковые модели линии GPT / Claude – это не путь к AGI, или не быстрый путь к нему. Так что ближайшие несколько лет станут ключевыми, и мы как психологи и психофизиологи, работающие с метриками логического и творческого мышления, имеем все объективные инструменты, чтобы оценить, по какому сценарию и с какой скоростью мы на самом деле идем. Мой личный прогноз с точки зрения психофизиолога совпадает с оценками OpenAI / xAI / Anthropic – равный человеческому ИИ / сверхинтеллект (AGI / ASI) до конца этого десятилетия (с вероятностью более 50%).
BY Новости психофизиологии
Share with your friend now:
tgoop.com/andrey_kiselnikov/673