ANDREY_KISELNIKOV Telegram 672
Почему прав Дарио Амадеи из Anthropic и почему психология и когнитивная нейронаука уже не успевают реализовать свои амбиции в области искусственного интеллекта

Сейчас все ИИ-сообщество бурно обсуждает интервью 8 августа Дарио Амадеи из Anthropic – создателя выдающихся больших языковых моделей Claude 1/2. Среди многих интересных идей больше всего внимания привлекает его оценка в 2-3 года как времени, которое осталось до создания равного человеческому искусственного интеллекта (= "basically like a generally well educated human"). Конечно, прежде всего вызывает большие сомнения, насколько 2-3-х лет хватит, чтобы большие языковые модели начали логически и творчески именно мыслить, не допуская в мышлении "детских" ошибок и ошибок по типу "галлюцинаций", т.к. "в целом хорошо образованный человек" обычно не допускает таких ошибок. Фактически, Дарио Амадеи утверждает, что 2-3 года хватит для ликвидации этих ошибок. Каким же образом? Через простое масштабирование вычислительных мощностей и размеров моделей. Почему же он прав (кроме, возможно, слишком короткого срока в 2-3 года, но в целом, на уровне идеи, прав)?

13 марта 2019 года, как раз перед началом революции больших языковых моделей, один из самых авторитетных ученых в области ИИ мудрый Ричард Саттон написал в своем блоге очень важную заметку "The Bitter Lesson" (http://www.incompleteideas.net/IncIdeas/BitterLesson.html), см. на русском языке: "«Горький урок»: ученый рассказал о том, что 70 лет в области исследования ИИ были потрачены практически зря" (https://hi-news.ru/research-development/gorkij-urok.html). Рекомендую всем с ней ознакомиться, суть – наш разум слишком сложен, чтобы мы могли смоделировать его в ИИ, идя "сверху", от высокоуровневых психологических моделей и структуры знаний человека. Как показывает история ИИ, побеждает иной путь – "снизу", через все большее и большее техническое масштабирование вычислений, базирующихся на общих принципах поиска и обучения, которые непосредственно, в деталях, не копируют реальные психологические механизмы обработки информации мозгом человека. И поэтому Дарио Амадеи прав, и очень скоро (не через 2-3 года, а, все-таки, вероятно, до конца текущего десятилетия), потомок одной из текущих больших языковых моделей сравняется с интеллектом человека в целом.
🔥95🤔2🤣2



tgoop.com/andrey_kiselnikov/672
Create:
Last Update:

Почему прав Дарио Амадеи из Anthropic и почему психология и когнитивная нейронаука уже не успевают реализовать свои амбиции в области искусственного интеллекта

Сейчас все ИИ-сообщество бурно обсуждает интервью 8 августа Дарио Амадеи из Anthropic – создателя выдающихся больших языковых моделей Claude 1/2. Среди многих интересных идей больше всего внимания привлекает его оценка в 2-3 года как времени, которое осталось до создания равного человеческому искусственного интеллекта (= "basically like a generally well educated human"). Конечно, прежде всего вызывает большие сомнения, насколько 2-3-х лет хватит, чтобы большие языковые модели начали логически и творчески именно мыслить, не допуская в мышлении "детских" ошибок и ошибок по типу "галлюцинаций", т.к. "в целом хорошо образованный человек" обычно не допускает таких ошибок. Фактически, Дарио Амадеи утверждает, что 2-3 года хватит для ликвидации этих ошибок. Каким же образом? Через простое масштабирование вычислительных мощностей и размеров моделей. Почему же он прав (кроме, возможно, слишком короткого срока в 2-3 года, но в целом, на уровне идеи, прав)?

13 марта 2019 года, как раз перед началом революции больших языковых моделей, один из самых авторитетных ученых в области ИИ мудрый Ричард Саттон написал в своем блоге очень важную заметку "The Bitter Lesson" (http://www.incompleteideas.net/IncIdeas/BitterLesson.html), см. на русском языке: "«Горький урок»: ученый рассказал о том, что 70 лет в области исследования ИИ были потрачены практически зря" (https://hi-news.ru/research-development/gorkij-urok.html). Рекомендую всем с ней ознакомиться, суть – наш разум слишком сложен, чтобы мы могли смоделировать его в ИИ, идя "сверху", от высокоуровневых психологических моделей и структуры знаний человека. Как показывает история ИИ, побеждает иной путь – "снизу", через все большее и большее техническое масштабирование вычислений, базирующихся на общих принципах поиска и обучения, которые непосредственно, в деталях, не копируют реальные психологические механизмы обработки информации мозгом человека. И поэтому Дарио Амадеи прав, и очень скоро (не через 2-3 года, а, все-таки, вероятно, до конца текущего десятилетия), потомок одной из текущих больших языковых моделей сравняется с интеллектом человека в целом.

BY Новости психофизиологии


Share with your friend now:
tgoop.com/andrey_kiselnikov/672

View MORE
Open in Telegram


Telegram News

Date: |

On Tuesday, some local media outlets included Sing Tao Daily cited sources as saying the Hong Kong government was considering restricting access to Telegram. Privacy Commissioner for Personal Data Ada Chung told to the Legislative Council on Monday that government officials, police and lawmakers remain the targets of “doxxing” despite a privacy law amendment last year that criminalised the malicious disclosure of personal information. “[The defendant] could not shift his criminal liability,” Hui said. A vandalised bank during the 2019 protest. File photo: May James/HKFP. Ng Man-ho, a 27-year-old computer technician, was convicted last month of seven counts of incitement charges after he made use of the 100,000-member Chinese-language channel that he runs and manages to post "seditious messages," which had been shut down since August 2020. The channel also called on people to turn out for illegal assemblies and listed the things that participants should bring along with them, showing prior planning was in the works for riots. The messages also incited people to hurl toxic gas bombs at police and MTR stations, he added.
from us


Telegram Новости психофизиологии
FROM American