TECHNODETERMINISM Telegram 81
Нейронные сети, способные принимать решения в условиях реального мира, быстро прогрессируют и при этом становятся все менее понятными для людей.

При этом, поскольку в реальном мире, в отличие от относительно простых игр вроде шахмат, компьютеры как и люди ошибаются, непонимание может вести к весьма болезненным результатам.

Отсюда появляется новый класс задач: объяснять людям, почему ИИ принял то или иное решение. Решать эти задачи в реальном времени, с учетом их сложности, тоже придется машинам.

Еще год назад MIT Technology Review писал о тенденции, которая может стать ключевой для развития современных систем искусственного интеллекта. Американское агентство DARPA, работающее на Пентагон, ведет разработку сразу 13 программ, задача которых сделать действия машин более понятными для людей.

Ключевой программой считается инициатива по созданию Explainable Artificial Intelligence (XAI), нейросети, специализирующейся на анализе данных специализированных нейросетей и построение карты контрольных точек, по которым анализируются данные в последних, так чтобы эксперт-человек был в состоянии прочитать эту информацию и объяснить ее.

XAI имеет двойное назначение и непосредственно связано с разработкой оружия. Представители DARPA рассуждают об особой важности доверия и взаимопонимания в условиях боевых действий, когда все участники тактической единицы должны чувствовать, что могут полностью полагаться друг на друга. Если тактическая единица состоит из машин и людей и является кибернетической, то люди должны понимать, как "мыслят" машины. Если автономный робот открыл огонь на поражение, от него тоже потребуют рапорт, объясняться придется XAI. Мирная сторона системы связана, например, с диагностикой сложных форм рака, когда нейросети и люди-специалисты приходят к разным выводам и нуждаются в общем языке для уточнения ситуации.

Некоторое время я писал об этом: хотя тест Тьюринга кажется примером архаичного антропоцентризма в рамках теории ИИ, в действительности неантропоморфные экспертные системы, работающие в человеческом обществе, будут вынуждены также содержать в себе интерфейс, предназначенный для коммуникации с людьми.

Где-то здесь должна появляться фигура философа, нейро- и кибергерменевта, который наконец объяснит всем этим XAI и ее разработчикам из DARPA, что на самом деле означает "понимание". Хочется иронизировать: не будет ли сам философ нейросетью.



tgoop.com/technodeterminism/81
Create:
Last Update:

Нейронные сети, способные принимать решения в условиях реального мира, быстро прогрессируют и при этом становятся все менее понятными для людей.

При этом, поскольку в реальном мире, в отличие от относительно простых игр вроде шахмат, компьютеры как и люди ошибаются, непонимание может вести к весьма болезненным результатам.

Отсюда появляется новый класс задач: объяснять людям, почему ИИ принял то или иное решение. Решать эти задачи в реальном времени, с учетом их сложности, тоже придется машинам.

Еще год назад MIT Technology Review писал о тенденции, которая может стать ключевой для развития современных систем искусственного интеллекта. Американское агентство DARPA, работающее на Пентагон, ведет разработку сразу 13 программ, задача которых сделать действия машин более понятными для людей.

Ключевой программой считается инициатива по созданию Explainable Artificial Intelligence (XAI), нейросети, специализирующейся на анализе данных специализированных нейросетей и построение карты контрольных точек, по которым анализируются данные в последних, так чтобы эксперт-человек был в состоянии прочитать эту информацию и объяснить ее.

XAI имеет двойное назначение и непосредственно связано с разработкой оружия. Представители DARPA рассуждают об особой важности доверия и взаимопонимания в условиях боевых действий, когда все участники тактической единицы должны чувствовать, что могут полностью полагаться друг на друга. Если тактическая единица состоит из машин и людей и является кибернетической, то люди должны понимать, как "мыслят" машины. Если автономный робот открыл огонь на поражение, от него тоже потребуют рапорт, объясняться придется XAI. Мирная сторона системы связана, например, с диагностикой сложных форм рака, когда нейросети и люди-специалисты приходят к разным выводам и нуждаются в общем языке для уточнения ситуации.

Некоторое время я писал об этом: хотя тест Тьюринга кажется примером архаичного антропоцентризма в рамках теории ИИ, в действительности неантропоморфные экспертные системы, работающие в человеческом обществе, будут вынуждены также содержать в себе интерфейс, предназначенный для коммуникации с людьми.

Где-то здесь должна появляться фигура философа, нейро- и кибергерменевта, который наконец объяснит всем этим XAI и ее разработчикам из DARPA, что на самом деле означает "понимание". Хочется иронизировать: не будет ли сам философ нейросетью.

BY The Technodeterminist Papers


Share with your friend now:
tgoop.com/technodeterminism/81

View MORE
Open in Telegram


Telegram News

Date: |

Concise A Hong Kong protester with a petrol bomb. File photo: Dylan Hollingsworth/HKFP. With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. The best encrypted messaging apps The optimal dimension of the avatar on Telegram is 512px by 512px, and it’s recommended to use PNG format to deliver an unpixelated avatar.
from us


Telegram The Technodeterminist Papers
FROM American