tgoop.com/olegandrobots/491
Last Update:
Продолжаю писать про мифы о робототехнике.
Миф № 4: роботы могут самостоятельно принимать решения
Нужно уже сейчас задуматься о законах, регулирующих использование ИИ и роботов.
В 1942 году великий фантаст Айзек Азимов в рассказе «Хоровод» сформулировал три закона робототехники, которые устойчиво закрепились в нашей картине мира.
Робот не может причинить вред человеку или через свое бездействие допустить, чтобы человеку был причинен вред.
Робот должен подчиняться указаниям человека, кроме случаев, когда такие указания противоречат первому закону роботехники.
Робот должен защищать собственную безопасность, если только такие действия не противоречат первому или второму закону роботехники.
Законы Азимова подразумевают наличие у роботов самосознания и свободы воли. Как мы уже разобрались — до этого пока очень далеко. Давайте по-честному: законы Азимова — потрясающая основа для морального конфликта в научной фантастике, но в этих формулировках они не применимы к реальности сегодня. Есть гораздо более насущные вопросы.
Как быть, если беспилотное такси приехало не туда, робот-курьер опоздал на 4 часа, а описание товара на маркетплейсе, написанное ИИ, вводит покупателей в заблуждение? Это вопросы, на которые мы должны иметь четкие ответы уже сегодня. Это как раз то регулирование, в котором мы нуждаемся. И радует, что в России развивается такая комплексная система регулирования.
И, все-таки, что касается вопросов этики: мы часто видим в масс-медиа примеры того, как роботы «перерастают» эти законы робототехники Азимова. Альтрон в «Мстителях» или Жнецы во франшизе Mass Effect «додумались» до истребления органической разумной жизни, так как войны и конфликты по их «прогнозам» всегда ведут к взаимоистреблению. Они руководствовались первым правилом, но с некоторыми допущениями. Думаю, нам ещё предстоит пересмотреть законы Азимова, чтобы не допустить подобных исходов. Когда-нибудь в будущем.
BY Олег Кивокурцев

Share with your friend now:
tgoop.com/olegandrobots/491