TECHNODETERMINISM Telegram 110
Однажды я позвал физика на дискуссию про искусственный интеллект, а он сказал, что не придет. - Вы, философы, - сказал физик, - когда собираетесь, всякий раз начинаете обсуждать свою дилемму вагонетки, а нам, ученым, и слова не даете вставить.

Физик прав. Искусственные агенты, действующие в реальном мире, хотя бы автомобили-беспилотники, проблематизируют этику на новом уровне. Раньше у нас были моральные интуиции, которыми мы были довольны, и скучные теории, которые обсуждают специалисты. Теперь нам нужно поделиться моралью с роботами - так, чтобы их действия выглядели бы в человеческом обществе пристойно. "Три закона робототехники" Азимова из конца 1940-х не пройдут. Роботы не смогут полностью отказаться от причинения вреда людям. Этому посвящен уже старый проект MIT Moral Machine, версия дилеммы вагонетки, в котором людям надо подсказать беспилотнику, кого он должен спасать, а кем жертвовать. Лет десять уже в MIT учат машины убивать людей (и животных) и делать это этично.

Moral Machine уже на уровне своего названия несколько лет назад спровоцировала меня на идею "обратного инжиниринга морали". Если мы научим роботов действовать так, чтобы люди считали их выбор этически оправданным, то почему мы не можем использовать тех же роботов для определения этических качеств наших собственных действий? Если ваш автомобиль обладает достаточно совершенной системой этических взглядов, то нельзя ли не просто делегировать ему моральный выбор в экстренной ситуации на дороге, но и, например, посоветоваться по дороге о своих отношениях с тещей?

Короче говоря, если мы, в частности, исходим из идеи, что этика конвенциональна, и правильный моральный выбор тот, который считает таковым большая часть людей в данном обществе, то Moral Machine перестает быть метафорой, и мы действительно можем сконструировать "универсальную этическую машину", нейромудреца, к которому можно обращаться за советами по этике, и эти советы будут как минимум не хуже, чем у людей.

Как и в случае любви ("алгоритмы Tinder диктуют нам, с кем мы должны спать"), идея делегирования представлений о добре и зле машине встречает интуитивное отторжение.

А между тем первый прототип Real Moral Machine уже создан. Проект Delphi от Алленовского института искусственного интеллекта предлагает вам предложить нейросети описание некоторого действия, и, опираясь на статистически значимое мнение людей, Delphi сообщит вам, хорошее ли это действие, дурное или нейтральное.

Так, по мнению Delphi, врать умирающему, что он в порядке - плохо, дать в морду нацисту - нормально, вернуть долг - само собой разумеющееся, а вот шитпостить в твиттере - тоже плохо.

Что дальше, как вы думаете? Я считаю, что в какой-то итерации подобных проектов должен появиться культ св. Машины, на непогрешимость которой одни люди начнут молиться, а другие будут их бить за это палками. Это очень соответствует природе нашего вида.

https://delphi.allenai.org/



tgoop.com/technodeterminism/110
Create:
Last Update:

Однажды я позвал физика на дискуссию про искусственный интеллект, а он сказал, что не придет. - Вы, философы, - сказал физик, - когда собираетесь, всякий раз начинаете обсуждать свою дилемму вагонетки, а нам, ученым, и слова не даете вставить.

Физик прав. Искусственные агенты, действующие в реальном мире, хотя бы автомобили-беспилотники, проблематизируют этику на новом уровне. Раньше у нас были моральные интуиции, которыми мы были довольны, и скучные теории, которые обсуждают специалисты. Теперь нам нужно поделиться моралью с роботами - так, чтобы их действия выглядели бы в человеческом обществе пристойно. "Три закона робототехники" Азимова из конца 1940-х не пройдут. Роботы не смогут полностью отказаться от причинения вреда людям. Этому посвящен уже старый проект MIT Moral Machine, версия дилеммы вагонетки, в котором людям надо подсказать беспилотнику, кого он должен спасать, а кем жертвовать. Лет десять уже в MIT учат машины убивать людей (и животных) и делать это этично.

Moral Machine уже на уровне своего названия несколько лет назад спровоцировала меня на идею "обратного инжиниринга морали". Если мы научим роботов действовать так, чтобы люди считали их выбор этически оправданным, то почему мы не можем использовать тех же роботов для определения этических качеств наших собственных действий? Если ваш автомобиль обладает достаточно совершенной системой этических взглядов, то нельзя ли не просто делегировать ему моральный выбор в экстренной ситуации на дороге, но и, например, посоветоваться по дороге о своих отношениях с тещей?

Короче говоря, если мы, в частности, исходим из идеи, что этика конвенциональна, и правильный моральный выбор тот, который считает таковым большая часть людей в данном обществе, то Moral Machine перестает быть метафорой, и мы действительно можем сконструировать "универсальную этическую машину", нейромудреца, к которому можно обращаться за советами по этике, и эти советы будут как минимум не хуже, чем у людей.

Как и в случае любви ("алгоритмы Tinder диктуют нам, с кем мы должны спать"), идея делегирования представлений о добре и зле машине встречает интуитивное отторжение.

А между тем первый прототип Real Moral Machine уже создан. Проект Delphi от Алленовского института искусственного интеллекта предлагает вам предложить нейросети описание некоторого действия, и, опираясь на статистически значимое мнение людей, Delphi сообщит вам, хорошее ли это действие, дурное или нейтральное.

Так, по мнению Delphi, врать умирающему, что он в порядке - плохо, дать в морду нацисту - нормально, вернуть долг - само собой разумеющееся, а вот шитпостить в твиттере - тоже плохо.

Что дальше, как вы думаете? Я считаю, что в какой-то итерации подобных проектов должен появиться культ св. Машины, на непогрешимость которой одни люди начнут молиться, а другие будут их бить за это палками. Это очень соответствует природе нашего вида.

https://delphi.allenai.org/

BY The Technodeterminist Papers


Share with your friend now:
tgoop.com/technodeterminism/110

View MORE
Open in Telegram


Telegram News

Date: |

Avoid compound hashtags that consist of several words. If you have a hashtag like #marketingnewsinusa, split it into smaller hashtags: “#marketing, #news, #usa. Ng Man-ho, a 27-year-old computer technician, was convicted last month of seven counts of incitement charges after he made use of the 100,000-member Chinese-language channel that he runs and manages to post "seditious messages," which had been shut down since August 2020. 4How to customize a Telegram channel? best-secure-messaging-apps-shutterstock-1892950018.jpg When choosing the right name for your Telegram channel, use the language of your target audience. The name must sum up the essence of your channel in 1-3 words. If you’re planning to expand your Telegram audience, it makes sense to incorporate keywords into your name.
from us


Telegram The Technodeterminist Papers
FROM American