PHIL_BESEDIN Telegram 584
НЯ: Я пошла здесь не только аналитическим путём, но и путём эмпирического исследования. Я активно обсуждаю это с разработчиками. Особенно интересно, когда удаётся с топовыми разработчиками пообщаться. Мы анализируем, как в реальности они это делают. Им же надо, чтобы это работало. И оказывается, что за витриной этических кодексов стоят все-таки другие инструменты. И здесь, мне кажется, мы философы и даже эпистемологи можем помочь. Например, критический подход — это просто способ проблематизации. Как понять, что может выдавать большая лингвистическая модель в ответе на запрос, а что не надо выпускать? Вот первая этическая дилемма. Или какие данные человека и в каких ситуациях корректно использовать, а в каких ситуациях некорректно? Ведь нельзя просто запретить использование персональных данных. Вот где этот водораздел? И мы начинаем задавать эти вопросы, углубляясь, углубляясь, и ищем эти водоразделы, которые позволят нам правильно принимать решения.

АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?

НЯ: Это одна из методологий, которая может помочь.

АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?

НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.

АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?
2👍2🔥1



tgoop.com/phil_besedin/584
Create:
Last Update:

НЯ: Я пошла здесь не только аналитическим путём, но и путём эмпирического исследования. Я активно обсуждаю это с разработчиками. Особенно интересно, когда удаётся с топовыми разработчиками пообщаться. Мы анализируем, как в реальности они это делают. Им же надо, чтобы это работало. И оказывается, что за витриной этических кодексов стоят все-таки другие инструменты. И здесь, мне кажется, мы философы и даже эпистемологи можем помочь. Например, критический подход — это просто способ проблематизации. Как понять, что может выдавать большая лингвистическая модель в ответе на запрос, а что не надо выпускать? Вот первая этическая дилемма. Или какие данные человека и в каких ситуациях корректно использовать, а в каких ситуациях некорректно? Ведь нельзя просто запретить использование персональных данных. Вот где этот водораздел? И мы начинаем задавать эти вопросы, углубляясь, углубляясь, и ищем эти водоразделы, которые позволят нам правильно принимать решения.

АБ: Критический подход – это, с Вашей точки зрения, предпочтительная методология, как я понимаю?

НЯ: Это одна из методологий, которая может помочь.

АБ: Ваше изложение критического подхода в докладе вызывает у меня такое возражение. Критический подход предполагает, что единственными моральными субъектами являются люди. Мы оцениваем искусственный интеллект только как инструмент, который влияет определённым образом на нас. И получается, что искусственный интеллект – это нечто такое, что только лишь масштабирует или искажает, даёт нам в неузнаваемом виде те моральные проблемы, которые у нас и так уже есть. Почему это вообще подход к этике искусственного интеллекта? Почему мы отказываемся говорить о возможном ИИ как моральном агенте? То есть, не выплёскиваем ли мы здесь самое интересное, что есть в этике искусственного интеллекта?

НЯ: Не выплёскиваем ребёнка с водой? Ну, смотрите, здесь надо сделать несколько базовых методологических уточнений. Сейчас мы принимаем основную установку, что у современных систем нет субъектности. Можно отдельно, кстати, поговорить о том что мы сейчас понимаем, как сделать вычислительный эксперимент по моделированию сознания. Вот еще пять лет назад мы не понимали. Но это отдельно сейчас мы исходим из того, что у них нет субъектности в том смысле что они не осознают себя и не имеют феноменального сознания. Я не придерживаюсь теории вложения ценностей в ее радикальном виде. Это моя позиция. Теория вложения ценностей считает, что при конструировании сама форма реализации технического объекта позволяет закладывать в него определенные ценности. Я считаю, что в таком сильном виде это не работает, только в мягком варианте. Они могут способствовать реализации в большей степени одних ценностей и не способствовать реализации других. Они оказывают влияние и могут усиливать определенные виды деятельности человека, а другие ослаблять. Вот таким образом они оказывают влияние. И поэтому мы подключаем критический подход, то есть наша задача посмотреть, как они влияют, чему они способствуют, чему они препятствуют. Выявляя вот эту динамику, мы можем оценивать их воздействие на человека в целом. Я, наверное, не скажу, что мы вообще не должны направлять этический подход на сами систему искусственного интеллекта: зачем нам себя ограничивать? Просто, на мой взгляд, сейчас все этим и занимаются. Мы хотим приписать этику системам у которых пока нет субъектности. Мы хотим приписать моральные ценности им вместо того, чтобы посмотреть на то, как люди с ними взаимодействую. Я как раз и предлагаю такой подход. Он может быть одним из этапов или дополнением, если не основным подходом, который смотрит на человека в рамках двухстороннего взаимодействия с ИИ.

АБ: Продолжая то, что Вы сейчас сказали. Каковы Ваши прогнозы, с одной стороны, относительно будущего ИИ, и какие глубинные воздействия окажет развитие этих технологий на нас? И каковы перспективы развития этики искусственного интеллекта?

BY Беседин


Share with your friend now:
tgoop.com/phil_besedin/584

View MORE
Open in Telegram


Telegram News

Date: |

The initiatives announced by Perekopsky include monitoring the content in groups. According to the executive, posts identified as lacking context or as containing false information will be flagged as a potential source of disinformation. The content is then forwarded to Telegram's fact-checking channels for analysis and subsequent publication of verified information. Channel login must contain 5-32 characters Don’t publish new content at nighttime. Since not all users disable notifications for the night, you risk inadvertently disturbing them. 6How to manage your Telegram channel? How to Create a Private or Public Channel on Telegram?
from us


Telegram Беседин
FROM American