PULATOV_KH Telegram 3138
Сегодня на встрече с депутатами обсуждали законопроект об искусственном интеллекте. И, как это часто бывает, разговор быстро свёлся к визуальному контенту: дипфейкам, фейковым видео и ИИ-генерированным изображениям. Именно эти примеры чаще всего звучат в новостях, они эмоционально цепляют, и кажутся самым очевидным «злом» ИИ.

Да, угрозы реальны. Более 3500 случаев злоупотребления ИИ только в 2024 году. Поддельные голоса, лица, фейки с публичными людьми, в том числе женщинами. Но в основном это приходит извне. И тут встаёт честный вопрос: как мы собираемся это контролировать? Как будет выглядеть взаимодействие с Meta или Telegram?

НО! Главные риски — это не картинка, а алгоритм. ИИ, который без объяснения отказывает в приёме на работу. Кредитный скоринг, не прошедший этическую проверку. Медицинская рекомендация, сгенерированная без лицензии. Тысячи ИИ-комментариев, создающих иллюзию общественного мнения. Это те процессы, где ИИ уже меняет структуру социальных решений.

Мы говорим о маркировке — но что конкретно маркировать и кто будет этим заниматься? Соцсети уже внедрили теги “сгенерировано ИИ”. Если человек скачал изображение из Midjourney и залил его в Telegram — кто должен это отметить? И как? А если баннер рекламный, и нейросеть только убрала фон — это уже считается ИИ-контентом? Где граница? И кто её определяет?

И если уж мы говорим про метки — давайте честно: это не главное. Давайте лучше обсудим куда более важную и сложную тему — регулирование авторского права на контент, созданный с помощью ИИ.

Сегодня десятки тысяч дизайнеров, иллюстраторов, фотографов и даже журналистов уже используют нейросети в работе. Где проходит грань между автором и алгоритмом? Кому принадлежат права на изображение, сгенерированное по описанию? Кто несёт ответственность, если в картинке — элементы чужой работы? Можно ли вообще запатентовать или защитить ИИ-контент?

Без ответов на эти вопросы обсуждать «маркировку» — всё равно что обсуждать ярлык на книге, не решив, кто её автор.

Более того, прозвучали предложения о наказании вплоть до конфискации имущества и 15 суток административного ареста. Некоторые предложили ввести даже уголовное наказание. Это вызвало у многих вполне закономерную реакцию: а где границы? где критерии? За что именно будет наказываться человек? За публикацию дипфейка? А если это шутка, фильтр, реклама, а не злой умысел? Будут ли наказания различаться для подростка, эксперта, блогера, бизнесмена? Как отличить опасный deepfake от ироничного ролика?

Мы ведь пока не определили даже базовых категорий риска. Ни в тексте законопроекта, ни в публичном обсуждении нет чёткой системы: какие действия с ИИ считаются низкоопасными (например, мемы), какие — среднеопасными (манипуляции в рекламе), а какие — высокоопасными (вмешательство в выборы, подделка официальных заявлений, шантаж).

Если мы заранее не обозначим эту шкалу рисков, не пропишем градацию ответственности, есть опасность, что правоприменение будет работать по принципу “кому как повезёт”. Один получит предупреждение, другой — арест. Один — штраф, другой — уголовное дело. Причём не за то, что нанёс вред, а за то, что оказался под рукой.

И ещё один важный вопрос, о котором почти не говорили: почему мы начинаем с наказания? Почему логика сразу ведёт к конфискации, аресту, уголовной ответственности? А где система предупреждений, разъяснений, профилактики?

Если человек использует ИИ-изображение в TikTok, даже не зная, что это нарушает что-то — он сразу преступник? А если школьник сгенерировал ролик в приложении с фильтром — его уже нужно судить?

В мире, где технологии меняются быстрее законов, первыми должны быть обучение и просвещение, а не дубинка. Сначала объяснить: «вот так можно», «вот так — опасно», «если нарушишь — будет ответственность». А не наоборот: сделать закон непонятным, а потом ловить тех, кто не понял.

Даже в дорожном движении есть знаки, зебры, предупреждающие табло, а уже потом — штраф. Почему в сфере ИИ мы хотим сразу сажать, не дав человеку шанса понять, что он вообще нарушил?

@pulatov_kh



tgoop.com/pulatov_kh/3138
Create:
Last Update:

Сегодня на встрече с депутатами обсуждали законопроект об искусственном интеллекте. И, как это часто бывает, разговор быстро свёлся к визуальному контенту: дипфейкам, фейковым видео и ИИ-генерированным изображениям. Именно эти примеры чаще всего звучат в новостях, они эмоционально цепляют, и кажутся самым очевидным «злом» ИИ.

Да, угрозы реальны. Более 3500 случаев злоупотребления ИИ только в 2024 году. Поддельные голоса, лица, фейки с публичными людьми, в том числе женщинами. Но в основном это приходит извне. И тут встаёт честный вопрос: как мы собираемся это контролировать? Как будет выглядеть взаимодействие с Meta или Telegram?

НО! Главные риски — это не картинка, а алгоритм. ИИ, который без объяснения отказывает в приёме на работу. Кредитный скоринг, не прошедший этическую проверку. Медицинская рекомендация, сгенерированная без лицензии. Тысячи ИИ-комментариев, создающих иллюзию общественного мнения. Это те процессы, где ИИ уже меняет структуру социальных решений.

Мы говорим о маркировке — но что конкретно маркировать и кто будет этим заниматься? Соцсети уже внедрили теги “сгенерировано ИИ”. Если человек скачал изображение из Midjourney и залил его в Telegram — кто должен это отметить? И как? А если баннер рекламный, и нейросеть только убрала фон — это уже считается ИИ-контентом? Где граница? И кто её определяет?

И если уж мы говорим про метки — давайте честно: это не главное. Давайте лучше обсудим куда более важную и сложную тему — регулирование авторского права на контент, созданный с помощью ИИ.

Сегодня десятки тысяч дизайнеров, иллюстраторов, фотографов и даже журналистов уже используют нейросети в работе. Где проходит грань между автором и алгоритмом? Кому принадлежат права на изображение, сгенерированное по описанию? Кто несёт ответственность, если в картинке — элементы чужой работы? Можно ли вообще запатентовать или защитить ИИ-контент?

Без ответов на эти вопросы обсуждать «маркировку» — всё равно что обсуждать ярлык на книге, не решив, кто её автор.

Более того, прозвучали предложения о наказании вплоть до конфискации имущества и 15 суток административного ареста. Некоторые предложили ввести даже уголовное наказание. Это вызвало у многих вполне закономерную реакцию: а где границы? где критерии? За что именно будет наказываться человек? За публикацию дипфейка? А если это шутка, фильтр, реклама, а не злой умысел? Будут ли наказания различаться для подростка, эксперта, блогера, бизнесмена? Как отличить опасный deepfake от ироничного ролика?

Мы ведь пока не определили даже базовых категорий риска. Ни в тексте законопроекта, ни в публичном обсуждении нет чёткой системы: какие действия с ИИ считаются низкоопасными (например, мемы), какие — среднеопасными (манипуляции в рекламе), а какие — высокоопасными (вмешательство в выборы, подделка официальных заявлений, шантаж).

Если мы заранее не обозначим эту шкалу рисков, не пропишем градацию ответственности, есть опасность, что правоприменение будет работать по принципу “кому как повезёт”. Один получит предупреждение, другой — арест. Один — штраф, другой — уголовное дело. Причём не за то, что нанёс вред, а за то, что оказался под рукой.

И ещё один важный вопрос, о котором почти не говорили: почему мы начинаем с наказания? Почему логика сразу ведёт к конфискации, аресту, уголовной ответственности? А где система предупреждений, разъяснений, профилактики?

Если человек использует ИИ-изображение в TikTok, даже не зная, что это нарушает что-то — он сразу преступник? А если школьник сгенерировал ролик в приложении с фильтром — его уже нужно судить?

В мире, где технологии меняются быстрее законов, первыми должны быть обучение и просвещение, а не дубинка. Сначала объяснить: «вот так можно», «вот так — опасно», «если нарушишь — будет ответственность». А не наоборот: сделать закон непонятным, а потом ловить тех, кто не понял.

Даже в дорожном движении есть знаки, зебры, предупреждающие табло, а уже потом — штраф. Почему в сфере ИИ мы хотим сразу сажать, не дав человеку шанса понять, что он вообще нарушил?

@pulatov_kh

BY АйPulatov


Share with your friend now:
tgoop.com/pulatov_kh/3138

View MORE
Open in Telegram


Telegram News

Date: |

So far, more than a dozen different members have contributed to the group, posting voice notes of themselves screaming, yelling, groaning, and wailing in various pitches and rhythms. A new window will come up. Enter your channel name and bio. (See the character limits above.) Click “Create.” The channel also called on people to turn out for illegal assemblies and listed the things that participants should bring along with them, showing prior planning was in the works for riots. The messages also incited people to hurl toxic gas bombs at police and MTR stations, he added. How to Create a Private or Public Channel on Telegram? While the character limit is 255, try to fit into 200 characters. This way, users will be able to take in your text fast and efficiently. Reveal the essence of your channel and provide contact information. For example, you can add a bot name, link to your pricing plans, etc.
from us


Telegram АйPulatov
FROM American