ALEXEI_SAVVATEEV Telegram 2835
Вчера я приняла участие в конференции ИСП РАН, в сессии «Перспективы информационной безопасности в искусственном интеллекте», которую организовал консорциум исследований безопасности технологий ИИ.

Консорциум был создан в мае 2021 года ИСП РАН, НТЦ ЦК и Академией криптографии при участии Минцифры России. Позже к нему присоединилось ещё 28 федеральных учреждений, институтов и компаний, включая «ИнфоВотч».

Главная цель этого объединения - способствовать созданию и развитию технологий ИИ, которым можно было бы доверять.

Цель замечательная, правда, не очень понятно, как её достичь в случае генеративного ИИ, который сам генерит результат. Как решить задачу доверенности для изначально недоверенной технологии? Над этим сейчас ломают голову и учёные из институтов, и практики из компаний, занимающихся разработкой ИИ, а также специалисты по информационной безопасности.

Консорциум имеет 4 направления (рабочих группы):

1️⃣ разработка нормативной базы для госрегулирования в этой сфере
2️⃣ создание методической, научно-технической и лабораторной базы, позволяющей проводить исследовательские испытания ИИ-систем (тестирование ИИ-систем)
3️⃣ создание реестра доверенных отечественных технологий ИИ
4️⃣ безопасная разработка технологий ИИ

В целом, консорциум работает как некий здравый противовес огульной «ИИ-зации» и кампании по ускоренному внедрению ИИ везде, где надо и не надо. Наверняка вы читали новость о ещё большем ускорении внедрении ИИ везде.

Кстати, подобная истерия ИИ в нашей стране довольно забавна, учитывая, что на родине ИИ – в США - «пузырь искусственного интеллекта» уже начал сдуваться. Даже аналитическая компания Gartner в этом году написала, что пик хайпа генеративного ИИ уже пройден.

Возвращаясь к заседанию консорциума: у меня остались хорошие впечатления от сессии. Доклад по технологическим рискам делал Николай Ляпичев из АНО «Цифровая экономика». Я же взяла тему рисков искусственного интеллекта в социальной сфере. На выступлении я повторила свои основные тезисы о том, что нужны ограничения применения ИИ в сферах, которые напрямую касаются человека и его жизни:

1️⃣ в образовании - запрет на любую автоматизацию обучения и выработку индивидуальных образовательных траекторий с помощью ИИ
2️⃣ госуправлении - запрет автоматических штрафов и любых социальных рейтингов
3️⃣ законотворчестве - запрет на написание НПА и законопроектов, а также на их автоматическую проверку с помощью ИИ
4️⃣ судопроизводстве - запрет на генерацию судебных решений и исков с помощью ИИ и пр.

Для реализации прав граждан и требуемых для их защиты запретов необходим законопроект о безопасном использовании ИИ в социальной сфере. Такие законы есть в США, ЕС, Китае, Латинской Америке, Индии и даже в Узбекистане. Россия здесь пока отстаёт.

Сейчас рабочая группа Комитета Совета Федерации по конституционному законодательству и гос. строительству во главе с сенатором Кожиным, куда вхожу и я, занимается разработкой законопроекта о безопасном использовании ИИ в социальной сфере. И, надеюсь, что такой закон в России появится.

Тем более, что вчера на встрече с СПЧ Владимир Владимирович на просьбу моего мужа о разработке такого законопроекта кивнул утвердительно.

Так что мы работаем семейным подрядом над этой важной темой.
👍178🙏5234🤡8🔥4🤔2



tgoop.com/alexei_savvateev/2835
Create:
Last Update:

Вчера я приняла участие в конференции ИСП РАН, в сессии «Перспективы информационной безопасности в искусственном интеллекте», которую организовал консорциум исследований безопасности технологий ИИ.

Консорциум был создан в мае 2021 года ИСП РАН, НТЦ ЦК и Академией криптографии при участии Минцифры России. Позже к нему присоединилось ещё 28 федеральных учреждений, институтов и компаний, включая «ИнфоВотч».

Главная цель этого объединения - способствовать созданию и развитию технологий ИИ, которым можно было бы доверять.

Цель замечательная, правда, не очень понятно, как её достичь в случае генеративного ИИ, который сам генерит результат. Как решить задачу доверенности для изначально недоверенной технологии? Над этим сейчас ломают голову и учёные из институтов, и практики из компаний, занимающихся разработкой ИИ, а также специалисты по информационной безопасности.

Консорциум имеет 4 направления (рабочих группы):

1️⃣ разработка нормативной базы для госрегулирования в этой сфере
2️⃣ создание методической, научно-технической и лабораторной базы, позволяющей проводить исследовательские испытания ИИ-систем (тестирование ИИ-систем)
3️⃣ создание реестра доверенных отечественных технологий ИИ
4️⃣ безопасная разработка технологий ИИ

В целом, консорциум работает как некий здравый противовес огульной «ИИ-зации» и кампании по ускоренному внедрению ИИ везде, где надо и не надо. Наверняка вы читали новость о ещё большем ускорении внедрении ИИ везде.

Кстати, подобная истерия ИИ в нашей стране довольно забавна, учитывая, что на родине ИИ – в США - «пузырь искусственного интеллекта» уже начал сдуваться. Даже аналитическая компания Gartner в этом году написала, что пик хайпа генеративного ИИ уже пройден.

Возвращаясь к заседанию консорциума: у меня остались хорошие впечатления от сессии. Доклад по технологическим рискам делал Николай Ляпичев из АНО «Цифровая экономика». Я же взяла тему рисков искусственного интеллекта в социальной сфере. На выступлении я повторила свои основные тезисы о том, что нужны ограничения применения ИИ в сферах, которые напрямую касаются человека и его жизни:

1️⃣ в образовании - запрет на любую автоматизацию обучения и выработку индивидуальных образовательных траекторий с помощью ИИ
2️⃣ госуправлении - запрет автоматических штрафов и любых социальных рейтингов
3️⃣ законотворчестве - запрет на написание НПА и законопроектов, а также на их автоматическую проверку с помощью ИИ
4️⃣ судопроизводстве - запрет на генерацию судебных решений и исков с помощью ИИ и пр.

Для реализации прав граждан и требуемых для их защиты запретов необходим законопроект о безопасном использовании ИИ в социальной сфере. Такие законы есть в США, ЕС, Китае, Латинской Америке, Индии и даже в Узбекистане. Россия здесь пока отстаёт.

Сейчас рабочая группа Комитета Совета Федерации по конституционному законодательству и гос. строительству во главе с сенатором Кожиным, куда вхожу и я, занимается разработкой законопроекта о безопасном использовании ИИ в социальной сфере. И, надеюсь, что такой закон в России появится.

Тем более, что вчера на встрече с СПЧ Владимир Владимирович на просьбу моего мужа о разработке такого законопроекта кивнул утвердительно.

Так что мы работаем семейным подрядом над этой важной темой.

BY Алексей Савватеев и Родная Школа


Share with your friend now:
tgoop.com/alexei_savvateev/2835

View MORE
Open in Telegram


Telegram News

Date: |

Activate up to 20 bots Write your hashtags in the language of your target audience. How to Create a Private or Public Channel on Telegram? The public channel had more than 109,000 subscribers, Judge Hui said. Ng had the power to remove or amend the messages in the channel, but he “allowed them to exist.” The SUCK Channel on Telegram, with a message saying some content has been removed by the police. Photo: Telegram screenshot.
from us


Telegram Алексей Савватеев и Родная Школа
FROM American