CISOHACK Telegram 3208
ФСТЭК готовит новый стандарт для защиты искусственного интеллекта от специфических угроз и ошибок обучения

Федеральная служба по техническому и экспортному контролю (ФСТЭК) работает над созданием национального стандарта по безопасной разработке систем искусственного интеллекта. Новый документ должен восполнить пробелы в действующих нормах и учесть риски, характерные именно для технологий машинного обучения. Об этом заявил первый заместитель главы ведомства Виталий Лютиков на форуме BIS‑2025.

Как уточнил Виталий Лютиков, речь идёт о регламенте, который дополнит существующие методики по защите программного обеспечения и сосредоточится на угрозах, присущих ИИ: уязвимости моделей, сложность валидации, воздействие на обучающие выборки, эксплуатация ложных выводов. Ожидается, что к концу 2025 года проект будет представлен экспертному сообществу для публичного обсуждения.

Виталий Лютиков подчеркнул, что в отличие от обычных программ, код которых поддаётся проверке, ИИ‑алгоритмы часто функционируют как «чёрный ящик», а значит, защищать нужно не только финальный результат, но и процесс обучения, датасеты, цепочки поставки компонентов, а также инфраструктуру хранения и исполнения.

Среди наиболее опасных угроз эксперты называют так называемое «отравление» обучающих выборок, инъекции через промт-запросы, а также манипуляции с «галлюцинациями» модели — ситуациями, когда ИИ генерирует логически правдоподобные, но фактически ложные ответы. Такие риски нельзя нивелировать классическими методами защиты, что делает ситуацию ещё более уязвимой.

В мире уже существует свыше 150 отраслевых и региональных стандартов по безопасному использованию ИИ, но, по словам российских специалистов, документ, разрабатываемый ФСТЭК, должен иметь универсальный характер и подходить для широкого спектра применений — от госсектора до частного бизнеса.

Станислав Ежов из «Группы Астра» отметил, что инициатива ФСТЭК является важным шагом для российской цифровой экосистемы. По его словам, ИИ имеет уникальные уязвимости, требующие новых методов защиты, а будущий стандарт должен охватить полный жизненный цикл систем и станет обязательным для госсектора и критической инфраструктуры.

Алексей Романов из IT TASK заявил, что без единых критериев проверки компании рискуют использовать разные подходы к защите моделей. Он подчеркнул, что ценность будущего стандарта заключается в формировании единого языка требований и включении понятных критериев в договоры с подрядчиками.

Илья Народицкий из Navicon считает, что пока речь идёт скорее об анонсе, чем о реальном инструменте, и стандарт может превратиться в формальность. Он подчеркнул, что без работающих пилотов и прозрачных метрик регулятор рискует создать дополнительную бюрократию вместо реального повышения уровня безопасности.

Алина Ледяева из StopPhish сказала, что национальный стандарт поможет укрепить цифровую среду и снизить риски ошибок и утечек. Она отметила, что требования к безопасности должны закладываться уже на этапе разработки и охватывать хранение информации и защиту от передачи конфиденциальных данных ИИ.

Александр Скакунов из VolgaBlob предположил, что развитие регулирования в России может пойти либо по модели Китая и США, либо по пути Европы и Японии. По его мнению, выбор подхода станет стратегически значимым для государства, и на него могут повлиять крупные технологические компании.

Татьяна Буторина из «Газинформсервиса» заявила, что развитие ИИ обгоняет законодательные меры во всём мире, и Россия не является исключением. Она отметила, что российский стандарт может стать универсальным документом, учитывающим специфику технологий ИИ и критичность их применения в государстве и экономике.

🔗 Другие новости про хакеров, мошенников, утечки и ИБ можно прочитать здесь.



tgoop.com/cisohack/3208
Create:
Last Update:

ФСТЭК готовит новый стандарт для защиты искусственного интеллекта от специфических угроз и ошибок обучения

Федеральная служба по техническому и экспортному контролю (ФСТЭК) работает над созданием национального стандарта по безопасной разработке систем искусственного интеллекта. Новый документ должен восполнить пробелы в действующих нормах и учесть риски, характерные именно для технологий машинного обучения. Об этом заявил первый заместитель главы ведомства Виталий Лютиков на форуме BIS‑2025.

Как уточнил Виталий Лютиков, речь идёт о регламенте, который дополнит существующие методики по защите программного обеспечения и сосредоточится на угрозах, присущих ИИ: уязвимости моделей, сложность валидации, воздействие на обучающие выборки, эксплуатация ложных выводов. Ожидается, что к концу 2025 года проект будет представлен экспертному сообществу для публичного обсуждения.

Виталий Лютиков подчеркнул, что в отличие от обычных программ, код которых поддаётся проверке, ИИ‑алгоритмы часто функционируют как «чёрный ящик», а значит, защищать нужно не только финальный результат, но и процесс обучения, датасеты, цепочки поставки компонентов, а также инфраструктуру хранения и исполнения.

Среди наиболее опасных угроз эксперты называют так называемое «отравление» обучающих выборок, инъекции через промт-запросы, а также манипуляции с «галлюцинациями» модели — ситуациями, когда ИИ генерирует логически правдоподобные, но фактически ложные ответы. Такие риски нельзя нивелировать классическими методами защиты, что делает ситуацию ещё более уязвимой.

В мире уже существует свыше 150 отраслевых и региональных стандартов по безопасному использованию ИИ, но, по словам российских специалистов, документ, разрабатываемый ФСТЭК, должен иметь универсальный характер и подходить для широкого спектра применений — от госсектора до частного бизнеса.

Станислав Ежов из «Группы Астра» отметил, что инициатива ФСТЭК является важным шагом для российской цифровой экосистемы. По его словам, ИИ имеет уникальные уязвимости, требующие новых методов защиты, а будущий стандарт должен охватить полный жизненный цикл систем и станет обязательным для госсектора и критической инфраструктуры.

Алексей Романов из IT TASK заявил, что без единых критериев проверки компании рискуют использовать разные подходы к защите моделей. Он подчеркнул, что ценность будущего стандарта заключается в формировании единого языка требований и включении понятных критериев в договоры с подрядчиками.

Илья Народицкий из Navicon считает, что пока речь идёт скорее об анонсе, чем о реальном инструменте, и стандарт может превратиться в формальность. Он подчеркнул, что без работающих пилотов и прозрачных метрик регулятор рискует создать дополнительную бюрократию вместо реального повышения уровня безопасности.

Алина Ледяева из StopPhish сказала, что национальный стандарт поможет укрепить цифровую среду и снизить риски ошибок и утечек. Она отметила, что требования к безопасности должны закладываться уже на этапе разработки и охватывать хранение информации и защиту от передачи конфиденциальных данных ИИ.

Александр Скакунов из VolgaBlob предположил, что развитие регулирования в России может пойти либо по модели Китая и США, либо по пути Европы и Японии. По его мнению, выбор подхода станет стратегически значимым для государства, и на него могут повлиять крупные технологические компании.

Татьяна Буторина из «Газинформсервиса» заявила, что развитие ИИ обгоняет законодательные меры во всём мире, и Россия не является исключением. Она отметила, что российский стандарт может стать универсальным документом, учитывающим специфику технологий ИИ и критичность их применения в государстве и экономике.

🔗 Другие новости про хакеров, мошенников, утечки и ИБ можно прочитать здесь.

BY Про ИБ: канал собирает хаки, уязвимости, и бреши в информационной безопасности




Share with your friend now:
tgoop.com/cisohack/3208

View MORE
Open in Telegram


Telegram News

Date: |

In 2018, Telegram’s audience reached 200 million people, with 500,000 new users joining the messenger every day. It was launched for iOS on 14 August 2013 and Android on 20 October 2013. How to Create a Private or Public Channel on Telegram? Just at this time, Bitcoin and the broader crypto market have dropped to new 2022 lows. The Bitcoin price has tanked 10 percent dropping to $20,000. On the other hand, the altcoin space is witnessing even more brutal correction. Bitcoin has dropped nearly 60 percent year-to-date and more than 70 percent since its all-time high in November 2021. Concise Each account can create up to 10 public channels
from us


Telegram Про ИБ: канал собирает хаки, уязвимости, и бреши в информационной безопасности
FROM American