tgoop.com/proaudit_and_control/1550
Last Update:
ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.
Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.
Основной определяющий фактор - цель использования: зачем и где его применяют.
Примеры зависимости рисков от цели:
Кроме цели на профиль рисков влияют и другие параметры:
• контекст использования (внешний или внутренний, публичный/скрытый);
• уровень зрелости.
❓Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.
*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).
Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?
Чуть позже добавлю ещё одну мысль, если тема интересна.
#ИИ #управлениерисками
#ИИ_риски