PROAUDIT_AND_CONTROL Telegram 1550
ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.

Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.

Основной определяющий фактор - цель использования: зачем и где его применяют.

Примеры зависимости рисков от цели:
⚙️Оптимизация процессов и затрат за счет ИИ: может повлечь риски ухудшения качества, скрытые ошибки, зависимость от "чёрного ящика".

👨‍💻Разработка новых продуктов или написание кода с ИИ может привести к уязвимостям/ инцидентам/ репутационным/правовым последствиям.

❤️Внедрение ИИ в маркетинг, HR и другие функции, ориентированные на людей, могут влиять на этические риски, нарушения прав/законодательства о персональных данных.

Кроме цели на профиль рисков влияют и другие параметры:
контекст использования (внешний или внутренний, публичный/скрытый);
уровень зрелости.

Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.

📝Что стоит учесть/ зафиксировать компаниям:
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.

*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).

Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?

Чуть позже добавлю ещё одну мысль, если тема интересна.

#ИИ #управлениерисками
#ИИ_риски
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏3🔥2



tgoop.com/proaudit_and_control/1550
Create:
Last Update:

ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.

Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.

Основной определяющий фактор - цель использования: зачем и где его применяют.

Примеры зависимости рисков от цели:
⚙️Оптимизация процессов и затрат за счет ИИ: может повлечь риски ухудшения качества, скрытые ошибки, зависимость от "чёрного ящика".

👨‍💻Разработка новых продуктов или написание кода с ИИ может привести к уязвимостям/ инцидентам/ репутационным/правовым последствиям.

❤️Внедрение ИИ в маркетинг, HR и другие функции, ориентированные на людей, могут влиять на этические риски, нарушения прав/законодательства о персональных данных.

Кроме цели на профиль рисков влияют и другие параметры:
контекст использования (внешний или внутренний, публичный/скрытый);
уровень зрелости.

Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.

📝Что стоит учесть/ зафиксировать компаниям:
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.

*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).

Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?

Чуть позже добавлю ещё одну мысль, если тема интересна.

#ИИ #управлениерисками
#ИИ_риски

BY Про аудит, риски, контроли


Share with your friend now:
tgoop.com/proaudit_and_control/1550

View MORE
Open in Telegram


Telegram News

Date: |

Judge Hui described Ng as inciting others to “commit a massacre” with three posts teaching people to make “toxic chlorine gas bombs,” target police stations, police quarters and the city’s metro stations. This offence was “rather serious,” the court said. SUCK Channel Telegram To view your bio, click the Menu icon and select “View channel info.” It’s yet another bloodbath on Satoshi Street. As of press time, Bitcoin (BTC) and the broader cryptocurrency market have corrected another 10 percent amid a massive sell-off. Ethereum (EHT) is down a staggering 15 percent moving close to $1,000, down more than 42 percent on the weekly chart. Users are more open to new information on workdays rather than weekends.
from us


Telegram Про аудит, риски, контроли
FROM American