Warning: mkdir(): No space left on device in /var/www/tgoop/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/best_in_development/--): Failed to open stream: No such file or directory in /var/www/tgoop/post.php on line 50
ИИ и роботы в стройке@best_in_development P.1900
BEST_IN_DEVELOPMENT Telegram 1900
ЦБ_Кодекс_этике_в_сфере_разработки_и_применения_искусственного_интеллекта.pdf
478.7 KB
Центробанк опубликовал Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. Документ рекомендует организациям придерживаться пяти ключевых принципов:

⚫️Человекоцентричность: клиент всегда может выбрать, хочет ли он взаимодействовать с ИИ, и пересмотреть решение, принятое машиной.
⚫️Справедливость: никакой дискриминации и только обоснованное использование личных данных.
⚫️Прозрачность: клиентам сообщают, где применяется ИИ, и маркируют контент, созданный генеративными моделями.
⚫️Безопасность и надежность: контроль качества, защита данных, непрерывность работы.
⚫️Ответственное управление рисками: системный подход к выявлению и минимизации рисков ИИ.

Из интересного:

📎Финансовым компаниям рекомендовано убирать из обучающих выборок данные с дискриминационными факторами — такими как: национальность, язык и раса, принадлежность к политическим партиям и общественным объединениям; вероисповедание и отношение к религии. И настраивать модели так, чтобы такие факторы не учитывались при принятии решений.

📎Очевидность применения ИИ. Пункт 4.2 Кодекса рекомендует информировать клиентов о применении ИИ, если это неочевидно. Но кто определяет степень очевидности? Для одного пользователя автоматический чат-бот — это ИИ, для другого — просто интерфейс. Мне кажется, с юридической точки зрения на практике единственный способ обеспечить прозрачность — всегда уведомлять: «здесь поработал ИИ».

📎А судьи кто? А вот пункт 4.4 Кодекса разрешает не маркировать ИИ-контент, если использование генеративной модели очевидно из обстоятельств или отсутствует риск причинения вреда клиентам.

Но что считать очевидным, и кто решает, есть ли риск вреда? В итоге уведомлять о применении ИИ (п. 4.2) нужно всегда, если это неочевидно, а вот маркировать, например, рекламу — не всегда, что оставляет компаниям простор для трактовок и потенциальных злоупотреблений. Непонятненько. Так что будем ждать пункт в Закон о рекламе по аналогии с БАДами, алкоголем и табаком.

📎Кодекс рекомендует устанавливать и регулярно — при разработке ИИ и его использовании — проверять показатели качества ИИ, проводить валидацию и мониторинг. Но насколько реально для большинства компаний внедрить полноценные процессы контроля, особенно для сложных или закупаемых извне моделей? Возникает вопрос о готовности рынка к такой глубокой самооценке.

Подробнее — в прикрепленном файле
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏7🔥5👌51



tgoop.com/best_in_development/1900
Create:
Last Update:

Центробанк опубликовал Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. Документ рекомендует организациям придерживаться пяти ключевых принципов:

⚫️Человекоцентричность: клиент всегда может выбрать, хочет ли он взаимодействовать с ИИ, и пересмотреть решение, принятое машиной.
⚫️Справедливость: никакой дискриминации и только обоснованное использование личных данных.
⚫️Прозрачность: клиентам сообщают, где применяется ИИ, и маркируют контент, созданный генеративными моделями.
⚫️Безопасность и надежность: контроль качества, защита данных, непрерывность работы.
⚫️Ответственное управление рисками: системный подход к выявлению и минимизации рисков ИИ.

Из интересного:

📎Финансовым компаниям рекомендовано убирать из обучающих выборок данные с дискриминационными факторами — такими как: национальность, язык и раса, принадлежность к политическим партиям и общественным объединениям; вероисповедание и отношение к религии. И настраивать модели так, чтобы такие факторы не учитывались при принятии решений.

📎Очевидность применения ИИ. Пункт 4.2 Кодекса рекомендует информировать клиентов о применении ИИ, если это неочевидно. Но кто определяет степень очевидности? Для одного пользователя автоматический чат-бот — это ИИ, для другого — просто интерфейс. Мне кажется, с юридической точки зрения на практике единственный способ обеспечить прозрачность — всегда уведомлять: «здесь поработал ИИ».

📎А судьи кто? А вот пункт 4.4 Кодекса разрешает не маркировать ИИ-контент, если использование генеративной модели очевидно из обстоятельств или отсутствует риск причинения вреда клиентам.

Но что считать очевидным, и кто решает, есть ли риск вреда? В итоге уведомлять о применении ИИ (п. 4.2) нужно всегда, если это неочевидно, а вот маркировать, например, рекламу — не всегда, что оставляет компаниям простор для трактовок и потенциальных злоупотреблений. Непонятненько. Так что будем ждать пункт в Закон о рекламе по аналогии с БАДами, алкоголем и табаком.

📎Кодекс рекомендует устанавливать и регулярно — при разработке ИИ и его использовании — проверять показатели качества ИИ, проводить валидацию и мониторинг. Но насколько реально для большинства компаний внедрить полноценные процессы контроля, особенно для сложных или закупаемых извне моделей? Возникает вопрос о готовности рынка к такой глубокой самооценке.

Подробнее — в прикрепленном файле

BY ИИ и роботы в стройке


Share with your friend now:
tgoop.com/best_in_development/1900

View MORE
Open in Telegram


Telegram News

Date: |

Select “New Channel” 2How to set up a Telegram channel? (A step-by-step tutorial) It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS): 5Telegram Channel avatar size/dimensions To delete a channel with over 1,000 subscribers, you need to contact user support
from us


Telegram ИИ и роботы в стройке
FROM American