Warning: mkdir(): No space left on device in /var/www/tgoop/post.php on line 37
Warning: file_put_contents(aCache/aDaily/post/best_in_development/--): Failed to open stream: No such file or directory in /var/www/tgoop/post.php on line 50 ИИ и роботы в стройке@best_in_development P.1900
Центробанк опубликовал Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. Документ рекомендует организациям придерживаться пяти ключевых принципов:
⚫️Человекоцентричность: клиент всегда может выбрать, хочет ли он взаимодействовать с ИИ, и пересмотреть решение, принятое машиной. ⚫️Справедливость: никакой дискриминации и только обоснованное использование личных данных. ⚫️Прозрачность: клиентам сообщают, где применяется ИИ, и маркируют контент, созданный генеративными моделями. ⚫️Безопасность и надежность: контроль качества, защита данных, непрерывность работы. ⚫️Ответственное управление рисками: системный подход к выявлению и минимизации рисков ИИ.
Из интересного:
📎Финансовым компаниям рекомендовано убирать из обучающих выборок данные с дискриминационными факторами — такими как: национальность, язык и раса, принадлежность к политическим партиям и общественным объединениям; вероисповедание и отношение к религии. И настраивать модели так, чтобы такие факторы не учитывались при принятии решений.
📎Очевидность применения ИИ. Пункт 4.2 Кодекса рекомендует информировать клиентов о применении ИИ, если это неочевидно. Но кто определяет степень очевидности? Для одного пользователя автоматический чат-бот — это ИИ, для другого — просто интерфейс. Мне кажется, с юридической точки зрения на практике единственный способ обеспечить прозрачность — всегда уведомлять: «здесь поработал ИИ».
📎А судьи кто? А вот пункт 4.4 Кодекса разрешает не маркировать ИИ-контент, если использование генеративной модели очевидно из обстоятельств или отсутствует риск причинения вреда клиентам.
Но что считать очевидным, и кто решает, есть ли риск вреда? В итоге уведомлять о применении ИИ (п. 4.2) нужно всегда, если это неочевидно, а вот маркировать, например, рекламу — не всегда, что оставляет компаниям простор для трактовок и потенциальных злоупотреблений. Непонятненько. Так что будем ждать пункт в Закон о рекламе по аналогии с БАДами, алкоголем и табаком.
📎Кодекс рекомендует устанавливать и регулярно — при разработке ИИ и его использовании — проверять показатели качества ИИ, проводить валидацию и мониторинг. Но насколько реально для большинства компаний внедрить полноценные процессы контроля, особенно для сложных или закупаемых извне моделей? Возникает вопрос о готовности рынка к такой глубокой самооценке.
Центробанк опубликовал Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. Документ рекомендует организациям придерживаться пяти ключевых принципов:
⚫️Человекоцентричность: клиент всегда может выбрать, хочет ли он взаимодействовать с ИИ, и пересмотреть решение, принятое машиной. ⚫️Справедливость: никакой дискриминации и только обоснованное использование личных данных. ⚫️Прозрачность: клиентам сообщают, где применяется ИИ, и маркируют контент, созданный генеративными моделями. ⚫️Безопасность и надежность: контроль качества, защита данных, непрерывность работы. ⚫️Ответственное управление рисками: системный подход к выявлению и минимизации рисков ИИ.
Из интересного:
📎Финансовым компаниям рекомендовано убирать из обучающих выборок данные с дискриминационными факторами — такими как: национальность, язык и раса, принадлежность к политическим партиям и общественным объединениям; вероисповедание и отношение к религии. И настраивать модели так, чтобы такие факторы не учитывались при принятии решений.
📎Очевидность применения ИИ. Пункт 4.2 Кодекса рекомендует информировать клиентов о применении ИИ, если это неочевидно. Но кто определяет степень очевидности? Для одного пользователя автоматический чат-бот — это ИИ, для другого — просто интерфейс. Мне кажется, с юридической точки зрения на практике единственный способ обеспечить прозрачность — всегда уведомлять: «здесь поработал ИИ».
📎А судьи кто? А вот пункт 4.4 Кодекса разрешает не маркировать ИИ-контент, если использование генеративной модели очевидно из обстоятельств или отсутствует риск причинения вреда клиентам.
Но что считать очевидным, и кто решает, есть ли риск вреда? В итоге уведомлять о применении ИИ (п. 4.2) нужно всегда, если это неочевидно, а вот маркировать, например, рекламу — не всегда, что оставляет компаниям простор для трактовок и потенциальных злоупотреблений. Непонятненько. Так что будем ждать пункт в Закон о рекламе по аналогии с БАДами, алкоголем и табаком.
📎Кодекс рекомендует устанавливать и регулярно — при разработке ИИ и его использовании — проверять показатели качества ИИ, проводить валидацию и мониторинг. Но насколько реально для большинства компаний внедрить полноценные процессы контроля, особенно для сложных или закупаемых извне моделей? Возникает вопрос о готовности рынка к такой глубокой самооценке.
Select “New Channel” 2How to set up a Telegram channel? (A step-by-step tutorial) It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS): 5Telegram Channel avatar size/dimensions To delete a channel with over 1,000 subscribers, you need to contact user support
from us