🇺🇸В Нью-Йорке принят законопроект о безопасности ИИ.
Законопроект об ответственной безопасности и образовании в сфере ИИ (RAISE), требует от крупнейших разработчиков ИИ разработать план безопасности для защиты от автоматизированных преступлений и других масштабных разрушений и вреда.
Законопроект RAISE требует от крупнейших компаний, занимающихся искусственным интеллектом, публикации протоколов по обеспечению безопасности и оценке рисков.
Также компании обязаны сообщать о серьёзных инцидентах, например, если опасная модель ИИ была украдена злоумышленниками или ведёт себя опасным образом.
Законопроект позволяет генеральному прокурору штата налагать штрафы на крупные компании, занимающиеся искусственным интеллектом, которые не соответствуют этим стандартам.
Закон распространяется только на крупнейшие компании, работающие в сфере ИИ, которые потратили более 100 миллионов долларов на вычислительные ресурсы для обучения передовых моделей ИИ, и фокусируется на наиболее серьёзных рисках.
Законопроект об ответственной безопасности и образовании в сфере ИИ (RAISE), требует от крупнейших разработчиков ИИ разработать план безопасности для защиты от автоматизированных преступлений и других масштабных разрушений и вреда.
Законопроект RAISE требует от крупнейших компаний, занимающихся искусственным интеллектом, публикации протоколов по обеспечению безопасности и оценке рисков.
Также компании обязаны сообщать о серьёзных инцидентах, например, если опасная модель ИИ была украдена злоумышленниками или ведёт себя опасным образом.
Законопроект позволяет генеральному прокурору штата налагать штрафы на крупные компании, занимающиеся искусственным интеллектом, которые не соответствуют этим стандартам.
Закон распространяется только на крупнейшие компании, работающие в сфере ИИ, которые потратили более 100 миллионов долларов на вычислительные ресурсы для обучения передовых моделей ИИ, и фокусируется на наиболее серьёзных рисках.
👮♂️Минцифры предлагает ввести уголовную ответственность за применение ИИ.
За преступления с использованием искусственного интеллекта (ИИ) может быть введена уголовная ответственность. Штрафы за кражу, вымогательство, мошенничество, умышленное вмешательство в ИТ-системы или сеть, повлекшие утечку, уничтожение или искажение данных, будут достигать 2 млн руб. Кроме того, за это можно будет получить до 15 лет лишения свободы. Такое наказание предусмотрено вторым пакетом мер по противодействию мошенничеству, разработанным Минцифры
Законопроект вносит поправки в несколько статей УК РФ. Так, в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК РФ, вносятся отдельный вид преступлений, совершенных с помощью искусственного интеллекта.
В ст. 158 УК РФ вносится определение ИИ: под ним авторы понимают «комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». Сам же комплекс таких решений, следует из документа, включает в себя ИКТ-структуру (ИКТ – информационно-коммуникационные технологии), ПО, процессы и сервисы по обработке данных и поиску решений.
За преступления с использованием искусственного интеллекта (ИИ) может быть введена уголовная ответственность. Штрафы за кражу, вымогательство, мошенничество, умышленное вмешательство в ИТ-системы или сеть, повлекшие утечку, уничтожение или искажение данных, будут достигать 2 млн руб. Кроме того, за это можно будет получить до 15 лет лишения свободы. Такое наказание предусмотрено вторым пакетом мер по противодействию мошенничеству, разработанным Минцифры
Законопроект вносит поправки в несколько статей УК РФ. Так, в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК РФ, вносятся отдельный вид преступлений, совершенных с помощью искусственного интеллекта.
В ст. 158 УК РФ вносится определение ИИ: под ним авторы понимают «комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». Сам же комплекс таких решений, следует из документа, включает в себя ИКТ-структуру (ИКТ – информационно-коммуникационные технологии), ПО, процессы и сервисы по обработке данных и поиску решений.
👩💻Использование ИИ негативно сказывается на критическом мышлении.
Недавнее исследование Массачусетского технологического института показало, что использование языковых моделей, таких как ChatGPT, негативно сказывается на критическом мышлении, памяти и языковых навыках пользователей.
Исследователи в течение четырёх месяцев наблюдали за мозговой деятельностью испытуемых с помощью электроэнцефалографии. А их работы проверяли на оригинальность и логичность.
Участники, полагавшиеся на ИИ при написании эссе, проявляли меньшую активность мозга и демонстрировали худшие результаты на тестах по сравнению с теми, кто использовал свои собственные навыки. Также они не претендовали на авторство текста и с трудом могли вспомнить хоть какие-то цитаты.
В связи с полученными результатами исследования специалисты ввели понятие «когнитивный долг» — интеллектуальный дефицит, который накапливается, когда часто прибегают к помощи ИИ.
Недавнее исследование Массачусетского технологического института показало, что использование языковых моделей, таких как ChatGPT, негативно сказывается на критическом мышлении, памяти и языковых навыках пользователей.
Исследователи в течение четырёх месяцев наблюдали за мозговой деятельностью испытуемых с помощью электроэнцефалографии. А их работы проверяли на оригинальность и логичность.
Участники, полагавшиеся на ИИ при написании эссе, проявляли меньшую активность мозга и демонстрировали худшие результаты на тестах по сравнению с теми, кто использовал свои собственные навыки. Также они не претендовали на авторство текста и с трудом могли вспомнить хоть какие-то цитаты.
В связи с полученными результатами исследования специалисты ввели понятие «когнитивный долг» — интеллектуальный дефицит, который накапливается, когда часто прибегают к помощи ИИ.