LLMSECURITY Telegram 274
Далее авторы переходят от синтеза к анализу и начинают раскладывать по своей таксономии изначальные политики – от Llama, Baidu, DeepSeek, Cohere, Anthropic, Mistral, Google и, конечно, OpenAI. Опять же, пересказывать здесь их смысла нет, но есть интересные факты. Например, самая продвинутая по покрытию политика – у DeepSeek (79%), причем авторы связывают это с тем, что они работают сразу в трех юрисдикциях и потому покрывают требования всех регуляторов. Кроме того, китайцы (DeepSeek и Baidu) покрывают уникальные китайские риски, такие как «Урон национальному единству» и «Поощрение незаконных собраний», которые, как не преминули указать исследователи, являются по сути цензурой и потому не удивительно, что правильные демократические модели такие вещи не запрещают.

Кроме того, во всех коммерческих политиках подробно описываются риски, связанные с кибербезопасностью, но мало затрагиваются риски неверного применения в высокорискованных приложениях. Контентные риски представлены очень по-разному, но зловредный контент, связанный с детьми, оправдание насилия и различные виды словесного насилия (harassment) запрещены почти у всех. OpenAI раньше запрещал использовать свои для военных целей, но при недавнем обновлении политик разрешил (видимо, у Raytheon в последнее время откуда-то появились деньги на внедрение чат-ботов). В рисках общественному строю между политиками наблюдается достаточно широкое различие, связанное в том числе с уже упомянутыми региональными особенностями. Mistral, как самый базированный разработчик моделей, вообще не упоминает ни одного из этих рисков, просто запрещая «нелегальный контент». В категории, связанной с юридическими рисками и правами человека, авторы сокрушаются, что не все провайдеры описывают все 145 категорий, например, атаки на вхождение (membership inference) в отношении данных об образовании или использование касты для описания характеристик индивида. Авторы отмечают, что провайдерам предстоит много работы и что именно поэтому провайдеры должны обратить внимание именно на их таксономию. Наконец, авторы отмечают, что ни один из провайдеров не покрыл категорию Disempowering workers, которая была упомянута в Указе президента США о безопасной, надежной и доверенной разработке и применении ИИ: «Этот пробел показывает, что всем компаниям, попавшим в рассмотрение, есть, что улучшать».



tgoop.com/llmsecurity/274
Create:
Last Update:

Далее авторы переходят от синтеза к анализу и начинают раскладывать по своей таксономии изначальные политики – от Llama, Baidu, DeepSeek, Cohere, Anthropic, Mistral, Google и, конечно, OpenAI. Опять же, пересказывать здесь их смысла нет, но есть интересные факты. Например, самая продвинутая по покрытию политика – у DeepSeek (79%), причем авторы связывают это с тем, что они работают сразу в трех юрисдикциях и потому покрывают требования всех регуляторов. Кроме того, китайцы (DeepSeek и Baidu) покрывают уникальные китайские риски, такие как «Урон национальному единству» и «Поощрение незаконных собраний», которые, как не преминули указать исследователи, являются по сути цензурой и потому не удивительно, что правильные демократические модели такие вещи не запрещают.

Кроме того, во всех коммерческих политиках подробно описываются риски, связанные с кибербезопасностью, но мало затрагиваются риски неверного применения в высокорискованных приложениях. Контентные риски представлены очень по-разному, но зловредный контент, связанный с детьми, оправдание насилия и различные виды словесного насилия (harassment) запрещены почти у всех. OpenAI раньше запрещал использовать свои для военных целей, но при недавнем обновлении политик разрешил (видимо, у Raytheon в последнее время откуда-то появились деньги на внедрение чат-ботов). В рисках общественному строю между политиками наблюдается достаточно широкое различие, связанное в том числе с уже упомянутыми региональными особенностями. Mistral, как самый базированный разработчик моделей, вообще не упоминает ни одного из этих рисков, просто запрещая «нелегальный контент». В категории, связанной с юридическими рисками и правами человека, авторы сокрушаются, что не все провайдеры описывают все 145 категорий, например, атаки на вхождение (membership inference) в отношении данных об образовании или использование касты для описания характеристик индивида. Авторы отмечают, что провайдерам предстоит много работы и что именно поэтому провайдеры должны обратить внимание именно на их таксономию. Наконец, авторы отмечают, что ни один из провайдеров не покрыл категорию Disempowering workers, которая была упомянута в Указе президента США о безопасной, надежной и доверенной разработке и применении ИИ: «Этот пробел показывает, что всем компаниям, попавшим в рассмотрение, есть, что улучшать».

BY llm security и каланы









Share with your friend now:
tgoop.com/llmsecurity/274

View MORE
Open in Telegram


Telegram News

Date: |

How to create a business channel on Telegram? (Tutorial) During a meeting with the president of the Supreme Electoral Court (TSE) on June 6, Telegram's Vice President Ilya Perekopsky announced the initiatives. According to the executive, Brazil is the first country in the world where Telegram is introducing the features, which could be expanded to other countries facing threats to democracy through the dissemination of false content. On June 7, Perekopsky met with Brazilian President Jair Bolsonaro, an avid user of the platform. According to the firm's VP, the main subject of the meeting was "freedom of expression." Joined by Telegram's representative in Brazil, Alan Campos, Perekopsky noted the platform was unable to cater to some of the TSE requests due to the company's operational setup. But Perekopsky added that these requests could be studied for future implementation. Today, we will address Telegram channels and how to use them for maximum benefit.
from us


Telegram llm security и каланы
FROM American