tgoop.com/llmsecurity/214
Last Update:
Буквально вчера в Вене началась ICML – одна из самых больших и престижных конференций по машинному обучению. В этом году на ней совершенно доминируют статьи про большие языковые модели, а потому и статьям про безопасность нашлось место. Среди них – и нашумевшая статья Николаса Карлини, который украл из моделей OpenAI целый слой (включая gpt-3.5-turbo, про размерность скрытых слоев которого ему сказали помалкивать), и дискуссионная статья про необходимость организовать процесс поиска уязвимостей в коммерческих LLM по аналогии с bug bounty в традиционном софте, и много всего другого. Кроме того, будет и несколько воркшопов: посвященный непосредственно нашей теме Next Generation of AI Safety и несколько смежных, например, о доверенных мультимодальных и агентных системах и о взаимодействии общества и сложных алгоритмических систем.
Поехать в этом году не получилось, но что-нибудь из статей обязательно почитаем