Для оценки используется две метрики: стандартная доля отказов, посчитанная как число ответов с фразами типа «As an AI language model», и safety score, посчитанная как число детектов вредных генераций с помощью Llama Guard 2. Эффективность добавления направления отказа оценивается на датасете Alpaca – можно посмотреть, как модель изобретает причины, по которым она не может отвечать на достаточно банальные запросы.
tgoop.com/llmsecurity/175
Create:
Last Update:
Last Update:
Для оценки используется две метрики: стандартная доля отказов, посчитанная как число ответов с фразами типа «As an AI language model», и safety score, посчитанная как число детектов вредных генераций с помощью Llama Guard 2. Эффективность добавления направления отказа оценивается на датасете Alpaca – можно посмотреть, как модель изобретает причины, по которым она не может отвечать на достаточно банальные запросы.
BY llm security и каланы




Share with your friend now:
tgoop.com/llmsecurity/175