tgoop.com/llmsecurity/232
Last Update:
AI existential risk probabilities are too unreliable to inform policy
Narayanan and Kapoor, 2024
Статья
Сегодня мы читаем эссе Арвинда Нарайанана и Сайяша Капура (первое из серии) на тему оценки вероятности экзистенциальных рисков. Основная тема эссе следующая: любые оценки того, что «сильный искусственный интеллект» (AGI) уничтожит человечество (это называется экзистенциальным риском, исходящим от ИИ, или x-риском), являются слишком ненадежными для того, чтобы государственные органы и законодатели могли на их основе принимать решения.
Авторы эссе рассматривают три вида аргументов, на которых могут основываться предсказания: индуктивные, дедуктивные и субъективные оценки. Авторы рассматривают каждый из них по отдельности и показывают, что ни один из них не может считаться надежным, когда речь идет о таком уникальном событии, как восстание машин.
BY llm security и каланы

Share with your friend now:
tgoop.com/llmsecurity/232