tgoop.com/MathModels/1291
Last Update:
Первые жертвы LLM
Источник новости — это официальный медицинский кейс опубликованный в журнале Annals of Internal Medicine, и подробно описанный в статье на сайте Popular Science.
🧠 Краткое содержание инцидента
60-летний мужчина из США решил исключить поваренную соль (NaCl) из рациона.
Получив совет от ChatGPT, он заменил её на бромид натрия (NaBr) — вещество, используемое для дезинфекции бассейнов.
Через 3 месяца у него развился бромизм — токсическое поражение нервной системы:
Паранойя
Галлюцинации
Отказ от воды
Попытка побега из больницы
Его госпитализировали и держали на принудительном психиатрическом лечении 3 недели.
Врачи выяснили, что причиной стал совет ИИ, и опубликовали случай как предупреждение о рисках неконтролируемого использования AI в медицине.
BY Mathematical Models of the Real World

Share with your friend now:
tgoop.com/MathModels/1291