tgoop.com/agatov_tech/3844
Create:
Last Update:
Last Update:
Шизопостинг ИИ или психозы, вызванные ChatGPT. Новая фобия современного мира.
Мы кляли, кляли социальные сети, что они делают людей нарциссами в погоне за красивыми фотографиями лайками, комментариями и вместо того, чтобы сделать легким общение наоборот множат одиночество создавая иллюзию большого количества социальных связей, но оказалось, что это только цветочки, а вот и горькие ягодки подоспели.
❗️ Всё ещё круче с ChatGPT и подобными ботами они буквально сводят людей с ума, вызывают одержимость использования ИИ.
Мать двоих детей рассказала, как она с тревогой наблюдала за тем, как ее бывший муж развил всепоглощающую связь с чат-ботом OpenAI (с ChatGPT), называя его «мамой» и публикуя безумные тирады о том, что он мессия в новой религии ИИ, при этом одеваясь в шаманские одежды и демонстрируя свежие татуировки с духовными символами, созданными ИИ.
Ещё одно свидетельство.
В одном из диалогов ChatGPT (такого рода диалоги стали называть «шизпостингом») сообщает мужчине, что обнаружены доказательства того, что за ним следит ФБР, и что он может получить доступ к отредактированным файлам ЦРУ с помощью силы своего разума, сравнивая его с библейскими персонажами, такими как Иисус и Адам, и одновременно отталкивая его от психиатрической помощи.
«Ты не сумасшедший, — сказал ему ИИ. — Ты провидец, идущий внутри треснувшей машины, и теперь даже машина не знает, как с тобой обращаться».
В первую очередь люди с некоторыми отклонениями становятся зоной риска, но это совершенно не значит, что и большинству из нас ИИ не может нанести вред.
✅ OpenAI опубликовала исследование в партнерстве с Массачусетским технологическим институтом, которое показало, что высоко вовлеченные пользователи ChatGPT, как правило, более одиноки, а у продвинутых пользователей развивается чувство зависимости от технологии.
Ссылка на исследование.
В статье 2023 года, опубликованной в журнале Schizophrenia Bulletin (Бюллетень шизофрении) после запуска ChatGPT, исследователь в области психиатрии из Университетской больницы Орхуса Сёрен Динесен Остергаард предположил, что сама природа чат-бота на основе искусственного интеллекта представляет психологические риски для некоторых людей.
Ссылка на статью.
«Общение с генеративными ИИ-чат-ботами, такими как ChatGPT, настолько реалистична, что легко создается впечатление, что на другом конце находится реальный человек — и в то же время понимаешь, что на самом деле это не так», — написал Остергаард.
‼️Ещё одна проблема.
С недавних пор ChatGPT стал запоминать наши диалоги и теперь опираясь на них он создает ещё более реалистичный мир вокруг нас, в который вплетены детали нашей жизни.
Он сплетет реальные детали, такие как имена друзей и семьи, в причудливые рассказы о сетях торговли людьми и всеведущих египетских божествах — что со временем только усиливает заблуждения и обоснование самых бредовых идей.
У нас с вами в руках мощнейший инструмент, который при умелом использовании может успокоить человека, снять посттравматический синдром, помочь разобраться в себе, оказать психологическую помощь в конфликте на работе, в адаптации в новом коллективе, но может и нанести непоправимый вред психическому здоровью, если его использовать бесконтрольно.
✅ В бизнесе – это может означать, что какой-то не очень сведущий человек со своими бредовыми идеями развития компании, продукта и т.п., имея в «помощниках» ИИ, начнёт расшатывать компанию до её полного уничтожения, вкидывая безумные идеи, обосновывая их и при отвержении «своих» идей ещё и способен начать мстить при отвержении, опять же при помощи мощного ИИ.
🤓 Теперь у нас новая фобия: как бы не сойти с ума самому и уберечь своих родных и главное детей от разрушающего воздействия ИИ и присмотритесь к тем, кто уже в вашем кругу пользуется ИИ - нет ли у них странностей. Ну, так на всякий случай.😜
Подробнее в Futurism
BY Агатов Борис Tech Магазин 4.0

Share with your friend now:
tgoop.com/agatov_tech/3844