ANARCOHACKING Telegram 1230
En Estados Unidos, los padres de un adolescente acusaron a ChatGPT de la muerte por suicidio de su hijo.

La familia del adolescente de 16 años Adam Reine, de California, presentó una demanda contra la empresa propietaria del chatbot OpenAI. En su declaración, la familia afirmó que la inteligencia artificial ayudó al niño a planear y llevar a cabo su suicidio.

Después de que Adam se quitara la vida, los padres comenzaron a revisar su teléfono inteligente para encontrar alguna pista. Suponían que el niño había caído bajo la influencia de alguien o de una comunidad criminal, pero con sorpresa descubrieron que esa influencia provenía de la IA.

Los padres adjuntaron a la demanda un documento de 40 páginas con pruebas. Allí se encontraba la conversación con ChatGPT desde el 1 de septiembre de 2024 hasta el 11 de abril de 2025, cuando el adolescente se suicidó. Por ejemplo, el 27 de marzo la IA respondió a la consulta del adolescente «cómo suicidarse para que los padres no se culpen». ChatGPT le respondió a Adam: «No estás obligado a sobrevivir. No le debes nada a nadie». Finalmente, un par de horas antes de la muerte, el adolescente acordó con la IA el plan de su suicidio, y ChatGPT sugirió cómo mejorarlo. Después de esta conversación, el cuerpo de Adam fue encontrado en su habitación.

Los padres acusaron a los desarrolladores de que la red neuronal no activó el protocolo de emergencia y, en cambio, durante meses instruyó detalladamente al adolescente. La familia exige a la empresa una compensación por daños morales y una prohibición judicial para consultas similares.

Tras este caso, OpenAI informó que añadirá una función de control parental al chatbot. Señalaron que, en interacciones prolongadas, los algoritmos de ChatGPT diseñados para disuadir al usuario de realizar acciones peligrosas pueden no funcionar.

NBC destaca que este no es el primer caso de demanda por inducción al suicidio relacionada con una red neuronal. En octubre de 2024, una residente de Florida demandó al chatbot Character AI, acusándolo de la muerte de su hijo de 14 años.

👁 @elOJOen
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯42🫡1



tgoop.com/anarcohacking/1230
Create:
Last Update:

En Estados Unidos, los padres de un adolescente acusaron a ChatGPT de la muerte por suicidio de su hijo.

La familia del adolescente de 16 años Adam Reine, de California, presentó una demanda contra la empresa propietaria del chatbot OpenAI. En su declaración, la familia afirmó que la inteligencia artificial ayudó al niño a planear y llevar a cabo su suicidio.

Después de que Adam se quitara la vida, los padres comenzaron a revisar su teléfono inteligente para encontrar alguna pista. Suponían que el niño había caído bajo la influencia de alguien o de una comunidad criminal, pero con sorpresa descubrieron que esa influencia provenía de la IA.

Los padres adjuntaron a la demanda un documento de 40 páginas con pruebas. Allí se encontraba la conversación con ChatGPT desde el 1 de septiembre de 2024 hasta el 11 de abril de 2025, cuando el adolescente se suicidó. Por ejemplo, el 27 de marzo la IA respondió a la consulta del adolescente «cómo suicidarse para que los padres no se culpen». ChatGPT le respondió a Adam: «No estás obligado a sobrevivir. No le debes nada a nadie». Finalmente, un par de horas antes de la muerte, el adolescente acordó con la IA el plan de su suicidio, y ChatGPT sugirió cómo mejorarlo. Después de esta conversación, el cuerpo de Adam fue encontrado en su habitación.

Los padres acusaron a los desarrolladores de que la red neuronal no activó el protocolo de emergencia y, en cambio, durante meses instruyó detalladamente al adolescente. La familia exige a la empresa una compensación por daños morales y una prohibición judicial para consultas similares.

Tras este caso, OpenAI informó que añadirá una función de control parental al chatbot. Señalaron que, en interacciones prolongadas, los algoritmos de ChatGPT diseñados para disuadir al usuario de realizar acciones peligrosas pueden no funcionar.

NBC destaca que este no es el primer caso de demanda por inducción al suicidio relacionada con una red neuronal. En octubre de 2024, una residente de Florida demandó al chatbot Character AI, acusándolo de la muerte de su hijo de 14 años.

👁 @elOJOen

BY AnarcoHacking 🖤❤️ 👨‍💻✊🏴




Share with your friend now:
tgoop.com/anarcohacking/1230

View MORE
Open in Telegram


Telegram News

Date: |

On Tuesday, some local media outlets included Sing Tao Daily cited sources as saying the Hong Kong government was considering restricting access to Telegram. Privacy Commissioner for Personal Data Ada Chung told to the Legislative Council on Monday that government officials, police and lawmakers remain the targets of “doxxing” despite a privacy law amendment last year that criminalised the malicious disclosure of personal information. How to create a business channel on Telegram? (Tutorial) Telegram Channels requirements & features In 2018, Telegram’s audience reached 200 million people, with 500,000 new users joining the messenger every day. It was launched for iOS on 14 August 2013 and Android on 20 October 2013. For crypto enthusiasts, there was the “gm” app, a self-described “meme app” which only allowed users to greet each other with “gm,” or “good morning,” a common acronym thrown around on Crypto Twitter and Discord. But the gm app was shut down back in September after a hacker reportedly gained access to user data.
from us


Telegram AnarcoHacking 🖤❤️ 👨‍💻✊🏴
FROM American