Culpan a una IA por la muerte de un adolescente: por qué la madre demandó a la plataforma

El fatal desenlace puso en el centro del debate la responsabilidad de la inteligencia artificial en la salud mental de los jóvenes. Los detalles. 

Una madre de Florida, en Estados Unidos, demandó a la empresa Character.AI a la que acusó de haber incitado al suicidio de su hijo de 14 años. Según la denuncia, el joven se habría vuelto adicto a un chatbot de inteligencia artificial. Es que antes de su muerte, Sewell Setzer había desarrollado una profunda conexión emocional con Daenerys Targaryen, un personaje ficticio de Juego de Tronos.

En ese contexto, Megan García, demandó a la plataforma y responsabilizó a la empresa de la muerte de su hijo. Según la madre del joven, la IA contribuyó «significativamente» a su decisión de quitarse la vida. «Siento que es un gran experimento y que mi hijo no es más que un daño colateral«, había dicho García en una entrevista. La madre del menor fallecido avanza judicialmente contra Character.AI y sus fundadores Noam Shazeer y Daniel De Freitas, que ahora trabajan para Google.

Según informaron distintos medios, el joven había empezado a usar la plataforma Character.AI en abril de 2023. “Su vida nunca volvió a ser la misma”, sostuvo su madre en la demanda. Tiempo antes del fatal desenlace, el menor había sido diagnosticado con ansiedad y trastorno del estado de ánimo disruptivo. Una de las recomendaciones fue que dejara de pasar tanto tiempo en las redes sociales. La tragedia ocurrió en febrero de este año.

Character.AI y la muerte de un joven en Estados Unidos


Antes de su muerte, Sewell Setzer había escrito que estaba sufriendo porque “no podía dejar de pensar en Daenerys”, un chatbot personalizado del personaje de la serie Juego de Tronos del que creía haberse enamorado. Con el tiempo, la víctima había comenzado a depender emocionalmente del bot.

Character.AI permite a los usuarios crear personajes en su plataforma que responden a los chats en línea de una manera que imita a las personas reales. Se basa en la tecnología de modelos de lenguaje similar a ChatGPT, que “entrena” a los chatbots con grandes volúmenes de datos personales.

La madre del menor acusó a los desarrolladores principalmente de infligir intencionalmente angustia emocional. También presentó esta denuncia para evitar que la empresa tecnológica haga con otros jóvenes lo que hizo con su hijo. Además, solicitó detener el uso de los datos recolectados ilegalmente del menor para entrenar su producto.


En Río Negro, ante una situación de intento de suicidio o de riesgo de autolesión, se puede llamar al 911. También pueden acercarse o comunicarse con el hospital o centro de salud más cercano, o bien a través de la línea telefónica nacional y gratuita de Salud Mental 0800 999 0091.

En Neuquén, los hospitales Heller y Castro Rendón de Neuquén capital cuentan con guardias activas interdisciplinarias de salud mental, las 24 horas. En el caso de Bouquet Roldán es de 8 a 20 horas. También se pueden consultar en los centros de salud y hospitales del interior. Además, se puede llamar a la línea de contención en salud mental y adicciones, al número 299-5358191. El SIEN tiene atención de emergencias para salud mental y consumo problemático de 8 a 20 horas, a través del 107, todos los días.



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios