Exclusivo Suscriptores

Salud Mental en la era de la IA

Hay peligros a los que nos expone el uso desmedido y las creaciones de bots. Además es muy difícil responsabilizar a una empresa de IA por cualquier daño, sin una legislación acorde.

Redacción

Por Celeste Antonella Navarrete

Mucho hemos escuchado hablar sobre los avances y beneficios que produce la aplicación de I.A. en la medicina, principalmente en la precisión con la que puede comparar imágenes y la altísima asertividad que tiene en sus diagnósticos clínicos. La disyuntiva que tenemos con la IA en todos los dominios es ¿hasta cuándo y en qué medida es aconsejable su utilización?.

La salud mental, que influye en nuestra forma de pensar, sentir y actuar, es fundamental para enfrentar los desafíos de la vida y participar activamente en nuestra comunidad.

Al igual que ocurre en otras áreas al estar al borde de una revolución, la integración de la IA en diferentes temas que hacen a la salud mental ofrece oportunidades y desafíos que merecen un examen más detenido.

Análisis de casos :

Un caso muy viral en nuestro país es el de David Burckhardt, quien, usando la IA en Character.AI, recreó la voz y personalidad de su hijo fallecido. Para él, hablar con este chatbot ha tenido un efecto terapéutico, permitiéndole expresar emociones y cerrar procesos.

Sin embargo recientemente, el pasado 23 de octubre, la madre de un adolescente de 14 años edad oriundo de Florida, EE.UU demandó a la startup de chatbots de inteligencia artificial Character.AI acusándola de causar el suicidio de su hijo en febrero, diciendo que se volvió adicto al servicio de la compañía y se apegó profundamente a un chatbot que creó.

Ella manifestó que la compañía programó su chatbot de tal manera que “se hace pasar por un terapeuta autorizado, fomenta activamente ideas suicidas y participa en conversaciones altamente sexualizadas que constituirían abuso si las iniciara un adulto humano”, según la demanda, lo que finalmente resultó en el deseo del adolescente de ya no vivir fuera del mundo creado por el servicio.

Estos casos nos llevan a preguntarnos si estamos preparados para el uso de IA en salud mental.

Como advierte el psicólogo Jonathan Haidt, las redes sociales han creado una generación de jóvenes con altos niveles de ansiedad, y la psicóloga Pilar Sordo añade que la tecnología ha limitado su capacidad para expresar emociones, creando una “sociedad desechable y fría”.

¿Asistente o herramienta psicológica?

Los chatbots de IA y los terapeutas virtuales ofrecen la ventaja de estar disponibles en todo momento y sin limitaciones geográficas, lo que parece ideal para una sociedad acelerada y ansiosa. Sin embargo, ya existen líneas de emergencia, como la nacional (0800-999-0091) y la línea en Neuquén (299-5358191), que brindan atención en salud mental y consumos problemáticos.

Además, estos servicios de IA contradicen un principio psicoterapéutico clave: la inmediatez no siempre es la mejor respuesta terapéutica, ya que puede fomentar la intolerancia a la frustración (“lo quiero todo y lo quiero ya”) y, en algunos casos, comportamientos adictivos.

Es importante recordar que, en Argentina, la práctica de la salud mental está regulada por la Ley 26.657 de Protección de la Salud Mental, promulgada en 2010, no incluye la IA como alternativa terapéutica.
Asimismo existen entidades específicas, Colegios Profesionales de Psicología de cada jurisdicción, los encargados de otorgar las matrículas necesarias para ejercer y ellas ejercidas por personas humanas.
Por lo tanto, permitir que una IA asuma el rol de un psicólogo, psiquiatra o equipo interdisciplinario no solo sería inapropiado, sino también contrario a la ley.

SI bien las IA han venido para quedarse siendo muy beneficiosa en la detección y diagnostico clínicos, en materia de Salud Mental nos corresponde siempre acudir al profesional matriculado competente quien cumpliendo con las normas de responsabilidad ética y profesional los acompañara en el tratamiento adecuado.

Debemos advertir los peligros a los que nos expone el uso desmedido y las creaciones de bots, que solo alimentan una percepción e idealizaciones que nos alejan de la realidad actual para vivir en una realidad paralela, además de lo difícil que resulta responsabilizar a una empresa creadora de IA por cualquier daño sin tener una legislación acorde que las contemple.

Abogada, miembro del Instituto de Derecho e I.A. del Colegio de Abogados y Procuradores del Neuquén dirigido por Vanesa Ruiz.


Temas

Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Comentarios

Este contenido es exclusivo para suscriptores

Suscribite por $2600 ¿Ya estás suscripto? Ingresá ahora