Exclusivo Suscriptores

IA, psicoanálisis o terapia conductual

¿Cómo se determinaría la responsabilidad en caso de que la IA emita consejos que agraven la condición de un paciente o desencadenen una crisis?

Redacción

Por Matías Fernando Sánchez

La introducción de la inteligencia artificial en el campo de la psicología plantea desafíos éticos y legales que requieren una atención, seguimiento y legislación cuidadosa.

A medida que la IA asume un papel cada vez más activo en la prestación de servicios psicológicos, surge la pregunta crucial sobre quién asume la responsabilidad en caso de errores o daños.

En el marco de la responsabilidad por los daños, los proveedores de servicios psicológicos basados en IA podrían encontrarse en una posición complicada. Aunque la IA es una herramienta y no un agente moral, la responsabilidad última recae en aquellos que diseñan, implementan y supervisan estos sistemas. La obligación de garantizar la seguridad y el bienestar de los pacientes se vuelve aún más apremiante, dado que la IA no es capaz de asumir esta responsabilidad de manera autónoma.

Si bien la función de reparación sigue vigente, es pertinente resaltar hay que poner el énfasis y tener como epicentro la anticipación al daño, hay que tener en cuenta el papel principal, deber de Prevención y el Deber de Precaución. (Deber de no dañar). Entonces habrá que estar muy atento a que; la AI no dañe y en su caso legislar con debida atención a quien le cabe la responsabilidad, si se causara daño a la salud psicológica o física de las personas

Responsabilidad profesional

Sabemos que los psicólogos, tienen responsabilidad subjetiva por culpa, ya sea por impericia, imprudencia o negligencia en su ejercicio profesional, por el cual ellos deben responder.

No así al IA que no es una persona a cual se le puedan endilgar esas tres conductas, por eso, podemos decir, que esta actividad de la IA puede ser un tanto riesgosa, encuadrándola en responsabilidad es objetiva?

Hoy la polémica esta, en una aplicación creada por Connie Ansaldi que ofrece asistencia psicológica a base de inteligencia artificial, contratada por el Gobierno de la ciudad de Bs As, lo que nos lleva a preguntarnos, quien responderá por los daños que pudiera causar esta aplicación, será el Gobierno de la ciudad de Bs As por brindar esta aplicación a sus ciudadanos o Connie Ansaldi como su desarrollador y proveedor de servicios?

Escenarios críticos

¿Cómo se determinaría la responsabilidad en caso de que la IA emita consejos que agraven la condición de un paciente o desencadenen una crisis?

Ante la posibilidad de escenarios críticos, como el riesgo de suicidio o recaídas en trastornos alimenticios, la claridad en los protocolos de actuación y la supervisión humana se convierten en elementos esenciales para mitigar posibles daños. La implementación de salvaguardias legales y éticas, junto con una cuidadosa evaluación de los riesgos asociados, se vuelve imperativa para proteger tanto a los pacientes como a los profesionales involucrados.

Si bien las ventajas de la disponibilidad horaria e ininterrumpida y la aparente imparcialidad de la IA son aspectos encomiables, la falta de comprensión de los matices emocionales humanos plantea riesgos significativos, para un correcto diagnóstico.

La incapacidad de la IA para interpretar el lenguaje no verbal y las sutilezas de la comunicación emocional podría llevar a respuestas inadecuadas o perjudiciales para los pacientes en situaciones delicadas.

¿Podrá la IA hacer un diagnóstico y una devolución, empática para con el paciente, logrando así dar mayor atención, calidad terapéutica a las personas analizadas psicológicamente?

En conclusión, la integración de la IA en la psicología plantea desafíos complejos en términos de responsabilidad y ética. En un contexto de responsabilidad objetiva, es fundamental establecer mecanismos de control y supervisión que garanticen una prestación de servicios segura y efectiva para los pacientes. La colaboración entre la tecnología y la humanidad es clave para salvaguardar el bienestar emocional de quienes buscan ayuda en un mundo cada vez más digitalizado y automatizado.

Abogado. Miembro del Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados de Neuquén

Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Comentarios

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $2600 ¿Ya estás suscripto? Ingresá ahora