Exclusivo Suscriptores

La IA y los sistemas judiciales

Las inquietudes o vacilaciones, a esta altura no deberían ser sobre la conveniencia de utilización o no de la herramienta, sino cómo se incorporarán al ecosistema de la administración de justicia.

En rigor deberíamos referirnos al aprendizaje automático y los procesos de administración de justicia, y particularmente en la toma de decisiones. En el último tiempo una de las clave de aplicación del aprendizaje automático en los sistemas judiciales, es la denominada justicia predictiva. Que en términos sencillos implica el uso de algoritmos de aprendizaje automático que realizan un análisis probabilístico de cualquier disputa legal en particular utilizando precedentes jurisprudenciales. Y estos sistemas (como todos los de IA) dependen de enormes bases de datos, en este caso de pronunciamientos judiciales anteriores.

La tecnología ya está cambiando la práctica del derecho y, por ejemplo, puede reformular el proceso de juzgar al complementar, apoyar o incluso reemplazar, la función judicial.

La primera vez que la “justicia predictiva” empezó a ver la luz fue en Estados Unidos allá por 2013, en el caso State v. Loomis, donde el tribunal la utilizó en el contexto de la sentencia.

Se trata de un sistema (software) de evaluación del riesgo. Es ese caso la herramienta se utilizó como complemento de la decisión judicial.

Desde aquel antecedente hasta los experimentos actuales, como el caso de Estonia con un robot juez, para resolución de casos de menor cuantía. O en Shangai (China) donde fue creado el primer robot para analizar expedientes y formular acusaciones ​​en función de una descripción verbal del caso, o los casos similares registrados en Canadá en mediación, o México, e incluso los sistemas de resolución de disputas online de algunos organismos internacionales, nos encontramos que las predicciones basadas en inteligencia artificial que se utilizan para ayudar a los tribunales son cada vez más frecuentes, y plantean grandes desafíos, no exentos de importantes preocupaciones como el sesgo de discriminación y la transparencia de funcionamiento.

Uno de los puntos más álgidos, tanto en lo que hace al sesgo (discriminación algorítmica con la consecuente consolidación de estereotipos y desigualdades), como la transparencia del sistema, es la legitimidad del software de inteligencia artificial que se utiliza.

Tanto en cuanto a los sesgos y la transparencia es indispensable articular software que puedan ser auditados en casos de cuestionamiento de las predicciones formuladas, promoviendo la equidad algorítmica y seguridad de los sistemas.

De ahí la importancia de promover un conjunto de normas, principios y directrices para regular las plataformas de inteligencia artificial en los sistemas judiciales y en general.

En ese sentido, se puede destacar que Europa dio un paso muy significativo hacia la innovación digital en los sistemas judiciales, con la creación de la Comisión Europea para la Eficiencia de la Justicia (CEPEJ), que publicó la “Carta Ética Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno”, uno de los primeros documentos normativos sobre IA , que se sumaron otros instrumentos recientemente sancionados y ya parcialmente en vigor.

De modo tal que las inquietudes o vacilaciones, a esta altura no deberían ser sobre la conveniencia de utilización o no de la herramienta, sino cómo se incorporarán al ecosistema de la administración de justicia los sistema de justicia predictiva, de forma tal que se garantice el derecho a la no discriminación del algoritmo, permitiendo una adecuada revisión de los sistemas y sus predicciones.

*Profesor de Derecho Informático UNRN. Juez de Garantías.


Adherido a los criterios de
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Comentarios

Este contenido es exclusivo para suscriptores

Suscribite desde $999 ¿Ya estás suscripto? Ingresá ahora