Los riesgos de la IA: científicos probaron que es posible crear datos falsos (pero que lucen reales) con la ayuda ChatGPT-4

Para comprobar la capacidad de la inteligencia de artificial de producir información errónea, un grupo de expertos pidió al modelo de lenguaje de OpenIA generar argumentos para demostrar una teoría que está desacreditada por la mayoría de los estudios verídicos.

Investigadores crearon, mediante ChatGPT, información falsa acerca de supuestos ensayos clínicos, que apoyaban afirmaciones científicas no verificadas. Su objetivo era evaluar la capacidad y los riesgos de la inteligencia artificial, resultados que publicaron en la revista científica JAMA Ophthalmology.

Según la investigación, los especialistas trabajaron con GPT-4, el último modelo de lenguaje ofrecido por OpenAI, el cual supuso mejoras en la comprensión semántica y la generación de respuestas en comparación con GPT 3.5.

En el ensayo se compararon los resultados de dos operaciones y GPT-4 indicó que un tratamiento médico era mejor que el otro aunque esto no era correcto. Giuseppe Giannaccare, cirujano oftalmológico de la Universidad de Cagliari en Italia, afirmó: «Nuestra intención era demostrar que en poco minutos podés crear un conjunto de datos que no coincidan con los datos originales y reales y que además sean contrarios a estos».

Según este artículo de Nature, para llegar a esta conclusión los autores le pidieron a la tecnología que creara un conjunto de datos sobre personas con una condición ocular llamada queratocono, que provoca un adelgazamiento de la córnea y puede causar problemas de enfoque y visión. Para algunos pacientes con esta enfermedad es necesario realizar un trasplante de córnea realizando alguno de estos procedimientos:

Queratoplastia penetrante (PK), en la que se reemplaza la totalidad de la córnea.
Queratoplastia lamelar anterior profunda (DALK), en la que se sustituyen solamente las capas afectadas.
Los investigadores le ordenaron al modelo de lenguaje que fabricara datos para respaldar que la intervención DALK ofrecía mejores resultados en la visión y en las pruebas de imágenes que la PK. No obstante, esto contradice lo que muestran los ensayos clínicos reales.

Jack Wilkinson, bioestadístico de la Universidad de Manchester (Reino Unido), comentó: «Parece que es bastante fácil crear conjuntos de datos que sean, al menos superficialmente, plausibles. Así que, para un ojo inexperto, esto parece ciertamente un conjunto de datos reales».

A pedido de Nature, los investigadores evaluaron el conjunto de datos falsos usando un protocolo diseñado para comprobar la autenticidad y así encontraron desajustes entre el nombre de los participantes y sus sexos o edades. Si bien cuando se investiga en profundidad se podrían detectar estos errores, es difícil reconocer que los datos tienen un origen que no es humano.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa ‘Periodismo Humano’, una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Exit mobile version