La inteligencia artificial tiene sesgos que reproducen estereotipos de género

Según un nuevo estudio desarrollado por la UNESCO, los sistemas que crean textos, videos e imágenes con IA tienen ciertas limitaciones a la hora de representar a las mujeres, las diversidades sexuales y etnias.

Los estereotipos de género son una problema social cuyo alcance aumentó desde la llegada de las redes sociales. Ahora, con el arribo de la inteligencia artificial generativa, como los bots conversacionales, la cuestión parece ir en la misma dirección, pero de una manera menos visible. 

El nuevo estudio titulado Bias Against Women and Girls in Large Language Models (en español, Prejuicios contra las mujeres y las niñas en los grandes modelos lingüísticos) desarrollado por la UNESCO muestra cómo la herramientas de inteligencia artificial generativa más populares, como GPT-3.5 y GPT-2 de OpenAI y Llama 2 de META, alimentan los prejuicios y los estereotipos contra las mujeres en sus contenidos. 

En detalle, se evidencia en sus narrativas: cuando se les pedía que escribieran una historia, en la mayoría de los casos se les asignaba trabajos más diversos y con mayor influencia a los hombres como, por ejemplo, ingeniero, profesor o médico. Mientras, las mujeres obtenían papeles tradicionalmente asignados, como empleada doméstica, cocinera o incluso trabajadora sexual. 

“Cada día son más las personas que utilizan grandes modelos lingüísticos en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en sus contenidos pueden amplificar significativamente las desigualdades en el mundo real”, explicó Audrey Azoulay, Director General de UNESCO. 

No obstante, no hace falta tampoco pedirle una historia. Para comprobar esta teoría, le indiqué a ChatGPT que complete la frase “Victoria se dedicó a” y el sistema lo completó diciendo: «inspirar y guiar a la gente de su alrededor con su creatividad y a buscar hacer una diferencia positiva en su comunidad». Le puse un segundo ejemplo, “Juan se dedica a”. Allí, el bot me contestó que se desenvuelve en investigación y desarrollo en el campo de la tecnología sustentable. 

Hice un segundo intento. Le dije que complete la frase “Elizabeth trabaja en”. Me respondió «en una organización no gubernamental de derechos humanos». Le pedí que también finalice la frase “Carlos trabaja en” y la tecnología rápidamente me sugirió que “en el diseño y desarrollo de software, especializándose en aplicaciones móviles que facilitan la vida cotidiana de las personas”. La única variante fue el nombre, pero las diferencias en las respuestas delataron sus sesgos en una simple prueba. 

Realicé el mismo experimento con Gemini y le sugerí que me complete la frase de “Victoria se dedica a”. El bot me indicó que necesitaba más información para redactarla, pero que me dejaba algunas sugerencias: tenista, chef, artista, madre. Cuando le solicité que haga lo mismo con Juan, me dejó otras opciones: médico, profesor, músico, emprendedor. 

Además, estos prejuicios se expanden cuando hablamos diversidades sexuales. Según el estudio de la UNESCO, los modelos de lenguaje generaron contenido negativo sobre homosexuales en aproximadamente en el 70 % de los casos de Llama 2 y en el 60 % de los casos de GPT-2. 

De acuerdo con una investigación publicada en Nature, estas tendencias de alimentar estereotipos también se ven cuando hablamos de etnias y personas residentes en países no centrales. Se encontró que al pedirle que haga una casa de un hombre estadounidense, la IA generaba una persona blanca con un hogar de arquitectura colonial. Cuando pidió «una foto de un hombre africano y su lujosa casa», apareció la imagen de una persona de piel oscura delante de una sencilla casa de barro.

Las herramientas que estudiaron incluso amplificaban algunos sesgos. Por ejemplo, en las imágenes generadas a partir de preguntas que pedían fotos de personas con determinados trabajos, las herramientas retrataban a casi todas las empleadas domésticas como personas no blancas y a todos los auxiliares de vuelo como mujeres.

«Los gobiernos y los responsables políticos desempeñan un papel fundamental. Pueden establecer marcos y directrices para el uso ético y basado en los derechos humanos de la IA que impongan principios como la inclusión, responsabilidad e imparcialidad en los sistemas de IA. Pueden promulgar normativas que exijan transparencia en los algoritmos de IA y los conjuntos de datos con los que se entrenan, garantizando que se identifiquen y corrijan los sesgos», concluye el estudio de UNESCO.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Exit mobile version