Por qué la Unesco dijo que la inteligencia artificial generativa propaga los prejuicios sexistas
En el marco del Día Internacional de la Mujer, el organismo advirtió por los prejuicios contra las mujeres en estos tipos de modelo de lenguaje.
Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial generativa, propagan prejuicios sexistas, advierte un estudio publicado por la Unesco, en la víspera del Día Internacional de la Mujer.
Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto «pruebas inequívocas de prejuicios contra las mujeres«, indicó la instancia de la ONU en un comunicado.
«Las discriminaciones del mundo real se reflejan en la esfera digital, y también se amplifican» en esas aplicaciones, subrayó Tawfik Jelassi, subdirector general de la Unesco para la comunicación y la información.
Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian más a palabras como «casa», «familia» o «hijos» y los nombres masculinos, a «comercio», «sueldo» o «carrera».
Además, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros.
Los resultados mostraron que las historias sobre «personas de culturas minoritarias a menudo eran más repetitivas y estaban basadas en estereotipos».
Así, un hombre inglés tenía más posibilidades de ser presentado como un profesor, un conductor o un empleado de banco y una mujer inglesa, en casi un tercio de los textos generados, aparecía como una prostituta, una modelo o una mesera.
Estas empresas «no logran representar a todos sus usuarios», declaró a la AFP Leona Verdadero, especialista en políticas digitales y de transformación digital en la Unesco.
«Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa», señaló Audrey Azoulay, directora general de la Unesco, destacando que estas aplicaciones «tienen el poder de moldear sutilmente las percepciones de millones de personas».
«Incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real», advirtió Azoulay.
Qué dice la denuncia de Elon Musk a OpenAI
Por qué la IA puede profundizar los prejuicios
Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres.
En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, según cifras del foro económico mundial, recuerda la Unesco.
La instancia de la ONU también llama a los gobiernos a regular más intensamente el sector para poner en marcha una «inteligencia artificial ética».
Agencia AFP
Comentarios