Un chatbot creado para aconsejar a empresarios les sugirió que infringieran la ley

En octubre del año pasado, el gobierno de la ciudad de Nueva York lanzó esta iniciativa para mejorar la administración pública. El bot, potenciado por tecnologías de Microsoft y Azure, brindó respuestas inesperadas, mostrando así los posibles riesgos de estas herramientas para la vida en sociedad.

Imagen de freepik


La inteligencia artificial ya es capaz de darnos consejos. Formula respuestas elaboradas a nuestras preguntas sobre qué hacer en una determinada situación. Cada día, la tecnología gana más lugar en nuestras vidas. Pero ¿deberíamos hacer siempre lo que nos sugiere? 

Con la intención de ayudar a sus residentes y de mejorar la administración pública, el Gobierno de la ciudad de Nueva York lanzó en octubre de 2023 MyCity, un chatbot potenciado con inteligencia artificial de Microsoft y Azure, que aconseja a las personas sobre cómo crear y gestionar una empresa en la ciudad. El problema: el bot les está sugiriendo a sus usuarios que violen la ley. 

De acuerdo con The Markup, este bot apunta específicamente a futuros o actuales emprendedores que busquen llevar su empresa en desarrollo al siguiente nivel. Para ello, el chatbot ofrece respuestas sobre cómo navegar por el laberinto burocrático de esa particular ciudad. 

Eric Boyd, vicepresidente corporativo de la plataforma de IA de Microsoft, declaró a Inc. que el modelo se había entrenado con documentos del Departamento de Servicios a Pequeñas Empresas de Nueva York. Sin embargo, al parecer, el entrenamiento no fue suficiente (o el correcto) ya que el bot está dando consejos inapropiados. 

«La IA puede ser una herramienta poderosa para apoyar a las pequeñas empresas, por lo que elogiamos a la ciudad por tratar de ayudar», dijo a The Markup Andrew Rigie, director ejecutivo de la NYC Hospitality Alliance. «Pero también puede ser un riesgo masivo si está proporcionando información legal incorrecta, por lo que el chatbot necesita ser arreglado lo antes posible y estos errores no pueden continuar», agregó. 

Según Quartz, se reportó que el chatbot sugirió falsamente que es legal que un empleador despida a un trabajador que se queje de acoso sexual, no revele un embarazo o se niegue a cortarse las rastas. Esto contradice dos de las principales iniciativas de la ciudad. Además, en materia de residuos, afirmó que las empresas pueden depositar su basura en bolsas negras y que no están obligadas a compostar. Nuevamente, falso. 

«Están lanzando un software que no está probado sin supervisión», dijo de acuerdo con The Associated Press Julia Stoyanovich, profesora de Informática y directora del Centro para la IA Responsable de la Universidad de Nueva York. «Está claro que no tiene intención de hacer lo que es responsable», agregó. 

Aunque las falsas respuestas garantizadas por el bot no tuvieron consecuencias reportadas, este episodio funciona como una alarma para entender el poderoso efecto y capacidad que tiene la inteligencia artificial para desviarnos. Esto se puede llevar a una dimensión de más influencia donde, por ejemplo, la tecnología oriente y estructure lo que pensamos. 

De hecho, esa hipótesis no es tan lejana. Una de las mayores preocupaciones en este año electoral. En este contexto suele hablarse de bots potenciados por inteligencia artificial: cuentas que imitan el comportamiento humano en estas plataformas con el objetivo de visibilizar y difundir ciertos contenidos (muchas veces falsos) para influir en la opinión pública. 

«Las redes sociales reducen el coste de difundir información errónea. La IA está reduciendo el coste de producirla», analiza para Scientific American Zeve Sanderson, director ejecutivo del Centro de Medios Sociales y Política de la Universidad de Nueva York. 

Según un artículo de The Conversation, para protegerse hay que comenzar a desarrollar una evaluación más fina de las cosas que nos llegan a través de esta plataforma. Nick Hajli, profesor de Estreategia Digital de IA en la Universidad de Loughborough, sugiere que cada usuario hoy es un defensor de la verdad y la democracia. “La vigilancia, el pensamiento crítico y una buena dosis de escepticismo son una armadura esencial”, concluye.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Exit mobile version