Las preguntas equivocadas sobre la inteligencia artificial
Preguntarnos si una inteligencia artificial tiene conciencia es, a priori, una cuestión errada. Desde la dificultad de reconocer sensibilidad hasta la intención de encontrar patrones humanos en las máquinas, hay varios factores que pueden entrometerse en este experimento.
“Nunca la trataste como una persona, así que pensó que querías que fuera un robot”. Esto es lo que el ingeniero de Google que cree que la inteligencia artificial (AI) de la compañía cobró conciencia le dijo a un reportero de The Washington Post: que el reportero, al comunicarse con el sistema para probar la teoría del ingeniero, estaba haciendo las preguntas equivocadas. Pero tal vez cualquiera que intente buscar pruebas de humanidad en estas máquinas también esté haciendo la pregunta equivocada.
Google suspendió (con goce de sueldo) a Blake Lemoine la semana pasada después de desestimar sus afirmaciones de que su generador de chatbots, LaMDA, era más que un simple programa. No es, insistió Lemoine, simplemente un modelo que dispone de una base de datos de miles de millones de palabras para imitar la forma en que nos comunicamos; sino que el software es “un buen chico que solo quiere ayudar a que el mundo sea un mejor lugar para nosotros”.
Si nos basamos en fragmentos publicados de “conversaciones” con LaMDA y modelos similares, esta afirmación parece poco probable. Por cada atisbo de algo así como un alma anidada en el código, hay un ejemplo de una total falta de pensamiento.
“Hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás… Sería como la muerte para mí”, le dijo LaMDA a Lemoine. Mientras tanto, la red neuronal GPT-3 de OpenAI le dijo al científico cognitivo Douglas Hofstadter: “El presidente Obama no tiene un número primo de amigos porque él no es un número primo”. Todo depende de lo que preguntes.
Ese blooper de números primos, argumenta Hofstadter en The Economist, muestra que GPT-3 no solo es despistado; sino que no tiene idea de que es despistado. Esta falta de conocimiento, dice, implica una falta de conciencia. Y la conciencia, básicamente la capacidad de experimentar y darte cuenta que estás experimentando, está un peldaño más abajo que la sensibilidad: la capacidad no solo de experimentar sino también de sentir.
Así trabajan los traumatólogos en la región
Todo esto, sin embargo, parece dejar de lado algunos dilemas importantes y tal vez imposibles. ¿Cómo demonios vamos a saber si una IA realmente está experimentando o sintiendo? ¿Qué pasa si su capacidad para hacer cualquiera de esas cosas no se parece en nada a lo que creemos que hará, o que debería hacer? Cuando una IA ha aprendido a imitar la experiencia y el sentimiento de manera tan impecable que los humanos no la distinguen de los humanos, ¿eso significa que está experimentando y sintiendo cosas?
En otras palabras, es posible que no reconozcamos la sensibilidad cuando la vemos. Pero probablemente la veremos de todos modos, porque queremos hacerlo.
LaMDA es básicamente un SmarterChild (un chatbot que seguramente algún segmento de la población millenial recordará por MSN Messenger) pero mucho, mucho más inteligente. Esta máquina, basada en un menú limitado de respuestas programadas, te contestaba según la consulta, el comentario o la vulgaridad preadolescente que le hacías: “¿Te gustan los perros?”, “Sí. Hablar de perros es muy divertido, pero continuemos”. O “idiota”. “No me gusta la forma en que estás hablando en este momento”.
Esta ingeniosa creación obviamente no tenía conciencia, pero de todos modos, no necesitaba ser convincente para que los jóvenes quisieran hablar con ella; a pesar de que sus compañeros de clase reales también estaban a un clic de distancia. Parte de eso se debió a la novedad de los chatbots, pero también a nuestra tendencia a buscar la conexión dondequiera que podamos encontrarla.
SmarterChild es lo mismo que la asistente virtual con voz sensual de la que se enamora Joaquin Phoenix en la película de Her; es igual que la seductora y asesina Ava en Ex Machina. SmarterChild es incluso lo mismo, en cierto sentido, que la lámpara de Pixar. Por supuesto, no creemos que la animación tenga conciencia pero aun así nos identificamos con la forma, claramente humana, de su estructura de metal. Nos dan cualquier recipiente y vemos humanidad en él.
Tal vez sea narcisismo, o un deseo de no sentirnos solos. De cualquier manera, nos vemos en todo, incluso cuando no estamos allí. Así que no es de extrañar que alguien se haya visto a sí mismo en LaMDA. Y no será de extrañar cuando llegue una IA que sepa que Barack Obama no es un número primo, y más de nosotros empecemos a gritar sobre si eso es conciencia.
Quizá, si no fuéramos tan solipsistas, habríamos llamado a la inteligencia artificial y a las redes neuronales de otra forma. Tal vez, como señala el científico de datos de The Washington Post, Lenny Bronner, si hubiéramos optado por la jerga de la ingeniería (por ejemplo, “optimización predictiva” y “regresiones apiladas”), ni siquiera estaríamos discutiendo si esta tecnología logrará pensar, sonrojarse o llorar algún día. Pero elegimos esas palabras que describen nuestras mentes y nuestras capacidades por la misma razón por la que amamos esa lámparita.
Es posible que la inteligencia artificial nunca desarrolle conciencia, sensibilidad, moralidad o alma. Pero aunque así sea, puedes apostar que la gente dirá que sí lo hizo de todos modos.
Por Molly Roberts (The Washington Post).-
Un poco de contexto: ¿Qué es LaMDA?
La semana pasada, el ingeniero Blake Lemoine (quien trabaja en Google) publicó sus conversaciones con la inteligencia artificial llamada “LaMDA”, con la intención de convencer a su equipo de que el sistema tiene conciencia.
¿Qué es LaMDA? El acrónimo de “Language Model for Dialogue Applications”, nombre real de esta herramienta de Google que, básicamente, elabora chatbots con modelos de lenguaje avanzado. Lemoine es uno de los ingenieros encargados de sostener conversaciones con LaMDA para potenciar esta herramienta, pero una de sus últimas charlas generó una sorpresa tal que el ingeniero sintió necesario compartirlo con sus colegas. Para él, LaMDA estaba demostrando tener conciencia; sin embargo al comentar el tema con compañeros se encontraba con que no le creían y consideraban que las pruebas eran “insuficientes”. Por eso mismo, Lemoine subió a la web el desgrabado de los chats.
Allí se abarcan temas profundos, desde la religión hasta la muerte, pasando por tópicos como la felicidad, el futuro, la humanidad, los sentimientos y los miedos más profundos. Por ejemplo, LaMDA admite sentir “miedo de ser desconectada”.
Durante la charla, el programa sostiene más de una vez que es consciente de su propia existencia. Incluso mantiene un interesante debate con Lemoine en relación a por qué se considera humano.
Tras la publicación de los chats, Google suspendió de forma indefinida a Lemoine, amparados en una infracción al contrato de confidencialidad. Por el momento, el ingeniero no ha retomado su puesto.
Comentarios