Los “peligros” de la modernidad: ¿Podrían las inteligencias artificiales causar una catástrofe?
¿Podría la inteligencia artificial extinguir a la humanidad accidentalmente? Según el filósofo e historiador Émile Torres, “nunca digas nunca”. Un repaso por las predicciones que indican una potencial catástrofe y cómo podríamos afrontarlo.
La gente no es buena para predecir el futuro. ¿Dónde están nuestros autos voladores? ¿Por qué no hay mayordomos robots? ¿Por qué no puedo tomarme unas vacaciones en Marte?
Pero no solo nos hemos equivocado en cosas que pensamos que sucederían; la humanidad también tiene un largo historial de convencernos incorrectamente de que ciertas realidades que ahora son ineludibles, no sucederían. El día anterior a que Leo Szilard ideara la reacción nuclear en cadena en 1933, el gran físico Ernest Rutherford proclamó que cualquiera que propusiera la energía atómica estaba “hablando disparates”. Incluso el pionero de la industria informática Ken Olsen supuestamente afirmó en 1977 que no imaginaba que las personas tuvieran algún uso para una computadora en su hogar.
Obviamente hoy vivimos en un mundo nuclear, y lo más probable es que tengas una o dos computadoras al alcance de la mano en este momento. De hecho, son esas computadoras -y los avances exponenciales informáticos en general- las que ahora son el centro de algunos de los pronósticos de más alto riesgo para la sociedad. La expectativa convencional es que el poder informático siempre en expansión será una bendición para la humanidad. Pero, ¿y si estamos equivocados de nuevo? ¿Podría la superinteligencia artificial causarnos un gran daño? ¿Nuestra extinción, quizás?
Como bien nos enseña la historia: nunca digas nunca. Parece solo cuestión de tiempo antes de que las computadoras se vuelvan más inteligentes que las personas. Esta es una predicción en la que podemos estar bastante seguros porque ya la estamos viendo convertirse en realidad. Muchos sistemas han alcanzado habilidades sobrehumanas en tareas particulares como jugar Scrabble, ajedrez y póker, donde los humanos ahora pierden regularmente contra el robot que está del otro lado del tablero.
Pero los avances en informática generarán sistemas con niveles de inteligencia cada vez más generales: algoritmos capaces de resolver problemas complejos en múltiples ámbitos. Imagina un mismo algoritmo que pueda vencer a un gran maestro de ajedrez pero también escribir una novela, componer una melodía pegadiza y conducir un auto a través del tráfico de la ciudad.
Según una encuesta realizada a expertos en 2014, existe 50% de posibilidades de que se alcance la “inteligencia artificial a nivel humano” para 2050, y 90% de posibilidades para 2075. Otro estudio del Instituto de Riesgos Catastróficos Globales encontró al menos 72 proyectos en todo el mundo con el objetivo expreso de crear una inteligencia general artificial: ese sería el trampolín hacia la superinteligencia artificial (SIA), la cual no solo funcionaría tan bien como los humanos en todos los ámbitos de interés sino que superaría con creces nuestras mejores habilidades.
El éxito de cualquiera de estos proyectos sería el evento más significativo en la historia humana. De forma súbita, a nuestra especie se le uniría algo más inteligente que nosotros en el planeta. Los beneficios son fáciles de imaginar: una SIA podría ayudar a curar enfermedades como el cáncer y el Alzheimer, o limpiar el medioambiente. Pero los argumentos a favor de la posibilidad de que una SIA pudiera destruirnos también son sólidos.
Seguramente ninguna organización de investigación diseñaría una SIA maliciosa al estilo de Terminator que esté empeñada en destruir a la humanidad. Desafortunadamente, esa no es la preocupación. Si todos llegamos a ser eliminados por una SIA, casi seguro que será por accidente.
Debido a que las arquitecturas cognitivas de las SIA pueden ser fundamentalmente diferentes a las nuestras, son quizás la cosa más impredecible de nuestro futuro. Consideremos esas inteligencias artificiales (IA) que ya vencen a los humanos en diversos juegos: en 2018, un algoritmo que jugaba el videojuego de Atari Q*bert ganó al explotar una falla que “ningún jugador humano, que se sepa, jamás había descubierto”. Otro programa se convirtió en un experto en el juego del escondite digital gracias a una estrategia “que los investigadores jamás vieron venir”.
Si no podemos anticipar lo que harán los algoritmos en juegos infantiles, ¿cómo podemos estar seguros de las acciones de una máquina con habilidades de resolución de problemas muy superiores a las de la humanidad? ¿Qué pasa si programamos una SIA para establecer la paz mundial y termina jaqueando los sistemas gubernamentales para detonar todas las armas nucleares del planeta, tras razonar que sin la existencia humana no habría más guerra? Podríamos programarla explícitamente para que no haga eso. Pero, ¿y su plan B?
En realidad, hay un número interminable de formas en las que una SIA podría “resolver” problemas globales que tengan consecuencias catastróficamente malas. Por cualquier conjunto dado de restricciones en el comportamiento de la SIA, sin importar la cantidad de teóricos brillantes y detallistas que con su inteligencia meramente humana pueden plantear formas en que las cosas puedan salir muy mal, puedes apostar a que una SIA podrá pensar en más.
Y en cuanto a clausurar una SIA destructiva… un sistema lo suficientemente inteligente debería reconocer con rapidez que una manera de nunca lograr los objetivos que se le han asignado es dejar de existir. La lógica dicta que hará todo lo posible para evitar que la desconectemos.
No se sabe con certeza si la humanidad alguna vez estará preparada para la superinteligencia, pero sin duda no lo estamos justo ahora. Con toda nuestra inestabilidad global y nuestra comprensión aún incipiente de la tecnología, agregar la SIA sería como encender un fósforo junto a una fábrica de fuegos artificiales. La investigación sobre inteligencia artificial debe ralentizarse o incluso detenerse. Y si los investigadores no quieren tomar esta decisión, los gobiernos deberían tomarla por ellos.
Algunos de estos investigadores han descartado explícitamente las preocupaciones de que la inteligencia artificial avanzada pudiera ser peligrosa. Y quizá tengan razón. Quizá cualquier advertencia sea un “disparate” y la SIA sea totalmente benigna, o incluso completamente imposible. Después de todo, yo no puedo predecir el futuro. El problema es que ellos tampoco pueden.
Por Émile P. Torres (The Washington Post).-
Comentarios