Yuval Harari y al cofundador de DeepMind discuten sobre la regulación de la IA

A pesar de sus diferencias, el filósofo israelí y Mustafa Suleyman, el fundador de DeepMind, llegaron a la conclusión de que es necesaria una coalición de voluntades para establecer las regulaciones de esta nueva tecnología y minimizar sus riesgos. Una tarea difícil, pero no imposible. 

Dos potencias de pensamiento fueron reunidas por The Economist para un profundo debate dirigido por Zanny Minton, editora de la revista. El tema: la inteligencia artificial y el futuro junto con su evolución. De un lado de la vereda se encuentra Yuval Noah Harari, uno de los filósofos más influyentes de la última década. Del otro lado está Mustafa Suleyman, el cofundador de DeepMind y autor del libro The Coming Wave

Para abrir la conversación, la primera pregunta dirigida al especialista en IA fue: ¿cómo será nuestro futuro? Suleyman aseguró que en cinco años las empresas crearán modelos de IA mil veces más grandes de los que vemos hoy en plataformas como Chat GPT. Esto, evidentemente, viene con nuevas capacidades y habilidades como, por ejemplo, hacer llamadas a otros humanos para negociar. “Vamos a ser testigos de una inteligencia artificial que no solo pueda decir cosas, sino que también hacerlas”. 

Y con esas innovaciones llega, para Yuval Harari, el final de la historia dominada por la humanidad. Según el historiador, el cofundador de Deep Mind confirma un gran desafío para la humanidad: habrá una tecnología que podrá tomar decisiones de manera independiente poniendo en riesgo la autonomía humana. “Es la primera vez en la historia que nos enfrentamos a algo así”, explica el filósofo. “Tenemos una tecnología que puede crear ideas completamente nuevas en una escala mucho mayor comparada con la de un humano”, reflexiona. 

Así se llega al punto interesante del debate: ¿podrá la IA ser controlada? ¿Cuáles son sus límites? En esta línea, Suleyman aclaró el presente “mito” de una inteligencia artificial con autonomía propia y capaz de tomar decisiones por sí sola. “Estas capacidades no emergen naturalmente de los modelos, nosotros ingeniaremos esas capacidades”, aseguró. 

Entonces, según el pionero en IA, el gran desafío hoy recae sobre la intención que le ponen los autores (humanos) a esos modelos. Tienen que ser muy “precisos” y a la vez tener mucho “cuidado” acerca de qué capacidades van a querer que emerjan del modelo.

Para Harari este parece ser solamente el principio del problema, ya que en el mundo de hoy las empresas y los líderes tecnológicos parecen estar divididos en una carrera por quién desarrolla el sistema más inteligente y más innovador. Y no trabajan de manera conjunta. Así, la amenaza está segmentada y es mayor. “Se vuelve imposible contener o limitar esta inteligencia alienígena”, reflexiona el filósofo. 

¿Cómo hacés para prevenir que algo que es más inteligente que vos no desarrolle una autonomía?, preguntó Harari. Y al poco momento la definió como una tarea muy difícil pero no imposible. “Aprecio que haya personas en el sector privado que piensen seriamente en regulaciones, pero necesitamos una identidad externa”, aseguró. “Para eso necesitamos nuevas instituciones que tengan los recursos tecnológicos, humanos y económicos y la confianza del público”, profundizó. 

En consecuencia, Suleyman señaló que él hace tiempo está velando por el principio de precaución en el cual se clasifican a ciertas capacidades de la IA como, por ejemplo la autonomía o la autosuperación recursiva, de alto riesgo y entonces quedan fuera de juego. “Este es el momento en que debemos adoptar el principio de precaución como una forma lógica y sensible de proceder”, manifestó el cofundador de DeepMind. 

Ambos pensadores llegaron a un punto en común: se necesita una coalición de  voluntades. “Algunos países no estarán de acuerdo con ciertas normas pero eso no importa. Para proteger a nuestras sociedades es una gran idea tener este tipo de regulaciones”, concluyó Harari. 

Sobre este punto, Suleyman expresó que el proceso de regulación es también un proceso cultural en el cual pensamos qué es lo que es social y políticamente correcto en cualquier momento dado. “Creo que estamos viendo un apropiado nivel de precaución en la sociedad”, profundizó en relación a las limitaciones que estamos viviendo con otras tecnologías, como por ejemplo, los drones. 

Otra nueva discusión y otra nueva manera de mirar el fenómeno de la inteligencia artificial que está llegando a cada esquina de nuestro mundo. Este debate nos invita a pensar en la tecnología, informarnos sobre sus potenciales pero también advertirnos sobre sus riesgos. Las dos caras de la moneda, expuestas a la luz. 

Mirá el debate completo de Yuval Harari y Mustafa Suleyman acá


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios