Qué recomiendan los países del G7 para que las empresas desarrollen y usen la inteligencia artificial

Representantes del bloque elaboraron un código de conducta para las compañías responsables de sistemas de IA avanzados. Así, se busca aprovechar los beneficios y mitigar los riesgos que trae esta nueva tecnología.

Regulaciones. Límites. Un pedido que se viene escuchando por parte de la sociedad como, por ejemplo, en la pasada Huelga de Hollywood, debido al exponencial crecimiento de la inteligencia artificial. En consecuencia, este lunes 30 de octubre, los líderes del Grupo de los Países Industrializados (G7) acordaron un código de conducta para las empresas que quieran crear sistemas de IA. 

De acuerdo con el documento oficial, esta iniciativa tiene como objetivo promover una inteligencia artificial segura y fiable en todo el mundo y proporcionar una guía voluntaria para las acciones de las organizaciones que desarrollen los sistemas de IA más avanzados, incluidos los modelos básicos y los sistemas generativos de IA.

En el texto también se expresa la intención de ayudar a aprovechar los beneficios y hacer frente a los riesgos y los desafíos que trae esta nueva tecnología. Para ello, se sugiere que las organizaciones deben aplicar las acciones propuestas en el diseño, desarrollo, despliegue y uso de sistemas avanzados de IA.

Este proceso se inició en mayo de este año cuando los líderes de G7 —formado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido—, junto con los dirigentes de la Unión Europea, se juntaron en un foro denominado “Proceso de Hiroshima sobre Inteligencia Artificial” para discutir en profundidad la seguridad, viabilidad y el futuro de esta tecnología. 

El resultado final se despliega en un código de conducta que tiene 11 puntos principales, cada uno de los cuales se detalla en el documento completo. 


El código de conducta del G7 sobre la Inteligencia Artificial


1.- Adoptar las medidas adecuadas durante todo el desarrollo de los sistemas avanzados de IA, incluso antes y durante su despliegue y comercialización, para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA.

2.- Identificar y mitigar las vulnerabilidades, los incidentes y patrones de uso indebido tras el despliegue, incluida la comercialización.

3.- Informar públicamente sobre las capacidades, limitaciones y ámbitos de uso apropiado e inapropiado, para contribuir a garantizar una transparencia suficiente, contribuyendo así a aumentar la responsabilidad.

4.- Trabajar por un intercambio de información responsable y la notificación de incidentes entre organizaciones que desarrollan sistemas avanzados de IA, incluidas la industria, los Gobiernos, la sociedad civil y el mundo académico.

5.- Desarrollar, aplicar y divulgar políticas de gobernanza y gestión de riesgos de la IA, basadas en un enfoque sustentanto en el riesgo, incluidas las políticas de privacidad y las medidas de mitigación.

6.- Invertir y aplicar controles de seguridad sólidos, incluida la seguridad física, ciberseguridad y protección frente a amenazas internas en todo el ciclo de vida de la IA.

7.- Desarrollar e implantar mecanismos fiables de autenticación y procedencia de los contenidos, cuando sean técnicamente viables, como marcas de agua u otras técnicas que permitan a los usuarios identificar los contenidos generados por IA.

8.- Dar prioridad a la investigación para mitigar los riesgos sociales, de seguridad y protección y priorizar inversión en medidas de mitigación eficaces.

9.- Dar prioridad al desarrollo de sistemas avanzados de IA para abordar los mayores problemas del mundo, en particular, aunque no exclusivamente, la crisis climática, la salud mundial y la educación.

10.- Promover la elaboración y la adopción de normas técnicas internacionales.

11.- Aplicar medidas adecuadas de introducción de datos y protección de los datos personales y la propiedad intelectual.

Si bien este es un primer anuncio formal, no es el último ni el definitivo. Como bien lo expresa el código, este se irá revisando y actualizando en la medida que sea necesario, incluso mediante “consultas” de las partes interesadas con el fin de que siga siendo adecuado y funcional. Y, también, para que vaya a la par con la rápida evolución de esta tecnología. 


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa ‘Periodismo Humano’, una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios