Los países del G7 promueven un «código de conducta» sobre inteligencia artificial para evitar el mal uso de la tecnología

Los países del G7 promueven un "código de conducta" sobre inteligencia artificial para evitar el mal uso de la tecnología

Los países industriales del Grupo de los Siete (G7) se disponen a establecer un “Código de Conducta” voluntario para las empresas que innovan en el campo de los sistemas avanzados de inteligencia artificial (IA). Esta iniciativa, derivada del “Proceso de IA de Hiroshima”, busca abordar el posible uso indebido y los riesgos asociados con esta tecnología transformadora.

El G7, que incluye a Canadá, Francia, Alemania, Italia, Japón, Gran Bretaña y Estados Unidos, junto con la Unión Europea, inició este proceso para sentar un precedente para la gobernanza de la IA.

Los países del G7 presentan un código de conducta global sobre inteligencia artificial

En medio de crecientes preocupaciones sobre la privacidad y los riesgos de seguridad, el código de 11 puntos es un rayo de esperanza. Según un documento del G7, el código de conducta,

"Su objetivo es promover una inteligencia artificial segura y confiable en todo el mundo y proporcionará orientación voluntaria para las acciones de las organizaciones que desarrollan los sistemas de inteligencia artificial más avanzados".

El código anima a las empresas a identificar, evaluar y mitigar riesgos a lo largo del ciclo de vida de la IA. También recomienda publicar informes públicos sobre las capacidades, las limitaciones y el uso de la IA, haciendo hincapié en controles de seguridad sólidos .

Leer más: Los 6 trabajos más candentes en inteligencia artificial (IA) en 2023

La jefa digital de la Comisión Europea, Vera Jourova, en un foro sobre gobernanza de Internet, dijo:

"Un código de conducta era una base sólida para garantizar la seguridad y sirvió de puente hasta que la normativa entró en vigor".

Preocupaciones éticas relacionadas con los sistemas de inteligencia artificial. Fuente: Estado de la Inteligencia Artificial en las Empresas

OpenAI se suma a la causa

OpenAI, la empresa matriz de ChatGPT, también ha formado un equipo de preparación para gestionar los riesgos que plantean los modelos de IA . Dirigido por Aleksander Madry, el equipo abordará riesgos como la persuasión individualizada, las amenazas a la ciberseguridad y la propagación de desinformación.

Esta medida es la contribución de OpenAI a la próxima Cumbre Mundial de IA del Reino Unido, haciéndose eco del llamado global a la seguridad y la transparencia en el desarrollo de la IA.

El gobierno del Reino Unido define Frontier AI como :

"Modelos de IA de uso general altamente capaces capaces de realizar una amplia variedad de tareas e igualar o superar las capacidades que se encuentran en los modelos más avanzados de la actualidad".

El equipo de preparación de OpenAI se centrará en la gestión de riesgos, solidificando aún más la necesidad de un "Código de conducta" global sobre IA.

A medida que la IA continúa evolucionando, la postura proactiva del G7 y el compromiso de OpenAI con la mitigación de riesgos representan respuestas oportunas. El "código de conducta" voluntario y la formación de un grupo de preparación específico representan pasos importantes hacia el aprovechamiento responsable del poder de la inteligencia artificial. El objetivo es garantizar que se maximicen sus beneficios y al mismo tiempo se gestionen eficazmente los riesgos potenciales.

Descargo de responsabilidad

De acuerdo con las directrices del Trust Project, BeInCrypto se compromete a proporcionar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten a un profesional antes de tomar cualquier decisión basada en este contenido.
Este artículo fue compilado inicialmente mediante inteligencia artificial avanzada, diseñada para extraer, analizar y organizar información de una amplia gama de fuentes. Funciona sin creencias, emociones o prejuicios personales, proporcionando contenido centrado en datos. Para garantizar la relevancia, precisión y cumplimiento de los estándares editoriales de BeInCrypto, un editor humano revisó, editó y aprobó meticulosamente el artículo para su publicación.

Los países posteriores al G7 promueven un 'código de conducta' de IA para prevenir el uso indebido de la tecnología apareció por primera vez en BeInCrypto .