Para los expertos, la IA es un riesgo como una guerra nuclear o una pandemia

En una declaración simple de 22 palabras en inglés, un grupo de investigadores, ingenieros y directores ejecutivos de IA expresaron su preocupación por la amenaza existencial que representa la inteligencia artificial. El informe subraya la necesidad urgente de priorizar la mitigación de los riesgos de la IA junto con las amenazas globales como las pandemias y la guerra nuclear.

La declaración dice: " Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales como las pandemias y la guerra nuclear".

Los firmantes incluyen a Demis Hassabis, director ejecutivo de Google DeepMind, y Sam Altman, director ejecutivo de OpenAI. Los ganadores del Premio Turing Geoffrey Hinton y Youshua Bengio también respaldaron el susto. Al mismo tiempo, Yann LeCun, el tercer ganador, aún no ha firmado.

La declaración, publicada por el Centro para la Seguridad de la IA en San Francisco, contribuye al debate en curso sobre la seguridad de la inteligencia artificial. A principios de este año, algunos defensores del mensaje de 22 palabras escribieron una carta abierta pidiendo una "pausa" de seis meses en el desarrollo de IA. Sin embargo, la carta fue criticada debido a las diferentes opiniones sobre la gravedad del riesgo de IA y la solución propuesta.

Dan Hendrycks, director ejecutivo del Center for AI Safety, explicó que la brevedad de la última declaración tenía como objetivo evitar generar más desacuerdos. Además, Hendrycks señaló que proponer muchas intervenciones potenciales para mitigar la amenaza de la IA podría haber diluido el mensaje. En cambio, la breve declaración representa una preocupación colectiva de figuras influyentes de la industria que durante mucho tiempo han albergado temores sobre el riesgo de la IA.

Debates a favor y en contra de la decisión

Si bien el debate es bien conocido, los detalles pueden ser complejos y, a menudo, giran en torno a escenarios hipotéticos en los que los sistemas de IA superan los límites de seguridad de los controles. Los defensores del riesgo de la IA señalan los rápidos avances en tecnologías, como los grandes modelos de lenguaje, como evidencia de posibles aumentos futuros en la inteligencia que podrían volverse incontrolables.

Por otro lado, los escépticos señalan las limitaciones actuales de los sistemas de IA, como los continuos desafíos en el desarrollo de automóviles autónomos, a pesar de las enormes inversiones y esfuerzos.

Independientemente de las diferentes perspectivas, los defensores y los escépticos del riesgo de la IA reconocen las amenazas actuales que plantean los sistemas de IA. Estas amenazas van desde facilitar la vigilancia masiva y algoritmos defectuosos de "vigilancia predictiva" hasta crear y difundir desinformación y desinformación.

A medida que continúa el debate, este aviso breve pero impactante sirve como una llamada de atención para el mundo, instándonos a abordar los desafíos que plantea la IA y encontrar formas de mitigar sus riesgos potenciales. El futuro de la IA y su impacto en la humanidad penden de un hilo, lo que subraya la necesidad de una navegación prudente y con visión de futuro.


Telegrama
Gracias a nuestro canal de Telegram puedes mantenerte actualizado sobre la publicación de nuevos artículos de Escenarios Económicos.

⇒ Regístrese ahora


mentes

El artículo Para los expertos, la IA es un riesgo como la guerra nuclear o la pandemia proviene de Escenarios Económicos .


Esta es una traducción automática de una publicación publicada en Scenari economici en la URL https://scenarieconomici.it/per-gli-esperti-la-ai-e-un-rischio-come-la-guerra-nucleare-o-la-pandemia/ el Tue, 30 May 2023 19:43:38 +0000.