Los empleados dicen que OpenAI y Google DeepMind ocultan los riesgos de la IA 

Varios empleados actuales y anteriores de OpenAI y Google DeepMind han acusado a sus empresas de ocultar los riesgos de la IA que podrían desencadenar la extinción humana. En una carta abierta, los trabajadores dijeron que las empresas de inteligencia artificial están dando prioridad a las ganancias mientras evitan la “supervisión [gubernamental] efectiva”.

Lea también: OpenAI alinea al sucesor de GPT-4 en medio de preocupaciones de seguridad

La carta abierta fue firmada por 11 ex empleados de OpenAI, dos de ellos de Google DeepMind, y respaldada por el "padrino de la inteligencia artificial" Geoffrey Hinton, ex empleado de Google. Dijo que los motivos de lucro y las lagunas regulatorias permiten a las empresas ocultar las amenazas que plantea la inteligencia artificial avanzada.

La inteligencia artificial podría llevar a la extinción humana

Según la carta, empresas de inteligencia artificial como OpenAI y Google DeepMind, creador de Gemini , no han compartido públicamente información sobre salvaguardias inadecuadas y niveles de riesgo de sus sistemas porque no están obligadas a hacerlo.

Sin supervisión regulatoria, los programas de IA podrían causar graves daños a los humanos. Los empleados advirtieron:

"Estos riesgos van desde afianzar aún más las desigualdades existentes… hasta perder el control de los sistemas autónomos de IA, lo que resultaría en una posible extinción humana".

Como señalaron los firmantes de la carta, las propias empresas de IA han reconocido estos riesgos. En mayo de 2023, los directores ejecutivos de OpenAI, Anthropic y Google DeepMind firmaron una carta abierta del Centro para la seguridad de la IA. La carta simplemente decía: “Mitigar el riesgo de extinción debido a la inteligencia artificial debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Las empresas de IA están cada vez más bajo escrutinio por anteponer los nuevos productos y las ganancias a la seguridad. OpenAI, creador de ChatGPT, tomó nota de las preocupaciones planteadas en la carta y dijo que está trabajando para desarrollar una IA segura.

"Estamos orgullosos de nuestro historial de ofrecer los sistemas de IA más capaces y seguros, y creemos en nuestro enfoque científico para abordar el riesgo", dijo la portavoz de OpenAI, Lindsey Held, al New York Times.

"Estamos de acuerdo en que un debate riguroso es fundamental dada la importancia de esta tecnología, y continuaremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo".

HACIA

Los denunciantes temen represalias

Ex empleados de OpenAI y Google han dicho que les gustaría desempeñar el papel de supervisión mientras los reguladores elaboran leyes que obligarían a los desarrolladores de IA a revelar públicamente más información sobre sus programas.

Sin embargo, los acuerdos de confidencialidad y el riesgo de represalias por parte de los empleadores disuaden a los trabajadores de expresar sus preocupaciones públicamente. Según la carta:

“Algunos de nosotros tememos razonablemente diversas formas de represalias, dada la historia de casos similares en toda la industria. No somos los primeros en encontrar o hablar de estos problemas".

En Estados Unidos, los denunciantes están protegidos por la ley, pero aquellos que exponen los peligros de la inteligencia artificial no están cubiertos porque la tecnología aún no está regulada.

Lea también: ChatGPT todavía difunde falsedades, dice el regulador de datos de la UE

La carta pide a las empresas de inteligencia artificial que faciliten comentarios anónimos y verificables, apoyen una cultura de crítica abierta y no tomen represalias contra los denunciantes.

El investigador de inteligencia artificial Lance B. Eliot dijo que las empresas adoptan un enfoque de “palo y zanahoria” ante las críticas. Los empleados que no denuncian los riesgos son recompensados ​​con ascensos laborales y aumentos salariales.

Por otro lado, los denunciantes y críticos pierden sus opciones sobre acciones y pueden ser obligados a abandonar la empresa y ser incluidos silenciosamente en la lista negra de la comunidad de líderes de IA.


Informe criptopolitano de Jeffrey Gogo