Anthropic, Google, Microsoft y OpenAi se unen en Frontier Model Forum para el desarrollo seguro de IA. ¿Un farol?

Anthropic, Google, Microsoft y OpenAi se unen en Frontier Model Forum para el desarrollo seguro de IA. ¿Un farol?

Los cuatro líderes de la industria de la IA han lanzado el Frontier Model Forum, un organismo para garantizar el "desarrollo seguro y responsable" de los modelos de inteligencia artificial más potentes. Sin embargo, para los críticos es una estratagema para evitar la regulación.

Los grandes nombres de la tecnología se unen en Inteligencia Artificial.

Anthropic, Google, Microsoft y OpenAI anunciaron ayer la creación del Frontier Model Forum, un organismo creado para garantizar "un desarrollo seguro y responsable de los modelos de IA".

El grupo se centrará en coordinar la investigación de seguridad y articular las mejores prácticas de lo que se denominan "modelos de IA de frontera" que superan las capacidades presentes en los modelos más avanzados existentes. De hecho, el Frontier Model Forum tendrá como objetivo promover la investigación sobre seguridad y proporcionar un canal de comunicación entre la industria y los responsables políticos.

Como recuerda Axios , las empresas se encuentran entre las siete que se comprometieron a un acuerdo con la Casa Blanca el viernes para minimizar los riesgos de la IA, realizar más investigaciones sobre la seguridad de la IA y compartir las mejores prácticas de seguridad, entre otras promesas.

Al mismo tiempo, el Financial Times señala que ya existen grupos similares. La Asociación sobre IA, de la cual Google y Microsoft también fueron miembros fundadores, se formó en 2016 con miembros de toda la sociedad civil, la academia y la industria y con la misión de promover el uso responsable de la inteligencia artificial.

¿Qué cambiará ahora con Frontier Model Forum?

Se preguntan algunos críticos, subrayando la ausencia de objetivos concretos o resultados medibles en los compromisos de las cuatro empresas.

QUÉ HARÁ EL FORO DEL MODELO FRONTERA

El Frontier Model Forum también trabajará con legisladores y académicos, facilitando el intercambio de información entre empresas y gobiernos.

"El organismo – explica una nota – se basará en las habilidades técnicas y operativas de las empresas asociadas en beneficio de todo el ecosistema de Inteligencia Artificial", por ejemplo, mediante el avance de evaluaciones técnicas, el desarrollo de una biblioteca pública de soluciones para apoyar mejores prácticas y estándares de la industria.

PRÓXIMAMENTE UN COMITÉ ASESOR Y EJECUTIVO

En los próximos meses, el Frontier Model Forum "establecerá un consejo asesor para guiar su estrategia y prioridades". También organizará la financiación con un grupo de trabajo y creará un comité ejecutivo para guiar sus esfuerzos.

Y QUÉ NO

No participará en actividades de cabildeo, dijo un portavoz de OpenAI, según informó Reuters .

LOS OBJETIVOS DEL FORO MODELO FRONTERA

Entre los objetivos del Foro, promover la investigación sobre la seguridad de la IA; identificar las mejores prácticas para el desarrollo responsable; colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre oportunidades y riesgos de seguridad; apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a abordar los principales desafíos sociales.

SE BUSCAN PARTICIPANTES

Los cuatro fundadores anunciaron que la iniciativa está abierta a organizaciones que estén "dispuestas a contribuir al avance de los esfuerzos del Foro también participando en iniciativas conjuntas".

Pero la membresía se limita a las empresas que construyen "modelos de aprendizaje automático a gran escala que superan las capacidades que se encuentran actualmente en los modelos más avanzados existentes".

COMENTARIOS DE EXPERTOS

Finalmente, los escépticos creen que el proyecto de las cuatro grandes tecnológicas estadounidenses es un intento de escapar de las mallas de la regulación.

En declaraciones al Financial Times, Emily Bender, lingüista computacional de la Universidad de Washington que ha realizado una extensa investigación sobre grandes patrones lingüísticos, dijo que las garantías de las empresas eran “un intento de evitar la regulación; afirmar la capacidad de autorregulación, de la que soy muy escéptico”.

Centrarse en los temores de que "las máquinas cobrarán vida y tomarán el control" ha sido una distracción de "los problemas reales que enfrentamos con el robo de datos y la vigilancia y poner a todos en la economía de trabajo", dijo Bender.


Esta es una traducción automática de una publicación publicada en StartMag en la URL https://www.startmag.it/innovazione/anthropic-google-microsoft-e-openai-si-alleano-nel-frontier-model-forum-per-sviluppo-sicuro-dellia-un-bluff/ el Sat, 29 Jul 2023 05:48:37 +0000.