Inteligencia artificial, qué hay detrás de las peticiones regulatorias

Desde hace unas semanas reina un gran revuelo a ambos lados del Atlántico. Estos son nuestros amigos políticos, todos decididos a poner en marcha la máquina que debería "regular la Inteligencia Artificial" .

Por lo tanto, hemos visto las habituales comisiones de estudio de la Unión Europea, una "orden ejecutiva" del presidente estadounidense Joe Biden ( "Desarrollo y uso seguro y confiable de la inteligencia artificial" ) y, finalmente, una cumbre incluso en Bletchley Park, la famosa palacio que acogió a Alan Turing mientras, durante la Segunda Guerra Mundial, inventaba la famosa máquina capaz de descifrar el cifrado generado por la máquina "Enigma" utilizada por los nazis.

Graves riesgos para la humanidad

Conocemos la narrativa dominante: la IA plantea graves riesgos para la seguridad de todos y podría incluso amenazar la existencia misma del hombre. Por tanto, es justo que los políticos, que siempre han estado atentos únicamente a los intereses de los ciudadanos, hagan todo lo posible para protegernos.

Pero tal vez esta vez no fueron aconsejables. Para entender esto, es necesario retroceder hasta mayo de 2023, cuando se publicó la " Declaración de riesgos de la IA " , un documento que advertía sobre los riesgos de extinción de la raza humana debido a la IA.

Entre los firmantes se encuentra el CEO de OpenAI , el chatbot que esencialmente ha iniciado los 12 meses de increíbles desarrollos en el sector de la IA. Aterrorizado por la tecnología que su empresa estaba desarrollando y siguió desarrollando, hasta el punto de rogar al Congreso de Estados Unidos que "nos regulara".

Un artículo reciente de Ben Thompson titulado “AI: Attenuating Innovation” analiza tan bien lo que está pasando que decidimos hablar de ello. Empezando por esto:

Es interesante preguntar quién firmó esta declaración : OpenAI tiene 30 firmas, incluido el CEO Sam Altman . Son 15 las firmas de Anthropic , entre ellas el director general Dario Amodei . Hay siete firmantes de Microsoft , incluido el CTO Kevin Scott . Hay 81 firmas de Google , incluido el director ejecutivo de Google DeepMind, Demis Hassabis . No hay ninguno de Apple ni de Amazon , pero sí los de dos empleados de Meta de bajo nivel.

Preocupaciones interesadas

Lo sorprendente de este recuento es la correlación absoluta entre el número de firmas de las distintas empresas y la posición actual de las propias empresas en el mercado . OpenAI está a la cabeza y la empresa obtiene ingresos reales de ChatGPT ; Anthropic ocupa el segundo lugar y ha firmado acuerdos tanto con Google como con Amazon . Google tiene excelentes productos aunque existe una aparente parálisis interna respecto a su activación por motivos de modelo de negocio ; instar a la cautela es absolutamente de su interés.

La cuestión es la siguiente: en general , la regulación garantiza los ingresos posicionales de los operadores establecidos. Ciertamente es digno de mención que los actuales poseedores de tecnología de Inteligencia Artificial parecen los más interesados ​​en generar alarma en Washington y en todo el mundo sobre los peligros de esta nueva tecnología.

Preocupaciones que aparentemente no son lo suficientemente fuertes como para inducirles a detener su trabajo: "Cuidado, lo que hacemos es muy peligroso, mientras tanto seguiremos haciéndolo" , afirman.

Serían entonces ellos los responsables, los que se preocuparían lo suficiente como para pedir regulación; Y mucho mejor si las preocupaciones acaban perjudicando a futuros posibles competidores .

El riesgo de la regulación

Un análisis de Steven Sinofsky , uno de los principales arquitectos de software de Microsoft , nos permite comprender mejor:

Este documento ( orden ejecutiva de Biden, ed. ) es el trabajo de agregar los aportes políticos de un comité ampliado de distritos electorales interesados ​​con un objetivo claro: identificar qué se puede hacer para limitar legalmente la Inteligencia Artificial. No hay un propietario claro de este documento. No existe consenso ni dirección científica destacada que podamos discernir. Este no es tanto un documento sobre lo que se debe hacer con el potencial de la tecnología, sino un documento que amplía los límites de lo que se puede hacer legalmente para frenar la innovación .

Lo que falta por completo es algo positivo, algo que acelere los potenciales positivos de la IA. La administración Biden insiste con arrogancia en que debería desempeñar un papel a la hora de dictar los resultados de una innovación que pocos, si es que alguno, de sus miembros comprenden y que casi con certeza no podrían inventar. Este enfoque de la regulación no se trata de innovación, a pesar de toda la palabrería que lo dice. Esta orden tiene como objetivo sofocar la innovación y entregar la próxima plataforma a los titulares. La administración Biden, como la mayoría de los comentaristas y políticos, supone que la Inteligencia Artificial es peligrosa, a pesar de que muchos de los daños enumerados, como aprender a construir una bomba o sintetizar sustancias químicas peligrosas o realizar ataques cibernéticos, ya se explican trivialmente en la vida normal de hoy. Sitios de Internet.

Y -añadimos- sin tener en cuenta que uno de los tres "padrinos" de la IA, Yann LeCun , continúa explicando cómo los supuestos peligros no son más que la versión moderna de los peligros existenciales que se atribuían a la máquina de vapor : al principio del siglo XIX.

El artículo Inteligencia artificial, lo que hay detrás de las peticiones de regulación es de Nicola Porro .


Esta es una traducción automática de una publicación publicada en Atlantico Quotidiano en la URL https://www.nicolaporro.it/atlanticoquotidiano/quotidiano/media/intelligenza-artificiale-cosa-ce-dietro-le-richieste-di-regolamentazione/ el Fri, 17 Nov 2023 04:52:00 +0000.