IA en el campo de batalla: la pesadilla de los datos envenenados

La IA también está en el centro de las tecnologías militares para mejorar su eficacia en el campo de batalla. Su uso generalizado, sin embargo, lo expone a un ataque muy particular, es decir, " envenenar el pozo" de los datos que alimentan su inteligencia.

"No creo que nuestros datos estén envenenados ahora", subrayó la subsecretaria de Defensa de Estados Unidos, Jennifer Swanson , en la conferencia del Potomac Officers Club el miércoles, "pero cuando luchemos contra un adversario cercano, tendremos que saber exactamente qué los vectores son.

Cada algoritmo de aprendizaje automático debe entrenarse con datos: muchísimos datos. El Pentágono está haciendo un gran esfuerzo para recopilar, cotejar, curar y limpiar sus datos, de modo que los algoritmos analíticos y las incipientes IA puedan darles sentido. En particular, el equipo de preparación debe eliminar todos los puntos de datos incorrectos antes de que el algoritmo pueda aprender algo incorrecto.

La batalla del estrado

Los chatbots comerciales, desde Microsoft Tay de 2016 hasta ChatGPT de 2023, han demostrado cómo la calidad de los datos puede influir en el desarrollo y el funcionamiento de la IA. En el caso de la IA utilizada en el sector militar, los datos podrían ser "envenenados", es decir, falsificados y distorsionados, de manera deliberada y guiada por potenciales adversarios de las fuerzas armadas de un país, y esta técnica se define precisamente como "datos envenenamiento".

“Cualquier LLM [Large Language Model] comercial que exista y que aprenda de Internet está hoy envenenado”, dijo Swanson sin rodeos. "Pero, sinceramente, estoy más preocupado por lo que ustedes llaman, ya saben, IA 'normal', porque estos son los algoritmos que en realidad van a ser utilizados por nuestros soldados para tomar decisiones en el campo de batalla".

En el caso del Pentágono no se trata de entrenar chatbots con datos extraídos de la red. El Ejército debe entrenarlo con un conjunto de datos militares confiables y verificados dentro de un entorno seguro. Específicamente, recomendó un sistema en el nivel de impacto 5 o 6 del Departamento de Defensa, adecuado para datos sensibles (5) o clasificados (6).

Para el verano debería haber la primera muestra de inteligencia artificial IL-5 LLM, es decir, basada en datos de nivel 5. Esto puede ser útil para todo tipo de funciones administrativas, resumiendo grandes cantidades de información para hacer más eficientes los procesos burocráticos. "Pero nuestra principal preocupación son los algoritmos que informarán las decisiones en el campo de batalla".

En cambio, envenenar los datos de la IA que deciden las actividades en el campo de batalla puede ser un problema mucho más profundo y difícil de resolver.

CJADC2, pruebas de IA y cómo vencer los datos envenenados

Obtener los datos correctos de entrenamiento militar específico es especialmente crítico para el Pentágono, cuyo objetivo es utilizar la IA para coordinar futuras operaciones de combate en tierra, aire, mar, espacio y ciberespacio. El concepto se llama Comando y Control Conjunto Conjunto de Todos los Dominios (CJADC2), y en febrero el Pentágono anunció que ya se había desplegado una “ capacidad mínima de viabilidad ” en funcionamiento en cuarteles generales selectos en todo el mundo.

Las versiones futuras agregarán datos de objetivos y planificación de ataques, conectándose con proyectos de comando de batalla de IA existentes en todo el servicio: el ABMS de la Fuerza Aérea, el Proyecto Overmatch de la Marina y el Proyecto Convergencia del Ejército.

Project Convergence, a su vez, utilizará la tecnología desarrollada por el recién formado Project Linchpin , que será el punto de IA para guiar las decisiones estratégicas.

En otras palabras, el Ejército está tratando de aplicar al aprendizaje automático el circuito de retroalimentación “ágil” entre el desarrollo, la ciberseguridad y las operaciones actuales (DevSecOps) utilizado por los principales desarrolladores de software para lanzar rápidamente nuevas tecnologías y actualizarlas continuamente.

El problema es que, en realidad, no sabemos cómo guiar estos procesos y las empresas que gestionan comercialmente los algoritmos no tienen idea de cómo funcionan. Normalmente estamos acostumbrados a ver el funcionamiento de los programas como determinista, como la respuesta fija a una determinada situación. Esto no ocurre con la IA, donde la respuesta no siempre está predeterminada, como demuestran las aplicaciones OpenAI.

También hay un problema adicional: cada implementación de IA provoca un flujo de datos que a su vez se integra en la base de datos de la IA y, por tanto, define sus procesos futuros. Todo esto hace que el problema del envenenamiento de datos y de la pureza de la información suministrada a los programas de IA sea extremadamente importante, esencial, en la definición de decisiones estratégicas y en su transmisión.

En los próximos años se desarrollará un nuevo campo de batalla: el de los datos, en el que cada bando intentará corromper y falsificar la base de datos en la que se basan las decisiones de los demás.


Telegrama
Gracias a nuestro canal de Telegram podrás mantenerte actualizado sobre la publicación de nuevos artículos de Escenarios Económicos.

⇒ Regístrate ahora


Mentes

El artículo IA en el campo de batalla: la pesadilla de los datos envenenados procede de Escenarios Económicos .


Esta es una traducción automática de una publicación publicada en Scenari economici en la URL https://scenarieconomici.it/ia-sul-campo-di-battaglia-lincubo-dei-dati-avvelenati/ el Mon, 22 Apr 2024 08:00:38 +0000.