El aprendizaje de la inteligencia artificial sobre la doctrina y la inteligencia militares específicas para elaborar planes operativos es un «área activa de experimentación en estos momentos», según un analista del Special Competitive Studies Project.
Los chatbots ya pueden inventar nuevas recetas (con éxito desigual), planificar vacaciones o escribir una lista de la compra ajustada al presupuesto. ¿Qué les impide resumir información secreta o redactar órdenes detalladas de operaciones?
Nada, en teoría, dicen los expertos en IA del Special Competitive Studies Project. El Departamento de Defensa debería explorar esas posibilidades, argumenta el SCSP, no sea que China u otro competidor sin escrúpulos se adelante. En la práctica, sin embargo, según subrayaron los analistas del proyecto en entrevistas con Breaking Defense, hará falta mucho trabajo de preparación cuidadoso, como se expone en un estudio del SCSP publicado recientemente.
Y, advirtieron, siempre será necesario que al menos un humano bien entrenado compruebe el plan de la IA antes de actuar en consecuencia, por no hablar de conectar la IA directamente a un enjambre de drones letales.
«Ahora mismo puedes entrar en ChaGPT y decir, ya sabes, ‘Constrúyeme un calendario para las fiambreras de mis hijos para los próximos cinco días'», dijo Ylber Bajraktari, un veterano empleado del Departamento de Defensa que ahora trabaja como asesor principal del SCSP. Con un poco más de programación, añadió, «podría conectarse a Instacart o lo que sea [y] pedir todo eso instantáneamente, y que te lo envíen».
«La tecnología está ahí», afirma Bajraktari. «La cuestión es conectarlos».
Conectar bases de datos de inteligencia y sistemas de mando militar, por supuesto, requerirá un nivel de ingeniería más alto que automatizar menús.
«Las funciones militares específicas requieren un grado de especificidad mucho mayor que, por ejemplo, crear un buen pollo a la parmesana», afirma Justin Lynch, antiguo oficial del Ejército y miembro del Hill que dirige los estudios de defensa del SCSP. «Requeriría mejorar el ajuste del LLM [Large Language Model]. Tiene que ser algo creado más específicamente» para fines militares, explicó: entrenado con datos como inteligencia militar, doctrina oficial y otras fuentes verificadas, en lugar de extraer texto de mensajes de Reddit y otros sitios web públicos como hizo OpenAI para ChatGPT.
«Se trata de un área de experimentación activa en estos momentos», declaró a Breaking Defense.
Si la IA generativa pudiera generar un plan operativo militar completo, ¿podría también ejecutarlo, quizá transmitiendo órdenes directamente a un enjambre de drones de combate? Eso es tecnológicamente concebible, pero una idea terrible, dijo Lynch, y no es en absoluto lo que el SCSP está recomendando.
«Todo de lo que estamos hablando está muy firmemente dentro de la 3000.09 [PDF]», subrayó, citando la directiva del DoD recientemente actualizada que ordena (con importantes lagunas) el control humano de la fuerza letal.
«Nos limitamos estrictamente a lo que yo definiría como una especie de ‘copiloto cognitivo'», explicó Bajraktari. «Se trata de mejorar la toma de decisiones, la planificación, la recepción y el procesamiento de la información, más que la ejecución de las misiones… La tecnología no está preparada la ejecución automatizada».
Obviamente, no queremos el problema de SkyNet de las películas de Terminator, en las que una IA militar rebelde decide que la propia humanidad es el enemigo y lanza misiles nucleares. Más sutilmente, Lynch dijo que no se quiere «el problema de Thomas Beckett», en el que un agente (humano o IA) malinterpreta las instrucciones y hace algo contraproducente mientras intenta ayudar sinceramente.
Es una referencia al asesinato en 1170 de Santo Tomás Beckett, arzobispo de Canterbury, en su catedral a manos de caballeros leales al rey Enrique II. Se dice que el rey, harto de años de disputas políticas entre la Iglesia y el Estado, exclamó: «¿Quién me librará de este molesto sacerdote?». , , sólo para que unos secuaces bien armados se lo tomaran demasiado al pie de la letra. Recordemos que la IA puede ser más literal que cualquier ser humano e imaginemos a alguien que hace una petición mal redactada para «eliminar» o «quitar» un problema.
Los expertos del SCSP insistieron en que siempre es conveniente que un ser humano experto revise el plan generado por la IA para detectar posibles errores, del mismo modo que cualquier escritor humano necesita un editor. [Aunque eso ralentiza un poco el ritmo en comparación con la automatización pura, reconocieron, a un humano le lleva mucho menos tiempo comprobar un borrador existente que generarlo desde cero, por lo que debería seguir ahorrando mucho tiempo en comparación con los actuales procesos manuales y laboriosos del personal.
A grandes rasgos, los expertos del SCSP prevén tres niveles de usos militares y de inteligencia para la IA generativa, desde las aplicaciones más sencillas a corto plazo hasta las más ambiciosas que requieren años de cuidadosa preparación y experimentación:
Generación de contenidos: SCSP empieza con el tipo de trabajo que ya hacen los chatbots, pero adaptado a tareas como resumir informes secretos de inteligencia o inventarios de logística militar. Cuanto más precisos y específicos sean los conjuntos de datos en los que se entrena la IA, más precisas y procesables serán sus respuestas, en contraste con el enfoque de » aprendiz de todo, maestro de nada» adoptado por ChatGPT y otras IAs de consumo. La mayoría de los usuarios militares querrían disponer de salvaguardias especialmente sólidas contra las «alucinaciones» de la IA que producen falsedades; pero, según Chip Usher, antiguo alumno de la CIA y experto en inteligencia del SCSP, la Agencia podría utilizar la predilección de la IA por la ficción para crear antecedentes falsos detallados para sus agentes, que podrían incluir años de publicaciones convincentes en las redes sociales.
Orquestación automatizada: En el siguiente nivel, en lugar de recurrir a un único conjunto de datos, por grande que sea, la IA podría «llamar a la información de un gran conjunto de bases de datos o herramientas», explicó Lynch. «He pasado mucho tiempo trabajando en Centros de Operaciones Tácticas, y normalmente se tiene acceso a cientos de bases de datos y herramientas, y tiempo para familiarizarse con un número mucho menor de ellas….. Un gran modelo lingüístico puede orquestarlas de forma automatizada y, a continuación, extraer los conjuntos de datos y las herramientas analíticas más relevantes para ti.»
IA genética: aquí es donde la IA podría pasar de recomendar tareas a ejecutarlas, aunque bajo estrictos controles. Los expertos del SCSP prevén que la IA generativa encargue a otras IA subordinadas que recopilen información para rellenar lagunas en sus datos, por ejemplo, o que organicen convoyes de suministros, pero no que lancen enjambres letales autónomos.
Los niveles superiores de este marco se basan en la capacidad de la IA generativa para tomar una petición amplia y sencilla, desde «planificar las comidas de mis hijos para la semana que viene» hasta «elaborar un plan logístico para mi batallón», y convertirla en una lista detallada de tareas específicas. La IA no entiende realmente las tareas, subraya Lynch, pero ha visto suficientes listas de comprobación escritas por humanos como para generar las suyas propias, similares, cuando se le piden.
Del mismo modo, la IA tampoco «entiende» lo que le piden sus amos humanos. No tiene conciencia de la realidad externa, sólo de las correlaciones estadísticas entre palabras y partes de palabras («tokens» en la jerga). Pero los LLM son muy buenos convirtiendo el lenguaje humano en 1s y 0s legibles por la máquina y convirtiendo el resultado en palabras inteligibles. Esto les permite actuar como intermediarios entre los humanos, incluso los no entrenados, y los algoritmos cada vez más sofisticados.
«La diferencia con ChatGPT es que, de repente, se dispone de una interfaz en la que, usando la lengua inglesa, se pueden hacer preguntas», explicó a Breaking Defense el ex director del Pentagon´s Joint AI Center, el General retirado de tres estrellas Michael Groen, la pasada primavera. «Democratiza la IA para grandes comunidades de personas».
«Muchas de las herramientas que estamos viendo surgir tienen interfaces de lenguaje natural que aumentan drásticamente la accesibilidad y reducen las barreras para operar en determinados sectores sin años de intensa formación o educación», afirmó Bajraktari, del SCSP. El inconveniente es que a unos pocos malintencionados les resulta más fácil que nunca producir en masa información errónea, programas maliciosos o incluso armas letales como bombas caseras o gas venenoso. La ventaja es el enorme potencial que tienen las personas sin formación técnica intensiva en IA para aprovechar las nuevas y potentes tecnologías de IA.
De hecho, entre el auge de la IA y el de China, según el informe del SCSP, la humanidad se enfrenta a una combinación de cambio tecnológico e inestabilidad geopolítica con un inquietante «parecido a la época anterior a la Primera Guerra Mundial». No es nada tranquilizador, pero con algunos consejos de expertos (humanos y quizá no humanos), quizá el mundo pueda sortear mejor la confusión esta vez.
Fte. Defense One (Sydney J. Freedberg Jr.)
Sydney J. Freedberg Jr. ha escrito para Breaking Defense desde 2011 y ha sido editor adjunto durante la primera década del sitio, cubriendo tecnología, estrategia y política con un enfoque particular en el Ejército de Estados Unidos. Ahora es editor colaborador centrado en cibernética, robótica, IA y otras tecnologías y políticas críticas que darán forma al futuro de la guerra. Sydney empezó a cubrir temas de defensa en la revista National Journal en 1997 y es licenciado por Harvard, Cambridge y Georgetown.