¿Qué podemos deducir de un reciente informe de prensa, que afirma que China está intentando desarrollar un submarino nuclear con «potencia intelectual aumentada por IA» para dar a la Armada del People Liberation Army (PLA) superioridad en la lucha «?
Un artículo publicado el 4 de febrero en el South China Morning Post cita a un «científico de alto rango involucrado con el programa», diciendo que hay un proyecto en marcha, para actualizar los sistemas informáticos de los submarinos nucleares, con un sistema IA para apoyo a la decisión, «que piensa por sí mismo,» que reduciría la carga de trabajo y la carga mental de los oficiales al mando. El artículo describe planes para que la AI asuma funciones de «pensamiento» sobre los submarinos nucleares, que podrían incluir, a un nivel básico, la interpretación y respuesta de señales captadas por sonares, a través del uso de redes neuronales convolucionales.
Dada la sensibilidad de tal proyecto, es de destacar que, un investigador del programa esté aparentemente discutiendo estos temas con un periódico en lengua inglesa con sede en Hong Kong, propiedad del gigante tecnológico chino Alibaba. Eso por sí solo, sugiere que los poderes de Beijing pretenden que esa historia reciba atención. La divulgación de esta información debería ser considerada críticamente y podría incluso considerarse como una señal deliberada, tal vez «disuasiva» de los avances de China y/o más como una «propaganda tecnológica», hipotética y exagerada, de la investigación y el desarrollo actuales. Cualquier análisis basado en este tipo de fuentes es difícil de confirmar y, por lo tanto, debe ser objeto de grandes reservas.
No obstante, existe al menos una consistencia básica entre el artículo, tal como se informa, y la clara búsqueda por parte de China de aplicaciones militares de IA, que son una prioridad en la innovación de la defensa. Además, ciertas líneas conocidas de actuación china hacen que esta noticia sea plausible, incluyendo los avances en el desarrollo submarino emprendidos por la China Shipbuilding Industry Corporation, o CSIC.
En un nivel básico, la aplicación del aprendizaje automático al procesamiento de señales acústicas ha sido un área de investigación activa en China desde hace varios años. Como tal, parece factible, e incluso no es sorprendente, que el PLA intente utilizar el aprendizaje automático para ayudar a las tripulaciones submarinas y a sus comandantes a interpretar la escasez y complejidad de la información disponible en el dominio submarino.
En el pasado, esta tecnología esta demasiado lejos de su aplicación, pero recientemente se ha avanzado mucho», según un investigador del Instituto de Acústica de la Academia China de Ciencias. «Parece que tienen esperanzas a la vuelta de la esquina.»
A medida que China continúa desarrollando submarinos nucleares más avanzados y con armas nucleares, es probable que el siga centrándose en esos nuevos conceptos y capacidades para esta Fuerza. Por ejemplo, según un diseñador principal de submarinos del CSIC, los submarinos convencionales de próxima generación de China podrían aprovechar las comunicaciones y navegación cuánticas y las tecnologías inteligentes de vehículos no tripulados.
Al mismo tiempo, el PLA también persigue el desarrollo y el despliegue de vehículos submarinos no tripulados, como el Sea Wing, que podría servir de apoyo a submarinos en el cumplimiento de sus misiones. En el futuro, la Armada podría intentar utilizar UUVs junto con submarinos, en un intento de avanzar sus capacidades de guerra antisubmarina y cambiar el equilibrio en este dominio. En este contexto, a medida que el campo de batalla en alta mar se vuelve aún más complejo y controvertido, el uso de la IA para apoyar a los comandantes, al menos en el corto plazo, la capacidad para el procesamiento de señales acústicas y el reconocimiento de objetivos subacuáticos, y tal vez un apoyo más directo a la toma de decisiones a medida que la tecnología madura, parece ser una aplicación plausible, y quizás bastante impactante.
Sin embargo, la existencia potencial de tal programa también plantea preguntas críticas. El artículo del SCMP no especifica ni aclara, si estos futuros sistemas de IA se utilizarían únicamente en submarinos de ataque nucleares o también en los porta-misiles nucleares, como el tipo 096 en desarrollo. De manera bastante sensacionalista, el investigador de la Academia China de Ciencias citado en la obra continúa diciendo: «Si el sistema[AI] empezara a tener su propio modo de pensar, podríamos tener un submarino furtivo con un gran arsenal nuclear, capaz de destruir un continente.» Ciertamente, es demasiado pronto para alarmarse de que la Armada pueda tener la intención de poner «superinteligencia» en los submarinos nucleares o soltar ‘asesinos AI con armas nucleares’ por el mundo. Sin embargo, esta ambigüedad plantea la pregunta de si y bajo qué condiciones el PLA podría decidir usar IA en ISR o sistemas de apoyo a la toma de decisiones en apoyo directo a su arsenal nuclear. La falta de transparencia, y las incertidumbres resultantes, son preocupantes, dado el posible impacto de la IA en la estabilidad cibernética, nuclear y estratégica.
Aunque también ha preocupado que el PLA, y otros agentes autoritarios que no están dispuestos a confiar en el personal humano, puedan optar por apartar a las personas, lo que no parece muy probable en el escenario actual. También es cierto, que los escritos y las declaraciones del PLA sobre estos temas, no muestran la reacción negativa visceral que los comandantes estadounidenses parecen tener ante la idea de hacerlo.
Algunos estrategas del PLA también han especulado sobre el potencial de una «singularidad» en el futuro campo de batalla, un punto en el que la mente humana simplemente no puede seguir el ritmo de la velocidad y la complejidad del combate, lo que hace necesario que los agentes de IA asuman una mayor responsabilidad al mando. En este caso, el investigador anónimo enfatizó: «Debe haber una mano humana en cada puesto crítico. Esto es por redundancia por seguridad.» Por el momento, mantener al menos un nivel básico de participación humana parece ser la opción más práctica y eficaz. Sin embargo, eso por sí solo no es una garantía de seguridad.
A medida que el PLA busca utilizar la IA para mejorar sus capacidades de C4ISR, existe el riesgo de que pueda confiar demasiado en o sobreestimar la supuesta superioridad de la inteligencia de la máquina y su juicio sobre el humano. Aunque los sistemas altamente automatizados pueden parecer, a nivel superficial, prometedores para reducir las cargas que pesan sobre los comandantes, la experiencia pasada, incluso con el sistema de defensa antimisiles y antiaérea Patriot, ha demostrado que tales sistemas complejos pueden, de hecho, crear mayores desafíos para sus operadores, requiriendo una comprensión matizada de sus ventajas y limitaciones, a menudo mediante la capacitación especializada. Además, la dinámica del «sesgo de automatización» puede comprometer la toma de decisiones cuando los seres humanos comienzan a confiar demasiado en los sistemas automatizados, a expensas de su propio juicio.
Intrínsecamente, el empleo de la IA en el futuro campo de batalla creará nuevos e inesperados riesgos operativos. Estos probablemente incluyan el potencial mal funcionamiento, interferencia adversarial o comportamientos emergentes inesperados. El científico anónimo citado en esta publicación supuestamente enfatizó: «Lo que más importa a los militares no son las características extravagantes. Lo que más les importa es que la cosa no se estropee en medio del fragor de la batalla «. Sin embargo, esto puede ser mucho más fácil de decir que de hacer, lo que plantea interrogantes sobre cómo y hasta qué punto, estos sistemas se someterían a pruebas de seguridad y garantía. En esta etapa de su desarrollo, la AI sigue siendo frágil y muy vulnerable a la suplantación o manipulación. Si el PLA opta por introducir sistemas de IA en sus submarinos convencionales, por no hablar de submarinos nucleares, inevitablemente habrá no sólo nuevas capacidades sino también nuevos riesgos. A medida que los principales ejércitos empiecen a depender más de los sistemas de IA, esto también pondrá un premio en el desarrollo de capacidades de «contra-AI» para interrumpirlos.
Y aunque la veracidad del informe del SCMP no puede ser verificada en este punto, está claro que el PLA está priorizando la búsqueda de la superioridad de decisión a través de tecnologías de IA. Los estrategas del PLA han reconocido, particularmente desde la derrota de AlphaGo (programa informático de inteligencia artificial desarrollado por Google DeepMind para jugar al juego de mesa Go) de Lee Sedol en la primavera de 2016, que la IA podría conferir una ventaja crítica a través de su habilidad para idear tácticas y estrategias que, incluso los humanos más talentosos no pueden igualar. En particular, AlphaGo triunfó sobre Lee Sedol, y más tarde el campeón chino Ke Jie, gracias a su capacidad de anticipar todas las opciones y trayectorias potenciales en el juego de Go, que los pensadores PLA ven como al menos similar a la guerra, y formular movimientos que pueden ser novedosos, incluso superiores a los que los humanos han inventado en miles de años de juego. Desde entonces, AlphaZero ha demostrado capacidades aún más sorprendentes, superando al AlphaGo por 100 a 0.
Aunque el campo de batalla es considerablemente más complejo que el juego, el PLA parece aspirar a crear un’ AlphaGo para la guerra’ que podría apoyar a los comandantes, o quizás algún día incluso reemplazarlos, según algunos han especulado.
Si bien la búsqueda del PLA de sistemas de apoyo a la toma de decisiones no es nueva, las capacidades para desarrollar capacidades de toma de decisiones de mando «intelectualizadas» puede avanzar considerablemente con el rápido progreso actual en tecnologías de IA. De hecho, la búsqueda por parte del PLA de capacidades de toma de decisiones de mando «inteligentes» parece ser una prioridad de alto nivel, incluso destacada en un artículo autorizado escrito por el Departamento de Estado Mayor Conjunto de la Comisión Militar Central. Más allá de los submarinos, el PLA también parece estar trabajando en el desarrollo de sistemas para aumentar la toma de decisiones de mando a nivel táctico para los pilotos de aviones de combate. El uso de la IA para mejorar el ISR, ya sea de inteligencia de vídeo e imágenes, como en el Proyecto Maven, o en el procesamiento de señales acústicas para submarinos, como parece ser la intención del PLA, serán aplicaciones iniciales e impactantes. En el futuro, con el advenimiento de la IA en la guerra «inteligente», la capacidad de aprovechar el apoyo facilitado por la AI para la toma de decisiones, podría llegar a ser crítica para lograr la superioridad y el dominio de la profundidad de los mares profundos y más allá.
Fte. Defense One