La era de la guerra autónoma ha llegado. O eso parece. Las espinosas cuestiones de definición no van a ser más fáciles, pero ha llegado el momento de resolverlas. Según un reciente informe de la ONU, la primavera pasada los miembros del Gobierno de Acuerdo Nacional de Libia emplearon drones STM Kargu-2 de fabricación turca, para atacar una columna de fuerzas del Ejército Nacional Libio que se retiraba de Trípoli.
Pero este ataque no fue como los anteriores con drones del GNA. Según la descripción del informe del incidente, realizado por primera vez por Zak Kallenborn y David Hambling, los drones en este caso «estaban programados para atacar objetivos sin requerir conectividad de datos entre el operador y la munición».
En otras palabras, eran, como dice el informe, «Lethal autonomous weapons systems-sistemas de armas autónomas letales».
Esto parece un hito importante. Durante más de una década, la comunidad internacional ha debatido si las LAWS, como se las conoce de forma abreviada, deben ser reguladas o prohibidas. En su mayor parte, este debate ha funcionado bajo el supuesto de que estas tecnologías aún no existen. Con este nuevo golpe, ¿hemos cruzado por fin el umbral?
Es imposible decirlo. Y esa es exactamente la cuestión.
Si los sistemas Kargu tuvieran la capacidad de ejecutar todos los pasos del ciclo de ataque y de distinguir entre una amplia gama de objetivos diferentes basándose en indicadores sutiles como los rasgos faciales (como afirma el fabricante), entonces podrían entrar sin duda en la mayoría de las definiciones de LAWS.
Por otro lado, si simplemente emplearan algoritmos para fijar y seguir a los objetivos a través de sus cámaras de vídeo, serían más parecidos a las armas existentes, como los sistemas de defensa aérea y los misiles buscadores de calor, que no alcanzan una verdadera «autonomía» ni siquiera cuando no hay un humano en el control.
Por desgracia, el informe de la ONU ofrece escasos detalles técnicos. Pero incluso si tuviéramos más información, la historia no sería necesariamente mucho más clara.
Con toda probabilidad, los drones tenían cierta capacidad para identificar objetos en movimiento en el vídeo, incluyendo posiblemente la capacidad de distinguir a las personas de otros objetos como coches y edificios, pero carecían de algunas de las otras características generalmente asociadas con una verdadera «autonomía letal», como la de priorizar objetivos, ejecutar tácticas complejas de forma dinámica o tomar decisiones de acuerdo con los principios legales del conflicto. Aunque los operadores humanos no controlaran directamente las armas, las «programaban» para llevar a cabo la misión, una forma de control humano. Por lo tanto, probablemente no se trataba de robots asesinos, pero tampoco de armas tontas.
No deberíamos perder el tiempo debatiendo si eran una cosa o la otra. Es probable que en los próximos años se produzcan muchos más casos de sistemas de armas como el Kargu, que se sitúan en esta difusa zona gris entre la automatización y la autonomía.
Desarrollar una definición de LAWS lo suficientemente amplia como para abarcar esta zona gris, pero que también sea lo suficientemente específica como para ser significativa, podría resultar un objetivo difícil de alcanzar, especialmente cuando se tienen en cuenta las muchas variaciones de control humano que pueden ejercerse.
E incluso si fuéramos capaces de establecer una definición universalmente aceptada, el incidente de Kargu pone de manifiesto lo difícil que sería verificar realmente que un sistema determinado la cumple. Para quienes observaran los drones desde el suelo durante el ataque, habría sido difícil decir si, como afirma el informe, las armas no tenían «conectividad» humana. Un dron autónomo tiene el mismo aspecto que uno no autónomo.
Tampoco las especificaciones técnicas del sistema, positivamente de ciencia ficción sobre el papel, proporcionan muchas pruebas sólidas con las que trabajar. Las grandes afirmaciones de «inteligencia artificial» de un contratista de defensa en sus textos de marketing son a menudo tan creíbles como las negaciones de un actor maligno de que sus armas autónomas siempre mantienen a un humano en el contro (o que no violaron ningún embargo de armas, lo que sin duda hicieron los Kargus).
Esto podría frustrar la aplicación de cualquier norma que gire en torno a una definición amplia de LAWS centrada en la noción de «autonomía». Incluso el análisis de las entrañas del arma física no siempre arrojará una imagen clara de lo que puede y no puede hacer.
Estas cuestiones de verificación no suelen tener mucho espacio en el debate sobre las LAWS; el incidente de Kargu demuestra que ya es hora de que esto cambie.
También muestra que incluso cuando las armas no del todo autónomas no cumplen la mayoría de las definiciones de «autonomía», eso no significa que no planteen nuevos retos. Sean cuales sean sus capacidades, estos drones probablemente presenten los inevitables e imprevisibles fallos que caracterizan a todos los sistemas con características autónomas avanzadas.
En el tipo de entorno complejo en el que los drones «cazan» sus objetivos, como dice el informe, no sólo presentarían esos fallos raramente, sino constantemente.
El hecho de que un sistema de este tipo se empleara en el mundo real a pesar de sus probables problemas de fiabilidad es una prueba de que la tecnología se empleará independientemente de que esté o no preparada.
Los primeros en adoptar las armas autónomas letales no van a ser los estados ricos y generalmente reacios al riesgo que actualmente lideran el desarrollo de la tecnología, sino más bien aquellos actores que están dispuestos a emplear armas altamente imperfectas, con poca preocupación por los daños colaterales que podrían surgir de su mal funcionamiento. Es una perspectiva preocupante.
Por ello, la comunidad internacional debería estudiar este incidente con detenimiento. Incluso si no se trata de un verdadero ataque LAWS, sea lo que sea que eso signifique exactamente, proporciona el estudio de caso más claro hasta ahora para algunas de las preguntas urgentes que deben ser respondidas a tiempo, para la importante revisión de la Convención sobre Ciertas Armas Convencionales de la ONU en diciembre.
¿Cómo se podrían elaborar las futuras normas para tener en cuenta las armas que se encuentran en la zona gris de la definición entre «autónomo» y «automático»? ¿Cómo certificar la precisión, fiabilidad y previsibilidad de cualquier arma con características autónomas, y verificar que cumplen las normas básicas de seguridad y legalidad? Y lo que es más urgente, ¿cuáles son los posibles usos malignos de un sistema como éste, y cómo se pueden prevenir estos riesgos de inmediato?
Tenemos seis meses para encontrar algunas respuestas. Hagamos que cuenten
Fte. Defense One