Una pareja de vehículos de exploración no tripulados, pero dotados de inteligencia artificial a bordo, diseñados para navegar, identificar las fuerzas «enemigas» por si mismos, pero sin permiso para disparar, cosa reservada a un humano, participan en el ejercicio Project Convergence.
Se trata de dos robots sin apariencia especial que, a simple vista podrían parecer más bien carros de golf militarizados que Terminators, que se desplazan a través del desierto de Yuma, como parte del ejercicio Project Convergence del Ejército sobre la guerra futura.
Como los humanos, las máquinas se turnan para cubrirse unas a otras a medida que avanzan. Un robot encuentra un lugar seguro, se detiene y lanza el mini-drone que lleva anclado, para observar la siguiente cresta mientras el otro robot avanzaba; luego se detenían.
Su objetivo: un grupo de edificios en el Yuma Proving Ground del Ejército, una ciudad simulada para el adiestramiento en combate urbano. Mientras uno de los robots se mantiene en posición para transmitir comunicaciones a sus lejanos supervisores humanos, el otro se adentraba en la ciudad y veía las fuerzas «enemigas». Con la aprobación de los humanos, el robot abre fuego.
Entonces los algoritmos Aided Target Recognition (ATR) del robot a bordo identificaron otro enemigo, un tanque T-72. Pero este objetivo estaba demasiado lejos para que sus armas pudieran alcanzarlo. Así que el robot subió los datos del objetivo a la red táctica y, de nuevo, con la aprobación humana, pidió apoyo de artillería.
«Ese es un gran paso, Sydney», dijo el general de brigada Richard Ross Coffman, director del ejercicio Project Convergence. «La visión por ordenador… es incipiente, pero está funcionando.»
El reconocimiento algorítmico de objetivos y la visión por computador son avances críticos con respecto a la mayoría de los robots militares actuales, que no son verdaderamente autónomos sino meramente controlados a distancia: La máquina no puede pensar por sí misma, sólo transmite la información de la cámara a un operador humano, que le dice exactamente dónde ir y qué hacer.
Este enfoque, llamado tele-operación, permite mantener a los humanos fuera de peligro, pero es demasiado lento y laborioso para emplearlo a gran escala. Si se pretende usar muchos robots sin tener que inmovilizar a mucha gente a los mandos, se necesita que los robots tomen algunas decisiones por sí mismos, aunque el Ejército enfatiza que la decisión de usar la fuerza letal siempre será tomada por un humano.
Así que Coffman, que supervisa los programas Robotic Combat Vehicle y Optionally Manned Fighting Vehicle, se dirigió a la Universidad Carnegie Mellon. «Hace ocho meses», me dijo, «les propuse el desafío: quiero que salgan y detecten los objetivos con un robot, y tienen que moverse sin usar el LIDAR».
El LIDAR, que usa rayos láser de baja potencia para detectar obstáculos, es un sensor común en los coches experimentales de auto-conducción. Pero, Coffman señaló, debido a que están emitiendo constantemente energía láser, el enemigo puede detectarlo fácilmente.
Así que los robots del experimento del Project Convergence, llamados » Origin», dependían de sensores pasivos: cámaras. Eso significaba que sus algoritmos de visión artificial tenían que ser lo suficientemente buenos para interpretar las imágenes visuales y deducir las ubicaciones relativas de los obstáculos potenciales, sin poder confiar en el LIDAR u otro radar para medir la distancia y la dirección con precisión. Esto puede parecer bastante simple para los humanos, cuyos ojos y cerebro se benefician de unos pocos cientos de millones de años de evolución, pero es una hazaña radical para los robots, que todavía luchan por distinguir, por ejemplo, un charco de una fosa peligrosamente profunda.
«Fueron capaces de moverse de un puno a otro, con solo la visión artificial, dijo Coffman. Pero el Ejército no sólo quiere robots que puedan encontrar su camino: Quiere que exploren en busca de amenazas y objetivos, sin que un humano tenga que estar pendiente de pantallas
Ahí es donde entra en juego el (ATR), Aided Target Recognition (ATR significa también Automated Reconoissance ) pero como al Ejército no le gusta la insinuación de que el software reemplazaría el juicio humano, usa sistemáticamente el Aided en su lugar).
El reconocimiento de objetivos es otro gran desafío. Claro, que la inteligencia artificial se ha vuelto terriblemente buena en la identificación de rostros individuales en fotos publicadas en los medios sociales. Pero el sector privado no ha invertido tanto en, digamos, diferenciar entre un tanque americano M1 Abrams y un T-72 de fabricación rusa, o entre una inocente camioneta Toyota y el mismo camión armado como un guerrillero con una ametralladora pesada en la parte de atrás. Y el Ejército debe ser capaz de distinguir entre el enemigo y los civiles en las desordenadas zonas de combate del mundo real, y no sólo a partir de fotogramas tomadas desde arriba, sino desde el suelo, contra tropas entrenadas para usar camuflaje y cobertura para romper las siluetas fácilmente reconocibles.
«Entrenar algoritmos para identificar vehículos por tipo, es una tarea enorme», me dijo Coffman. «Hemos recogido y etiquetado más de 3,5 millones de imágenes» hasta ahora, para usarlas en algoritmos de entrenamiento de aprendizaje de máquinas, dijo, pero ese etiquetado requiere analistas humanos entrenados que miren cada imagen y le digan a la computadora qué es: «Es alguien que está sentado ahí y dice, ‘eso es un T-72; eso es un BMP,'» etcétera ad nauseam, dijo.
Pero cada robot o dron individual no necesita llevar esos millones de imágenes en su propia memoria interna: Sólo necesita los algoritmos «clasificadores» que resultan de correr a través de las imágenes por los sistemas de aprendizaje de las máquinas. Debido a que esos algoritmos por sí mismos no ocupan una tonelada de memoria, es posible ejecutarlos en un ordenador que se ajuste fácilmente al robot individual.
«Hemos demostrado que podemos hacerlo con un UAV cautivo o no cautivo. Hemos demostrado que podemos hacerlo con un robot. Hemos demostrado que podemos hacerlo en un vehículo», dijo Coffman. «Podemos identificar al enemigo por su tipo y ubicación».
«Todo eso sucede en el robot», enfatizó. «Esto no es tener que volver a un ordenador central para procesarlo.»
En otras palabras, el robot individual no tiene que transmitir constantemente videos de alta resolución en tiempo real, de todo lo que ve a algún distante analista humano o cerebro maestro de IA. El envío de tantos datos de ida y vuelta es una carga demasiado grande para las redes tácticas de bajo ancho de banda, que a menudo se ven interrumpidas por el terreno, los fallos técnicos y las interferencias enemigas. En cambio, el robot puede identificar el objetivo potencial por sí mismo, con su IA a bordo, y sólo transmitir los bits esenciales, cosas como el tipo de vehículos detectados, su número y ubicación, y lo que están haciendo.
«Queremos reducir la cantidad de información que pasas en la red a un tweet, lo más pequeño posible, para no obstruir las tuberías», me dijo Coffman.
Pero antes de tomar la decisión de abrir fuego, enfatizó, un ser humano tiene que mirar la información proporcionada por el sensor lo suficiente, para confirmar el objetivo y dar la orden de atacar.
«Siempre habrá un humano que analice la imagen del sensor», dijo Coffman. «Entonces el humano decide, ‘sí, quiero perseguir ese objetivo.'»
«¿Podría hacerse automáticamente, sin un humano en el bucle?» dijo. «Sí, creo que es tecnológicamente factible hacer eso. Pero el Ejército de EEUU es una organización basada en la ética. Habrá un humano en el control.»
Fte. Breaking Defense
Sé el primero en comentar