El adiestramiento de los soldados junto a sus compañeros robots en entornos de juego podría ser la clave para la combinación humano-máquina.
Se podría pensar que las tropas estuvieran ansiosas por incorporar compañeros robots y autómatas a las operaciones, ya que estos están pensados para apoyarles en la ejecución de tareas «aburridas, sucias y peligrosas» en entornos de combate. Pero una encuesta del Journal of Indo-Pacific Affairs de la U.S. Air Force muestra, que el personal militar de primera línea es en realidad más aprensivo que sus comandantes al respecto.
Una encuesta realizada a 800 cadetes oficiales y guardiamarinas de la Australian Defence Force Academy mostró que «una mayoría significativa no estaría dispuesta a tener como compañeros a sistemas de armas autónomas letales», o LAWS, y que «la seguridad, precisión y fiabilidad percibidas del sistema autónomo y la posibilidad de reducir el daño a los civiles, las fuerzas aliadas y el personal de las ADF son los beneficios más persuasivos», en contraposición con otros factores, como el ahorro de costes, etc.
Esto podría ser un problema para un Pentágono deseoso de iniciar la incorporación de sistemas autónomos en ejercicios y operaciones. Los mandos militares han estado impulsando nuevos conceptos de operaciones basados en el trabajo en equipo hombre-máquina durante años, con el objetivo de aumentar la capacidad de las tropas para transportar cosas, sentir su entorno y responder a las amenazas con la ayuda de robots terrestres, pequeños aviones teledirigidos tácticos e incluso robots armados.
Entonces, ¿cómo conseguir que el soldado que tiene que combatir junto a los robots confíe en ellos? No se trata de un dilema nuevo, pues ya algunos estudiosos se han dedicado a reconocerlo y definirlo. Pero un artículo recientemente publicado por la Naval Postgraduate School ofrece una nueva visión del problema desde la perspectiva de un operador.
El Mayor del Cuerpo de Marines Daniel Yurkovich presentó su trabajo, «This Is My Robot». There are many like it but this one is mine», en la conferencia anual de la National Defense Industry Association’s. Yurkovich argumenta que «la incapacidad de (a) comprender la inteligencia artificial y (b) entrenar diariamente, se agravará y creará una atmósfera de desconfianza en sistemas valiosos que, de otra manera, podrían mejorar la letalidad de los marines».
La clave para crear esa confianza podría ser permitir que los operadores colaboraran en el adiestramiento de las máquinas que sirven a su lado con IA, y no simplemente entregar un robot a un soldado, marine o aviador y enviarlos juntos a la guerra. «La enseñanza y el desarrollo de agentes de IA en un entorno simulado junto al usuario final indican, que existe la posibilidad de una mayor confianza en el agente de IA por parte del usuario final cuando se le coloca como compañero de equipo» dentro de un equipo humano-máquina, escribió Yurkovich.
Este es un enfoque llamado aprendizaje interactivo de la máquina. Como lo describieron el investigador de Microsoft Saleema Amershi y sus colegas en su trabajo seminal de 2014, el aprendizaje de máquina interactiva es fundamentalmente diferente de un algoritmo que simplemente se entrena con datos y luego se deja suelto… con más datos.
El aprendizaje automático interactivo no sólo involucra al diseñador del algoritmo sino también al usuario en el proceso de diseño de las actualizaciones. Esto permite a los usuarios «examinar interactivamente el impacto de sus acciones y adaptar las entradas subsiguientes para obtener los comportamientos deseados… incluso los usuarios con poca o ninguna experiencia en aprendizaje automático pueden dirigir los comportamientos de aprendizaje automático a través de un proceso de prueba y error de bajo coste o experimentación enfocada con entradas y salidas».
Por supuesto, los operadores tienen suficiente que hacer sin dedicar las horas, a veces cientos de horas, para entrenar a los robots en incluso simples tareas del mundo real, por lo que Yurkovich recomienda adiestrar primero el cerebro del robot en un entorno de juego virtual y luego transferir el cerebro al robot físico.
«A un marine se le da un robot con un “dispositivo extraíble de inteligencia artificial” (RAID) y una consola de juegos compatible», escribió. «El RAID está precargado con una línea base de automatización que imita la línea base de los conocimientos adquiridos por los marines en la Escuela de Infantería antes de llegar a su primer Batallón de Infantería. La consola de juego, capaz de establecer una conexión con el RAID y el Live, Virtual and Constructive-Training Environment (LVC-TE), la emplea el infante de marina para entrenar interactivamente con su robot en un entorno virtual… Cuando llega el momento de un entrenamiento u operaciones reales, el infante de marina instala su RAID en su robot. Ahora, el robot en funcionamiento y el infante de marina se han convertido en un equipo en vivo con confianza y tendencias calibradas construidas dentro de un ambiente simulado Al completar la tarea u operación en vivo».
No es el único trabajo que se hace para crear confianza entre los operadores y los robots con los que van a ir al combate. Y aunque el experimento de Yurkovich sobre el tema no fue concluyente, dar a los operadores más experiencia en el diseño de los comportamientos que quieren en sus robots es probablemente mejor que darles algo que nunca han interactuado antes, como muestra el estudio de la Fuerza Aérea.
No es un problema a largo plazo: recientemente, un científico nuclear iraní fue asesinado por lo que la agencia de noticias iraní Fars describió como una ametralladora a control remoto; el ISIS ha desplegado aviones teledirigidos en muchos de sus ataques; y los soldados rusos han desplegado robots terrestres en Siria. No hay indicios de que ninguna de estas máquinas fuera completamente autónoma, pero la forma en que sus operadores las usaron sugiere que existe mas bien una barrera técnica que ética.
Fte. Defense One
Sé el primero en comentar