La velocidad y los peligros del desarrollo de la inteligencia artificial (IA) están a la vista de todos, gracias a la carrera por el dominio entre las principales empresas, publicación de ChatGPT. Un ámbito en el que esta mentalidad de «carrera armamentística» podría tener graves consecuencias es el uso militar de la IA, en el que incluso simples errores podrían provocar una escalada, inestabilidad y destrucción.
En un intento de mitigar estos riesgos, el Departamento de Estado publicó la Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. La declaración es un buen paso para mejorar el debate mundial sobre la IA en los sistemas militares. Estados Unidos puede trabajar con sus aliados más cercanos para convertir esta declaración unilateral en un compromiso multilateral que promueva normas para el uso militar de la IA en todo el mundo.
Estados Unidos, en concreto el Departamento de Defensa, ya ha publicado documentos políticos sobre la IA en asuntos militares, como Ethical Principles for Artificial Intelligence, Responsible Artificial Intelligence Strategy and Implementation Pathway, and Directive 3000.09, que establecen principios y marcos para el desarrollo de sistemas de armas autónomas. La declaración política del Departamento de Estado se basa en los logros de estos otros documentos. Tras una breve declaración de intenciones sobre la necesidad de una IA ética y segura y los peligros de los sistemas mal diseñados, la declaración expone las mejores prácticas para el desarrollo responsable de la IA. Más concretamente, insta a los Estados a revisar los sistemas de IA para garantizar que cumplen la legislación internacional, crear sistemas de IA auditables, trabajar para reducir los sesgos involuntarios en la tecnología, mantener niveles aceptables de juicio y formación humanos, y realizar pruebas de seguridad y alineación. En su mayor parte, las mejores prácticas se describen en términos generales. Si bien algunos observadores pueden argumentar a favor de un enfoque más limitado, esto es un punto fuerte para una declaración diseñada para construir un marco normativo, ya que muchos países deberían ser capaces de acordar fácilmente estas prácticas.
La inclusión especialmente importante en la declaración, sobre todo porque a menudo se deja fuera de los principios de la IA, se centra en las armas nucleares. La declaración señala que «los estados deberían mantener el control y la participación humana en todas las acciones críticas para informar y ejecutar decisiones soberanas relativas al despliegue de armas nucleares». Esta descripción se ha convertido rápidamente en el lenguaje habitual para la autonomía en los sistemas de armas nucleares de Estados Unidos, ya que coincide casi directamente con el de la última Defense Department Nuclear Posture Review. La revisión afirma: «En todos los casos, Estados Unidos mantendrá a un ser humano ‘en el control” para todas las acciones críticas para informar y ejecutar las decisiones del Presidente para iniciar y terminar el empleo de armas nucleares». La repetición directa es especialmente importante dada la gravedad de determinar los límites de la IA en las armas nucleares: Con algo tan importante como mantener el control humano de éstas, Estados Unidos ha señalado una política unificada para todo el gobierno. También es una norma especialmente poderosa con la que debería ser relativamente fácil estar de acuerdo en general, dado que ningún país ha manifestado su deseo de que la IA controle los lanzamientos de armas nucleares.
Aunque marca el rumbo de un marco normativo, la declaración ha recibido críticas. Los miembros de la Campaign to Stop Killer Robots han sido especialmente elocuentes, señalando que el documento «se queda drásticamente corto con respecto al marco internacional que la mayoría de los estados han pedido en los debates de la ONU». En particular, los debates sobre un tratado para la prohibición general de los sistemas de armas de IA se han estancado a medida que el campo que pretenden regular sigue avanzando. Los esfuerzos anteriores para facilitar estas negociaciones se vieron obstaculizados por los tres estados más necesarios para dar forma y aplicar cualquier posible tratado para prohibir los sistemas de armas de IA: Estados Unidos, Rusia y China. A la luz de estos retos, es importante reconocer que un marco normativo no excluye un futuro tratado y es probable que sea más eficaz a la hora de limitar comportamientos problemáticos. Un marco normativo que contara con un amplio respaldo internacional podría convertirse en el proyecto de un futuro tratado. Mientras tanto, dicho marco sería mucho más sensible a la velocidad de los cambios que se están produciendo en la tecnología de la IA.
El General de División (retirado) Charlie Dunlap, antiguo General Adjunto de las Fuerzas Aéreas de Estados Unidos, ha criticado la declaración desde el punto de vista opuesto, afirmando que limita innecesariamente la capacidad de Estados Unidos para desarrollar sistemas de IA que pueda necesitar en el futuro. Dunlap argumenta que «Estados Unidos debe evitar imponerse a sí mismo y a sus aliados restricciones que no exige el derecho internacional, pero que podrían obstaculizar la capacidad de los mandos para explotar el potencial de la IA en el campo de batalla». Este argumento, sin embargo, presenta en realidad un sólido argumento a favor de la declaración. Al publicar la declaración, Estados Unidos respalda públicamente las normas que pretende seguir antes de desarrollar sistemas de armas de IA. Las normas necesarias para crear sistemas de IA éticos y seguros, como la prevención de sesgos involuntarios, deben aplicarse desde el principio del proceso de desarrollo. Esbozar estas normas en una declaración pública garantiza que no serán una ocurrencia tardía cuando estos planes lleguen a buen puerto. Estas prácticas también son componentes necesarios de los sistemas de armas de IA eficaces: Si un arma muestra comportamientos no deseados o tiene sesgos indebidos, no es útil como sistema de armas.
La declaración política intenta fijar una posición estadounidense sobre los sistemas de IA en sus Fuerzas más allá de los documentos del Departamento de Defensa. Pero para que los principios que establece se conviertan en normativos, otros países deben acordar hacer declaraciones similares y adoptar prácticas parecidas. Es en este aspecto en el que falla la declaración. El objetivo declarado del documento es «construir un consenso internacional sobre cómo los ejércitos pueden incorporar de forma responsable la IA y la autonomía en sus operaciones». A pesar de este objetivo, Estados Unidos publicó este documento supuestamente multilateral con sólo él como firmante, mientras que numerosos países firmaron un «Llamamiento a la Acción» publicado en la misma conferencia que cubría mucho menos terreno. Queda mucho trabajo por hacer para que esa visión multilateral sea una realidad y no un espejismo.
Para llegar a un consenso, Estados Unidos puede intentar conseguir el apoyo de otros estados de todo el mundo a través de tantos foros internacionales como sea posible. Un acuerdo en el seno de la OTAN o de otros aliados cercanos, como Australia o Japón, es probablemente la mejor vía para lograr este objetivo, dada la ya estrecha cooperación militar, los climas políticos similares y el potencial para apaciguar los temores europeos sobre el ecosistema de IA supuestamente permisivo de Estados Unidos. Estos principios son un buen comienzo para un marco normativo, pero cruzar la línea de meta requerirá mucho trabajo para fomentar las conversaciones internacionales.
La declaración política no garantiza la seguridad de la IA de un plumazo o con un apretón de manos. Sin embargo, representa la ampliación de las políticas estadounidenses y la continuación de las conversaciones internacionales sobre IA. Las críticas al documento confunden la naturaleza de un marco normativo. No aspira a ser un tratado, pero introduce importantes limitaciones. Sin un esfuerzo significativo por parte de Estados Unidos, la declaración política podría morir fácilmente en la vid, y con ella una estructura para construir la tecnología de la IA de forma responsable.
Fte. Lawfare