Las grandes potencias deben hablar entre ellas sobre IA

Incluso aunque compitan, los principales ejércitos tienen motivos para cooperar: para evitar malentendidos y para establecer las mejores prácticas y parámetros pragmáticos.

Imaginemos un submarino no tripulado, armado con ojivas nucleares y capaz de operar de forma autónoma. Ahora imagine que ese dron se ha extraviado y se ha adentrado en las aguas territoriales de otro estado. ¿Una receta para el desastre? Tal vez. ¿Pero ciencia ficción? Lamentablemente, no.

Rusia pretende lanzar un dron para el 2027, informó CNBC el año pasado, citando a los que están familiarizados con la evaluación de la inteligencia de los EE.UU.que, conocido como Poseidón, tendrá armas y energía nucleares.

Si bien la dinámica de la investigación de la inteligencia artificial (IA) y el machine learning (ML), sigue siendo abierta y a menudo colaborativa, su potencial militar ha intensificado la competición entre las grandes potencias. En particular, los dirigentes chinos, rusos y estadounidenses aclaman la IA como una tecnología estratégica fundamental para la futura competitividad nacional.

Las aplicaciones militares de la inteligencia artificial han generado expectativas exuberantes, incluidas las predicciones de su llegada podría perturbar el equilibrio militar e incluso cambiar la naturaleza misma de la guerra.

En ocasiones, el entusiasmo de los dirigentes militares y políticos parece haber superado a su conciencia de los posibles riesgos y preocupaciones en materia de seguridad que podrían surgir con el despliegue de esas tecnologías nacientes y relativamente no probadas. En la búsqueda de una ventaja comparativa, las potencias militares podrían apresurarse a desplegar sistemas habilitados para la IA/ML que no sean seguros, no estén probados o no sean fiables.

A medida que la estrategia americana se reorienta hacia la competición estratégica, no deben dejarse de lado las consideraciones críticas de seguridad y fiabilidad en torno a las aplicaciones de AI/ML. Todo marco coherente para la estrategia de Estados Unidos debe incluir políticas que promuevan la innovación y la competitividad estadounidenses, al tiempo que se profundiza en la cooperación con los aliados y socios.

La realidad de la rivalidad entre las grandes potencias entrañará una mayor polémica sobre cuestiones en las que los valores e intereses de Estados Unidos entren en conflicto directo con los de Beijing y Moscú, pero también requiere enfoques constructivos para lograr una participación selectiva y pragmática en cuestiones de interés mutuo.

Incluso con el telón de fondo de la desconfianza estratégica, hay motivos para que los principales ejércitos cooperen en medidas para mejorar la seguridad y la protección de los sistemas de inteligencia en los asuntos militares.

Los responsables de la formulación de políticas tendrán que luchar con difíciles equilibrios políticos, sobre los posibles beneficios y costes. Por una parte, la colaboración entre los militares en materia de seguridad de la IA puede reducir el riesgo de accidentes y de errores de cálculo estratégicos entre las grandes potencias, pero por otra, esa colaboración puede mejorar la fiabilidad de esas técnicas y capacidades, permitiendo así a los competidores estratégicos desplegar con mayor rapidez y eficacia los sistemas militares habilitados para la IA/ML.

Un buen punto de partida puede ser la elaboración de definiciones comunes y la comprensión compartida de los conceptos básicos. Los encargados de la formulación de políticas y las partes interesadas estadounidenses, chinos, rusos e internacionales también deberían adoptar medidas para mejorar la transparencia y promover la comprensión mutua de los factores que influyen en el diseño, el desarrollo y el despliegue de técnicas de IA/ML con fines militares. Con el tiempo, esas medidas podrían crear una base para iniciativas de colaboración destinadas a promover la seguridad de la IA.

La seguridad de la IA es un dominio crítico de la investigación, un tema de investigación activa y de actividades en expansión dentro de la industria y la academia en todo el mundo. Sin embargo, esta investigación suele ser poco comprendida y carecer de recursos. Las iniciativas de política de los Estados Unidos para abordar la seguridad y la garantía de la IA siguen siendo embrionarias. Rusia, por su parte, ha avanzado en la experimentación e incluso en el uso de armas no tripuladas, habilitadas por IA y potencialmente autónomas, incluso en el campo de batalla de Siria. El enfoque chino de la seguridad de la IA parece implicar no sólo preocupaciones técnicas sobre cómo garantizar la fiabilidad y «controlabilidad» de los sistemas de IA para reducir el riesgo, sino también preocupaciones sobre el impacto en la estabilidad social, que es distinta de las cuestiones que examinan los gobiernos democráticos.

Tras mejorar la comprensión conceptual, los encargados de la formulación de políticas deben promover la transparencia y la colaboración en la investigación sobre la seguridad de la IA. En los proyectos conjuntos se podrían examinar y compartir las mejores prácticas basadas en las investigaciones y la bibliografía actuales, y al mismo tiempo apoyar la colaboración en materia de investigación sobre temas seleccionados, como las normas para verificar y validar los sistemas de vehículos autónomos.

El Gobierno de Estados Unidos también debería promover y facilitar los diálogos sobre problemas concretos de la seguridad de la IA y las preocupaciones de seguridad conexas entre representantes no oficiales y no gubernamentales (Track 2) y a través de diálogos que incluyan una mezcla de representantes oficiales y expertos externos (Track 1.5). En esos diálogos se pueden abordar cuestiones como la recompensa por la piratería informática, la solidez ante los cambios de contexto, los mecanismos de supervisión escalables y los procedimientos de verificación y validación.

Los encargados de la formulación de políticas deberían aprovechar y apoyar los esfuerzos por desarrollar prácticas óptimas, casos de uso de normas comunes y metodologías compartidas de ensayo, evaluación, verificación y validación de productos y sistemas de inteligencia artificial, incluidos los sistemas críticos para la seguridad habilitados para la inteligencia artificial. Más allá de las iniciativas activas en la industria, la participación constructiva de los gobiernos puede abordar los fallos del mercado y ayudar a salvar las diferencias entre las iniciativas públicas y privadas.

En última instancia, el debate sobre cuestiones críticas de ensayo, evaluación, verificación y validación podría extenderse a los diálogos sobre seguridad y a futuros compromisos entre militares.

Los militares tienden a evaluar las intenciones y capacidades de cada uno en función de las posibilidades en el peor de los casos. Dada esta realidad, y el probable déficit de confianza entre las grandes potencias, hay razones para considerar la integración de las preocupaciones sobre la seguridad de la IA en los diálogos estratégicos existentes entre los Estados Unidos y China y entre los Estados Unidos y Rusia sobre la seguridad cibernética, las cuestiones nucleares y la estabilidad estratégica.

Los diálogos en curso, ya sean bilaterales o multilaterales, podrían mitigar los riesgos y las percepciones erróneas. Como mínimo, esas conversaciones podrían contribuir a una comprensión compartida de los riesgos de los compromisos no deseados y las consecuencias de la escalada con una mayor autonomía y el empleo de las técnicas de inteligencia artificial y lealtad.

Si estas primeras iniciativas resultaran eficaces, los encargados de la formulación de políticas podrían estudiar la posibilidad de establecer canales para compartir las investigaciones sobre la IA cuya transferencia y difusión reduzcan los riesgos de su uso no intencional.

En algunos casos, puede ser mutuamente beneficioso transferir tecnologías o técnicas para prevenir accidentes, incluso a rivales o posibles adversarios. Durante la guerra fría, Estados Unidos desarrolló y ofreció compartir enlaces de acción permisiva como control criptográfico para protegerse contra el empleo no autorizado de armas nucleares.

Hoy en día, una empresa comparable podría incluir esfuerzos para definir los tipos de investigación de la IA que ambos países estarían dispuestos a compartir y promulgar. Los expertos de Estados Unidos, China y Rusia podrían estudiar la posibilidad de mejorar la seguridad y la garantía de la IA, como los mecanismos de seguridad o los algoritmos de supervisión. Por supuesto, existe el riesgo de que el intercambio de estas ideas sea unilateral o esté sujeto a explotación, pero los intercambios iniciales sobre el tema podrían calibrar la viabilidad de este enfoque.

El compromiso pragmático sobre estas preocupaciones fundamentales de la seguridad, la protección y la estabilidad de la IA debe basarse en la comprensión de las experiencias pasadas y los posibles desafíos.

Los progresos futuros requerirán un enfoque práctico y orientado a los resultados que reúna a los participantes con la gama pertinente de conocimientos especializados y experiencia. Los diálogos y los compromisos de colaboración deben estructurarse cuidadosamente y evaluarse periódicamente en función de sus resultados, procurando al mismo tiempo maximizar la reciprocidad y la simetría en el intercambio.

Este proceso debe entrañar la articulación abierta de las preocupaciones urgentes y las diferencias de opinión, incluso sobre cuestiones de valores y derechos humanos.

En estos compromisos, los participantes y los encargados de formular políticas también deberían mitigar los riesgos de la transferencia de tecnología y la contrainteligencia. Para los participantes estadounidenses, la adopción de precauciones razonables y el ejercicio de la conciencia son primordiales, especialmente cuando se trata de la ciberseguridad personal.

El Gobierno de Estados Unidos debería garantizar una coordinación suficiente en los diálogos para permitir una conciencia de la situación compartida y la promulgación de las lecciones aprendidas a lo largo del tiempo. Ningún centro de intercambio de información en el Departamento de Estado, el Departamento de Defensa o en cualquier otro lugar del gobierno de Estados Unidos parece rastrear y supervisar estas actividades. Como consecuencia, el Gobierno de Estados Unidos puede tener una visibilidad limitada de lo que está sucediendo y donde los esfuerzos de la Track 2 tienen un vínculo lógico con las iniciativas de la Track 1.

Unos bucles de retroalimentación más estrechos entre los diálogos de ambas tracks, cuando sea apropiado, garantizarían la claridad de los objetivos, el intercambio de información y los canales para las recomendaciones aplicables. Esto podría incluir reuniones y coordinación entre los interesados gubernamentales y no gubernamentales a lo largo del proceso

Hay mucho en juego como para abstenerse de mantener conversaciones difíciles sobre la seguridad de la IA. En cuestiones tan vitales, el compromiso pragmático significa seguir cursos de acción que pueden ser productivos y mutuamente beneficiosos, a la vez que se mitigan los riesgos. Incluso, y especialmente, en ausencia de confianza, las grandes potencias deberían ejercer un mayor protagonismo a la hora de configurar el futuro de la IA y responder a los dilemas que plantea para la seguridad y la estabilidad mundiales.

Fte. Defense One

Acerca de Redacción El Radar 2487 Articles
Equipo de Redacción

Sé el primero en comentar

Deja tu comentario