Los robots asesinos están llegando y no solo a EE.UU

Estados Unidos ha confiado durante mucho tiempo en la tecnología para garantizar su seguridad y la de nuestros aliados. De ahí que el Pentágono y sus enormes y extensos esfuerzos en investigación estén invirtiendo fuertemente en la nueva ola de tecnología – la inteligencia artificial y las armas autónomas. Estos sistemas ofrecen un aumento en nuestra seguridad y la reducción del riesgo de nuestros combatientes.

Pero a diferencia de cuando Estados Unidos era la superpotencia tecnológica indiscutible, cuando hablamos de inteligencia artificial (AI) y robótica, otros países son ya competitivos, además de que mucho de este conocimiento y tecnología está disponible en el sector privado y controlado por los gobiernos.

Como resultado, ya no existirá el monopolio estadounidense sobre sistemas de armas inteligentes y autocontroladas, cada vez más conocidas como sistemas letales de armas autónomas, o LAWS. Y en este momento, el público en general ni el gobierno han mostrado mucho interés en mantener un debate sostenido sobre la ética y legalidad de tales sistemas, dejando al Departamento de Defensa desarrollar y explotar estas capacidades en un vacío.

Y eso es peligroso. Sin límites, las agencias encargadas de proteger a nuestras tropas y proporcionarnos seguridad están, comprensiblement avanzando, centrándose sólo en lo que tenemos capacidad de construir. Si pensamos en ello – enjambres de mini-drones armados que pueden dominar un espacio aéreo enemigo sin riesgo para los pilotos, o centinelas armados en la frontera de Corea del Sur que pueden derrotar a las tropas intrusas de Corea del Norte, o micro-drones que pueden ser lanzados por millones sobre un país enemigo para destruir su red de energía – podemos apostar que alguien en el DoD está trabajando para hace de eso una realidad.

Las posibles ventajas para Estados Unidos son infinitas. Pero también lo son los riesgos. Experimentos múltiples en Estados Unidos e incluso en China para el desarrollo de la inteligencia artificial que han sido abandonados cuando las «paired entities» comenzaron a usar un nuevo lenguaje que los «controllers» no pudieron entender. Incluso si se incurre en la arrogancia y se asume que podemos controlar lo que desarrollamos, pensando en cómo Estados Unidos podría estar en desventaja cuando los adversarios desarrollen sus propias LAWS contra nuestras tropas, armas, sistemas informáticos y satélites, deberíamos hacer al menos alguna pausa en la sumersión en la era de la autonomía.

Y aquí es donde normalmente termina la discusión. Los sistemas que nosotros y los otros estamos desarrollando pertenecen al espacio clasificado, o en la seguridad que proporciona la propiedad de las compañías o de los complejos universitarios. Y en muchos casos, ni siquiera estamos seguros de lo que estamos hablando. ¿Es un código de computadora? ¿Es un sistema no letal que podría llegar a ser letal? ¿Qué pasa con un coche sin conductor que fuera hackeado? Definir lo que estamos desarrollando, lo que otros están haciendo, y lo que podríamos querer controlar, incluso si pudiéramos es difícil, tanto en público como en entornos clasificados.

Si Estados Unidos debe mantener una ventaja sobre nuestros adversarios mientras desarrollan esta tecnología a nuestro favor, se necesitan acciones concretas.

En primer lugar, el Consejo de Seguridad Nacional necesita un proceso serio para evaluar lo que los Estados Unidos podrían querer hacer y lo que nuestros adversarios pueden hacer en los próximos años. Comenzamos este proceso en la última administración, pero necesita ser continuado y ampliado. El proceso no es el fuerte de esta Administración, pero tiene que intentarlo en esta área crítica.

En segundo lugar, el Congreso, actualmente ausente de este debate, debe interesarse más en el desarrollo de esta política. El dinero proviene del Congreso para el desarrollo y el proyecto de ley para la defensa contra estos sistemas no tardará. Los comités del Senado y de las Fuerzas Armadas de la Cámara tienen que ser más activos en promover el debate y obligar al Poder Ejecutivo a tener una visión más holística de estos desarrollos.

En tercer lugar, el Presidente Donald Trump debería formar su Office of Science and Technology Policy  en la Casa Blanca. Es inconcebible que esta oficina permanezca vacante. En este tema, el papel de la OSTP debe ser crucial. La negación de Trump del cambio climático no le exige entierre su cabeza en la arena en cuanto a las LWAS también.

Cuarto, el Gobierno de Estados Unidos necesita ayuda de personas que comprendan las diversas implicaciones técnicas, militares, legales y éticas de lo que estamos haciendo. El panel creado para asesorar al gobierno en ingeniería biológica es un modelo, pero cualquier experto gubernamental que crea que lo sabe todo es la última persona que debe asesorar sobre este tema. Tenemos que empezar a aceptar que se trata de un nuevo territorio y comprometer a un amplio conjunto de expertos de empresas privadas, universidades y otros espacios.

Por último, el Secretario de Defensa Jim Mattis y el Presidente del Estado Mayor Conjunto, Joseph Dunford, necesitan involucrar a la política y la comunidad técnica es una manera seria de promover el debate y al compromiso con el Departamento de Defensa. Esto es diferente a lo que la comunidad política de Washington ha logrado antes, y necesitamos un enfoque cooperativo con la comunidad técnica e incluso éticos, como aquellos que trabajan en armas biológicas e ingeniería genética, para asegurarnos de tener toda la información y conocimientos disponibles. Esto no garantizará un buen resultado, pero reducirá los riesgos de un mal resultado.

Es posible que no podamos detener los sistemas letales armados con inteligencia artificial. Tal vez ni siquiera deberíamos intentarlo. Pero tenemos que ser más reflexivos a medida que entramos en este paisaje. Los riesgos son increíblemente altos, y es difícil imaginar un tema más digno de un debate nacional informado que esto.

Jon Wolfsthal es miembro del «Harvard Managing the Atom Project» y ex director senior del Consejo de Seguridad Nacional para el Control de Armas y la No Proliferación.

 

Acerca de Redacción El Radar 2489 Articles
Equipo de Redacción