¿Cuáles son los riesgos de los drones y armas de Inteligencia Artificial?

En breve, será común ver en los campos de batalla de todo el mundo enjambres de drones asesinos. Esto ha desatado el debate sobre cómo regular su uso y ha despertado preocupaciones sobre la posibilidad de finalmente dejar decisiones de vida o muerte en manos de programas de inteligencia artificial.

A continuación, ofrecemos un resumen sobre cómo ha evolucionado la tecnología, qué tipos de armas están siendo desarrolladas y cómo avanza el debate en torno a este tema.

Eventualmente, la inteligencia artificial debería permitir que los sistemas de armas tomen sus propias decisiones acerca de seleccionar ciertos tipos de objetivos y atacarlos. Los recientes avances en la tecnología de la A.I. han intensificado la discusión en torno a estos sistemas, conocidos como armas letales autónomas.

Pero de alguna manera, las armas autónomas no son nada nuevo.

Las minas terrestres, diseñadas para disparar automáticamente cuando una persona u objeto pasa sobre ellas, se utilizaron por primera vez en la década de 1800 durante la Guerra Civil en los Estados Unidos, aparentemente inventadas por un general confederado llamado Gabriel J. Rains, quien las llamaba “cartuchos subterráneos”.

Si bien se utilizaron mucho antes de que se pudiera concebir la idea de inteligencia artificial, son relevantes para el debate actual porque una vez colocadas funcionan sin intervención humana y sin distinguir entre objetivos previstos y víctimas no deseadas.

A partir de finales de la década de 1970, Estados Unidos comenzó a expandir este concepto con un arma conocida como la Mina Antisubmarina Captor. La mina podía ser lanzada desde un avión o un barco y asentarse en el fondo del océano, permaneciendo allí hasta que explotara automáticamente cuando los sensores del dispositivo detectaran un objetivo enemigo.

LEAR  La empresa alemana Turn2X inaugura planta de gas renovable en España.

Comenzando en la década de 1980, docenas de barcos de la Armada empezaron a depender del sistema de armas AEGIS, que utiliza un sistema de radar de alta potencia para buscar y rastrear misiles enemigos entrantes. Puede configurarse en modo automático para que dispare misiles defensivos antes de que intervenga un ser humano.

El siguiente paso en la progresión hacia armas autónomas más sofisticadas llegó en forma de municiones teledirigidas “dispara y olvida”, como el misil aire-aire de mediano alcance avanzado AIM-120, que cuenta con un buscador de radar que perfecciona la trayectoria de un misil disparado mientras intenta destruir aviones enemigos.

Por lo general, las municiones teledirigidas no pueden ser retiradas una vez disparadas y funcionan como “un perro de ataque enviado por la policía para perseguir a un sospechoso”, escribió Paul Scharre, exfuncionario del Pentágono y autor del libro “Army of None”. Tienen un cierto grado de autonomía para perfeccionar su trayectoria, pero Mr. Scharre la define como “autonomía limitada”. Los misiles antibuque Harpoon funcionan de manera similar, con autonomía limitada.

La guerra en Ucrania ha destacado el uso de una forma de armamento automatizado, conocido como municiones persistentes. Estos dispositivos se remontan al menos a 1989, cuando una empresa militar israelí introdujo lo que se conoce como Harpy, un dron que puede permanecer en el aire durante aproximadamente dos horas, explorando cientos de millas en busca de sistemas de radar enemigos y atacándolos.

Más recientemente, contratistas militares estadounidenses, como AeroVironment con sede en California, han vendido municiones persistentes similares que llevan una cabeza de guerra explosiva. El Switchblade 600, como se llama esta unidad, vuela sobre el objetivo hasta que encuentra un tanque u otro blanco y luego dispara una cabeza de guerra antitanque.

LEAR  Nuevas capacidades basadas en inteligencia artificial se están agregando ahora a las aplicaciones de Google en iOS y Android.

Se solicita la aprobación humana antes de que el arma golpee un blanco, pero sería relativamente sencillo quitar al humano de ese proceso, haciendo que el dispositivo sea completamente autónomo.

“La tecnología existe hoy en día para decirle al dispositivo, ‘Ve a buscar un tanque ruso T-72, no me hables, te lanzaré, ve y busca'”, dijo Wahid Nawabi, presidente de AeroVironment. “Y si tiene un 80 por ciento o más de probabilidad de que es ese, lo elimina. Toda la misión de principio a fin podría ser completamente autónoma excepto por el momento de lanzamiento”.

No hay duda sobre hacia dónde se dirige todo esto.

El Pentágono ahora está trabajando para construir enjambres de drones, según un aviso que publicó a principios de este año.

Se espera que el resultado final sea una red de cientos o incluso miles de drones autónomos mejorados con inteligencia artificial, portando equipos de vigilancia o armas. Es muy probable que los drones sean posicionados cerca de China, para que puedan ser desplegados rápidamente si estallara un conflicto y se usarían para neutralizar o al menos degradar la extensa red de sistemas de misiles antinavíos y antiaéreos que China ha construido a lo largo de sus costas y de las islas artificiales en el Mar del Sur de China.

Este es solo uno de los numerosos esfuerzos que están en marcha en el Pentágono para desplegar miles de drones baratos, autónomos y, a veces, letales en el próximo año o dos, que puedan seguir operando incluso cuando las señales de GPS y las comunicaciones estén interferidas.

LEAR  Senadores presionan al Departamento de Comercio para aumentar la transparencia sobre los contratos de la Ley CHIPS.

Algunos contratistas militares, incluidos ejecutivos de Palantir Technologies, un importante contratista militar de inteligencia artificial, han argumentado que los ataques completamente autónomos controlados por inteligencia artificial todavía podrían estar a años de distancia, ya que los algoritmos más avanzados aún no son lo suficientemente confiables y, por lo tanto, no se pueden usar para tomar decisiones autónomas de vida o muerte, y puede que no lo estén por un tiempo.

Según Palantir, la inteligencia artificial, en cambio, permitirá a los funcionarios militares tomar decisiones de orientación más rápidas y precisas al analizar rápidamente las oleadas de datos entrantes, afirmó Courtney Bowman, ejecutiva de Palantir, durante una audiencia con legisladores británicos este año.

Existe una preocupación generalizada dentro de las Naciones Unidas sobre los riesgos de los nuevos sistemas y, si bien algunas armas han tenido un grado de autonomía desde hace mucho tiempo, la nueva generación es fundamentalmente diferente.

“Cuando comenzó esta conversación hace una década, realmente era una especie de ciencia ficción”, dijo Mr. Scharre. “Y ahora no lo es en absoluto. La tecnología es muy, muy real.”