Exterminio autónomo

Fotografía: US Army

En los días iniciales de la Primera Guerra Mundial, cuando las máquinas voladoras, la radio y la electrónica eran tecnologías incipientes, un avión no tripulado despegaba gracias a los comandos de un operador emitidas por radio. Era el primer vuelo del siglo XX que abriría el paso a las máquinas sin tripulación que ahora llamamos vehículos aéreos no tripulados o “drones”.  Sin embargo, no era el primer intento. El 22 de agosto de 1849 los austriacos utilizaron globos no tripulados cargados con explosivos para atacar Venecia.

En repuesta a los ataques terroristas de 9/11, la CIA comenzó a usar drones de reconocimiento en operaciones ofensivas. El 4 de febrero del 2002, el Predator capaz de permanecer en vuelo por más de 12 horas continuas fue parte de la primera operación de asesinato remoto. Desde una distancia de 10,000 pies de altura, lanzó un misil hellfire que acabó con la vida de Daraz Khan, un recolector de chatarra que se encontraba en las Cuevas de Zhawara, Afganistán. Según el operador del Predator, Khan tenía una semblanza a la del terrorista más buscado, Osama bin Laden.

Fotografía: U.S. Air Force

Cifras de Bureau of Investigative Journalism y la Universidad de Columbia indican que entre el 2002 y 2019, el número de acciones con drones aumentó de 167 a más de 14,040. Más de 30 países tienen drones armados.  Colombia, posee dos versiones israelís de drones Hermes-450 y Hermes-900. También la Corporación de la Industria Aeronáutica Colombiana se encuentra desarrollando versiones nacionales de vehículos aéreos no tripulados incluyendo los modelos Coelum, Quimbaya y TARSIS25. Sin embargo, la proliferación de estas naves ha permitido que más de 20 organizaciones terroristas en el mundo, incluyendo grupos armados en Colombia, tengan acceso a drones para reconocimiento y ataque.

Colombia ha catalogado las armas autónomas como “poco éticas, y una amenaza militar y legal”.

La característica más común de la tecnología anteriormente descrita, es que es controlada por una tripulación ubicada fuera del área de combate e incluye un piloto u operador. Simultáneamente a estos sistemas de armas controladas a distancia, una nueva generación de armas semiautónomas (automatizadas) o autónomas se desplaza por tierra, mar y aire. Esta tecnología es inicialmente desplegada por un operador humano y una vez activada, defiende o ataca objetivos individuales o grupos bajo acciones o secuencias preprogramadas dentro de un entorno definido y controlado. La mayoría de estas armas se usan con fines defensivos. Un sistema antiaéreo automatizado puede clasificar 1.2 millones de imágenes en tan sólo 90 segundos, o 0.000075 segundos por imagen. Así, las armas automatizadas bajo control humano responden con mayor rapidez y precisión que las ordenes de los comandantes, reduciendo el riesgo para unidades amigas y para la población civil.

Debido al desarrollo exponencial de la inteligencia artificial, varias naciones están desarrollando una nueva generación de armas autónomas capaces de pasar a la ofensiva, y tomar acciones letales sin intervención humana. Estos sistemas de armas autónomas letales (LAWS, según sus siglas en inglés) son definidas dentro de la Convención sobre Ciertas Armas Convencionales (CCW) como “un arma, que, siguiendo una decisión humana de desplegarla, autónomamente busca, selecciona y ataca objetivos que cumplen unos criterios predefinidos, entendiendo que, una vez lanzado un ataque, no puede ser detenido”. 

China, Israel, Rusia, Corea del Sur, el Reino Unido y los Estados Unidos están en la vanguardia en el desarrollo y producción de LAWs. Australia, Turquía y otros países también están haciendo inversiones en esta área. Sin embargo, varias organizaciones alrededor del mundo han criticado las armas que seleccionan y atacan objetivos sin un control humano. Por ejemplo, el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge considera estas aplicaciones de la inteligencia artificial como una amenaza existencial. Estas posiciones argumentan la necesidad de tener control sobre el uso de la fuerza, y las implicaciones morales y éticas de causar la muerte usando armas que carecen de juicio y capacidad de comprender un determinado contexto, propio de los humanos.

Varias organizaciones alrededor del mundo han criticado las armas que seleccionan y atacan objetivos sin un control humano.

Desde el 2014, más de 30 países han pedido la prohibición de armas con autonomía total, particularmente en contrainsurgencia en zonas urbanas. Expertos internacionales, incluyendo representantes de Colombia en la CCW, han catalogado las armas autónomas como “poco éticas, y una amenaza militar y legal”. Además, sostienen que requieren una regulación “a nivel multilateral para garantizar que el control de los seres humanos persista en todo momento, de modo que ninguna máquina tome decisiones de vida o muerte”.

Si bien las conversaciones en la CCW se formalizaron en 2016, estas han dado pocos resultados. Puesto que las resoluciones son adoptadas por consenso, un solo Estado puede bloquear un acuerdo aprobado por mayoría. A menudo solo decisiones de poco impacto han sido aprobadas. A pesar de esto, el 20 de febrero de 2020 se reconoció ampliamente que los Estados deben centrar su trabajo colectivo en control humano de este tipo de armamento y la necesidad de anular una orden de ataque. 

Fotografía: RAE Engineering

Debido al desarrollo exponencial de la inteligencia artificial, varias naciones están desarrollando una nueva generación de armas autónomas capaces de pasar a la ofensiva, y tomar acciones letales sin intervención humana.

Los sistemas de armas totalmente autónomas, sin control humano aún no han sido desplegadas por ningún país. Expertos en robótica y armas estiman su despliegue en 20 años. Sin embargo, el desarrollo exponencial de la inteligencia artificial hace evidente que este ciclo sea más corto y su presencia, es inminente.  Algunos argumentan que es lejano que los Estados tengan la intención de desarrollar un sistema de armas que escape al control humano, ya que es vital para las naciones y su diplomacia mantener el control sobre sus armas y la guerra. Además, las armas autónomas podrían desplegarse después de un sorpresivo ataque nuclear y como último recurso asegurar el aniquilamiento y destrucción mutua (MAD según sus siglas en inglés).

El uso de armas autónomas puede causar situaciones que los humanos aun no son capaces de predecir o entender. Su riesgo se incrementa por potenciales errores en la implementación instrucciones informáticas o por vulnerabilidades que abran estos sistemas a ser hackeados con la intensión de desviarse de los parámetros creados por sus inventores. Por lo tanto, la mitigación de estas tecnologías requiere de una doctrina nacional incluyendo expertos en desarrollo de programas de innovación tecnológica. ¿Estamos preparados?

Las armas autónomas podrían desplegarse después de un sorpresivo ataque nuclear y como último recurso asegurar el aniquilamiento y destrucción mutuo (MAD según sus siglas en inglés).

Fotografía: Australian Defence Force

BAJO CONTROL HUMANO

(Human-in-the-Loop): El robot obedece los comandos de un operador humano distante, mientras que apoya al operador a través de la reducción de la complejidad (filtra información, clasifica objetivos). Puede seleccionar objetivos y atacar solo con un comando emitido en tiempo real por un operador humano.

BAJO SUPERVISIÓN HUMANA

(Human-on-the-loops): Las armas pueden llevar a cabo un proceso de selección independiente al del comando humano, pero permanecen bajo la supervisión en tiempo real de un operador que puede anular cualquier decisión, revocando la autonomía del robot.

AUTONOMÍA TOTAL

(Human-out-of-the-Loop): Pueden buscar, identificar, seleccionar y atacar objetivos sin el control en tiempo real de un operador en un entorno abierto e impredecible. El operador humano sólo puede intervenir con un comando de veto, por ejemplo, activando un botón de parada de emergencia. Sin embargo, por razones técnicas u operativas, el ejercicio del veto puede no ser posible.

Related Posts

Leave a comment