En 1139 el Papa Inocencio II prohibió el uso de la ballesta. La calificó entonces como «un arma detestable para Dios e indigna para los cristianos», aunque sí la consideró válida para luchar contra los infieles. La medida no se tuvo en cuenta, y la ballesta se siguió utilizando en los siglos posteriores. La historia del armamento siempre ha estado ligada a estas prohibiciones, y ahora hay una especialmente delicada: la que afecta a los llamados «robots asesinos».
Armas prohibidas. Aquel ejemplo de las ballestas acabó siendo tan solo uno de los muchos que han rodeado a la evolución del armamento militar y su aplicación a conflictos bélicos. En 1970 entró en vigor el Tratado de No Proliferación Nuclear para evitar el uso de armas nucleares, pero el derecho internacional también prohíbe el uso de armas químicas, biológicas o de minas antipersona. Esos acuerdos no suelen están ratificados por todos los países del mundo, pero sí por la inmensa mayoría.
Cuidado con las armas autónomas. Como indican en Reuters, La Organización de las Naciones Unidas ha convocado una reunión para regular el segmento de las armas autónomas controladas por inteligencia artificial. Este tipo de armamento es cada vez más utilizado en conflictos bélicos modernos, y los expertos avisan: es el momento de poner límites al uso de esta tecnología letal.
La Guerra de Ucrania como ejemplo. Lo que se está viviendo en la Guerra Ucrania es muestra de cómo se están utilizando este tipo de armas autónomas. Los drones y los robots están siendo usados de forma notable contra las tropas rusas, y hay ya drones lanzando drones para atacar a otros drones. La relevancia de este tipo de armamento se ha visto incluso afectada por la guerra comercial entre EEUU y China, que hace peligrar la producción y exportación de estos vehículos autónomos. En The New York Times ya avisaron del auge de los temibles «drones kamikaze» y su uso en este conflicto.
Diez años hablando de prohibir robots asesinos. En Xataka llevamos una década hablando del peligro que entraña el uso de armas con IA y la deriva hacia los famosos «robots asesinos». El debate sobre la potencial prohibición de los robots asesinos viene de lejos, y organismos como Human Rights Watch lleva desde 2015 intentando prohibirlos antes de que sea tarde. Los propios investigadores de IA ya avisaban de ese peligro en 2017 y Brad Smith, presidente de Microsoft, afirmaba que estos robots asesinos son «imparables». Sin embargo son muchos los países que han seguido desarrollándolos, y no hay consenso a la hora de poner límites en este peligroso ámbito.
Fecha límite. El secretario general de Naciones Unidas, Antonio Guterres, ha establecido que 2026 es la fecha límite para que todos los países establezcan reglas claras en el uso de armas con inteligencia artificial. Sus palabras son claras: estos sistemas de armamento autónomo son «políticamente inaceptables, moralmente repugnantes» y deberían ser prohibidos».
No hay consenso. Lo que falta es el citado consenso: Alexander Kmentt, responsable de control del armamento en el ministerio de exteriores austríaco, lo explicaba: «el tiempo apremia para poner coto a las pesadillas que advierten algunos de los expertos más prestigiosos», apuntó. Algunas grandes personalidades del mundo tecnológico como Elon Musk o Demis Hassabis ya alertaron en 2018 del problema y pidieron a la ONU prohibir las armas autónomas.
Los militares se resisten. Los esfuerzos diplomáticos se enfrentan a los mandos militares, que según Reuters se resisten a la regulación porque eso podrían difuminar las ventajas que plantean estas tecnologías en el campo de batalla. Esta última reunión de la Convención sobre Armas Convencionales (CCW, por sus siglas en inglés) es la última edición de unos encuentros que se celebran desde 2014. Los participantes ven necesario «un tratado jurídicamente vinculante» para los países de la ONU.
Pero algunos países prefieren ir a su ritmo. Muchos países apoyan ese acuerdo general, pero EEUU, Rusia, China e India prefieren tener regulaciones nacionales o que se apliquen leyes internacionales existentes, según Amnistía Internacional. Un portavoz del Pentágono de EEUU indicó en Reuters que «no estamos convencidos de que las leyes existentes sean insuficientes» y destacó que las armas autónomas podrían plantear un riesgo menor para los civiles que las armas convencionales.
Y como no hay regulación, hay proliferación. La falta de esos límites está provocando un desarrollo claro de este tipo de armas autónomas. Los expertos del Future of Life Institute han monitorizado el despliegue de unos 200 sistemas de armas autónomas en Ucrania, Oriente Medio y África. Las fuerzas rusas han desplegado unos 3.000 drones kamikaze Veter en Ucrania, según esos datos, y como hemos indicado en varias ocasiones en Xataka, ese país tiene en estos drones uno de sus elementos críticos para atacar objetivos rusos.
Dualidad. Como decía mi compañero Javier Jiménez en un fantástico tema que preparó en 2018, otro de los problemas con este debate es que «es muy difícil determinar qué prohibir y qué no en un mundo tan fuertemente informatizado como el bélico». La clave no está tanto en lo tecnológico como en lo ético, y aquí estamos ante una tecnología dual capaz de usarse con fines civiles y con fines militares. Aquí la reflexión era clara: «nadie va a ceder una baza militar estratégica por una cuestión ética», decía. Añadía como conclusión que «más allá del alarmismo, necesitamos herramientas» para identificar, monitorizar y controlar el desarrollo de estas armas porque «ni las buenas intenciones ni el autocntrol han funcionado bien en el pasado».
Mucho dinero en juego. Pero como siempre, uno de los factores de esta industria es que hay muchísimo dinero en juego, y más cuando hay una renovada fiebre por aumentar los presupuestos de Defensa. Laura Nolan, de la organización activista Stop Killer Robots, dejó claro que no hay ninguna garantía de que las empresas tecnológicas serán responsables a la hora de desarrollar estos sistemas: «Por lo general, no confiamos en que las industrias se autorregulen … No hay ninguna razón por la que las empresas de defensa o tecnología deban ser más dignas de confianza».
En Xataka | Así ve la guerra del futuro el profesor que defiende los robots soldados
No hay reseñas todavía. Sé el primero en escribir una.