Necesitamos una “Convención de Ginebra digital”
Los sistemas automatizados son ahora capaces de tomar decisiones que pueden significar la vida o la muerte sin la supervisión directa de un ser humano.
En la tercera década del siglo XXI, la inteligencia artificial ha dejado de ser simplemente una herramienta auxiliar en nuestra vida cotidiana para convertirse en un protagonista central en el ámbito de la guerra.
Este fenómeno, que se ha acuñado como “algoritmos asesinos”, representa un cambio significativo en la historia de los conflictos armados y plantea profundas interrogantes existenciales sobre el futuro de la guerra, los límites de la acción humana y la ética en la era digital.
Las estimaciones indican que más de 30 países están en proceso de desarrollar actualmente sistemas de armas autónomos. Estos sistemas se fundamentan en tres pilares esenciales: redes de sensores que recopilan datos de diversas fuentes, algoritmos de aprendizaje automático que pueden identificar patrones y prever comportamientos, y sistemas de ejecución autónomos que toman decisiones sin necesidad de un operador o comandante humano.
Un ejemplo impactante de estas tecnologías en acción se dio a mediados de 2025, cuando se llevaron a cabo una serie de operaciones precisas dirigidas contra figuras prominentes de Irán. La evidencia sugiere que las plataformas utilizadas no eran simples drones convencionales, sino sistemas de combate inteligentes capaces de rastrear objetivos durante semanas, recolectar y analizar volúmenes masivos de datos, y seleccionar el momento óptimo para llevar a cabo un ataque, considerando variables como la ubicación, el clima, el movimiento civil e incluso el impacto mediático previsto. La precisión de algunas de estas operaciones alcanzó casi el 92%, lo que subraya la avanzada naturaleza de esta tecnología.
Uno de los aspectos más preocupantes de estos sistemas es su capacidad para aprender de manera continua. No operan bajo una programación fija, sino que evolucionan con el tiempo, ajustando sus decisiones en función de experiencias previas y nuevos datos. Esta capacidad de adaptación los convierte en herramientas más eficientes, pero también en entidades menos predecibles. Un algoritmo que actúa de cierta manera hoy podría comportarse de manera completamente diferente la próxima semana, incluso bajo las mismas condiciones de misión.
Esto plantea un dilema ético y legal profundo: ¿quién debe asumir la responsabilidad si estos sistemas cometen errores y causan la muerte de civiles inocentes? ¿El programador que diseñó el algoritmo? ¿El operador que lo activó? ¿El Estado que lo utilizó? ¿O se ha convertido la inteligencia artificial en un nuevo tipo de actor legal, carente de límites claros de identidad y responsabilidad?
Esta estrategia no tiene como objetivo simplemente responder a los ataques, sino prevenir que las amenazas surjan en primer lugar, a través de lo que podría describirse como “asesinato preventivo predictivo”.
Sorprendentemente, estas operaciones no requieren la presencia humana en el terreno; en su lugar, son orquestadas desde centros de comando digitales de alta tecnología donde se monitorean los objetivos y se verifican los “criterios de enfrentamiento” antes de ejecutar un ataque en cuestión de segundos.
En algunos casos, se han creado redes de inteligencia artificial para coordinar unidades autónomas terrestres, aéreas y marítimas sin supervisión humana directa, basándose en el análisis en tiempo real de datos provenientes de múltiples sensores y fuentes de inteligencia.
Estas capacidades permiten tomar decisiones militares con mayor rapidez que cualquier respuesta humana, pero también conllevan riesgos significativos: ¿Qué sucederá si algoritmos rivales colisionan en el campo de batalla? ¿Podría estallar una guerra a causa de un error computacional? ¿Y qué pasa si la decisión de llevar a cabo un ataque se deja en manos de un sistema que no comprende ni la diplomacia ni las intenciones humanas?
La proliferación de esta tecnología entre actores no estatales es aún más alarmante. Con la disponibilidad de herramientas de programación de código abierto y la reducción del costo de los drones, un grupo militante o incluso un individuo técnicamente capacitado podría diseñar un algoritmo rudimentario para atacar a un adversario específico, utilizando técnicas de reconocimiento facial o señales digitales. Esta tendencia abre la puerta a lo que se podría denominar la “democratización de la matanza digital”, donde la guerra ya no es exclusivamente el dominio de los ejércitos, sino que se convierte en un escenario caótico para mercenarios, hackers y anarquistas.
La guerra contemporánea ya no es solo física; también es psicológica e informativa.
Todos estos avances se producen en un contexto de ausencia de un marco jurídico internacional claro que regule el uso de algoritmos asesinos. Los tratados existentes, como las Convenciones de Ginebra, se establecieron en una época en la que la guerra era una actividad enteramente humana. En la actualidad, no existe un tratado vinculante que regule los sistemas de eliminación autónoma; los Estados no están obligados a revelar sus algoritmos de combate, y los desarrolladores no tienen obligación de rendir cuentas por sus creaciones.
Si bien se habla de la posibilidad de una “Convención de Ginebra digital”, las grandes potencias han resistido hasta ahora cualquier restricción que pueda limitar su superioridad estratégica.
A pesar de los esfuerzos de algunos investigadores por incorporar valores éticos en los algoritmos, estos intentos siguen siendo limitados. Los algoritmos no distinguen entre un niño y un combatiente escondido entre civiles; analizan probabilidades y ejecutan decisiones cuando se supera un umbral de “amenaza”. En tales casos, la ética se convierte en una variable matemática, no en un principio humano.
Lo que enfrentamos no es simplemente una evolución tecnológica, sino un momento crucial en la historia de la humanidad misma. Los algoritmos asesinos nos obligan a redefinir nuestra relación con las máquinas, el poder y la responsabilidad, así como la naturaleza misma de la guerra y la justicia.
Si la comunidad internacional no actúa con rapidez para crear nuevas normas que restrinjan este poder, es probable que las guerras del futuro no se librarán entre ejércitos, sino entre algoritmos.




