El Boletín de Científicos Atómicos considera que un dron de fabricación turca podría ser el primer caso conocido de armas autónomas basadas en Inteligencia Artificial usadas para matar.

En concreto, esta publicación conocida por publicar anualmente el informe del ‘Día del Juicio Final’ y que se ocupa de valorar las amenazas nucleares, en cambio climático y en tecnologías disruptivas, refiere un informe reciente del Panel de Expertos de la ONU sobre Libia.

En dicho informe se cita que el dron STM Kargu-2 -un arma autónoma de fabricación turca- pudo haber “perseguido y comprometido remotamente” a soldados en retirada leales al general libio Khalifa Haftar.

Publicidad

A lo largo del año, el Gobierno de Acuerdo Nacional reconocido por la ONU hizo retroceder a las fuerzas del general desde la capital, Trípoli, lo que indica que había ganado la delantera en el conflicto libio, pero el Kargu-2 significa algo quizás incluso más significativo a nivel mundial: “un nuevo capítulo de las armas autónomas, en el que se utilizan para luchar y matar seres humanos basándose en la inteligencia artificial”.

¿La inteligencia artificial es un peligro para la humanidad?

Inteligencia artificial puede escribir noticias, hacer resúmenes de textos y traducciones

El Kargu es un dron “merodeador” que puede usar la clasificación de objetos basada en el aprendizaje automático para seleccionar y atacar objetivos, con capacidades de enjambre en desarrollo para permitir que 20 drones trabajen juntos. El informe de la ONU llama al Kargu-2 un arma autónoma letal.

Su fabricante, STM, promociona las capacidades “antipersonal” del arma en un video que muestra un modelo Kargu en una caída pronunciada hacia un objetivo en medio de un grupo de maniquíes.

Publicidad

Si alguien muere en un ataque de esta naturaleza, probablemente representaría un primer caso histórico conocido de armas autónomas basadas en inteligencia artificial que se utilizan para matar.

Muchas personas, incluido el fallecido Steven Hawking y Elon Musk, han dicho que quieren prohibir este tipo de armas, diciendo que no pueden distinguir entre civiles y soldados, mientras que otros dicen que serán fundamentales para contrarrestar amenazas como enjambres de drones. En realidad, puede reducir el riesgo para los civiles porque cometerán menos errores que los sistemas de armas guiados por humanos, comenta el boletín en un artículo firmado por Zachary Kallenborn. (I)