Un dron miniatura, más pequeño que nuestra palma, se dirige sin titubear hasta su objetivo humano. Lo identifica a través de la tecnología de reconocimiento facial y le perfora la frente con un proyectil. Muere al instante. Es una de tantas armas autónomas que comienzan a fabricarse.

Esa angustiosa escena tiene lugar en un video viral de siete minutos emitido por autonomousweapons.org, una organización sin fines de lucro que advierte sobre la potencial automatización de las armas en instancias como las Naciones Unidas (ONU).

Su cruzada Campaign to Stop Killer Robots (#BANKILLEROBOTS) busca una prohibición internacional preventiva sobre las “armas completamente autónomas que permitan que las máquinas trabajen sin intervención humana”.

“Permitir que las máquinas elijan matar seres humanos por programación y autonomía propia devastará nuestra seguridad y libertad”, advierte Stuart Russel, profesor de Ciencias de la Computación de la Universidad de California en Berkeley, y uno de los firmantes de una carta emitida a la ONU en 2017.

Lo que se miraba como ciencia ficción, sobre todo para aquellos que crecieron con la franquicia de Terminator y Skynet, podría estar más cerca de lo que se piensa.

No a la fuerza letal autónoma

Durante las reuniones de la ONU esta semana sobre el futuro de la guerra, los expertos discutieron sobre la posibilidad de que la Inteligencia Artificial y los robots pudieran tomar las decisiones de usar la fuerza letal.

Algunas armas autónomas ya existen en el campo. Muchas naves de la marina de Estados Unidos, por ejemplo, llevan cañones que dispararán misiles entrantes sin intervención humana. En la frontera entre Corea del Norte y Corea del Sur, hay torretas automáticas que fueron diseñadas para disparar de forma autónoma contra sus objetivos, antes de que los cuidadores humanos decidieran que querían mantener el control después de todo.

Durante años, las partes interesadas se han reunido en un comité de la ONU para sopesar las posibilidades, y el debate aún no está resuelto.

Las armas autónomas, aseguran en la ONU, no deben usarse, pero hay empresas y gobiernos que no han acatado la decisión, y la batalla de esta decisión se mantendrá en las próximas semanas.

Redacción Silicon Week

Recent Posts

IA, entrenamiento, inferencia y RAG: un nuevo amanecer para la IA

Por Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en…

17 horas ago

Cómo eliminar datos personales de los resultados de búsqueda de Google

ESET comparte una serie de recomendaciones para gestionar el control sobre la información personal que…

18 horas ago

La renovada y amplia bodega de DHL Global Forwarding

A 10 minutos del aeropuerto y con una excelente conectividad hacia autopistas y puertos, esta…

19 horas ago

Ciberseguridad: cómo las tiendas se adaptan a la tecnología para competir

El comercio mundial está experimentando una transformación tecnológica que involucra la adopción de nuevas herramientas…

2 días ago

DispatchTrack presenta las 5 tendencias más innovadoras de última milla para 2025

“Las empresas que adopten estas tendencias estarán mejor preparadas para ofrecer experiencias excepcionales al cliente,…

2 días ago

Predicciones 2025: La inteligencia artificial seguirá ganando terreno con la nube

Por Julio César Castrejón, Country Manager de Nutanix México.

2 días ago