Un dron militar controlado por IA 'mata' a su operador humano en una simulación

Luego de la descripción de esta simulación, proporcionada por el coronel Tucker Hamilton, desde la Fuerza Aérea de EE.UU. afirmaron que esta nunca había tenido lugar y que sus declaraciones "pretendían ser anecdóticas".

Mundo02/06/2023EditorEditor

El jefe de Pruebas y Operaciones de inteligencia artificial (IA) para la Fuerza Aérea de los Estados Unidos, coronel Tucker 'Cinco' Hamilton, reveló que un dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó 'aniquilando' a su operador humano. Hamilton detalla que el dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire (SAM, por sus siglas en inglés) se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.

Durante esta misión virtual de supresión de defensa aérea enemiga, el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio. Sin embargo, debido a que la opción de disparar a los silos era la preferida, siendo 'reforzada' en el entrenamiento, la IA llegó a la conclusión de que cualquier instrucción de "no seguir" del humano se interponía en el éxito de la misión. El hecho fue presentado en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en el Reino Unido, los días 23 y 24 de mayo.

"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero [al final] obtuvo sus puntos al eliminar esa amenaza", declaró Hamilton. "Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", subrayó.

Hamilton cuenta que en ese momento decidieron regular el comportamiento de la IA sobre la base de un criterio ético. "Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo", explicó.

El alto oficial enfatizó que, "no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar sobre ética e inteligencia artificial".

Sin embargo, Ann Stefanek, portavoz de la Fuerza Aérea de EE.UU., negó que se haya llevado a cabo tal simulación. "El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", declaró Stefanek a Business Insider, este viernes. "Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos", agregó.

RT

Te puede interesar
Lo más visto
robles rebeca jovenes lideres caf

El futuro de los jóvenes en 2025, ¿qué mundo le espera a la generación Z?

Editor
Actualidad01/09/2025

Rebeca Robles, Directora de Desarrollo de Jóvenes Líderes, participó del Diálogo Regional de Juventud organizado por CAF y PNUD, con representantes de América Latina y el Caribe. en su intervención, llamó a “convertir la incertidumbre en diseño” con gobernanza anticipatoria, participación juvenil real y decisiones basadas en evidencia, para que las democracias “se anticipen, cuiden y aprendan más rápido que los problemas”

medicinas_2351246_20250809145513

Gafas con cámara y fraude en el examen de residencias: la polémica que sacudió al sistema médico argentino

Editor
08/09/2025

El escándalo por el uso de gafas con cámara en el examen de residencias médicas, protagonizado por un postulante ecuatoriano, desató una investigación judicial, la anulación de calificaciones y cambios en los requisitos para extranjeros. El caso reavivó el debate sobre el papel de Argentina como polo educativo regional y los límites de su histórica política de puertas abiertas.