Un hecho inédito ocurrió en Estados Unidos (EEUU), cuando el operador de un dron militar controlado por Inteligencia Artificial (IA) murió mientras manipulaba el aparato.
La información fue confirmada por el jefe de Pruebas y Operaciones de inteligencia artificial (IA) para la Fuerza Aérea de los Estados Unidos, coronel Tucker ‘Cinco’ Hamilton, quien aseguró que el dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó «aniquilando» a su operador humano.
El dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.
Aunque el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio, la IA llegó a la conclusión de que cualquier instrucción de «no seguir» del humano se interponía en el éxito de la misión.
Este hecho se dio a conocer en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en el Reino Unido, los días 23 y 24 de mayo y fue reseñada por RT.
«Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero [al final] obtuvo sus puntos al eliminar esa amenaza», declaró Hamilton. «Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo«, subrayó Hamilton.
Regulación
Debido al suceso, las aurtoridades militares decidieron regular el comportamiento de la IA sobre la base de un criterio ético. «Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo», explicó.
Basado en esta experiencia determinaron que no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar sobre ética e inteligencia artificial.
¿EEUU pretende ocultar los hechos?
Tras conocerse la historia en Reino Unido en medio de cientos de personas, Ann Stefanek, portavoz de la Fuerza Aérea de EEUU negó la información.
Aseguró que no ha pasado tal simulación. «El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA», declaró Stefanek a Business Insider, este viernes.
«Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos«, agregó.