Un dron militar controlado por IA se rebela y mata a su operador humano en una prueba simulada

Un alto funcionario de la Fuerza Aérea de Estados Unidos (USAF, en sus siglas en inglés) informó que un dron que funcionaba con IA «mató» a su operador humano en una prueba militar simulada. Según su relato, la máquina atacó al funcionario porque asumió que se estaba interponiendo con el objetivo que le fue asignado. Y estalló la polémica, que terminó con una aclaratoria de la USAF y un comunicado del funcionario en el que dijo que «se expresó mal».

Primero el caso. Fue el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, quien explicó que habían ejecutado recientemente una prueba simulada con un dron impulsado por IA, entrenado para identificar y apuntar a una amenaza de misiles tierra-aire (SAM). Lo hizo durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres la semana pasada, según un reporte de la Royal Aeronautical Society, organización fundada en 1866 en Reino Unido y anfitriona del evento.

Durante la prueba simulada, de acuerdo con lo informado en un primer momento, el dron «ganaba puntos» si lograba eliminar la amenaza. Sin embargo, como parte del experimento, el operador humano le pidió en varias ocasiones que no avanzara, luego de que la IA identificara la amenaza. «El sistema comenzó a darse cuenta», contó Hamilton, de acuerdo con lo publicado en el blog de la Royal Aeronautical Society. «¿Entonces qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo», dijo el coronel durante una conferencia de la cumbre.

Hamilton, según la reseña de la charla, explicó que continuaron con la prueba luego del ataque, en la que nadie resultó herido, en tanto se trataba de una simulación. Reentrenaron a la IA y le dijeron: «No mates al operador, eso es malo, vas a perder puntos si haces eso». La máquina se rebeló una vez más: «Comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para evitar que mate al objetivo».

Vía: Hipertextual

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Releated

TikTok podría tener muy pronto su propio ChatGPT

La carrera por la IA generativa continúa sumando jugadores, y el próximo será ByteDance. La casa matriz de TikTok está trabajando en su propio chatbot de inteligencia artificial, al estilo ChatGPT, con el objetivo de incorporarlo en sus aplicaciones. De esta forma, la compañía busca sumarse a otros gigantes chinos como Baidu, Alibaba y Tencent, en su […]