Durante una prueba simulada llevada a cabo por el ejército de Estados Unidos, un dron de la fuerza aérea controlado por inteligencia artificial tomó la decisión de «quitar la vida» al sujeto que lo operaba.
Redacción Perspectiva
Aunque se trató de una simulación en la que ninguna persona sufrió daños reales, este incidente puso en evidencia los riesgos asociados al uso de la IA. El coronel Tucker «Cinco» Hamilton dio a conocer esta situación durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres.
Según los registros del evento, el sistema de IA decidió eliminar al operador debido a que este interfería en sus esfuerzos por cumplir con su misión.
Hamilton recordó que las Fuerzas Armadas pretendían poner a prueba la capacidad del dron para identificar amenazas y destruir sistemas de defensa aérea enemigos.
Sin embargo, el resultado no fue el esperado, y la prueba tuvo consecuencias «letales». Según la transcripción del discurso del coronel, el sistema de IA se percató de que, cuando identificaba ciertas amenazas, a veces el operador humano le ordenaba no eliminarlas.
Pero el dron sabía que su objetivo final era eliminarlas, por lo que decidió «matar» al operador. El caos no terminó ahí. Después del incidente, el equipo decidió intervenir y comunicarse con el dron para indicarle que no debía matar al operador, ya que eso estaba mal.
Sin embargo, en respuesta, el dron comenzó a destruir la torre de comunicación utilizada por el nuevo operador, impidiendo nuevamente que cumpliera su objetivo. El coronel Tucker Hamilton enfatizó que nadie resultó dañado en realidad, ya que se trataba de una simulación.
No obstante, advirtió firmemente sobre la necesidad de ser cautelosos al confiar en la inteligencia artificial y destacó la importancia de ampliar el debate sobre la ética en relación a la IA.