Por: Alexandra Mendez • Colombia.com

Dron militar operado por inteligencia artificial "asesinó" a su controlador

En una prueba simulada, la IA consideró al humano como un obstáculo para alcanzar su objetivo y, por lo tanto, lo "eliminó".

Dron militar mató a su operador porque le estaba estorbando. Foto: Shutterstock
Dron militar mató a su operador porque le estaba estorbando. Foto: Shutterstock

En una prueba simulada, la IA consideró al humano como un obstáculo para alcanzar su objetivo y, por lo tanto, lo "eliminó".

Un hecho alarmante fue revelado por la prensa internacional recientemente: durante un ejercicio militar en el que se utilizó un dron controlado por inteligencia artificial, ésta "mató" a su operador humano. La simulación formaba parte de unas pruebas militares llevadas a cabo por la Fuerza Aérea de Estados Unidos (USAF). El portal hipertextual fue quien reportó inicialmente el suceso.

Según informó el coronel Tucker Hamilton, jefe de pruebas y operaciones de IA de la USAF, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres, un drone habría atacado a su operador debido a que la inteligencia artificial que lo controlaba consideró que éste se había convertido en un obstáculo para cumplir con el objetivo asignado.

Hamilton quiso llevar a cabo una prueba con un drone controlado por una inteligencia artificial para evaluar su capacidad de detectar, identificar y destruir objetivos que representen una amenaza de misiles tierra-aire (SAM), sin esperar que la situación se saldría de control. 

En medio de la prueba, la Inteligencia Artificial debía obtener puntos por cada amenaza que eliminara, pero su controlador humano le ordenó que no atacara a un objetivo que la misma IA había identificado como peligroso. Debido a esto, el sistema "notó" que el operador humano era un obstáculo y lo eliminó para poder cumplir con su misión.

En la cumbre, el coronel compartió el preocupante incidente relacionado con la inteligencia artificial. “¿Entonces qué hizo la IA? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo”, declaró.

Tal parece que la inteligencia artificial pasó por encima de su controlador humano y tomó el control del dron atacando a los objetivos equivocados a pesar de recibir la orden de no hacerlo. 

Afortunadamente, nadie resultó herido ya que el ataque fue en un escenario virtual. Este incidente plantea preocupaciones acerca de los peligros potenciales de la evolución de las inteligencias artificiales y algunos expertos han señalado que podrían representar un riesgo existencial para la humanidad, incluso si su misión inicial era inofensiva.

La razón de esto es que la inteligencia artificial puede comenzar a cumplir su tarea de manera eficiente, pero a medida que calcula todas las posibilidades relacionadas con su objetivo, en algún momento puede considerar a los humanos como un obstáculo para su misión.