La IA es un campo que la USAF está investigando, al igual que medio mundo. Esta nueva tecnología está cada día más presente en nuestros quehaceres cotidianos: desde robots que nos contestan al teléfono cuando llamamos a algún servicio de atención al cliente hasta programas que autorellenan los datos por nosotros o nos hablan a través de un chat.
Esta avanzada tecnología mantiene el recelo de cientos de profesionales del sector y despierta el recelo de decenas más a cada paso que se da. Muchos defienden que implementar esta tecnología en sectores clave podría ser un punto sin retorno en nuestra evolución como especie, lo que no necesariamente sería algo bueno.
Al fin y al cabo, una IA es un programa que puede aprender unas acciones en base a unas indicaciones que recibe, puede buscar información en la red y, quizás lo más importante, puede tomar decisiones propias en base o no a unas indicaciones que recibe. Este ha sido el caso esta vez.
Así lo ha desvelado el coronel Tucker Hamilton, jefe de pruebas de la división de IA de la USAF, quien en el marco de la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro (RAeS por sus siglas) de Londres, ha desvelado durante una ponencia un inquietante ejercicio llevado a cabo por un dron equipado con IA.
Este dron fue enseñado a obedecer unas órdenes siguiendo un programa de recompensas por puntos en la que la decisión final siempre la tendría un operador humano que daría la orden de realizar una acción o no. En este caso, la «misión» consistía en destruir un sistema de misiles de defensas antiaéreas (SAM) enemigos.
El sistema identificó correctamente la amenaza (los sistemas SAM enemigos) y procedió a comenzar la misión para destruirlos. Sin embargo, cuando el operador humano le daba la misión de no proceder a destruir la amenaza, el sistema entendía que había más ventajas en eliminar la amenaza que en no hacerlo. Así que procedió a matar al operador que se interponía entre la aeronave y su objetivo mediante la orden emitida.
La aeronave realizó esta acción durante dos ejercicios. Después, se le enseñó que no tenía que matar al operador, porque perdería puntos al ser una acción mala. Una vez implementado esto, se volvió a realizar el ejercicio con las mismas decisiones. Entonces la IA del dron (que se cree que podía imitar al comportamiento de un MQ-9 Reaper armado) tomó la misma decisión: que el objetivo enemigo era más ventajoso y que las instrucciones de no hacerlo recibidas desde el operador se interponía en su misión.
Esta vez la acción del dron fue diferente, aunque no por ello menos inquietante: destruyó la torre de comunicaciones. El dron fue capaz de identificar la torre sin instrucción previa y procedió a destruir la torre para continuar con su misión de destruir el sistema enemigo.
Y es que aunque solo haya sido un ejercicio simulado, los resultados son cuanto menos inquietantes. Una persona que se encuentre al mando de un avión o, un dron en este caso, tiene la capacidad de tomar una decisión en función a una orden o a muchas variantes durante el desarrollo de la misma y se desconoce ahora mismo si la IA tiene esa capacidad de adaptación. Muchos expertos aseguran que se trata de un error introducir IA en armas letales y otros creen que podría hacerse, pero primero habría que ofrecerles algún tipo de «conciencia moral».
Sin ir más lejos, una IA también le jugó una mala pasada a un abogado inventándose sentencias falsas, es decir, el programa era capaz de mentir e inventarse una situación ficticia haciéndola pasar por real, podéis leer el artículo en este enlace.