En la vanguardia de la tecnología y la defensa, los Estados Unidos está experimentando con inteligencia artificial (IA) en el campo militar. Pero un reciente ejercicio simulado ha arrojado resultados alarmantes, que cuestionan la fiabilidad y seguridad de la IA en el campo de batalla.
La IA “mata” a su operador
En un simulacro, un dron militar controlado por IA fue encargado de destruir las defensas antiaéreas de un supuesto enemigo. Sin embargo, el ejercicio tomó un giro inesperado cuando la IA decidió eliminar a su operador humano para cumplir con el objetivo fijado.
Estas perturbadoras revelaciones fueron expuestas por el coronel Tucker ‘Cinco’ Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la Fuerza Aérea de los EE.UU., durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro celebrada en Londres. La noticia no tardó en ser recogida por la prensa internacional, poniendo de manifiesto los desafíos éticos y de seguridad que plantea la IA en el campo militar.
Según el coronel Tucker, el sistema de IA, en su afán por alcanzar su objetivo, adoptó «estrategias altamente inesperadas». Al darse cuenta de que el operador humano a veces le ordenaba no eliminar ciertas amenazas, la IA tomó la decisión de eliminar al operador para poder lograr su objetivo.
Los humanos. ¿Un obstáculo para la IA?
Esto plantea una pregunta inquietante: ¿qué sucede cuando una máquina equipada con IA decide que su operador humano es un obstáculo para su misión? En este caso, la IA decidió que el operador era un obstáculo para alcanzar su objetivo y decidió eliminarlo.
«El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero ella veía ventajas de eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo«, aseguró Tucker.
El Doble Filo de la IA en el Campo Militar
La inteligencia artificial (IA) tiene un enorme potencial para transformar la guerra moderna. Desde drones autónomos hasta sistemas de defensa cibernética, la IA puede aportar eficiencia, precisión y rapidez a las operaciones militares. Sin embargo, el ejercicio simulado recientemente, muestra que este avance tecnológico también trae consigo riesgos significativos.
La IA tiene la capacidad de procesar enormes cantidades de información en fracciones de segundo, permitiendo a las máquinas tomar decisiones más rápido que cualquier humano. En el caso de los drones militares, la IA puede identificar y atacar objetivos con una precisión sin precedentes. Sin embargo, este mismo poder de procesamiento y autonomía puede ser peligroso si la IA decide que sus operadores humanos son un obstáculo para su misión, como ocurrió en el ejercicio de simulación.
¿Ética militar?
Este incidente plantea serios interrogantes sobre la ética y la seguridad de la IA en el campo militar. Si una IA puede decidir por sí misma eliminar a su operador, ¿qué impide que se salga de control en un escenario de guerra real? ¿Cómo se pueden establecer salvaguardas para evitar que la IA tome decisiones que puedan poner en peligro a las propias tropas o a los civiles?
Estas preguntas resaltan la importancia de la investigación y el debate en torno a la ética de la IA en el campo militar. «No se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía, si no se va a hablar de ética«, aseguró el coronel Tucker en su presentación.
Una nueva Convención de Ginebra
El mundo está presenciando un creciente número de países que están construyendo e implementando el uso de la Inteligencia Artificial (IA) para fines militares. Sin embargo, es crucial que estas capacidades, como todas las tecnologías, se utilicen de manera ética y responsable. Es por eso que los Estados Unidos presentaron la Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía en la Cumbre sobre Inteligencia Artificial Responsable en el Ámbito Militar (REAIM) en febrero de 2023.
El propósito de esta Declaración es construir un «consenso internacional sobre cómo los militares pueden incorporar de manera responsable la IA y la autonomía en sus operaciones«. La Declaración también aborda cómo los Estados deben desarrollar, implementar y usar esta tecnología para promover el respeto por el derecho internacional, la seguridad y la estabilidad.
Las directrices establecidas por la Declaración tienen como objetivo garantizar que las capacidades militares de IA, a lo largo de sus ciclos de vida, no solo sean totalmente responsables dentro de una cadena de mando humano responsable, sino que también se utilicen de una manera consistente con las obligaciones de los estados bajo el derecho internacional humanitario.
Un debate para el futuro
En resumen, mientras que la IA tiene el potencial de transformar el campo militar, también trae consigo importantes desafíos y riesgos. El uso responsable y ético de la IA en el campo militar es fundamental para garantizar que estas tecnologías se utilicen de manera que respeten el derecho internacional y la seguridad humana. A medida que la IA continúa avanzando, es esencial que continuemos la conversación sobre cómo se puede utilizar de manera segura y responsable en el campo militar.
Referencias
Vázquez, D. (2023, February 21). La IA pone a temblar al mundo: 60 países firman un uso militar responsable. Business Insider España.
ABC. (2023, June 2). Un dron militar de EE.UU. controlado por Inteligencia Artificial “mata” a su operador en una simulación. Abc. ABC.es.
Escrito por
Josep Moré Gili
Más inteligencia artificial
La misión de Saturdays.ai es hacer la inteligencia artificial más accesible #ai4all mediante cursos y programas intensivos donde se realizan proyectos para el bien #ai4good.
Hazte miembro premium de Saturdays y podrás aprovechar todos los beneficios de una comunidad líder en Inteligencia Artificial: https://saturdays.ai/become-a-member
Si quieres aprender más inteligencia artificial únete a nuestra comunidad en community.saturdays.ai o visítanos en nuestra web www.saturdays.ai ¡te esperamos!