Aviones militares controlados por IA: Un debate ético y estratégico en auge

 Aviones militares controlados por IA: Un debate ético y estratégico en auge

La Fuerza Aérea de Estados Unidos está planeando el uso de aviones pilotados por inteligencia artificial (IA), lo que ha generado debate debido a su enfoque automatizado. Según The New York Times, el proyecto busca asignar fondos significativos para la fabricación de 1.000 a 2.000 aviones no tripulados XQ-58A Valkyrie. Cada unidad podría costar entre 3 y 25 millones de dólares.

Estos aviones controlados por IA serían utilizados junto con aviones tripulados, proporcionando cobertura y realizando maniobras arriesgadas. También se menciona la posibilidad de misiones arriesgadas o «suicidas». Los planes incluyen pruebas simuladas sobre el Golfo de México, volando a altitudes de 4.000 metros a una velocidad de 900 kilómetros por hora.

Esta tendencia no es exclusiva de Estados Unidos. El Reino Unido también planea incorporar robots a sus fuerzas armadas, con la meta de que uno de cada cuatro soldados sea un autómata para 2030. Sin embargo, este enfoque ha generado preocupaciones éticas. Mary Wareham, de Human Rights Watch, advierte que el uso de máquinas para la toma de decisiones letales cruza líneas morales y podría resultar en consecuencias imprevistas y trágicas.

Pía Devoto, de la Asociación para Políticas Públicas de Argentina, destaca la necesidad de definir responsabilidades en actos de guerra ilícitos realizados por máquinas. Pregunta quién asumiría la responsabilidad civil y penal en la cadena de mando, así como las posibles responsabilidades de los fabricantes y programadores. Devoto advierte que ignorar estas cuestiones iría en contra de los Convenios de Ginebra, que establecen la responsabilidad de los superiores por las acciones de sus subordinados.