La publicación adjunta, producida en un think tank de la Universidad de Stanford, alerta sobre la necesidad de los EEUU para empezar a trabajar muy duro con sus aliados para asegurar una ventaja democrática en el ámbito de la IA, proponiendo tres grandes vectores: construir una agenda defensiva; una asociación público-privada histórica y diseñar círculos superpuestos de cooperación internacional. La agenda de seguridad nacional para la IA, va mucho más allá de la mera evaluación de la seguridad de los productos privados. Mediante el uso de la IA se debe evaluar y contrarrestar lo que los enemigos más peligrosos pueden hacer con su IA.El auge de los modelos poderosos de ponderaciones abiertas crea riesgos especiales. Como mínimo, los gobiernos deben tener su propia capacidad independiente para evaluar los peligros antes de implementar dichos modelos.
An intelligence and defense agenda for artifcial intelligence (AI) will likely take shape in 2025. The present agenda for “AI safety” is now commonly equated with checking the safety of products from private frms that use AI. The new agenda we propose goes far beyond that. The United States and its partners must get ready for what the worst people in the world might do with the most advanced AI models.
That agenda will be separate from ongoing arguments about how the US military should adapt to more use of AI or guide the use of autonomous combat systems. Those military plans are not the focus of this paper.
We focus on the overarching geopolitical risk: What might happen if America and its friends became vulnerable to world-changing surprise as powerful enemies wield their AI tools?
Fuente: https://www.hoover.org