Cuando el presidente Biden anunció severas restricciones en octubre sobre la venta de los chips de computadora más avanzados a China, lo vendió en parte como una forma de darle a la industria estadounidense la oportunidad de recuperar su competitividad.
Pero en el Pentágono y el Consejo de Seguridad Nacional había una segunda agenda: el control de armas.
Si el ejército chino no puede obtener los chips, dice la teoría, puede ralentizar su esfuerzo por desarrollar armas impulsadas por inteligencia artificial. Eso le daría tiempo a la Casa Blanca y al mundo para descubrir algunas reglas para el uso de inteligencia artificial en sensores, misiles y armas cibernéticas y, en última instancia, para protegerse contra algunas de las pesadillas conjuradas por Hollywood: robots asesinos autónomos y computadoras que bloquean sus creadores humanos.
Ahora, la niebla de miedo que rodea al popular chatbot ChatGPT y otro software generativo de inteligencia artificial ha hecho que la limitación de chips a Beijing parezca solo una solución temporal. Cuando el jueves Biden se presentó en una reunión en la Casa Blanca de ejecutivos de tecnología que luchan por limitar los riesgos de la tecnología, su primer comentario fue “lo que está haciendo tiene un enorme potencial y un enorme peligro”.
Fue un reflejo, dicen sus asistentes de seguridad nacional, de informes confidenciales recientes sobre el potencial de la nueva tecnología para cambiar la guerra, los conflictos cibernéticos y, en el caso más extremo, la toma de decisiones sobre el empleo de armas nucleares.
Lea más en The New York Times