Google, Microsoft y xAI acuerdan dar al gobierno de EE.UU. acceso temprano a sus modelos de IA con salvaguardas reducidas para evaluación de seguridad nacional
Las tres grandes empresas de inteligencia artificial (IA) más importantes, Google, Microsoft y xAI, han firmado acuerdos con el Departamento de Comercio de Estados Unidos para proporcionar al gobierno acceso anticipado a sus modelos de IA antes de su lanzamiento público. Este acuerdo se ha dado a conocer bajo la supervisión del Centro para Estándares e Innovación en IA (CAISI), que evaluará los nuevos modelos desarrollados por estas empresas con salvaguardas reducidas o desactivadas.
La empresa que lidera el CAISI, el Departamento de Comercio estadounidense, es responsable de desarrollar estándares técnicos de IA y evaluar las implicaciones de los sistemas de IA más avanzados para la seguridad nacional. El director del CAISI ha expresado que “la ciencia de medición independiente y rigurosa” es fundamental para entender la IA de frontera y sus implicaciones para la seguridad nacional.
Las evaluaciones se centrarán en lo que la industria denomina “capacidades de uso dual”, funciones que tienen aplicaciones legítimas pero también podrían usarse para actividades potencialmente dañinas, como el diseño de armas o ciberataques avanzados. Con este acuerdo, las empresas proporcionarán sus modelos con salvaguardas reducidas para permitir a CAISI explorar capacidades relacionadas con la seguridad nacional que los sistemas normales no exhibirían.
Este acuerdo es el reflejo en el sector civil del patrón observado en el ámbito militar, donde las empresas de IA están cooperando con el gobierno para proporcionar acceso a sus modelos. La ausencia de Anthropic en este acuerdo se debe a que la empresa ha mantenido restricciones más estrictas en sus contratos con organismos de defensa estadounidenses.
El objetivo del CAISI es evaluar realmente qué puede hacer un modelo en escenarios de riesgo, necesitando acceso sin los filtros habituales. Las evaluaciones serán confidenciales y los resultados no serán públicos, lo que genera preocupación sobre la opacidad de este proceso y su impacto en la regulación de la IA.
Este acuerdo es un paso más en la tendencia de la administración Trump a desregular el sector de la IA y dar acceso directo a las empresas líderes. Las evaluaciones serán realizadas por CAISI, que se convierte en una especie de “red team externo” con credenciales de seguridad nacional.