Home Mundo El memorando de seguridad nacional de inteligencia artificial de Biden exige un...

El memorando de seguridad nacional de inteligencia artificial de Biden exige un gran esfuerzo

0

La directiva del presidente Joe Biden a todas las agencias de seguridad nacional de Estados Unidos para que incorporen tecnologías de inteligencia artificial en sus sistemas establece objetivos ambiciosos en medio de un entorno político volátil.

Esa es la primera evaluación de los expertos en tecnología después de que Biden ordenara el 24 de octubre a un amplio grupo de organizaciones que aprovecharan la IA de manera responsable, incluso cuando la tecnología avanza rápidamente.

«Es como intentar montar un avión mientras pilotándolo», dijo Josh Wallin, miembro del programa de defensa del Centro para una Nueva Seguridad Estadounidense. “Es un trabajo pesado. Esta es un área nueva que muchas agencias están teniendo que analizar ya la que quizás no necesariamente hayan prestado atención en el pasado, pero también diré que es cierta crítica”.

Las agencias federales necesitarán contratar rápidamente expertos, obtenerles autorizaciones de seguridad y ponerse a trabajar en las tareas que Biden establece a medida que las empresas privadas invierten dinero y talento para avanzar en sus modelos de inteligencia artificial, dijo Wallin.

El memorándum, que surge de la orden ejecutiva del presidente del año pasado, pregunta al Pentágono; agencias de espionaje; los departamentos de Justicia, Seguridad Nacional, Comercio, Energía y Salud y Servicios Humanos; y otros para aprovechar las tecnologías de IA. La directiva enfatiza la importancia de los sistemas de seguridad nacional «al mismo tiempo que protegen los derechos humanos, los derechos civiles, las libertades civiles, la privacidad y la seguridad en las actividades de seguridad nacional habilitadas por la IA».

Las agencias federales tienen plazos, algunos de hasta 30 días, para realizar tareas. Wallin y otros dijeron que los plazos dependen del ritmo de los avances tecnológicos.

El memorando pide que para abril el Instituto de Seguridad de IA del Instituto Nacional de Estándares y Tecnología «realice pruebas preliminares voluntarias de al menos dos modelos de IA de vanguardia antes de su despliegue público o lanzamiento para evaluar capacidades que podrían representar una amenaza para la seguridad nacional».

Los modelos de frontera se refieren a grandes modelos de inteligencia artificial como ChatGPT que pueden reconocer el habla y generar texto similar a un humano.

Las pruebas tienen como objetivo garantizar que los modelos no permitan inadvertidamente a actores y adversarios deshonestos lanzar operaciones cibernéticas ofensivas o «acelerar el desarrollo de armas biológicas y/o químicas, llevar a cabo comportamientos maliciosos de forma autónoma, automatizar el desarrollo y despliegue de otros». modelos».

Pero el memorándum también añade una advertencia importante: la fecha límite para comenzar a probar los modelos de IA estaría “sujeta a la cooperación del sector privado”.

Cumplir con ese plazo de prueba es realista, dijo John Miller, vicepresidente senior de políticas de ITI, un grupo comercial que representa a las principales empresas de tecnología, incluidas Google, IBM, Intel, Meta y otras.

Debido a que el instituto «ya está trabajando con desarrolladores de modelos en pruebas y evaluación de modelos, es factible que las empresas completen o al menos puedan comenzar dichas pruebas dentro de 180 días», dijo Miller en un correo electrónico. Pero el memorando también pide al Instituto de Seguridad de IA que emite directrices sobre los modelos de prueba en un plazo de 180 días y, por lo tanto, «parece razonable preguntarse exactamente cómo se sincronizarán estos dos plazos», dijo.

Para febrero, la Agencia de Seguridad Nacional “desarrollará la capacidad de realizar pruebas clasificadas sistemáticas y rápidas de la capacidad de los modelos de IA para detectar, generar y/o exacerbar amenazas cibernéticas ofensivas. Dichas pruebas evaluarán el grado en que los sistemas de inteligencia artificial, si se utilizan incorrectamente, podrían facilitar las operaciones cibernéticas ofensivas”, dice el memorando.

Orden ‘peligrosa’

Sólo una semana de las elecciones presidenciales, el resultado parece muy importante para esta directiva.

La plataforma del Partido Republicano dice que, de ser elegido, Donald Trump derogaría la “peligrosa Orden Ejecutiva de Biden que obstaculiza la innovación en IA e impone ideas de la izquierda radical sobre el desarrollo de esta tecnología. En su lugar, los republicanos apoyan el desarrollo de la IA basado en la libertad de expresión y el florecimiento humano”.

Dado que el memorándum de Biden es resultado de la orden ejecutiva, es probable que si Trump gana, “simplemente desconectarían” y seguirían su propio camino en materia de IA, dijo Daniel Castro, vicepresidente de la Fundación de Innovación y Tecnología de la Información. en una entrevista.

El liderazgo de los departamentos federales encargados del cumplimiento también cambiaría significativamente bajo Trump. Hasta 4.000 puestos en el gobierno federal cambian de manos con la llegada de una nueva administración.

Sin embargo, las personas que siguen el tema señalan que existe un amplio consenso bipartidista de que la adopción de tecnologías de inteligencia artificial con fines de seguridad nacional es demasiado crítica como para que las disputas partidistas la descarrilen.

Las tareas y los plazos en el memorándum reflejan discusiones profundas entre agencias que se remontan a varios meses atrás, dijo Michael Horowitz, profesor de la Universidad de Pensilvania que hasta hace poco fue subsecretario adjunto de Defensa con una cartera que incluía usos militares de la IA y tecnologías avanzadas.

“Creo que la implementación de [the memo] Independientemente de quién gane las elecciones, será absolutamente crítico”, dijo Horowitz en una entrevista.

Wallin señaló que el memorando enfatiza la necesidad de que las agencias estadounidenses comprendan los riesgos que plantean los modelos avanzados de IA generativa, incluidos los riesgos relacionados con las armas químicas, biológicas y nucleares. Sobre amenazas como aquellas a la seguridad nacional, hay acuerdo entre las partes, dijo en una entrevista.

El presidente de Inteligencia del Senado, Mark Warner, demócrata por Virginia, dijo en un comunicado que respaldaba el memorándum de Biden, pero que la administración debería trabajar “en los próximos meses con el Congreso para avanzar en una estrategia más clara para involucrar al sector privado en los riesgos de seguridad nacional dirigidos a la IA”. sistemas a lo largo de la cadena de suministro”.

Política de inmigración

El memorando reconoce la necesidad a largo plazo de atraer gente talentosa de todo el mundo a Estados Unidos en áreas como el diseño de semiconductores, una cuestión que podría vincularse a cuestiones más amplias sobre la inmigración. Los departamentos de Defensa, Estado y Seguridad Nacional deben utilizar las autoridades legales disponibles para capturarlos.

«Creo que existe un amplio reconocimiento de la importancia única del talento STEM para garantizar el liderazgo tecnológico de Estados Unidos», dijo Horowitz. «Y la IA no es una excepción a eso».

El memorando también pide al Departamento de Estado, la Misión de Estados Unidos ante las Naciones Unidas y la Agencia de Estados Unidos para el Desarrollo Internacional que elaboren una estrategia en un plazo de cuatro meses para promover normas de gobernanza internacional para el uso de la IA. en la seguridad nacional.

Estados Unidos ya ha tomado varias medidas para promover la cooperación internacional en inteligencia artificial, tanto para usos civiles como militares, dijo Horowitz. Citó el ejemplo de la Declaración Política liderada por Estados Unidos sobre el uso militar responsable de la inteligencia artificial y la autonomía, que ha sido respaldada por más de 50 países.

«Demuestra la forma en que Estados Unidos ya está liderando al establecer normas sólidas para un comportamiento responsable», dijo Horowitz.

El impulso hacia el uso responsable de la tecnología debe verse en el contexto del debate global más amplio sobre si los países están avanzando hacia sistemas autoritarios o inclinándose hacia la democracia y el respeto por los derechos humanos, dijo Castro. Señaló que China está aumentando la inversión en África.

«Si queremos que las naciones africanas se alineen con Estados Unidos y Europa en materia de política de inteligencia artificial en lugar de pasarse a China», dijo, «¿qué estamos haciendo realmente para ponerlos de nuestro lado?»

Leer más

NO COMMENTS

Deja un comentarioCancelar respuesta

Salir de la versión móvil