LONDRES (AP) — Los chatbots como ChatGPT cautivaron al mundo con su capacidad para escribir discursosplanificar vacaciones o mantener una conversación Tan bueno o posiblemente incluso mejor que los humanos, gracias a sistemas de inteligencia artificial de última generación. Ahora, la IA de frontera se ha convertido en la última palabra de moda a medida que crece la preocupación de que la tecnología emergente tenga capacidades que podrían poner en peligro a la humanidad.
Todos, desde el gobierno británico hasta los principales investigadores e incluso las propias grandes empresas de IA, están dando la alarma sobre los peligros aún desconocidos de la IA de frontera y pidiendo salvaguardas para proteger a las personas de sus amenazas existenciales.
El debate llega a un punto crítico el miércoles, cuando el primer ministro británico, Rishi Sunak, organiza una cumbre de dos días centrada en la IA fronteriza. Según se informa, se espera que atraiga a un grupo de unos 100 funcionarios de 28 países, incluida la vicepresidenta de EE.UU. UU., Kamala Harris, la presidenta de la Comisión Europea, Ursula von der Leyen, y ejecutivos de empresas clave de inteligencia artificial de EE. UU. UU., incluidas OpenAI, Deepmind de Google y Anthropic.
El lugar es Bletchley Park, una antigua base ultrasecreta para descifradores de códigos de la Segunda Guerra Mundial dirigidos por Alan Turing. La propiedad histórica es vista como el lugar de nacimiento de la informática moderna porque es donde Turing y otros descifraron los códigos de la Alemania nazi utilizando la primera computadora digital programable del mundo.
En un discurso la semana pasada, sunak dijo Sólo los gobiernos (no las empresas de inteligencia artificial) pueden mantener a las personas a salvo de los riesgos de la tecnología. Sin embargo, también señaló que el enfoque del Reino Unido “no es apresurarse a regular”, aun cuando describió una serie de amenazas que suenan aterradoras, como el uso de IA para fabricar más fácilmente armas químicas o biológicas.
«Necesitamos tomar esto en serio y debemos comenzar a concentrarnos en tratar de adelantarnos al problema», dijo Jeff Clune, profesor asociado de ciencias de la computación en la Universidad de Columbia Británica que se especializa en inteligencia artificial y aprendizaje automático.
Clune formó parte de un grupo de investigadores influyentes que escribieron un artículo la semana pasada en el que pedían a los gobiernos que hicieran más para gestionar los riesgos de la IA. Es el último de una serie de advertencias terribles de magnates de la tecnología como Elon Musk y el director ejecutivo de OpenAI, Sam Altman, sobre la tecnología en rápida evolución y el maneras dispares La industria, los líderes políticos y los investigadores ven el camino a seguir cuando se trata de controlar los riesgos y la regulación.
Está lejos de ser seguro que la IA acabe con la humanidad, dijo Clune, “pero tiene suficientes riesgos y posibilidades de que ocurra. Y necesitamos movilizar la atención de la sociedad para tratar de resolverlo ahora en lugar de esperar a que ocurra el peor de los casos”.
Uno de los grandes objetivos de Sunak es llegar a un acuerdo sobre un comunicado sobre la naturaleza de los riesgos de la IA. También está revelando planes para un Instituto de Seguridad de la IA que evaluará y probará nuevos tipos de tecnología y propondrá la creación de un panel global de expertos, inspirado en el panel de cambio climático de la ONU, para comprender la IA y elaborar un informe. sobre el «Estado de la ciencia de la IA». .
La cumbre refleja el entusiasmo del gobierno británico por organizar reuniones internacionales para demostrar que no se ha aislado y que aún puede liderar el escenario mundial después de su salida de la Unión Europea hace tres años.
El Reino Unido también quiere defender su posición en un tema político candente en el que tanto Estados Unidos como la UE de 27 naciones están tomando medidas.
Bruselas está dando los toques finales a lo que se perfila como la primera normativa integral sobre IA del mundo, mientras que el presidente de Estados Unidos, Joe Biden, formó una orden ejecutiva radical Lunes para guiar el desarrollo de la IA, calculan en compromisos voluntarios asumidos por las empresas de tecnología.
China, que junto con Estados Unidos es una de las dos potencias mundiales de IA, ha sido invitada a la cumbre, aunque Sunak no pudo decir con “100% de certeza” que asistirán representantes de Beijing.
El documento firmado por Clune y más de 20 expertos más, incluidos dos apodados los “padrinos” de la IA (Geoffrey Hinton y Yoshua Bengio), pedía a los gobiernos ya las empresas de IA que tomaran medidas concretas, como gastar un tercio de su investigación y desarrollo. recursos para garantizar el uso seguro y ético de la IA autónoma avanzada.
Frontier AI es una abreviatura de los sistemas más recientes y potentes que llegan hasta el límite de las capacidades de la IA. Se basan en modelos básicos, que son algoritmos entrenados en una amplia gama de información extraída de Internet para proporcionar una base de conocimiento general, pero no infalible.
Eso hace que los sistemas de inteligencia artificial de vanguardia sean “peligrosos porque no tienen un conocimiento perfecto”, dijo Clune. «La gente asume y piensa que tiene muchísimo conocimiento y eso puede meterte en problemas».
La reunión, sin embargo, se ha enfrentado a críticas por estar demasiado preocupada por peligros lejanos.
“El enfoque de la cumbre es en realidad demasiado limitado”, dijo Francine Bennett, directora interna del Instituto Ada Lovelace, un grupo de investigación de políticas en Londres que se centra en la IA.
«Corremos el riesgo de olvidarnos del conjunto más amplio de riesgos y seguridad» y de los algoritmos que ya forman parte de la vida cotidiana, dijo en un panel de Chatham House la semana pasada.
Deb Raji, investigadora de la Universidad de California en Berkeley que ha estudiado el sesgo algorítmico, señaló problemas con los sistemas ya implementados en el Reino Unido, como los sistemas de reconocimiento facial de la policía que tenían una tasa de detección falsa mucho más alta para los negros y una algoritmo que falló en un examen de secundaria.
La cumbre es una “oportunidad perdida” y marginal a las comunidades y trabajadores más afectados por la IA, dijeron más de 100 grupos de la sociedad civil y expertos en una carta abierta a Sunak.
Los escépticos dicen que el gobierno del Reino Unido ha fijado los objetivos de su cumbre demasiado bajos, dado que la regulación de la IA no estará en la agenda, centrándose en cambio en establecer “barandillas de seguridad”.
El llamado de Sunak a no precipitarse en la regulación recuerda «los mensajes que escuchamos de muchos representantes corporativos en Estados Unidos», dijo Raji. «Por eso no me sorprende que también se esté abriendo paso en lo que podría estar diciendo a los funcionarios del Reino Unido».
Las empresas tecnológicas no deben participar en la redacción de regulaciones porque tienden a “subestimar o restablecer importancia” a la urgencia y la gama completa de daños, afirmó Raji. Tampoco están tan abiertos a apoyar propuestas de leyes “que podrían ser necesarias pero que efectivamente podrían poner en peligro sus resultados”, dijo.
DeepMind y OpenAI no respondieron a las solicitudes de comentarios. Anthropic dijo que asistirían los cofundadores Dario Amodei y Jack Clark.
Microsoft dijo en una publicación de blog que esperaba «los próximos pasos del Reino Unido al convocar la cumbre, avanzar en sus esfuerzos en las pruebas de seguridad de la IA y apoyar una mayor colaboración internacional en la gobernanza de la IA».
El gobierno insiste en que contará con la combinación adecuada de asistentes del gobierno, el mundo académico, la sociedad civil y las empresas.
El Instituto de Investigación de Políticas Públicas, un grupo de expertos de centro izquierda del Reino Unido, dijo que sería un “error histórico” si se permitiera que la industria tecnológica se regulara a sí misma sin supervisión gubernamental.
«Los reguladores y el público desconocen en gran medida cómo se está implementando la IA en la economía», dijo Carsten Jung, economista senior del grupo. «Pero la autorregulación no funcionó para las empresas de redes sociales, no funcionó para el sector financiero y no funcionará para la IA».
___
La escritora de Associated Press Jill Lawless contribuyó a este informe.