Gran Bretaña expande instituto de seguridad de inteligencia artificial a San Francisco, hogar de OpenAI.

Una vista aérea del horizonte de la ciudad de San Francisco y del Puente Golden Gate en California, el 28 de octubre de 2021.

Carlos Barria | Reuters

LONDRES — El gobierno británico está expandiendo su instalación para probar modelos de inteligencia artificial “de frontera” a los Estados Unidos, con el objetivo de reforzar su imagen como un jugador global líder en la lucha contra los riesgos de la tecnología y aumentar la cooperación con EE. UU. mientras los gobiernos de todo el mundo compiten por el liderazgo en IA.

El gobierno anunció el lunes que abrirá una filial en EE. UU. de su cumbre de seguridad de IA, un organismo respaldado por el Estado centrado en probar sistemas de IA avanzada para asegurarse de que sean seguros, en San Francisco este verano.

La versión estadounidense del Instituto de Seguridad de IA buscará reclutar un equipo de personal técnico liderado por un director de investigación. En Londres, el instituto cuenta actualmente con un equipo de 30 personas. Está presidido por Ian Hogarth, un destacado empresario tecnológico británico que fundó el sitio de descubrimiento de conciertos de música Songkick.

En un comunicado, la Ministra de Tecnología del Reino Unido, Michelle Donelan, dijo que el lanzamiento de la Cumbre de Seguridad de IA en EE. UU. “representa el liderazgo británico en acción en el campo de la IA”.

“Es un momento crucial para la capacidad del Reino Unido de estudiar tanto los riesgos como el potencial de la IA desde una perspectiva global, fortaleciendo nuestra asociación con EE. UU. y allanando el camino para que otros países aprovechen nuestra experiencia mientras seguimos liderando el mundo en la seguridad de la IA”, añadió.

LEAR  "Este es mi hogar" - la vida de una vloguera de 13 años en Gaza

La expansión “permitirá al Reino Unido aprovechar la riqueza de talento tecnológico disponible en el Área de la Bahía, colaborar con los laboratorios de IA más grandes del mundo ubicados en Londres y San Francisco, y fortalecer las relaciones con Estados Unidos para avanzar en la seguridad de la IA en interés público”, según informó el gobierno.

San Francisco es el hogar de OpenAI, la empresa respaldada por Microsoft detrás del famoso chatbot de IA ChatGPT.

El Instituto de Seguridad de IA fue establecido en noviembre de 2023 durante la Cumbre de Seguridad de IA, un evento global celebrado en Bletchley Park en Inglaterra, hogar de los descifradores de códigos de la Segunda Guerra Mundial, que buscaba impulsar la cooperación transfronteriza en la seguridad de la IA.

La expansión del Instituto de Seguridad de IA a EE. UU. llega justo antes de la Cumbre de IA de Seúl en Corea del Sur, que fue propuesta por primera vez en la cumbre de Bletchley Park el año pasado. La cumbre de Seúl se llevará a cabo el martes y miércoles.

El gobierno dijo que, desde que se estableció el Instituto de Seguridad de IA en noviembre, ha avanzado en la evaluación de modelos de IA de vanguardia de algunos de los principales actores de la industria.

El lunes, informó que varios modelos de IA completaron desafíos de ciberseguridad pero tuvieron dificultades para completar desafíos más avanzados, mientras que varios modelos demostraron conocimientos a nivel de doctorado en química y biología.

Mientras tanto, todos los modelos probados por el instituto siguieron siendo altamente vulnerables a “jailbreaks”, donde los usuarios los engañan para que produzcan respuestas que no están permitidas bajo sus pautas de contenido, mientras que algunos producían resultados perjudiciales incluso sin intentos de eludir las protecciones.

LEAR  No te saltes este paso crítico antes de comprar tu primera casa.

Los modelos probados también fueron incapaces de completar tareas más complejas y que requieren más tiempo sin la supervisión de humanos, según el gobierno.

No se mencionaron los modelos de IA que fueron probados. Anteriormente, el gobierno logró que OpenAI, DeepMind y Anthropic acordaran abrir sus codiciados modelos de IA para que el gobierno pudiera utilizarlos en la investigación sobre los riesgos asociados con sus sistemas.

Este desarrollo se produce en un momento en el que el Reino Unido ha sido criticado por no introducir regulaciones formales para la IA, mientras que otras jurisdicciones, como la Unión Europea, avanzan rápidamente con leyes adaptadas a la IA.

Se espera que la Ley de IA emblemática de la UE, que es la primera gran legislación de este tipo para la IA, se convierta en un modelo para las regulaciones globales de la IA una vez que sea aprobada por todos los Estados miembros de la UE y entre en vigor.