Empresas líderes de tecnología firman compromisos de seguridad de inteligencia artificial.

Mantente informado con actualizaciones gratuitas

Las principales empresas de inteligencia artificial se han comprometido a una nueva ronda de compromisos voluntarios sobre la seguridad de la IA, anunciaron los gobiernos del Reino Unido y Corea del Sur.

Las empresas, que incluyen gigantes tecnológicos como Amazon, Google, Meta y Microsoft, así como OpenAI dirigida por Sam Altman, xAI de Elon Musk y el desarrollador chino Zhipu AI, publicarán marcos que describen cómo medirán los riesgos de sus modelos de IA “pioneros”.

Los grupos se comprometieron “a no desarrollar ni implementar un modelo en absoluto” si no se pueden mitigar los riesgos graves, dijeron los dos gobiernos antes de la apertura de una cumbre global de IA en Seúl el martes.

El anuncio se basa en la llamada Declaración de Bletchley hecha en la Cumbre de Seguridad de la IA inaugurada por el primer ministro del Reino Unido, Rishi Sunak, en noviembre.

“Estos compromisos aseguran que las principales empresas de IA del mundo proporcionarán transparencia y responsabilidad sobre sus planes para desarrollar una IA segura”, dijo Sunak en un comunicado. “Establece un precedente para estándares globales sobre la seguridad de la IA que desbloquearán los beneficios de esta tecnología transformadora”.

Según un comunicado que describe el acuerdo, las empresas de IA “evaluarán los riesgos planteados por sus modelos o sistemas de vanguardia… incluyendo antes de implementar ese modelo o sistema, y, según corresponda, antes y durante el entrenamiento”.

Las empresas también establecerán los “umbrales en los que los riesgos graves planteados por un modelo o sistema, a menos que se mitiguen adecuadamente, se considerarían intolerables” y cómo se implementarán dichas mitigaciones.

LEAR  El CEO de Honeywell predice un 'día del juicio final' para las empresas que no adopten la IA. Aquí está su secreto para utilizar la tecnología de manera efectiva.

“El campo de la seguridad de la IA está evolucionando rápidamente y estamos especialmente contentos de respaldar el énfasis de los compromisos en refinar en conjunto con la ciencia”, dijo Anna Makanju, vicepresidenta de asuntos globales de OpenAI.

“Seguimos comprometidos a colaborar con otros laboratorios de investigación, empresas y gobiernos para garantizar que la IA sea segura y beneficie a toda la humanidad”.

El anuncio del martes hace eco de los “compromisos voluntarios” hechos en la Casa Blanca en julio del año pasado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft y OpenAI “para ayudar a avanzar hacia un desarrollo seguro, seguro y transparente de la tecnología de IA”.

No obstante, sigue sin estar claro cómo podrían las empresas ser responsables si no cumplen con sus compromisos.

El comunicado del martes dijo que las 16 empresas proporcionarán “transparencia pública” sobre la implementación de sus compromisos, “excepto en la medida en que hacerlo aumentaría el riesgo o divulgaría información comercial sensible en un grado desproporcionado al beneficio social”.

Hablando en Seúl antes de una reunión virtual de líderes el martes por la noche, la secretaria de ciencia del Reino Unido, Michelle Donelan, dijo al Financial Times que los acuerdos voluntarios hechos en Bletchley estaban funcionando.

“Por lo tanto, creemos que estos acuerdos seguirán rindiendo frutos”, dijo Donelan.

“Pero esto no se trata solo de lo que más pueden hacer las empresas, también se trata de lo que más pueden hacer los países”, agregó. Donelan confirmó que el gobierno chino estaría representado en las reuniones que se celebrarán en el segundo día de la cumbre el miércoles.

LEAR  Conciertos de Coldplay y Taylor Swift contribuirán al crecimiento de Singapur.

Dan Hendrycks, asesor de seguridad de xAI, dijo que los compromisos voluntarios ayudarán a “sentar las bases para una regulación nacional concreta”.

Pero Donelan reiteró la postura del Reino Unido de que aún es demasiado pronto para considerar una legislación para hacer cumplir la seguridad de la IA.

“Necesitamos tener un mejor control sobre los riesgos”, dijo, señalando que el gobierno del Reino Unido ofrecería hasta £8,5 millones en subvenciones para estudiar riesgos relacionados con la IA como deepfakes y ciberataques.

Agregó que si el gobierno del Reino Unido hubiera iniciado la legislación sobre el tema el año pasado, “para cuando saliera, probablemente estaría obsoleta”.