Empresas de inteligencia artificial acuerdan cumplir compromisos de seguridad voluntarios.

El martes, las empresas de inteligencia artificial acordaron un conjunto de pautas de seguridad voluntarias y reafirmaron su compromiso de desarrollar su tecnología de IA de una manera que incentive la seguridad de sus plataformas y del público.

En la cumbre de IA de Seúl, organizada por los gobiernos de Corea del Sur y del Reino Unido, 16 empresas líderes se unieron a los Compromisos de Seguridad de IA de Frontier que no son vinculantes, los cuales tienen como objetivo mitigar los riesgos de la IA mientras se aumenta la responsabilidad y la transparencia.

Entre las empresas que aceptaron los compromisos se encuentran OpenAI, Google, IBM, Amazon, Meta y xAI.

Las empresas acordaron evaluar los riesgos de la tecnología en cada etapa del desarrollo de un nuevo sistema de IA, centrándose en reducir los riesgos asociados con posibles usos indebidos de la tecnología también. Acordaron considerar los resultados de evaluaciones internas y externas “según corresponda” para determinar la seguridad del sistema. Las evaluaciones externas podrían ser realizadas por terceros independientes, sus gobiernos locales o “otros organismos que sus gobiernos consideren apropiados”.

Las empresas también acordaron establecer un umbral predefinido para el nivel máximo de riesgo que un determinado sistema de IA pudiera tolerar. Acordaron declarar claramente cómo garantizarían que mantendrían los riesgos por debajo de ese umbral y qué harían si su sistema de IA superara dicho umbral, incluidos “procesos para seguir desarrollando e implementando sus sistemas y modelos solo si evalúan que los riesgos residuales se mantendrían por debajo de los umbrales”.

“En el extremo, las organizaciones se comprometieron a no desarrollar ni implementar un modelo o sistema en absoluto, si no se pueden aplicar mitigaciones para mantener los riesgos por debajo de los umbrales”, parte de lo que decía el acuerdo no vinculante.

LEAR  Los niños siendo atraídos para pelear en TikTok.

La cumbre de dos días siguió a la primera reunión de este tipo en noviembre, y contó con varios líderes mundiales que también se comprometieron a construir salvaguardas adecuadas para desarrollar la IA de forma segura y a compartir recursos para “forjar una comprensión común de la seguridad de la IA y alinear su trabajo en la investigación de la IA”.