Análisis: Segunda cumbre mundial de seguridad de la IA se enfrenta a difíciles preguntas y menor asistencia Por Reuters

LONDRES (Reuters) – El año pasado, una lista de líderes mundiales, ejecutivos corporativos y expertos académicos se reunieron en el Parque Bletchley de Gran Bretaña para la primera Cumbre Mundial de Seguridad de la IA, con la esperanza de llegar a un consenso sobre la regulación de una tecnología que algunos advirtieron suponía una amenaza para la humanidad.

El magnate de Tesla (NASDAQ:) Elon Musk y el CEO de OpenAI Sam Altman compartieron espacio con algunos de sus críticos más acérrimos, mientras que China firmó la “Declaración de Bletchley” junto con Estados Unidos y otros, señalando una voluntad de cooperar a pesar de las crecientes tensiones con Occidente.

Seis meses después, la segunda Cumbre de Seguridad de la IA, un evento principalmente virtual organizado por Gran Bretaña y Corea del Sur, tendrá lugar mientras la exageración en torno al potencial de la inteligencia artificial cede paso a preguntas sobre sus limitaciones.

“Hay enfoques radicalmente diferentes… será difícil avanzar más allá de lo acordado en Bletchley Park”, dijo Martha Bennett, analista senior de la firma de investigación y asesoramiento Forrester, refiriéndose al acuerdo histórico pero necesariamente amplio sobre la seguridad de la IA.

Cuestiones más complejas en torno al uso de material con derechos de autor, la escasez de datos y el impacto ambiental también parecen improbables de atraer a una congregación tan estelar.

Mientras los organizadores han promocionado un evento comparable a Bletchley, varios de sus asistentes clave han declinado las invitaciones a Seúl.

HIstéricamente, el primer ministro británico, Rishi Sunak, prometió que los eventos posteriores se llevarían a cabo cada seis meses para que los gobiernos pudieran mantenerse al tanto de la tecnología en constante desarrollo.

LEAR  Estados Unidos redirigirá pedidos de defensa aérea Patriot a Ucrania.

Desde entonces, la atención se ha centrado en el riesgo existencial de los recursos necesarios para alimentar el desarrollo de la IA, como la gran cantidad de datos requeridos para entrenar modelos de lenguaje extensos, y la electricidad que alimenta un número creciente de centros de datos.