OpenAI se une a la oposición al proyecto de ley de seguridad de la IA de California.

El proyecto de ley SB 1047 de California ha dividido a Silicon Valley. Mientras hay una aceptación generalizada de la necesidad de frenar los riesgos de los nuevos y poderosos modelos de inteligencia artificial, los críticos han argumentado que las propuestas de Wiener sofocarían a las start-ups, beneficiarían a los rivales de América y socavarían la posición de California en el epicentro de un auge en inteligencia artificial.

OpenAI es la última start-up en oponerse a elementos del proyecto de ley, y la más prominente, gracias en gran medida a la popularidad de su chatbot ChatGPT y a un compromiso de $13 mil millones de su socio Microsoft.

OpenAI apoya disposiciones para garantizar que los sistemas de inteligencia artificial se desarrollen e implementen de manera segura, pero argumenta en la carta, que fue reportada por primera vez por Bloomberg, que la legislación debería provenir del gobierno federal, no de los estados individuales.

En una respuesta el miércoles, Wiener dijo que estaba de acuerdo en que el gobierno federal debería tomar la iniciativa, pero se mostró “escéptico” de que el Congreso actuaría. También criticó el “viejo argumento” de que las start-ups tecnológicas se mudarían si se aprobara el proyecto de ley y dijo que las empresas con sede fuera del estado aún necesitarían cumplir con el proyecto de ley para hacer negocios localmente.

Los grupos tecnológicos del Silicon Valley y los inversores, incluidos Anthropic, Andreessen Horowitz y YCombinator, han intensificado una campaña de cabildeo en contra de las propuestas de Wiener para un estricto marco de seguridad. Nancy Pelosi, la ex presidenta de la Cámara de Representantes y representante de California, también publicó una declaración en oposición al proyecto de ley la semana pasada, calificándolo de “bien intencionado pero mal informado”.

LEAR  El Partido Laborista listo para una victoria aplastante en las elecciones del Reino Unido, sugieren las encuestas.

Entre los elementos más controvertidos de las propuestas originales del senador se encontraban las demandas de que las empresas de inteligencia artificial garanticen a un nuevo organismo estatal que no desarrollarán modelos con “una capacidad peligrosa” y creen un “interruptor de apagado” para desactivar sus modelos potentes.

Los opositores afirmaron que el proyecto de ley se centraba en riesgos hipotéticos y agregaba un riesgo de responsabilidad “extremo” para los fundadores.

El proyecto de ley fue enmendado para suavizar algunos de esos requisitos la semana pasada, limitando, por ejemplo, las responsabilidades civiles que originalmente había impuesto a los desarrolladores de inteligencia artificial y reduciendo el alcance de aquellos que deberían cumplir con las reglas.

Sin embargo, los críticos argumentan que el proyecto de ley sigue cargando a las start-ups con requisitos onerosos y a veces poco realistas. El lunes, los miembros de la Cámara de Representantes de EE. UU., Anna Eshoo y Zoe Lofgren, escribieron en una carta a Robert Rivas, presidente de la asamblea de California, que aún había “problemas sustanciales con la estructura subyacente del proyecto de ley”, pidiendo en cambio “enfocarse en reglas federales para controlar las herramientas físicas necesarias para crear estas amenazas físicas”.

A pesar de las críticas de destacados académicos de inteligencia artificial como Fei-Fei Li de Stanford y Andrew Ng, que lideraron proyectos de inteligencia artificial en Google de Alphabet y Baidu de China, el proyecto de ley ha encontrado apoyo entre algunos de los “padrinos de la inteligencia artificial”, como Geoffrey Hinton de la Universidad de Toronto y Yoshua Bengio, profesor de informática de la Universidad de Montreal.

LEAR  Los parlamentarios dicen que el organismo de control del gasto del Reino Unido debería investigar el proyecto de zona franca de Teesside.

“En resumen: SB 1047 es un proyecto de ley muy razonable que pide a los grandes laboratorios de inteligencia artificial que hagan lo que ya se han comprometido a hacer, es decir, probar sus grandes modelos en busca de riesgos catastróficos para la seguridad”, escribió Wiener el miércoles.