EE. UU., Reino Unido y otros países se comprometen a hacer que la IA sea “segura por diseño”

Los Estados Unidos, el Reino Unido y otros 16 países han firmado un acuerdo comprometiéndose a tomar medidas para que la inteligencia artificial sea “segura por diseño”.

Aunque se reconoce que es una declaración básica de principios, la Agencia de Seguridad de Ciberseguridad e Infraestructura de los Estados Unidos (CISA) ha dicho que es un primer paso importante …

informa Reuters.

Los Estados Unidos, Gran Bretaña y más de una docena de otros países revelaron el domingo lo que un alto funcionario de Estados Unidos describió como el primer acuerdo internacional detallado sobre cómo mantener segura la inteligencia artificial de actores no autorizados, presionando a las compañías para que creen sistemas de inteligencia artificial que sean “seguros por diseño”.

En un documento de 20 páginas revelado el domingo, los 18 países acordaron que las compañías que diseñan y usan inteligencia artificial necesitan desarrollar y desplegarla de una manera que mantenga a los clientes y al público en general a salvo del mal uso.

La directora de CISA, Jen Easterly, dijo que era importante que los países reconocieran que el desarrollo de la inteligencia artificial necesitaba un enfoque centrado en la seguridad, y alentó a otros países a suscribirse.

“Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deberían ser solo sobre características geniales y qué tan rápido podemos llevarlas al mercado o cómo podemos competir para reducir los costos”, dijo Easterly a Reuters, diciendo que las pautas representan “un acuerdo de que lo más importante que se debe hacer en la fase de diseño es la seguridad”.

Los otros países que se han unido hasta el momento son Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

LEAR  Cómo revisar la batería del control remoto Siri para Apple TV

Europa ha tomado la delantera en este ámbito, con un intento de crear leyes específicas que regulen el desarrollo y lanzamiento de nuevos sistemas de IA, lo que incluiría un requisito legal para que las empresas realicen pruebas de seguridad periódicas para identificar posibles vulnerabilidades. Sin embargo, el progreso en este sentido ha sido lento, lo que llevó a que Francia, Alemania e Italia procedieran con su propio acuerdo provisional.

La Casa Blanca ha instado al Congreso a desarrollar regulaciones de inteligencia artificial en los Estados Unidos, pero hasta la fecha ha habido poco progreso. El presidente Biden el mes pasado firmó una orden ejecutiva que requiere que las empresas de inteligencia artificial realicen pruebas de seguridad, principalmente orientadas a proteger los sistemas contra piratas informáticos.

Uso de inteligencia artificial por parte de Apple

Apple ha incorporado funciones de inteligencia artificial en sus productos durante muchos años, especialmente en el área de la fotografía del iPhone. La empresa ha desarrollado su propio chatbot, apodado Apple GPT, pero hasta ahora solo lo está utilizando dentro de la empresa, probablemente porque quiere aprovechar las características generativas de la inteligencia artificial para el desarrollo de software sin comprometer la seguridad del producto.

Dada la aproximación típicamente cautelosa de la empresa hacia la nueva tecnología, probablemente pasará bastante tiempo antes de que Apple ponga algo así a disposición de sus clientes.

Opinión de 9to5Mac

Crear leyes destinadas a garantizar la seguridad de los nuevos sistemas de inteligencia artificial es increíblemente difícil.

La naturaleza misma de los sistemas de inteligencia artificial, que desarrollan sus propias capacidades, en lugar de estar programados específicamente para hacer o no hacer ciertas cosas, significa que incluso los investigadores que trabajan en un proyecto pueden no estar completamente al tanto de lo que un nuevo modelo de inteligencia artificial puede lograr hasta que esté completo.

LEAR  The new title would be: Investigación del regulador estadounidense sobre el incidente del motor en un avión Boeing 737.

También es común que haya desacuerdo entre los investigadores sobre cuáles son esas capacidades y lo que podrían significar para el futuro.

Este acuerdo de 20 páginas es increíblemente básico, más una declaración de principios generales que un modelo, pero dadas las dificultades que se presentan, probablemente es al menos un punto de partida razonable. Establece que las compañías de investigación tienen la obligación de buscar específicamente vulnerabilidades de seguridad.

Sin embargo, es importante tener en cuenta que la iniciativa se ocupa únicamente de cómo los piratas informáticos podrían aprovecharse de los sistemas de inteligencia artificial. No aborda la pregunta mucho más amplia, y más importante, de cómo los propios sistemas de inteligencia artificial podrían representar una amenaza para la humanidad.

FTC: Usamos enlaces de afiliados que generan ingresos. Más.