El CEO de Google, Sundar Pichai, habla en conversación con Emily Chang durante la Cumbre de CEO de la APEC en Moscone West el 16 de noviembre de 2023 en San Francisco, California. La cumbre de la APEC se está llevando a cabo en San Francisco y se extiende hasta el 17 de noviembre.
Justin Sullivan | Getty Images News | Getty Images
Múnich, ALEMANIA — Los rápidos avances en inteligencia artificial podrían ayudar a fortalecer las defensas contra amenazas de seguridad en el ciberespacio, según Sundar Pichai, CEO de Google.
Ante la creciente preocupación sobre los posibles usos maliciosos de la IA, Pichai mencionó que las herramientas de inteligencia podrían ayudar a gobiernos y empresas a acelerar la detección y respuesta a amenazas de actores hostiles.
“Tenemos razón para preocuparnos por el impacto en la ciberseguridad. Pero la IA, de hecho, fortalece nuestra defensa en ciberseguridad”, dijo Pichai a los delegados en la Conferencia de Seguridad de Múnich a fines de la semana pasada.
Los ataques de ciberseguridad han ido aumentando tanto en volumen como en sofisticación a medida que actores maliciosos los utilizan cada vez más como una forma de ejercer poder y extorsionar dinero.
Los ciberataques le costaron a la economía global un estimado de $8 billones en 2023, una suma que se espera aumente a $10.5 billones para 2025, según la firma de investigación cibernética Cybersecurity Ventures.
Un informe de enero del National Cyber Security Centre de Gran Bretaña —parte de GCHQ, la agencia de inteligencia del país— mencionó que la IA solo aumentaría esas amenazas, bajando las barreras de entrada para los piratas cibernéticos y permitiendo una mayor actividad cibernética maliciosa, incluidos ataques de ransomware.
“La IA ayuda de manera desproporcionada a las personas defensoras porque estás obteniendo una herramienta que puede impactarlo a escala”, mencionó Pichai.
“Entonces, de alguna manera, estamos ganando la carrera”, añadió.
La semana pasada, Google anunció una nueva iniciativa que ofrece herramientas de IA e inversiones en infraestructura diseñadas para mejorar la seguridad en línea. Una herramienta de código abierto gratuita llamada Magika tiene como objetivo ayudar a los usuarios a detectar malware —software malicioso—, dijo la empresa en un comunicado, mientras que un informe propone medidas e investigaciones y crea salvaguardias en torno a la IA.
Pichai mencionó que las herramientas ya se estaban utilizando en los productos de la empresa, como Google Chrome y Gmail, así como en sus sistemas internos.
“La IA está en una encrucijada definitiva: una en la que los encargados de formular políticas, los profesionales de la seguridad y la sociedad civil tienen la oportunidad de finalmente inclinar el equilibrio de la ciberseguridad de los atacantes a los defensores”, dijo.
El comunicado coincidió con la firma de un pacto por parte de las principales empresas en la MSC para tomar “precauciones razonables” para evitar que las herramientas de IA se utilicen para perturbar las votaciones democráticas en el año electoral de 2024 y en adelante.
Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok y X (anteriormente Twitter) estuvieron entre los firmantes del nuevo acuerdo, que incluye un marco sobre cómo las empresas deben responder a “deepfakes” generados por IA diseñados para engañar a los votantes.
Esto ocurre a medida que Internet se convierte en un ámbito de influencia cada vez más importante tanto para individuos como para actores maliciosos respaldados por el estado.
La ex Secretaria de Estado de los Estados Unidos Hillary Clinton describió el ciberespacio el sábado como “un nuevo campo de batalla”.
“La carrera armamentista tecnológica acaba de ascender a otro nivel con la IA generativa”, dijo en Múnich.
“Si puedes correr un poco más rápido que tu adversario, te irá mejor. Eso es lo que la IA realmente nos está dando defensivamente”, añadió.
Un informe publicado la semana pasada por Microsoft encontró que hackers respaldados por el estado de Rusia, China e Irán habían estado utilizando su modelo de lenguaje grande OpenAI (LLM) para mejorar sus esfuerzos para engañar a los objetivos.
Inteligencia militar rusa, la Guardia Revolucionaria de Irán y los gobiernos chinos y norcoreanos, se encontraban, según el informe, entre los que habían confiado en las herramientas.
Mark Hughes, presidente de seguridad en la firma de servicios y consultoría de TI DXC, le dijo a CNBC que los malos actores dependían cada vez más de una herramienta de hackeo inspirado en ChatGPT llamada WormGPT para realizar tareas como el desmontaje de códigos de manera inversa.
Sin embargo, mencionó que también estaba viendo “avances significativos” de herramientas similares que ayudan a los ingenieros a detectar y revertir ataques con rapidez.
“Nos da la capacidad de acelerar”, mencionó Hughes la semana pasada. “La mayoría del tiempo en la cibernética, lo que tienes es el tiempo que los atacantes tienen a su favor. Eso suele ser el caso en cualquier situación de conflicto.
“Si puedes correr un poco más rápido que tu adversario, te irá mejor. Eso es lo que la IA realmente nos está dando defensivamente en este momento”, agregó.