Estafas de deepfake han saqueado millones. Expertos advierten que podría empeorar.

Una creciente ola de estafas deepfake ha saqueado millones de dólares de empresas en todo el mundo, y los expertos en ciberseguridad advierten que podría empeorar a medida que los criminales aprovechan la inteligencia artificial generativa para el fraude.

Un deepfake es un video, sonido o imagen de una persona real que ha sido alterado y manipulado digitalmente, a menudo a través de inteligencia artificial, para representarlos de manera convincente de manera incorrecta.

En uno de los casos más grandes conocidos este año, un trabajador financiero de Hong Kong fue engañado para transferir más de $25 millones a estafadores que utilizaban tecnología deepfake que se disfrazaron como colegas en una videollamada, según informaron las autoridades a los medios locales en febrero.

La semana pasada, la empresa de ingeniería británica Arup confirmó a CNBC que era la empresa involucrada en ese caso, pero no pudo entrar en detalles sobre el asunto debido a la investigación en curso.

Estas amenazas han ido creciendo como resultado de la popularización del Chat GPT de Open AI – lanzado en 2022 – que rápidamente llevó la tecnología de inteligencia artificial generativa al mainstream, dijo David Fairman, director de información y seguridad de la empresa de ciberseguridad Netskope.

“La accesibilidad pública de estos servicios ha disminuido la barrera de entrada para los ciberdelincuentes, ya que ya no necesitan tener habilidades tecnológicas especiales”, dijo Fairman.

El volumen y la sofisticación de las estafas han aumentado a medida que la tecnología de IA continúa evolucionando, agregó.

Diversos servicios de IA generativa pueden ser utilizados para generar contenido textal, de imagen y video similar al humano, y por lo tanto pueden actuar como herramientas poderosas para actores ilícitos que intentan manipular digitalmente y recrear ciertas personas.

LEAR  Un stock imparable que podría unirse a Microsoft, Apple, Nvidia, Alphabet, Amazon y Meta en el Club de los $1 billón.

Un portavoz de Arup le dijo a CNBC: “Al igual que muchas otras empresas en todo el mundo, nuestras operaciones están sujetas a ataques regulares, incluidas estafas de facturas, estafas de phishing, suplantación de voz en WhatsApp y deepfakes”.

El trabajador financiero supuestamente asistió a la videollamada con gente que se creía que era el director financiero de la empresa y otros miembros del personal, quienes solicitaron que hiciera una transferencia de dinero. Sin embargo, el resto de los asistentes presentes en esa reunión habían sido recreados digitalmente como deepfakes.

Arup confirmó que se utilizaron “voces e imágenes falsas” en el incidente, agregando que “el número y la sofisticación de estos ataques ha aumentado bruscamente en los últimos meses”.

Los medios estatales chinos informaron de un caso similar en la provincia de Shanxi este año que involucró a una empleada financiera femenina, que fue engañada para transferir 1,86 millones de yuanes ($262,000) a la cuenta de un estafador después de una videollamada con un deepfake de su jefe.

Además de los ataques directos, las empresas están cada vez más preocupadas por otras formas en que las fotos, videos o discursos deepfake de sus altos ejecutivos podrían ser utilizados de manera maliciosa, dicen los expertos en ciberseguridad.

Según Jason Hogg, experto en ciberseguridad y ejecutivo residente en Great Hill Partners, los deepfakes de miembros destacados de la empresa pueden ser utilizados para difundir noticias falsas para manipular los precios de las acciones, difamar la marca y las ventas de una empresa, y difundir otra desinformación perjudicial.

“Eso es solo la punta del iceberg”, dijo Hogg, que anteriormente se desempeñó como agente especial del FBI.

LEAR  Más empresas se mantienen en silencio, pero las donaciones siguen fluyendo.

Destacó que la IA generativa es capaz de crear deepfakes basados en un tesoro de información digital como contenido disponible públicamente alojado en redes sociales y otras plataformas mediáticas.

En 2022, Patrick Hillmann, director de comunicaciones de Binance, afirmó en una publicación de blog que los estafadores habían hecho un deepfake de él basado en entrevistas anteriores y apariciones en televisión, utilizándolo para engañar a clientes y contactos para tener reuniones.

Fairman de Netskope dijo que estos riesgos habían llevado a algunos ejecutivos a comenzar a borrar o limitar su presencia en línea por miedo a que pueda ser utilizado como munición por los ciberdelincuentes.

La tecnología deepfake ya se ha expandido fuera del mundo corporativo.

Desde imágenes pornográficas falsas hasta videos manipulados promocionando utensilios de cocina, celebridades como Taylor Swift han sido víctimas de la tecnología deepfake. Los deepfakes de políticos también han sido frecuentes.

Mientras tanto, algunos estafadores han hecho deepfakes de familiares y amigos de individuos en un intento de engañarlos para que les den dinero.

Según Hogg, los problemas más amplios se acelerarán y empeorarán durante un período de tiempo, ya que la prevención del cibercrimen requiere un análisis cuidadoso para desarrollar sistemas, prácticas y controles para defenderse contra nuevas tecnologías.

Los expertos en ciberseguridad dijeron a CNBC que las empresas pueden reforzar las defensas contra las amenazas impulsadas por la IA a través de una mejor educación del personal, pruebas de ciberseguridad y exigir palabras de código y múltiples capas de aprobaciones para todas las transacciones, algo que podría haber evitado casos como el de Arup.