Tres de cada cuatro europeos apoyan el uso de IA por la policía y el ejército.

La gran mayoría de los europeos apoyan el uso de inteligencia artificial para operaciones policiales y militares, según un nuevo informe de la Universidad IE de Madrid compartido con CNBC.

“European Tech Insights”, que midió las actitudes de más de 3.000 personas en Europa, encontró que el 75% apoya el uso de tecnologías de IA como reconocimiento facial y datos biométricos por parte de la policía y el ejército para fines de vigilancia.

El nivel de apoyo es sorprendente, ya que Europa tiene algunas de las regulaciones de privacidad de datos más estrictas del mundo. En 2018, la Unión Europea introdujo el Reglamento General de Protección de Datos, o GDPR, un marco que rige la forma en que las organizaciones almacenan y procesan la información de los usuarios.

Las empresas enfrentan multas sustanciales por violar las reglas. Una empresa que viole las leyes de GDPR puede ser multada con hasta el 4% de sus ingresos globales anuales, o 20 millones de euros (21.7 millones de dólares), el monto más alto.

“No está claro que el público haya pensado en las repercusiones de estas aplicaciones [de IA]”, dijo Ikhlaq Sidhu, decano de la Escuela de Ciencia y Tecnología de la Universidad IE, a CNBC.

El nivel de apoyo para el uso de la IA en tareas de servicios públicos, como la optimización del tráfico, fue aún mayor, llegando al 79%, según el informe.

Sin embargo, cuando se trata de asuntos sensibles, como decisiones de libertad condicional, la mayoría de los europeos (64%) se oponen al uso de la IA.

LEAR  Telegraph Hill Partners compra $15 millones de acciones de Alpha Teknova a $1.24 cada una en Investing.com.

Manipulación de elecciones por IA

A pesar del apoyo a la IA en la administración pública y asuntos de seguridad, las personas parecen estar mucho más preocupadas por su papel en el proceso democrático.

El informe de la Universidad IE encontró que la gran mayoría de los europeos (67%) temen la manipulación de la IA en las elecciones.

La IA puede usarse como un amplificador de la desinformación, con algunos usuarios tratando deliberadamente de usar información falsa para subvertir las opiniones de otros. Una preocupación clave es que los llamados deepfakes, imágenes, videos o clips de audio sintéticos creados con IA, podrían usarse para tergiversar las opiniones de los políticos o difundir otros tipos de desinformación.

Plataformas de IA generativa, como Dall-E de OpenAI y Midjourney de Stability AI, pueden usarse para crear imágenes con solo unos pocos textos de entrada, por ejemplo. CNBC se ha puesto en contacto con OpenAI y Stability para obtener comentarios.

“La IA y los deepfakes son los últimos ejemplos de una tendencia de desinformación y pérdida de verificabilidad”, dijo Sidhu a CNBC. “Esta tendencia ha estado creciendo desde el comienzo de Internet, las redes sociales y los algoritmos de búsqueda impulsados por la IA.”

De hecho, un 31% de los europeos creen que la IA ya ha influido en sus decisiones de voto, según el informe. Esto ocurre cuando las elecciones presidenciales de EE. UU. de 2024 se acercan rápidamente, con la actual vicepresidenta Kamala Harris compitiendo contra el ex presidente Donald Trump en la votación programada para el 5 de noviembre.

División generacional

El informe de la Universidad IE también encontró una división generacional en la IA en Europa.

LEAR  Los accionistas de Tesla aprueban el acuerdo de remuneración récord de Elon Musk y la mudanza a Texas.

Aproximadamente un tercio (34%) de las personas de entre 18 y 34 años confiaría en una aplicación impulsada por IA para votar por políticos en su nombre. Este porcentaje disminuye al 29% para personas de 35 a 44 años, y solo el 9% para personas de 65 años o más.