Departamento de Policía Probando Detectives Potenciados por AI en Crímenes Reales.

Crímenes de Bots

Un departamento de policía en el Reino Unido está probando un sistema impulsado por inteligencia artificial que podría ayudar potencialmente a resolver casos archivados al condensar décadas de trabajo detectivesco en apenas horas, informa Sky News.

Pero aún no hay noticias sobre la tasa de precisión de esta plataforma desarrollada en Australia, llamada Soze, lo cual es una preocupación importante ya que los modelos de inteligencia artificial tienden a producir resultados incorrectos de forma salvaje o alucinar información inventada.

El departamento de policía de Avon y Somerset, que cubre partes del suroeste de Inglaterra, está poniendo a prueba el programa haciendo que Soze escanee y analice correos electrónicos, redes sociales, video, extractos financieros y otros documentos.

Sky informa que la inteligencia artificial pudo escanear evidencia de 27 casos “complejos” en aproximadamente 30 horas, equivalente a 81 años de trabajo humano, lo cual es asombroso. No es de sorprender que este departamento de policía esté interesado en utilizar este programa, porque esos números suenan como un multiplicador de fuerza en esteroides, lo que lo hace especialmente atractivo para la policía que puede estar al límite en términos de personal y restricciones presupuestarias.

“Puedes tener una revisión de un caso archivado que parezca imposible debido a la cantidad de material y alimentarlo en un sistema como este que simplemente pueda procesarlo, y darte una evaluación al respecto,” dijo el presidente del Consejo Nacional de Jefes de Policía del Reino Unido, Gavin Stephens, a Sky. “Puedo ver que es realmente, realmente útil.”

Informe de la Minoría

Otro proyecto de inteligencia artificial al que Stephens hizo referencia es la creación de una base de datos de cuchillos y espadas, que muchos sospechosos han utilizado para atacar, herir o matar víctimas en el Reino Unido.

LEAR  Ciudad Maya perdida encontrada en la selva de México por accidente

Stephens parece optimista sobre la pronta implementación de estas herramientas de inteligencia artificial, pero tendría sentido confirmar que están funcionando adecuadamente primero. La inteligencia artificial, quizás especialmente en la policía, es conocida por ser propensa a errores y puede llevar a falsos positivos.

Un modelo que se utilizó para predecir las posibilidades de que un sospechoso cometa otro crimen en el futuro fue inexacto y también discriminatorio contra las personas negras, lo cual suena como algo sacado directamente de la novela corta de Philip K. Dick “Informe de la Minoría”, posteriormente adaptada en la película de 2002 dirigida por Steven Spielberg. El reconocimiento facial con inteligencia artificial también puede llevar a arrestos erróneos, con minorías siendo señaladas repetidamente por crímenes que no cometieron.

Estas inexactitudes son tan preocupantes que la Comisión de Derechos Civiles de Estados Unidos criticó recientemente el uso de inteligencia artificial en la policía.

Existe la percepción de que debido a que son máquinas las que realizan el análisis, serán infalibles y precisas. Pero están construidas sobre datos recopilados por humanos que pueden ser sesgados y completamente equivocados, por lo que los problemas familiares están presentes desde el principio.

Más sobre inteligencia artificial y trabajo policial: La Policía Dice que las IAs Alucinantes Están Listas para Escribir Informes Policiales que Podrían Enviar a Personas a la Cárcel