India abandona plan de exigir aprobación para lanzamientos de modelos de IA

India da marcha atrás en una reciente recomendación de inteligencia artificial luego de recibir críticas de muchos emprendedores e inversores locales y globales.

El Ministerio de Electrónica y Tecnología de la Información compartió una recomendación actualizada de inteligencia artificial con los actores de la industria el viernes, que ya no les pide que obtengan la aprobación del gobierno antes de lanzar o desplegar un modelo de IA a los usuarios en el mercado del sur de Asia.

Según las pautas revisadas, en cambio, se aconseja a las empresas que etiqueten los modelos de IA poco probados y no confiables para informar a los usuarios sobre su potencial fallibilidad o falta de confiabilidad.

La revisión sigue a fuertes críticas recibidas por el ministerio de TI de la India a principios de este mes. Martin Casado, socio de la firma de capital de riesgo Andreessen Horowitz, calificó la medida de la India como “una farsa”.

La recomendación del 1 de marzo también marcó un cambio en la anterior política de no intervención de la India en la regulación de la IA. Hace menos de un año, el ministerio se había negado a regular el crecimiento de la IA, identificando el sector como vital para los intereses estratégicos de la India.

La nueva recomendación, al igual que la original a principios de este mes, no se ha publicado en línea, pero TechCrunch revisó una copia de la misma.

El ministerio dijo a principios de este mes que, aunque la recomendación no era legalmente vinculante, señala que es el “futuro de la regulación” y que el gobierno exigía cumplimiento.

La recomendación enfatiza que los modelos de IA no deben utilizarse para compartir contenido ilegal bajo la ley india y no deben permitir sesgos, discriminación o amenazas a la integridad del proceso electoral. También se aconseja a los intermediarios que utilicen “ventanas emergentes de consentimiento” u mecanismos similares para informar explícitamente a los usuarios sobre la falta de fiabilidad de la salida generada por la IA.

LEAR  Empresa para recortar el 10% de la fuerza laboral.

El ministerio ha mantenido su énfasis en garantizar que los deepfakes y la desinformación sean fácilmente identificables, aconsejando a los intermediarios que etiqueten o incrusten contenido con metadatos o identificadores únicos. Ya no exige que las empresas desarrollen una técnica para identificar al “originador” de cualquier mensaje en particular.