He leído más de 100 solicitudes de propuestas de IA de grandes empresas. Aquí está la matriz de barreras y obligaciones que está surgiendo.

Las empresas están adoptando la inteligencia artificial generativa en gran medida. Estamos elevando el trabajo y transformando los procesos comerciales, desde la habilitación de ventas hasta las operaciones de seguridad. Y estamos obteniendo beneficios masivos: aumentar la productividad, mejorar la calidad y acelerar el tiempo de comercialización.

Con este avance viene una necesidad igual de consideración de los riesgos. Estos incluyen vulnerabilidades del software, ciberataques, acceso indebido al sistema y exposición de datos sensibles. También existen consideraciones éticas y legales, como violaciones de leyes de derechos de autor o privacidad de datos, sesgo o toxicidad en la producción generada, la propagación de desinformación y deep fakes, y el aumento de la brecha digital. Estamos viendo lo peor de ello en la vida pública en este momento, con algoritmos utilizados para difundir información falsa, manipular la opinión pública y socavar la confianza en las instituciones. Todo esto destaca la importancia de la seguridad, la transparencia y la responsabilidad en cómo creamos y utilizamos los sistemas de inteligencia artificial.

¡Hay un buen trabajo en marcha! En los EE. UU., la Orden Ejecutiva sobre IA del Presidente Biden tiene como objetivo promover el uso responsable de la IA y abordar problemas como el sesgo y la discriminación. El Instituto Nacional de Normas y Tecnología (NIST) ha desarrollado un marco integral para la confiabilidad de los sistemas de IA. La Unión Europea ha propuesto la Ley de IA, un marco regulatorio para garantizar el uso ético y responsable de la IA. Y el Instituto de Seguridad de IA en el Reino Unido está trabajando para desarrollar estándares de seguridad y mejores prácticas para la implementación de la IA.

LEAR  El beneficio de Huawei se duplicó en 2023 a medida que los negocios de smartphones y automóviles repuntaron.

La responsabilidad de establecer un conjunto común de límites para la inteligencia artificial recae en última instancia en el gobierno, pero aún no hemos llegado a eso. Hoy, tenemos un mosaico de pautas que son regionalmente inconsistentes y no pueden seguir el rápido ritmo de la innovación en IA. Mientras tanto, la responsabilidad de su uso seguro y responsable recaerá en nosotros: los proveedores de IA y nuestros clientes empresariales. De hecho, necesitamos un conjunto de límites.

Una nueva matriz de obligaciones

Las empresas visionarias están tomando medidas proactivas. Están creando comités directivos internos y grupos de supervisión para definir y hacer cumplir políticas de acuerdo con sus obligaciones legales y estándares éticos. He leído más de cien solicitudes de propuestas (RFP) de estas organizaciones, y son buenas. Han informado nuestro marco aquí en Writer para construir nuestros propios programas de confianza y seguridad.

Una forma de organizar nuestro pensamiento es en una matriz con cuatro áreas de obligación: datos, modelos, sistemas y operaciones; y trazarlos a través de tres partes responsables: proveedores, empresas y gobiernos.

Las líneas de protección dentro de la categoría “datos” incluyen integridad de los datos, procedencia, privacidad, almacenamiento y cumplimiento legal y regulatorio. En “modelos”, son transparencia, precisión, sesgo, toxicidad y mal uso. En “sistema”, son seguridad, confiabilidad, personalización y configuración. Y en “operaciones”, son el ciclo de vida del desarrollo de software, pruebas y validación, acceso y otras políticas (humanas y de máquinas), y ética.

Dentro de cada categoría de protección, recomiendo enumerar sus principales obligaciones, articular lo que está en juego, definir cómo se ve lo “bueno” y establecer un sistema de medición. Cada área se verá diferente en los proveedores, empresas y entidades gubernamentales, pero en última instancia deberían complementarse y apoyarse mutuamente.

LEAR  Futuros del Dow Jones caen; las acciones de chips caen en las ganancias de ASML, medidas más estrictas de China, Trump.

He elegido una pregunta de muestra de las RFP de nuestros clientes y he traducido cada una para demostrar cómo podría funcionar cada línea de protección de la IA.

 EmpresaProveedorDatos → PrivacidadPreguntas clave: ¿Qué datos son sensibles? ¿Dónde se encuentran? ¿Cómo podrían exponerse? ¿Cuál es el inconveniente de exponerlos? ¿Cuál es la mejor manera de protegerlos?Lenguaje de la RFP: ¿Anonimiza, encripta y controla el acceso a los datos sensibles?

 EmpresaProveedorModelos → SesgoPreguntas clave: ¿Dónde están nuestras áreas de sesgo? ¿Qué sistemas de IA impactan nuestras decisiones o producción? ¿Qué está en juego si nos equivocamos? ¿Cómo se ve lo “bueno”? ¿Cuál es nuestra tolerancia al error? ¿Cómo nos medimos? ¿Cómo probamos nuestros sistemas con el tiempo?Lenguaje de la RFP: Describa los mecanismos y metodologías que emplea para detectar y mitigar los sesgos. Describa su método de prueba de sesgo/justicia a lo largo del tiempo.

 EmpresaProveedorSistema → ConfiabilidadPreguntas clave: ¿Qué necesita ser la confiabilidad de nuestro sistema de IA? ¿Cuál es el impacto si no cumplimos con nuestro SLA de tiempo de actividad? ¿Cómo medimos el tiempo de inactividad y evaluamos la confiabilidad de nuestro sistema con el tiempo?Lenguaje de la RFP: ¿Documenta, practica y mide los planes de respuesta para incidentes de tiempo de inactividad del sistema de IA, incluyendo la medición de la respuesta y el tiempo de inactividad?

 EmpresaProveedorOperaciones → ÉticaPreguntas clave: ¿Qué papel juegan los humanos en nuestros programas de IA? ¿Tenemos un marco o fórmula para informar nuestros roles y responsabilidades?Lenguaje de la RFP: ¿La organización define políticas y procedimientos que definen y diferencian los diversos roles y responsabilidades humanas al interactuar con o monitorear el sistema de IA?

LEAR  Directora financiera de Eli Lilly, Anat Ashkenazi, sobre cómo manejar la creciente demanda de GLP-1s.

Al transformar los negocios con IA generativa, es crucial reconocer y abordar los riesgos asociados con su implementación. Si bien hay iniciativas gubernamentales en marcha, hoy la responsabilidad de un uso seguro y responsable de la IA recae en nuestros hombros. Al implementar de manera proactiva pilares de la IA en datos, modelos, sistemas y operaciones, podemos obtener los beneficios de la IA mientras minimizamos el daño.

May Habib es CEO y cofundador de Writer.

Más comentarios imprescindibles publicados por Fortune:

Las opiniones expresadas en los artículos de opinión de Fortune.com son únicamente las opiniones de sus autores y no necesariamente reflejan las opiniones y creencias de Fortune.