Mantente informado con actualizaciones gratuitas
Simplemente regístrate en el Resumen de Inteligencia Artificial de miFT, que se enviará directamente a tu bandeja de entrada.
El autor es co-director fundador del Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford y CEO y co-fundador de World Labs.
La inteligencia artificial está avanzando a un ritmo vertiginoso. Lo que solía llevar días a los modelos computacionales ahora se puede hacer en minutos, y mientras los costos de entrenamiento han aumentado drásticamente, pronto disminuirán a medida que los desarrolladores aprendan a hacer más con menos. Lo he dicho antes y lo repetiré: el futuro de la IA es ahora.
Para quienes trabajan en el campo, esto no es sorprendente. Los científicos de la computación han estado trabajando arduamente; las empresas han estado innovando durante años. Lo que es sorprendente, y que hace levantar una ceja, es la aparente falta de un marco general para la gobernanza de la IA. Sí, la IA está progresando rápidamente y con eso viene la necesidad de asegurarse de que beneficie a toda la humanidad.
Como tecnólogo y educador, siento firmemente que cada uno de nosotros en el ecosistema global de la IA es responsable tanto de avanzar en la tecnología como de garantizar un enfoque centrado en el ser humano. Es una tarea difícil, que merece un conjunto estructurado de pautas. En preparación para la Cumbre de Acción de IA de la próxima semana en París, he establecido tres principios fundamentales para el futuro de la formulación de políticas de IA.
Primero, usar la ciencia, no la ciencia ficción. La base del trabajo científico es la confianza basada en datos empíricos e investigación rigurosa. El mismo enfoque debería aplicarse a la gobernanza de la IA. Si bien los escenarios futuristas capturan nuestra imaginación, ya sea utopía o apocalipsis, la formulación de políticas efectivas requiere una visión clara de la realidad actual.
Hemos avanzado significativamente en áreas como el reconocimiento de imágenes y el procesamiento de lenguaje natural. Los chatbots y los programas de asistencia de copiloto están transformando el trabajo de maneras emocionantes, pero están aplicando aprendizaje avanzado de datos y generación de patrones. No son formas de inteligencia con intenciones, libre albedrío o conciencia. Comprender esto es crítico, nos salva de la distracción de escenarios descabellados y nos permite centrarnos en desafíos vitales.
Dada la complejidad de la IA, incluso centrarse en nuestra realidad no siempre es fácil. Para cerrar la brecha entre los avances científicos y las aplicaciones del mundo real, necesitamos herramientas que compartan información precisa y actualizada sobre sus capacidades. Las instituciones establecidas, como el Instituto Nacional de Normas y Tecnología de los Estados Unidos, podrían iluminar los efectos del mundo real de la IA, lo que llevaría a políticas precisas y aplicables fundamentadas en la realidad técnica.
En segundo lugar, ser pragmáticos en lugar de ideológicos. A pesar de su rápida progresión, el campo de la IA aún está en pañales, con sus mayores contribuciones por delante. Por lo tanto, las políticas sobre lo que se puede y no se puede construir deben elaborarse de manera pragmática, para minimizar las consecuencias no deseadas y al mismo tiempo incentivar la innovación.
Tomemos, por ejemplo, el uso de la IA para diagnosticar enfermedades de manera más precisa. Esto tiene el potencial de democratizar rápidamente el acceso a una atención médica de alta calidad. Sin embargo, si no se guía adecuadamente, también podría exacerbar los sesgos presentes en los sistemas de atención médica actuales.
Desarrollar IA no es una tarea fácil. Es posible desarrollar un modelo con las mejores intenciones y que luego sea mal utilizado. Por lo tanto, las mejores políticas de gobernanza se diseñarán para mitigar tácticamente dicho riesgo mientras se recompensa la implementación responsable. Los formuladores de políticas deben elaborar políticas de responsabilidad prácticas que desalienten el uso indebido intencional sin penalizar injustamente los esfuerzos de buena fe.
Finalmente, empoderar al ecosistema de la IA. La tecnología puede inspirar a los estudiantes, ayudarnos a cuidar de nuestra población envejecida e innovar soluciones para una energía más limpia y las mejores innovaciones surgen a través de la colaboración. Por lo tanto, es aún más importante que los formuladores de políticas empoderen a todo el ecosistema de la IA, incluidas las comunidades de código abierto y la academia.
El acceso abierto a modelos de IA y herramientas computacionales es crucial para el progreso. Limitarlo creará barreras y ralentizará la innovación, especialmente para las instituciones académicas e investigadores que tienen menos recursos que sus contrapartes del sector privado. Las consecuencias de tales limitaciones, por supuesto, se extienden mucho más allá de la academia. Si los estudiantes de ciencias de la computación de hoy no pueden llevar a cabo investigaciones con los mejores modelos, no comprenderán estos sistemas intrincados cuando ingresen al sector privado o decidan fundar sus propias empresas, lo que crea una brecha grave.
La revolución de la IA está aquí y estoy emocionado. Tenemos el potencial de mejorar drásticamente nuestra condición humana en un mundo impulsado por la IA, pero para que eso se haga realidad, necesitamos una gobernanza que sea empírica, colaborativa y profundamente arraigada en valores centrados en el ser humano.