Está seguro de que este rasgo podría ser incorporado en sistemas de IA, pero no está completamente seguro.
“Creo que sí,” dijo Altman cuando se le hizo la pregunta durante una entrevista con Debora Spar, decana asociada principal de la Harvard Business School.
La cuestión de un levantamiento de IA solía ser algo reservado exclusivamente para la ciencia ficción de Isaac Asimov o las películas de acción de James Cameron. Pero desde el surgimiento de la IA, ha pasado a ser, si no un tema polémico, al menos un tema de debate que merece una consideración genuina. Lo que una vez hubiera sido considerado divagaciones de un excéntrico, ahora es una cuestión regulatoria genuina.
La relación de OpenAI con el gobierno ha sido “bastante constructiva”, según Altman. Añadió que un proyecto tan amplio y extenso como el desarrollo de la IA debería haber sido un proyecto del gobierno.
“En una sociedad que funcione bien, esto sería un proyecto gubernamental”, dijo Altman. “Dado que esto no está sucediendo, creo que es mejor que esté ocurriendo de esta manera como un proyecto estadounidense.”
El gobierno federal aún no ha logrado avances significativos en la legislación sobre seguridad de la IA. Hubo un esfuerzo en California para aprobar una ley que habría responsabilizado a los desarrolladores de IA por eventos catastróficos como ser usada para desarrollar armas de destrucción masiva o atacar infraestructura crítica. Esa ley fue aprobada en la legislatura pero fue vetada por el Gobernador de California, Gavin Newsom.
Algunas de las figuras preeminentes de la IA han advertido que asegurar que esté completamente alineada con el bienestar de la humanidad es una cuestión crítica. El laureado con el Premio Nobel Geoffrey Hinton, conocido como el Padrino de la IA, dijo que no podía “ver un camino que garantice la seguridad.” El CEO de Tesla, Elon Musk, ha advertido regularmente que la IA podría llevar a la extinción de la humanidad. Musk fue fundamental en la fundación de OpenAI, proporcionando a la organización sin fines de lucro una financiación significativa en sus inicios. A pesar de que Musk lo está demandando, Altman sigue sintiéndose “agradecido” por el financiamiento.
Se han creado múltiples organizaciones, como el Centro de Investigación de Alineación y la startup Safe Superintelligence fundada por el ex director científico de OpenAI, que se han dedicado únicamente a esta cuestión.
OpenAI no respondió a una solicitud de comentario.
Según Altman, la IA tal como está diseñada actualmente es adecuada para la alineación. Debido a eso, argumenta que sería más fácil de lo que parece asegurar que la IA no dañe a la humanidad.
“Una de las cosas que ha funcionado sorprendentemente bien ha sido la capacidad de alinear un sistema de IA para comportarse de una manera particular,” dijo. “Así que si podemos articular lo que eso significa en un montón de casos diferentes, entonces, sí, creo que podemos hacer que el sistema actúe de esa manera.”
Altman también tiene una idea típicamente única sobre cómo exactamente OpenAI y otros desarrolladores podrían “articular” esos principios e ideales necesarios para asegurar que la IA permanezca de nuestro lado: utilizar la IA para sondear al público en general. Sugirió preguntar a los usuarios de chatbots de IA sobre sus valores y luego usar esas respuestas para determinar cómo alinear una IA para proteger a la humanidad.
“Estoy interesado en el experimento mental [en el que] una IA chatea contigo durante un par de horas sobre tu sistema de valores,” dijo. “Hace eso conmigo, con todos los demás. Y luego dice ‘ok, no puedo hacer felices a todos todo el tiempo.’”
Altman espera que al comunicarse y comprender a miles de millones de personas “a un nivel profundo”, la IA pueda identificar desafíos que enfrenta la sociedad de manera más amplia. A partir de ahí, la IA podría llegar a un consenso sobre lo que tendría que hacer para lograr el bienestar general del público.
La IA tiene un equipo interno dedicado a la superalineación, encargado de garantizar que la futura superinteligencia digital no se vuelva rebelde y cause daños incalculables. En diciembre de 2023, el grupo publicó un documento de investigación temprana que mostraba que estaban trabajando en un proceso por el cual un gran modelo de lenguaje supervisaría a otro. Esta primavera, los líderes de ese equipo, Sutskever y Jan Leike, abandonaron OpenAI. Su equipo fue desmantelado, según informó CNBC en ese momento.
Leike dijo que se fue debido a crecientes desacuerdos con el liderazgo de OpenAI sobre su compromiso con la seguridad mientras la empresa trabajaba hacia la inteligencia artificial general, un término que se refiere a una IA tan inteligente como un humano.
“Construir máquinas más inteligentes que los humanos es una tarea inherentemente peligrosa,” escribió Leike en X. “OpenAI está asumiendo una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura de seguridad y los procesos han quedado en segundo plano frente a los productos llamativos.”
Cuando Leike se fue, Altman escribió en X que estaba “sumamente agradecido por las contribuciones de [él] a la investigación y cultura de seguridad de OpenAI.”
¿A cuántos grados de separación te encuentras de los líderes empresariales más poderosos del mundo? Explora quiénes forman parte de nuestra nueva lista de las 100 Personas más Poderosas en los Negocios. Además, entérate sobre las métricas que utilizamos para elaborarla.