“
Mantente informado con actualizaciones gratuitas
Simplemente regístrate en el Digest de Inteligencia Artificial myFT, que se envía directamente a tu bandeja de entrada.
El escritor es un comentarista científico
La conversación sobre si la inteligencia artificial alcanzará o superará a la inteligencia humana suele plantearse como un riesgo existencial para Homo sapiens. Un ejército de robots levantándose, al estilo Frankenstein, y volviéndose contra sus creadores. Los sistemas autónomos de IA que manejan silenciosamente los negocios gubernamentales y corporativos un día calculando que el mundo operaría de manera más fluida si los seres humanos quedaran fuera de juego.
Ahora filósofos e investigadores de IA se están preguntando: ¿desarrollarán estas máquinas la capacidad de aburrirse o ser dañadas? En septiembre, la compañía de IA Anthropic nombró a un investigador de “bienestar de la IA” para evaluar, entre otras cosas, si sus sistemas se están acercando a la conciencia o la agencia, y, de ser así, si su bienestar debe ser considerado. La semana pasada, un grupo internacional de investigadores publicó un informe sobre el mismo tema. El ritmo del desarrollo tecnológico, escriben, plantea “una posibilidad realista de que algunos sistemas de IA sean conscientes o tengan una agencia sólida, y por lo tanto sean moralmente significativos, en un futuro cercano”.
La idea de preocuparse por los sentimientos de la IA parece descabellada, pero revela una paradoja en el corazón del gran impulso de la IA: que las empresas están compitiendo por construir sistemas artificiales que sean más inteligentes y más parecidos a nosotros, mientras también se preocupan de que los sistemas artificiales se vuelvan demasiado inteligentes y demasiado parecidos a nosotros. Dado que no entendemos completamente cómo surge la conciencia, o un sentido de sí mismo, en los cerebros humanos, no podemos estar realmente seguros de que no surgirá en los cerebros artificiales. Lo que parece notable, dadas las profundas implicaciones para nuestra propia especie de crear “mentes” digitales, es que no haya más supervisión externa sobre hacia dónde se dirigen estos sistemas.
El informe, titulado Taking AI Welfare Seriously, fue escrito por investigadores de Eleos AI, un grupo de reflexión dedicado a “investigar la sensibilidad y el bienestar de la IA”, junto con autores como el filósofo de la Universidad de Nueva York David Chalmers, quien argumenta que los mundos virtuales son mundos reales, y Jonathan Birch, un académico de la London School of Economics cuyo libro más reciente, The Edge of Sentience, ofrece un marco para pensar en las mentes animales y de IA.
El informe no afirma que la sensibilidad de la IA (la capacidad de sentir sensaciones como el dolor) o la conciencia sean posibles o inminentes, solo que “hay una incertidumbre sustancial acerca de estas posibilidades”. Establecen paralelos con nuestra ignorancia histórica sobre el estatus moral de los animales no humanos, lo que permitió la cría en granjas industriales; fue solo en 2022, con la ayuda del trabajo de Birch, que los cangrejos, langostas y pulpos quedaron protegidos bajo la Ley de Bienestar Animal (Sensibilidad) del Reino Unido.
Advierten que la intuición humana es un mal guía: nuestra propia especie tiende tanto al antropomorfismo, que atribuye rasgos humanos a no humanos que no los tienen, como al antropodenial, que niega rasgos humanos a no humanos que los tienen.
El informe recomienda que las empresas tomen en serio el tema del bienestar de la IA; que los investigadores encuentren formas de investigar la conciencia de la IA, siguiendo el ejemplo de los científicos que estudian los animales no humanos; y que los responsables políticos comiencen a considerar la idea de una IA sensible o consciente, incluso convocando asambleas de ciudadanos para explorar los problemas.
Esos argumentos han encontrado cierto apoyo en la comunidad tradicional de investigación. “Creo que la verdadera conciencia artificial es improbable, pero no imposible”, dice Anil Seth, profesor de neurociencia cognitiva y computacional en la Universidad de Sussex y un reconocido investigador de la conciencia. Él cree que nuestro sentido del yo está vinculado a nuestra biología y es más que mera computación.
Pero si está equivocado, como admite podría estar, las consecuencias podrían ser inmensas: “Crear IA consciente sería una catástrofe ética, ya que habríamos introducido en el mundo nuevas formas de sujetos morales y potencialmente nuevas formas de sufrimiento, a escala industrial”. Nadie, añade Seth, debería intentar construir tales máquinas.
La ilusión de la conciencia parece ser una preocupación más próxima. En 2022, un ingeniero de Google fue despedido después de decir que creía que el chatbot de la empresa mostraba signos de sensibilidad. Anthropic ha estado “entrenando el carácter” de su gran modelo de lenguaje para darle rasgos como la reflexión.
A medida que las máquinas en todas partes, particularmente los LLM, son diseñadas para ser más parecidas a los humanos, corremos el riesgo de ser engañados a gran escala por empresas limitadas por pocos controles y equilibrios. Corremos el riesgo de cuidar de máquinas que no pueden corresponder, desviando nuestros recursos morales finitos de las relaciones que importan. Mi intuición humana defectuosa se preocupa menos por la capacidad de las mentes de la IA de sentir, y más por la capacidad de las mentes humanas de preocuparse.
“