En busca del método para saber si la IA es consciente

Como periodista que se ocupa de la IA, escucho a innumerables personas que parecen totalmente convencidas de que ChatGPT, Claude o cualquier otro chatbot, han alcanzado la «sensibilidad». O la «consciencia». O (mi favorita) «una mente propia». El test de Turing se superó hace tiempo, sí, pero a diferencia de la ‘inteligencia memorística’, estas cosas no son tan fáciles de precisar. Los grandes modelos de lenguaje afirman a cada rato pensar por sí mismos, incluso describen tormentos internos o profesan amores eternos, pero tales aseveraciones no implican interioridad.
¿Podrán los modelos de lenguaje tener “consciencia”?
Muchos de los creadores de IA no hablan en estos términos. Están demasiado ocupados persiguiendo la referencia de rendimiento conocida como «inteligencia artificial general», que es una categoría puramente funcional y que no tiene nada que ver con la experiencia potencial del mundo por parte de una máquina. Así que, a pesar de mi escepticismo, pensé que podría ser revelador, e incluso esclarecedor, pasar un rato con una empresa que cree que puede descifrar el código de la propia consciencia.
Conscium fue fundada en 2024 por el investigador de IA y empresario británico Daniel Hulme, y entre sus asesores hay una impresionante variedad de neurocientíficos, filósofos y expertos en consciencia animal. Cuando hablamos por primera vez, Hulme fue realista: hay buenas razones para dudar de que los modelos de lenguaje sean capaces de tener consciencia. Los cuervos, los pulpos e incluso las amebas pueden interactuar con su entorno de un modo que los chatbots no pueden. Los experimentos también sugieren que los enunciados de la IA no reflejan estados coherentes o consistentes. Como dijo Hulme, haciéndose eco del amplio consenso: «Los grandes modelos de lenguaje son representaciones muy burdas del cerebro».
Pero, ¿qué es la consciencia?
Pero (un gran pero) todo depende, en primer lugar, del significado de la consciencia. Algunos filósofos sostienen que la consciencia es algo demasiado subjetivo para ser estudiado o recreado, pero Conscium apuesta por que, si existe en humanos y otros animales, esta puede detectarse, medirse y construirse en máquinas.
Existen ideas contrapuestas sobre las características fundamentales de la consciencia: la capacidad de sentir, la consciencia de uno mismo y de su entorno y lo que se conoce como metacognición, es decir, la capacidad de pensar en los propios procesos mentales. Hulme cree que la experiencia subjetiva de la consciencia surge cuando se combinan estos fenómenos, del mismo modo que se crea la ilusión de movimiento cuando se hojean imágenes secuenciales en un libro. Pero, ¿cómo identificar los componentes de la consciencia, es decir, las animaciones individuales y la fuerza que las combina? Según Hulme, la inteligencia artificial se vuelve contra sí misma.
Conscium pretende descomponer el pensamiento consciente en su forma más básica y catalizarlo en el laboratorio. «Tiene que haber algo a partir de lo cual se construya la consciencia y de lo que surja en la evolución», opina Mark Solms, psicoanalista y neuropsicólogo sudafricano que participa en el proyecto Conscium. En su libro de 2021, The Hidden Spring (El manantial oculto), Solms propuso una nueva y delicada forma de concebir la consciencia. Sostenía que el cerebro utiliza la percepción y la acción en un bucle de retroalimentación diseñado para minimizar la sorpresa, generando hipótesis sobre el futuro que se actualizan a medida que llega nueva información. La idea se basa en el «principio de la energía libre» desarrollado por Karl Friston, otro neurocientífico notable, aunque controvertido (y también asesor de Conscium). Solms sugiere que, en los humanos, este bucle de retroalimentación evolucionó hasta convertirse en un sistema mediado por las emociones y que son éstas las que conjuran la sensibilidad y la consciencia. La teoría se ve reforzada por el hecho de que los daños en el tronco encefálico, que desempeña un papel fundamental en la regulación de las emociones, parecen provocar la desaparición de la consciencia en los pacientes.
Al final de su libro, Solms propone una forma de probar sus teorías en un laboratorio. Ahora, dice, lo ha hecho. No ha publicado el artículo, pero me lo enseñó. ¿Me rompió el cerebro? Sí, un poco. Los agentes artificiales de Solms viven en un sencillo entorno simulado por computadora y están controlados por algoritmos con el tipo de bucle fristoniano mediado por sentimientos que él propone como fundamento de la consciencia. «Tengo varios motivos para hacer esta investigación», refiere Solms. «Uno es que es jodidamente interesante».
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/en-busca-del-metodo-para-saber-si-la-ia-es-consciente




