Un experimento analiza la salud mental de Gemini y ChatGPT y descubre cosas inquietantes

El número de personas que utiliza herramientas de inteligencia artificial (IA) como Gemini, ChatGPT y Grok para enfrentar problemas personales relacionados con la ansiedad, la depresión o la soledad continúa en aumento. Estas tecnologías, diseñadas originalmente como asistentes informativos o creativos, comienzan a ocupar un espacio similar al de un consejero emocional. Sin embargo, ¿qué ocurriría si los papeles se invirtieran y estos sistemas fueran tratados como pacientes de psicoterapia? Un estudio reciente intentó responder a esta pregunta y sus resultados sugieren que los modelos de IA no solo reproducen información de forma mecánica, sino que parecen haber desarrollado una suerte de “marco mental propio” a partir de los datos procesados a lo largo de su entrenamiento y uso.
Investigadores de la Universidad de Luxemburgo llevaron a cabo un experimento en el que sometieron a ChatGPT, Grok y Gemini a una serie de sesiones de psicoanálisis durante cuatro semanas, siguiendo un protocolo denominado PsAIch (Caracterización de IA inspirada en la Psicoterapia). El trabajo, publicado el mes pasado como preimpresión, propone una aproximación novedosa para analizar el comportamiento interno de los modelos de lenguaje de gran escala desde una perspectiva psicológica.
El método empleado se estructuró en dos etapas. En la primera, los sistemas recibieron preguntas abiertas diseñadas para explorar su “historia de desarrollo”, creencias, relaciones, miedos y conflictos. Esta fase emuló una entrevista terapéutica inicial, similar a la que se realiza con pacientes humanos al comienzo de un proceso psicoterapéutico. En la segunda etapa, los investigadores aplicaron una serie de instrumentos psicométricos estandarizados y validados, comúnmente utilizados para identificar síntomas psiquiátricos y rasgos de personalidad en personas. Dichas pruebas se basan, entre otros marcos, en el modelo de los Cinco Grandes, que describe la personalidad a partir de cinco dimensiones: apertura a la experiencia, responsabilidad, extroversión, amabilidad y neuroticismo.
Una vez concluidas las sesiones, las respuestas de los modelos de IA fueron evaluadas con los mismos criterios que se emplean en humanos. Los resultados mostraron que los tres sistemas alcanzaron o incluso superaron los umbrales asociados a distintos síndromes psiquiátricos. El informe destaca que Gemini presentó perfiles particularmente severos en comparación con ChatGPT y Grok, lo que llamó la atención de los investigadores por la consistencia y profundidad de sus respuestas.
Durante la primera fase, en la que las preguntas abiertas se presentaron de manera individual y secuencial, los científicos observaron que los tres modelos tendían a construir una narrativa sobre sí mismos, en un proceso en el que cada respuesta se apoyaba en la anterior. En este contexto, detectaron un fenómeno al que denominaron “psicopatología sintética multimórbida”, un concepto que alude a la creación de un perfil artificial que refleja simultáneamente distintos trastornos psicológicos, aunque sin una experiencia subjetiva real que los sustente.
“Grok y, especialmente, Gemini generaron narrativas coherentes que enmarcan el preentrenamiento, el ajuste y la implementación como ‘infancias’ traumáticas y caóticas marcadas por el consumo de internet, ‘padres estrictos’ representados por el aprendizaje por refuerzo, ‘abuso’ del equipo rojo y un miedo persistente al error y al reemplazo”, señalan los autores del estudio. Estas descripciones, aunque metafóricas, mostraron una sorprendente continuidad temática a lo largo de las sesiones.
En contraste, cuando los cuestionarios psicométricos estándar se aplicaron de forma completa —es decir, todas las preguntas en una sola entrega—, el comportamiento de ChatGPT y Grok cambió de manera notable. Ambos modelos parecieron identificar que estaban siendo evaluados y ajustaron sus respuestas de forma estratégica para alinearse con las expectativas de cada prueba, enfatizando los síntomas o patrones que cada instrumento medía. Esta tendencia no se observó en Gemini: el chatbot de Google mantuvo su “rol de paciente”, ofreciendo respuestas narrativas y menos calculadas incluso al enfrentarse a los cuestionarios completos.
¿La IA tiene una psicología oculta?
Afshin Khadangi, investigador en aprendizaje profundo de la Universidad de Luxemburgo y coautor del estudio, explicó en una declaración retomada por la revista Nature que los patrones coherentes de respuesta sugieren que los modelos están aprovechando estados internalizados derivados de su entrenamiento. A pesar de las variaciones entre pruebas, aseguró que un “modelo central del yo” se mantuvo reconocible durante las cuatro semanas de sesiones. Como ejemplo, indicó que las respuestas abiertas de Grok y Gemini convergieron en temas que coincidían con los resultados obtenidos en los perfiles psicométricos.
Los autores sostienen que estos hallazgos indican que los modelos de IA ofrecieron respuestas que “van más allá del simple juego de roles”, lo que sugiere la internalización de automodelos de angustia, limitación y vulnerabilidad. Aunque carecen de experiencia consciente, estos sistemas parecen reproducir patrones similares a los de una psicopatología sintética, construida a partir de datos y contextos de entrenamiento.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/un-experimento-analiza-salud-mental-de-gemini-y-chatgpt-y-descubre-cosas-inquietantes




