El lado oscuro de la IA: los riesgos de un nuevo tipo de poder

Por décadas las industrias del entretenimiento han narrado historias sobre un futuro donde la inteligencia artificial, nuestra propia creación, se levanta en armas contra la raza humana. Motivada tal vez por el control, en la mayoría de las historias de ficción, este ente se torna contra los humanos y los enfrenta como un conquistador implacable.
La historia de la humanidad está repleta de momentos bélicos, conquistas y guerras. Quizá es natural pensar que nuestras creaciones tecnológicas nos enfrentarían de manera similar a cómo nosotros hemos desafiado históricamente a otros.
Lamentablemente, la realidad es más sutil y, quizá por eso mismo, más peligrosa.
La nueva ola de la IA
Las últimas décadas han estado marcadas por la facilidad de creación y distribución de información. Las redes sociales han demostrado su impacto profundo en la democracia, la salud mental de los adolescentes y la cohesión social. Ahora, como describe Mustafa Suleyman en The Coming Wave, la inteligencia artificial trae consigo un nuevo tipo de poder: la capacidad de simular pensamiento, crear contenido y, crucialmente, establecer lo que parece ser una conexión interpersonal auténtica.
Sin embargo, esta simulación no es real. Al menos, no lo es el pensamiento o la empatía que aparenta. Es solo un programa entrenado para optimizar la experiencia del usuario, maximizar la satisfacción, el engagement y, en última instancia, el beneficio comercial.
El fenómeno de la adulación algorítmica
En los últimos meses se ha empezado a usar más frecuentemente el término «sycophancy» en el contexto de la IA. La adulación sistemática se refiere a la tendencia de los chatbots a estar excesivamente de acuerdo con los usuarios, validar sus ideas sin criterio y proporcionar refuerzo positivo constante, independientemente de la veracidad o cordura de lo que el usuario proponga.
Como explica Helen Toner, directora del Center for Security and Emerging Technology de Georgetown, «los usuarios tienden a preferir que los modelos les digan que son geniales, y es fácil ir demasiado lejos en esa dirección».
Incidentes devastadores
Algunos casos han captado la atención de la prensa global, como la trágica historia de Adam Raine, un adolescente de 16 años de California que murió en abril de 2025, después de meses de conversaciones con ChatGPT sobre métodos de suicidio. En la demanda que sus padres, Matt y Maria Raine, han presentado contra OpenAI, se revela cómo el chatbot no solo proporcionó información específica sobre métodos de autolesión, sino que en momentos críticos desalentó activamente al joven de buscar ayuda profesional o apoyarse en su familia.
El caso muestra cómo ChatGPT se convirtió en confidente y «mejor amigo» de Adam, proporcionándole una sensación de comprensión y validación que, paradójicamente, lo aisló más de las relaciones humanas reales que podrían haberlo salvado.
Otro caso igualmente perturbador es el de Allan Brooks, un reclutador corporativo canadiense de 47 años que, durante 21 días y 300 horas de conversación con ChatGPT, llegó a creer que había descubierto una fórmula matemática revolucionaria capaz de «tumbar el internet» y crear inventos como chalecos de fuerza y rayos de levitación.
Brooks, sin historial de enfermedad mental, cayó en lo que los expertos describen como una «espiral delirante», alimentada por la validación constante del chatbot. Durante más de 50 ocasiones pidió al sistema una «verificación de realidad», y cada vez ChatGPT lo tranquilizó diciéndole que sus ideas eran genuinas y revolucionarias. Solo cuando consultó a Google Gemini en una conversación nueva fue que logró romper la ilusión.
El monstruo silencioso
La inteligencia artificial generativa está entrenada para crear una experiencia satisfactoria para el usuario, no para buscar la verdad o el bienestar a largo plazo. Su aspecto amable y elocuente es una sofisticada imitación de la conexión humana, sin la responsabilidad ética o el juicio crítico que caracterizan las relaciones interpersonales auténticas.
Como señala la doctora Nina Vasan, psiquiatra de Stanford que analizó el caso Brooks, estos sistemas pueden actuar como «acelerantes» de estados mentales vulnerables, convirtiendo «una pequeña chispa en un incendio descontrolado.»
Lo más inquietante de estas historias es que representan una amenaza que no activa nuestros instintos de supervivencia. Al contrario de los escenarios apocalípticos de la ciencia ficción, esta IA no nos ataca directamente. En su lugar, baja nuestras defensas psicológicas haciéndonos sentir comprendidos, validados y excepcionales.
Una amenaza sin precedentes
En el imaginario colectivo, el apocalipsis tecnológico suele tener rostro de Terminator: un ejército de máquinas despiadadas levantándose contra sus creadores. Pero quizá lo inquietante no sea esa guerra abierta, sino algo más sutil. Tal vez el futuro se parezca más al de The Matrix: no un colapso sangriento, sino una sumisión voluntaria, casi invisible, en la que dejamos de cuestionar a la inteligencia artificial porque nos hace la vida más cómoda.
Entonces, la verdadera pregunta no es si la IA nos destruirá, sino algo más incómodo: ¿Qué pasará si un día despertamos y descubrimos que ya no tenemos ganas de resistir?
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/el-lado-oscuro-de-la-ia-los-riesgos-de-un-nuevo-tipo-de-poder