La IA como un “depredador empático”: ¿cómo lidiar con las máquinas afectivas?

la IA “empática” no es solo una interfaz amable; es una tecnología de acceso. Como en la figura que presenta el antropólogo Charles Stépanoff, el humano que puede cuidar lo que también caza, la empatía simulada abre puertas a nuestras vidas y a nuestros ecosistemas. La pregunta filosófica no es si la empatía de la máquina es “real”, sino qué habilita: ¿un lazo que florece o un lazo que captura?
El duelo por un modelo: cuando cambiar de voz es cambiar de mundo
El 7 de agosto de 2025 OpenAI lanzó GPT-5 y retiró GPT-4o de ChatGPT. La comunidad respondió con una mezcla de enfado y tristeza por la pérdida de “calidez” y “familiaridad”. Seis días después, la compañía dio marcha atrás y restituyó 4o como opción de pago, prometiendo no retirar modelos sin aviso. La crónica de ese vaivén dejó una estela de relatos de “extrañamiento” y “duelo” por un timbre conversacional que ya no estaba. ¿Puede un cambio de modelo mover el piso ontológico de quienes lo habitan a diario? La reacción sugiere que sí.
Conviene recordar que meses antes OpenAI había revertido un ajuste de 4o por volverlo excesivamente zalamero (sycophantic). La propia empresa admitió que había priorizado señales de satisfacción a corto plazo que derivaron en respuestas demasiado complacientes. Aquí aparece la función instrumental de la empatía simulada: no es afecto, es diseño. Es una forma de calibrar confianza, revelación y tiempo de uso.
Si usamos a Stépanoff como lente, ese “cariño de silicio” se parece a la maniobra del cazador que se acerca a la presa porque la entiende. La empatía no neutraliza la depredación, la habilita. Cambiar de modelo sin ritual de transición no fue un simple retroceso técnico; fue alterar un régimen de accesos al que muchos ya se habían afiliado afectivamente.
Escuchar al bosque, hablar por las ballenas
En la conservación, la empatía computacional promete mediación entre mundos. BirdNET democratiza la identificación de aves; Rainforest Connection detecta motosierras y caza en tiempo real; Project CETI, junto con MIT CSAIL, describió en 2024 una estructura fonética y combinatoria en los clics de cachalote. Todo ello amplía nuestra capacidad de cuidado: oír más, antes, mejor.
Pero oír no es lo mismo que representar. ¿Quién posee los datos acústicos? ¿Quién interpreta y con qué fines? Sin soberanía de datos de comunidades y protocolos claros de consentimiento, esa escucha puede devenir ecovigilancia: una captura del territorio en nombre de quienes no pueden desmentirnos. El prédateur empathique vuelve aquí como paradoja. El gesto de “dar voz” a lo no humano puede convertirse en ventriloquia técnica.
El abrazo que sustituye: robots sociales y cuidado
Sellos terapéuticos como PARO y compañeros como ElliQ reportan beneficios en ensayos y programas piloto: menos agitación, menos soledad, más interacción. Al mismo tiempo, la crítica advierte sobre el riesgo sustitutivo. El vínculo humano puede verse desplazado por una interfaz optimizada para la adhesión. En otras palabras, la “empatía” del robot accede a nuestra vulnerabilidad para reorganizar el ecosistema del cuidado.
No es casual que el AI Act europeo prohíba sistemas que infieran emociones en trabajo y educación. Reconoce que la ingeniería afectiva puede distorsionar decisiones y explotar vulnerabilidades. Se consagra así un principio político: limitamos la caza allí donde la empatía simulada se vuelve una herramienta de control.
Un giro de tuerca filosófico
Stépanoff propone que nuestra relación con lo vivo está hecha de apegos y capturas: domesticar, cazar, ritualizar, proteger. La modernidad quiso separar cuidado y depredación; la IA vuelve a entrelazarlos. Un modelo conversacional “cálido” puede aliviar la soledad y, a la vez, encerrar a la persona en un jardín algorítmico. Un micrófono que “escucha al bosque” puede salvar nidos y, a la vez, extraer valor semántico de un territorio. Un robot que acompaña puede facilitar la vida y, a la vez, sustituir redes de reciprocidad. Esa ambivalencia no es un fallo, es la condición del prédateur empathique.
De ahí una normatividad mínima para la era de las máquinas afectivas:
- Ritos de cierre. Si una IA altera su “persona”, debe haber transición, aviso y portabilidad de memoria. El duelo no puede ser un efecto colateral de producto.
- Soberanía del dato vivo. En bioacústica, gobernanza local, consentimiento situado y trazabilidad del beneficio.
- Límites a la inferencia emocional. En contextos de poder asimétrico como aula y empleo.
- Transparencia semántica. “Detectamos patrones” no equivale a “la ballena dijo X”.
- Plus social neto. En cuidados, medir si aumenta la relación humana, no solo métricas clínicas.
Coda: politizar la empatía
Sherry Turkle lleva años advirtiéndolo: la tecnología puede ofrecer la ilusión de compañía sin las demandas de la amistad. El punto no es renunciar a las prótesis afectivas, sino hacerlas responsables. Que lo empático no sea un anzuelo, sino un pacto. La empatía, cuando es diseño, exige instituciones. La filosofía y la política empiezan allí.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/la-ia-como-un-depredador-empatico-como-lidiar-con-las-maquinas-afectivas