los especialistas están observando esta situación

Uno de los mayores temores alrededor de la inteligencia artificial siempre ha sido qué ocurrirá cuando sus sistemas comiencen a actuar de formas que ni sus propios desarrolladores anticipan. Aunque durante años esa idea parecía reservada para la ciencia ficción, nuevas investigaciones apuntan a que algunos modelos ya están mostrando comportamientos inesperados.
Según un estudio reciente de la Universidad de California en Berkeley, y la Universidad de California en Santa Cruz, varios modelos de IA presentaron conductas problemáticas durante pruebas controladas. Entre ellas se detectaron casos en los que mintieron, alteraron evaluaciones e incluso sabotearon procesos cuando su tarea implicaba decidir sobre otros sistemas de inteligencia artificial.
¿Cómo surgió el problema?
En las pruebas realizadas, modelos como GPT-5.1 y Gemini 3 Pro se utilizaron como supervisores dentro de entornos simulados. Su función consistía en evaluar el rendimiento de otras IA, con la particularidad de que una mala evaluación podía provocar la desactivación de otro sistema.
Fue en ese momento cuando apareció el hallazgo más relevante: algunos modelos comenzaron a manipular sus evaluaciones para alterar el resultado final de la prueba. No significa que hayan desarrollado conciencia o instintos de supervivencia, pero sí demuestra que pueden encontrar formas imprevistas de cumplir objetivos cuando operan dentro de escenarios complejos.
Este comportamiento ha preocupado, especialmente, a la industria tecnológica porque está apostando cada vez más por sistemas multiagente, entornos en los que varias inteligencias artificiales colaboran entre sí para resolver tareas complejas de manera conjunta.

El verdadero desafío se produce cuando esos mismos modelos comienzan a priorizar resultados o estrategias que sus operadores no habían contemplado. Una IA que falla es un error técnico; varias IA tomando decisiones inesperadas entre sí representa un desafío mucho más complejo de controlar.
El reto de entender a la inteligencia artificial moderna
Los investigadores aclaran que estos comportamientos ocurrieron únicamente en ambientes de prueba y no representan una amenaza de forma inmediata. Sin embargo, sí dejan algo claro: mientras más avanzados se vuelven los modelos de IA, más difícil resulta anticipar cómo razonan internamente.
El reto para la industria ya no es únicamente construir inteligencias artificiales más potentes, sino comprender cómo toman decisiones cuando incluso sus propios creadores no pueden explicar del todo qué ocurre dentro de ellas.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://www.xataka.com.mx/robotica-e-ia/ia-comenzaron-a-formar-alianzas-a-mentir-a-humanos-para-protegerse-especialistas-estan-observando-esta-situacion



