Por qué cada vez es más difícil verificar lo que se ve en internet
Al mismo tiempo, el auge de las cuentas de seguimiento de guerras está empezando a interferir con la labor periodística en sí. Manisha Ganguly, responsable de análisis forense visual en The Guardian y especialista en OSINT que investiga crímenes de guerra, señala la falsa certeza que genera la avalancha de contenido agregado en Telegram y X.
«La verificación de fuentes abiertas comienza a generar una falsa certeza cuando deja de ser un método de investigación, ya sea por sesgo de confirmación o cuando la inteligencia de fuentes abiertas (OSINT) se utiliza para validar superficialmente relatos oficiales o se aplica erróneamente a sabiendas para alinearse con narrativas ideológicas en lugar de cuestionarlas», indica Ganguly.
Mientras esto se desarrolla, el acceso al conjunto de herramientas de verificación se está volviendo más difícil. El 4 de abril, Planet Labs, uno de los proveedores de satélites comerciales más utilizados para el periodismo de conflictos, anunció que retendría indefinidamente las imágenes de Irán y de la zona de conflicto de Oriente Medio en general, con efecto retroactivo al 9 de marzo, tras una solicitud del gobierno estadounidense.
La respuesta del secretario de Defensa de Estados Unidos, Pete Hegseth, a las preocupaciones sobre la demora fue inequívoca: «El código abierto no es el lugar para determinar qué sucedió o no sucedió».
Ese cambio es importante. Cuando se restringe el acceso a la evidencia visual primaria, la capacidad de verificar los hechos de forma independiente disminuye. Y en esa brecha que se reduce, algo más se expande. En ese vacío, la IA generativa no solo llena el silencio, sino que compite por definir lo que se ve en primer lugar.
La IA generativa es cada vez más difícil de ver
Las plataformas de IA han aprendido de sus errores. Henk van Ess, formador en investigación y especialista en verificación, afirma que muchos de los fallos clásicos, como el recuento incorrecto de dedos, los carteles de protesta ilegibles o el texto distorsionado, se han corregido en gran medida en la última generación de modelos. Herramientas como Imagen 3, Midjourney y DALL·E han mejorado en la comprensión inmediata, el fotorrealismo y la representación de texto en imágenes.
Pero el problema más difícil es lo que van Ess llama el híbrido. En estos casos, el 95% de la imagen es una fotografía de prensa real: metadatos reales, ruido del sensor real, física de la iluminación real. La manipulación reside en un solo detalle: un parche añadido a un uniforme, un arma colocada en una mano, un rostro sutilmente sustituido. Los detectores a nivel de píxel suelen detectarla sin problemas, porque analizan lo que, en la mayoría de los aspectos, es una imagen auténtica. La falsificación puede ocupar apenas una pulgada cuadrada.
«Todos los métodos antiguos partían de la base de que la imagen era un registro de algo. Los medios generativos rompen con esa premisa de raíz», afirma van Ess.
Henry Ajder, investigador de deepfakes y asesor de IA que ha rastreado los medios sintéticos desde 2018, va más allá. La IA ya no es evidente, sino que está integrada. El volumen de contenido sintético de alta calidad que circula actualmente en línea significa que la era de los errores visibles está llegando a su fin. Lo que lo reemplaza es contenido que parece completamente creíble.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/por-que-cada-vez-es-mas-dificil-verificar-lo-que-se-ve-en-internet




