bloquea el 99% antes de publicarse con Gemini

El problema de los anuncios maliciosos en internet no es nuevo, pero sí cada vez más sofisticado. Ahora, Google asegura haber dado un salto, ya que en 2025 logró interceptar más del 99% de los anuncios que violaban sus políticas antes siquiera de que fueran publicados, gracias a sus sistemas impulsados por Gemini.
La cifra forma parte de su más reciente Informe de Seguridad de los Anuncios, donde la compañía detalla cómo la inteligencia artificial se ha convertido en su principal defensa frente a estafadores que, paradójicamente, también usan IA para escalar sus ataques.
El cambio está en el enfoque. Durante años, la detección de anuncios maliciosos dependía en gran medida de palabras clave o patrones básicos. Hoy, según el propio reporte, los modelos de Gemini analizan cientos de miles de millones de señales, desde la antigüedad de una cuenta hasta comportamientos sospechosos en campañas publicitarias.
Esto permite algo más relevante que detectar: anticiparse. Google afirma que sus sistemas ya entienden mejor la intención detrás de un anuncio, incluso cuando está diseñado para evadir los filtros tradicionales. El resultado es contundente. En 2025, la empresa bloqueó o eliminó más de 8,300 millones de anuncios y suspendió 24.9 millones de cuentas de anunciantes. Dentro de ese universo, 602 millones de anuncios y 4 millones de cuentas estaban vinculados directamente con estafas.

IA contra IA: el nuevo frente del fraude
El informe también deja claro que el terreno de juego cambió. Los actores maliciosos están usando IA generativa para crear anuncios engañosos a gran escala, lo que obliga a plataformas como Google a responder con herramientas igual o más sofisticadas.
Aquí es donde entra Gemini. Según la compañía, sus sistemas pueden revisar anuncios en tiempo real, incluso antes de que se publiquen. De hecho, hacia finales de 2025, la mayoría de los anuncios adaptables de búsqueda ya se analizaban de forma instantánea, bloqueando contenido dañino en el momento del envío.
Este enfoque no solo reduce la exposición del usuario a fraudes, también cambia la velocidad de respuesta. Google asegura que pudo procesar más de cuatro veces la cantidad de reportes de usuarios en comparación con el año anterior, lo que permite reaccionar más rápido cuando algo logra filtrarse.
Menos errores, pero más control
Uno de los efectos secundarios de automatizar la moderación es el riesgo de castigar a anunciantes legítimos. Aquí, Google afirma haber mejorado: la precisión de sus sistemas permitió reducir en 80% las suspensiones incorrectas.


Esto es clave porque la plataforma no solo busca bloquear contenido dañino, sino mantener operando a empresas reales. La distinción entre una oferta legítima y un engaño complejo, especialmente en sectores sensibles, se vuelve crítica. Por ejemplo, en categorías como servicios de citas, las políticas son especialmente estrictas. Google permite ciertos anuncios, pero bajo condiciones: certificación obligatoria, restricciones por edad, cumplimiento de leyes locales y prohibición total de prácticas engañosas, como perfiles generados por IA sin divulgación clara o servicios que impliquen explotación.
El filtro no es solo tecnológico
Aunque la IA hace la mayor parte del trabajo, no es la única capa. Google mantiene programas de verificación de anunciantes para validar identidades antes de que puedan publicar anuncios. La idea es detener a los actores maliciosos incluso antes de que entren al sistema.
A esto se suman políticas que prohíben desde malware hasta contenido engañoso o prácticas para evadir los sistemas de revisión. En los casos más graves, las sanciones son inmediatas: suspensión de cuentas sin previo aviso y prohibición permanente para anunciarse.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://www.xataka.com.mx/seguridad/fraude-publicitario-usa-ia-google-dice-que-va-paso-adelante-bloquea-99-antes-publicarse-gemini




