La batalla contra el fraude digital escala a otro nivel. Google publicó su nuevo informe de seguridad publicitaria y los números son contundentes: durante 2025 bloqueó o eliminó más de 8.300 millones de anuncios que violaban sus políticas, en gran parte gracias al uso de inteligencia artificial.
El dato más fuerte: más del 99% de esos anuncios fueron detenidos antes de que alguien los viera, lo que marca un cambio clave en cómo se combate el contenido malicioso en internet.
El avance está directamente ligado a Gemini, el modelo de IA de Google, que permitió detectar amenazas con mucha más precisión y velocidad.
Según el informe, esta tecnología permitió:
- Actuar en cuatro veces más casos que el año anterior
- Reducir en un 80% las suspensiones incorrectas de anunciantes
- Identificar mejor la intención detrás de cada anuncio
Esto no solo mejora la seguridad, sino que también protege a los negocios legítimos que antes podían ser penalizados por error.
El alcance del control es masivo. En 2025, Google también:
- Suspendió 24,9 millones de cuentas de anunciantes
- Restringió 4,8 millones de anuncios
- Bloqueó o limitó más de 480 millones de páginas web
- Intervino en 245.000 sitios de editores
Además, realizó 35 actualizaciones de políticas para adaptarse a nuevas amenazas digitales.
Uno de los puntos más críticos sigue siendo el fraude. Solo en este frente:
- Se eliminaron 602 millones de anuncios vinculados a estafas
- Se suspendieron más de 4 millones de cuentas por este tipo de actividad
Las categorías más afectadas incluyen servicios financieros, contenido engañoso y uso indebido de redes publicitarias, que concentran gran parte de las infracciones detectadas.
El control no se limita a los anuncios. Google también utiliza IA para monitorear contenido en páginas web.
Según el informe, los sistemas automatizados lograron una tasa de detección superior al 97%, actuando sobre más de 467 millones de páginas dentro de un total de 480 millones analizadas.
Entre los contenidos más penalizados aparecen:
- Contenido sexual
- Material peligroso u ofensivo
- Promoción de armas
- Malware o software no deseado
El informe deja algo claro: la escala del problema crece, pero también lo hacen las herramientas para combatirlo.
La combinación de inteligencia artificial, verificación de anunciantes y políticas más estrictas está redefiniendo cómo se construye un ecosistema digital más seguro.
En un contexto donde las estafas y los contenidos maliciosos evolucionan constantemente, la clave ya no es solo reaccionar, sino anticiparse. Y ahí, la IA empieza a jugar el rol principal.
