Huamani, K. “AI Is a Gold Mine for Spammers and Scammers, but Google Is Using It as a Tool to Fight Back.” AP News, 16 de abril de 2026.
Este articulo analiza la creciente paradoja de la inteligencia artificial en el ecosistema digital: la misma tecnología que facilita la proliferación de fraudes y estafas en internet se ha convertido también en la principal herramienta para combatirlos. En particular, se centra en el informe anual de seguridad publicitaria de Google, que revela cómo el uso de sistemas avanzados de IA —como Gemini— está permitiendo detectar y bloquear anuncios maliciosos antes de que lleguen al público.
El texto de Kaitlyn Huamani analiza cómo la expansión de la inteligencia artificial generativa ha intensificado un problema antiguo: el de los fraudes y el spam en internet. Aunque estos engaños existen desde los inicios de la red, la accesibilidad de herramientas de IA ha permitido a los estafadores producir contenidos mucho más sofisticados —como anuncios de productos milagro o vídeos con voces falsas de celebridades— a una velocidad y escala sin precedentes. Expertos como Nate Elliott destacan que la gran diferencia actual no es la naturaleza del problema, sino su aceleración exponencial, que beneficia tanto a actores legítimos como a los maliciosos. Esta tendencia tiene un impacto real: según el Federal Bureau of Investigation, en el último año se registraron más de 22.000 denuncias por estafas relacionadas con IA, con pérdidas que superan los 893 millones de dólares.
Frente a este escenario, grandes empresas tecnológicas como Google están reforzando sus sistemas de defensa mediante el uso de su propia inteligencia artificial. En su informe anual de seguridad publicitaria, la compañía reconoce el aumento de anuncios fraudulentos cada vez más complejos, pero subraya la eficacia de sus herramientas basadas en IA. Su sistema, impulsado por Gemini, logró detectar más del 99% de los anuncios que infringían las políticas antes de que llegaran a los usuarios. En 2025, Google bloqueó o eliminó más de 8.300 millones de anuncios y suspendió cerca de 24,9 millones de cuentas de anunciantes, de las cuales más de 4 millones estaban vinculadas a actividades fraudulentas. Estas cifras reflejan tanto la magnitud del problema como el esfuerzo creciente por contenerlo.
El artículo también explica cómo funcionan estas herramientas defensivas. Gracias a Gemini, Google puede analizar cientos de miles de millones de señales —como la antigüedad de las cuentas, patrones de comportamiento o características de las campañas— para evaluar la intención real de los anunciantes. Esto permite distinguir con mayor precisión entre negocios legítimos y actores maliciosos, reduciendo además los errores: las suspensiones indebidas de anunciantes se han reducido en un 80%. Otro avance clave es la velocidad, ya que procesos que antes llevaban segundos o minutos ahora se realizan en milisegundos, lo que permite bloquear amenazas antes incluso de que se publiquen.
Aun así, el problema sigue siendo complejo y dinámico. Los anuncios fraudulentos adoptan múltiples formas y evolucionan constantemente, replicando estrategias tradicionales pero con mayor volumen y rapidez gracias a la IA. Google insiste en que no clasifica los anuncios en función de si han sido generados por inteligencia artificial, sino según si incumplen sus políticas, ya que muchas empresas legítimas también utilizan estas herramientas de forma correcta. En este contexto, los expertos coinciden en que la confrontación entre estafadores y sistemas de defensa continuará intensificándose.
En última instancia, el texto plantea un escenario en el que la lucha contra el fraude digital se convierte en una especie de “IA contra IA”. Como señala Matt Seitz, el volumen del problema es ya tan grande que no puede gestionarse únicamente con intervención humana. Esto anticipa un futuro en el que la automatización será clave tanto para la creación de amenazas como para su detección, consolidando una carrera tecnológica permanente entre ataque y defensa en el entorno digital.