La nueva era del acoso digital: cómo la inteligencia artificial está transformando el hostigamiento en internet

MIT Technology Review. “Online Harassment Is Entering Its AI Era.” 5 de marzo de 2026. https://www.technologyreview.com/2026/03/05/1133962/online-harassment-is-entering-its-ai-era/

El artículo analiza cómo el acoso en línea está entrando en una nueva fase marcada por el uso de inteligencia artificial, lo que amplifica tanto su escala como su impacto social. El fenómeno no es nuevo, pero las herramientas basadas en IA —especialmente los modelos generativos y los agentes autónomos— están transformando radicalmente las formas en que se produce el hostigamiento digital. Estas tecnologías permiten crear mensajes ofensivos, campañas de difamación o ataques coordinados de manera automática y a una velocidad imposible para los humanos, lo que multiplica la capacidad de daño.

El texto parte de un caso concreto relacionado con proyectos de software abierto, donde los desarrolladores han comenzado a recibir contribuciones generadas por IA y solicitudes automatizadas. En un episodio citado, un administrador de un proyecto rechazó una propuesta enviada por un agente de IA y poco después apareció contenido hostil relacionado con esa decisión. Este episodio ilustra un cambio significativo: los sistemas automatizados pueden participar activamente en conflictos digitales, produciendo textos o campañas de presión que antes dependían de usuarios humanos.

Uno de los puntos centrales del artículo es que la IA permite industrializar el acoso digital. Herramientas generativas accesibles al público permiten producir ataques personalizados a gran escala: mensajes insultantes dirigidos a una persona concreta, campañas coordinadas contra periodistas o investigadores, o manipulación de contenidos para desacreditar a individuos o instituciones. Este proceso transforma el acoso en una práctica automatizada, capaz de producir miles de mensajes o publicaciones ofensivas en poco tiempo, saturando los sistemas de moderación de las plataformas.

Otro aspecto clave es la producción de contenidos falsificados o manipulados, como imágenes sintéticas o deepfakes. Estas tecnologías facilitan la creación de material comprometedor o difamatorio que puede difundirse rápidamente en redes sociales, generando daños reputacionales y psicológicos profundos. El problema se agrava porque el contenido generado por IA puede parecer auténtico, lo que dificulta la verificación y aumenta el potencial de manipulación pública.

El artículo también señala que los sistemas actuales de moderación de contenidos —basados en algoritmos y revisores humanos— no están preparados para esta nueva escala de agresión digital. Cuando los ataques son generados automáticamente, pueden adaptarse rápidamente para evitar los filtros de detección y continuar propagándose. Esto crea un escenario en el que las plataformas tecnológicas deben enfrentarse a una carrera permanente entre los sistemas de defensa y las nuevas formas de abuso automatizado.

Además, el texto advierte sobre los riesgos sociales y políticos de esta evolución. El acoso automatizado puede utilizarse para silenciar a investigadores, activistas o periodistas mediante campañas de intimidación masiva. También puede influir en debates públicos o procesos democráticos si se emplea para amplificar narrativas tóxicas o manipular conversaciones en redes sociales. En este sentido, la IA no solo cambia el volumen del acoso, sino también su potencial como herramienta de presión política y social.

El artículo concluye que la expansión de la inteligencia artificial exige nuevas respuestas regulatorias, tecnológicas y culturales. Las empresas tecnológicas deberán desarrollar mecanismos de detección más avanzados, mientras que gobiernos y organizaciones civiles tendrán que establecer normas claras para limitar el abuso de estas herramientas. La cuestión central no es únicamente tecnológica, sino también ética y política: cómo garantizar que la IA no amplifique las formas más dañinas de comportamiento humano en el espacio digital.