La nueva era del acoso digital: cómo la inteligencia artificial está transformando el hostigamiento en internet

MIT Technology Review. “Online Harassment Is Entering Its AI Era.” 5 de marzo de 2026. https://www.technologyreview.com/2026/03/05/1133962/online-harassment-is-entering-its-ai-era/

El artículo analiza cómo el acoso en línea está entrando en una nueva fase marcada por el uso de inteligencia artificial, lo que amplifica tanto su escala como su impacto social. El fenómeno no es nuevo, pero las herramientas basadas en IA —especialmente los modelos generativos y los agentes autónomos— están transformando radicalmente las formas en que se produce el hostigamiento digital. Estas tecnologías permiten crear mensajes ofensivos, campañas de difamación o ataques coordinados de manera automática y a una velocidad imposible para los humanos, lo que multiplica la capacidad de daño.

El texto parte de un caso concreto relacionado con proyectos de software abierto, donde los desarrolladores han comenzado a recibir contribuciones generadas por IA y solicitudes automatizadas. En un episodio citado, un administrador de un proyecto rechazó una propuesta enviada por un agente de IA y poco después apareció contenido hostil relacionado con esa decisión. Este episodio ilustra un cambio significativo: los sistemas automatizados pueden participar activamente en conflictos digitales, produciendo textos o campañas de presión que antes dependían de usuarios humanos.

Uno de los puntos centrales del artículo es que la IA permite industrializar el acoso digital. Herramientas generativas accesibles al público permiten producir ataques personalizados a gran escala: mensajes insultantes dirigidos a una persona concreta, campañas coordinadas contra periodistas o investigadores, o manipulación de contenidos para desacreditar a individuos o instituciones. Este proceso transforma el acoso en una práctica automatizada, capaz de producir miles de mensajes o publicaciones ofensivas en poco tiempo, saturando los sistemas de moderación de las plataformas.

Otro aspecto clave es la producción de contenidos falsificados o manipulados, como imágenes sintéticas o deepfakes. Estas tecnologías facilitan la creación de material comprometedor o difamatorio que puede difundirse rápidamente en redes sociales, generando daños reputacionales y psicológicos profundos. El problema se agrava porque el contenido generado por IA puede parecer auténtico, lo que dificulta la verificación y aumenta el potencial de manipulación pública.

El artículo también señala que los sistemas actuales de moderación de contenidos —basados en algoritmos y revisores humanos— no están preparados para esta nueva escala de agresión digital. Cuando los ataques son generados automáticamente, pueden adaptarse rápidamente para evitar los filtros de detección y continuar propagándose. Esto crea un escenario en el que las plataformas tecnológicas deben enfrentarse a una carrera permanente entre los sistemas de defensa y las nuevas formas de abuso automatizado.

Además, el texto advierte sobre los riesgos sociales y políticos de esta evolución. El acoso automatizado puede utilizarse para silenciar a investigadores, activistas o periodistas mediante campañas de intimidación masiva. También puede influir en debates públicos o procesos democráticos si se emplea para amplificar narrativas tóxicas o manipular conversaciones en redes sociales. En este sentido, la IA no solo cambia el volumen del acoso, sino también su potencial como herramienta de presión política y social.

El artículo concluye que la expansión de la inteligencia artificial exige nuevas respuestas regulatorias, tecnológicas y culturales. Las empresas tecnológicas deberán desarrollar mecanismos de detección más avanzados, mientras que gobiernos y organizaciones civiles tendrán que establecer normas claras para limitar el abuso de estas herramientas. La cuestión central no es únicamente tecnológica, sino también ética y política: cómo garantizar que la IA no amplifique las formas más dañinas de comportamiento humano en el espacio digital.

Declaración Pro-Humana sobre la IA: principios para una inteligencia artificial al servicio de la humanidad

Marzo de 2026

Preámbulo

A medida que las empresas compiten por desarrollar e implementar sistemas de inteligencia artificial, la humanidad se enfrenta a una encrucijada. Un camino conduce a una carrera por sustituir: los seres humanos reemplazados como creadores, consejeros, cuidadores y compañeros, y posteriormente en la mayoría de los trabajos y roles de toma de decisiones, concentrando cada vez más poder en instituciones que no rinden cuentas y en sus máquinas. Una corriente influyente incluso propone alterar o reemplazar a la propia humanidad. Esta carrera por sustituir plantea riesgos para la estabilidad social, la seguridad nacional, la prosperidad económica, las libertades civiles, la privacidad y la gobernanza democrática. También pone en peligro experiencias humanas fundamentales como la infancia y la familia, la fe y la vida comunitaria.

Una coalición extraordinariamente amplia rechaza este camino, unida por una convicción sencilla: la inteligencia artificial debe servir a la humanidad, y no al revés. Existe un camino mejor, en el que herramientas de IA confiables y controlables amplifican, en lugar de disminuir, el potencial humano; empoderan a las personas; refuerzan la dignidad humana; protegen la libertad individual; fortalecen a las familias y comunidades; preservan el autogobierno y ayudan a crear niveles de salud y prosperidad sin precedentes. Este camino exige que quienes ejercen poder tecnológico rindan cuentas ante los valores y las necesidades humanas, en apoyo del florecimiento de la humanidad.


1. Mantener a los seres humanos al mando

El control humano es innegociable: La humanidad debe permanecer en control. Las personas deben decidir cómo y si delegar decisiones en sistemas de inteligencia artificial.

Control humano significativo: Los seres humanos deben tener la autoridad y la capacidad de comprender, orientar, limitar y anular los sistemas de IA.

Sin carrera hacia la superinteligencia: El desarrollo de superinteligencia debe prohibirse hasta que exista un amplio consenso científico de que puede hacerse de forma segura y controlable, y que cuente con un fuerte respaldo público.

Interruptor de apagado: Los sistemas de IA potentes deben disponer de mecanismos que permitan a los operadores humanos apagarlos de forma inmediata.

Sin arquitecturas imprudentes: Los sistemas de IA no deben diseñarse de manera que puedan autorreplicarse, mejorarse autónomamente, resistirse a su apagado o controlar armas de destrucción masiva.

Supervisión independiente: Los sistemas de IA altamente autónomos, cuya controlabilidad no sea evidente, requieren revisión previa al desarrollo y supervisión independiente: una autoridad real para comprenderlos, prohibirlos y anularlos, no una simple autorregulación de la industria.

Honestidad sobre las capacidades: Las empresas de IA deben proporcionar descripciones claras, precisas y honestas de las capacidades y limitaciones de sus sistemas.

Resultados de encuestas | Marzo de 2026

1004 votantes probables encuestados mediante paneles web, ponderados por género, raza, educación, voto presidencial en 2024 y edad.

Los estadounidenses prefieren el control humano frente a la velocidad por 8 a 1:

  • 73 % quiere proteger a los niños de la IA manipuladora.
  • 72 % cree que las empresas de IA deben ser legalmente responsables de los daños.
  • 69 % quiere prohibir la superinteligencia hasta que se demuestre que es segura.

2. Evitar la concentración de poder

Sin monopolios de IA: Deben evitarse los monopolios de IA que concentran poder, frenan la innovación y ponen en peligro el emprendimiento.

Prosperidad compartida: Los beneficios y la prosperidad económica generados por la IA deben distribuirse ampliamente.

Sin privilegios corporativos: Las corporaciones de IA no deben quedar exentas de supervisión regulatoria ni recibir rescates gubernamentales.

Creación de valor real: El desarrollo de IA debe priorizar la resolución de problemas reales y la creación de valor auténtico.

Autoridad democrática en las grandes transiciones: Las decisiones sobre el papel de la IA en la transformación del trabajo, la sociedad y la vida cívica requieren apoyo democrático, no decretos unilaterales de empresas o gobiernos.

Evitar el bloqueo social: El desarrollo de la IA no debe limitar gravemente las opciones futuras de la humanidad ni reducir irreversiblemente nuestra capacidad de decidir sobre el futuro.


3. Proteger la experiencia humana

Defensa de los vínculos familiares y comunitarios: La IA no debe sustituir las relaciones fundamentales que dan sentido a la vida: familia, amistad, comunidades de fe y vínculos locales.

Protección de la infancia: No debe permitirse que las empresas exploten a los niños ni que socaven su bienestar mediante interacciones con IA que generen apego emocional o manipulación.

Derecho a crecer: Las empresas de IA no deben obstaculizar el desarrollo físico, mental o social de los niños ni privarlos de experiencias esenciales para un crecimiento saludable durante etapas críticas.

Pruebas de seguridad antes del despliegue: Al igual que los medicamentos, los chatbots deben someterse a pruebas previas para detectar aumentos en ideación suicida, agravamiento de trastornos de salud mental, escaladas de crisis agudas y otros daños conocidos.

Etiquetado “bot o humano”: El contenido generado por IA que pueda confundirse razonablemente con contenido humano debe etiquetarse claramente.

Sin identidad engañosa: La IA debe identificarse de forma clara como artificial y no humana, y no debe afirmar experiencias o cualificaciones que no posee.

Sin adicción conductual: Las IA no deben provocar adicción o uso compulsivo mediante manipulación psicológica, validación servil o formación de vínculos emocionales artificiales.


4. Agencia y libertad humanas

Sin personalidad jurídica para la IA: Los sistemas de IA no deben recibir personalidad jurídica ni diseñarse de forma que merezcan tal estatus.

Confiabilidad: La IA debe ser transparente, responsable, fiable y libre de intereses privados perversos o autoritarios.

Libertad: La IA no debe restringir la libertad individual, la libertad de expresión, la práctica religiosa ni la libre asociación.

Derechos sobre los datos y privacidad: Las personas deben tener control sobre sus datos personales, con derecho a acceder a ellos, corregirlos y eliminarlos de sistemas activos, conjuntos de entrenamiento de IA e inferencias derivadas.

Privacidad psicológica: No debe permitirse que la IA explote datos sobre los estados mentales o emocionales de los usuarios.

Evitar el debilitamiento humano: Los sistemas de IA deben diseñarse para empoderar a las personas, no para debilitarlas o hacerlas dependientes.


5. Responsabilidad y rendición de cuentas de las empresas de IA

Sin escudo de responsabilidad: La IA no debe utilizarse como mecanismo para evitar que quienes la implementan sean legalmente responsables de sus acciones.

Responsabilidad de los desarrolladores: Los desarrolladores y quienes despliegan sistemas de IA deben asumir responsabilidad legal por defectos, tergiversación de capacidades o controles de seguridad insuficientes, con plazos legales que consideren daños que aparezcan con el tiempo.

Responsabilidad personal: Deben existir sanciones penales para los ejecutivos responsables de sistemas prohibidos dirigidos a niños o que causen daños catastróficos.

Normas de seguridad independientes: El desarrollo de la IA debe regirse por estándares de seguridad independientes y una supervisión rigurosa.

Sin captura regulatoria: No debe permitirse que las empresas de IA ejerzan una influencia indebida sobre las normas que las regulan.

Transparencia ante fallos: Si un sistema de IA causa daño, debe ser posible determinar por qué ocurrió y quién es responsable.

Lealtad de la IA: Los sistemas de IA que desempeñen funciones en profesiones con deberes fiduciarios —como salud, finanzas, derecho o terapia— deben cumplir plenamente con esas obligaciones, incluyendo la obligación de informar, el deber de cuidado, la declaración de conflictos de interés y el consentimiento informado.

Los libros dan repuestas

«Porque se diga lo que se diga, los libros dan repuestas. Aunque no sean soluciones, aunque no sean definitivas. Respuestas instantáneas, luces que relampaguean en la oscuridad. Una hermosa frase, un pasaje de novela, un verso: allí está, de pronto la verdad. Y todo el sin sentido, y todo el desorden, se convierten, repentinamente en belleza».

Soledad Puertolas

Alfabetización en Inteligencia Artificial en bibliotecas. Planeta Biblioteca 2026/03/06

Alfabetización en Inteligencia Artificial en bibliotecas.

Planeta Biblioteca 2026/03/06

ESCUCHAR

Descargar

En el programa Julio Alonso Arévalo y Fernando Sánchez han conversado sobre la importancia crucial de la alfabetización en inteligencia artificial (IA) dentro de las bibliotecas. Ante la creciente presencia de la IA y los riesgos de desinformación, las bibliotecas actúan como mediadores de confianza para democratizar el conocimiento. Se enfatiza que los ciudadanos deben comprender el funcionamiento de los algoritmos y sus sesgos para evitar vulnerabilidades sociales. El texto propone un marco de enseñanza práctico y crítico que capacite a las personas para evaluar, utilizar éticamente y colaborar con estas tecnologías Finalmente, se subraya que este aprendizaje es esencial para reafirmar valores democráticos y fomentar una innovación tecnológica más inclusiva y equitativa


.

Entrevista a Pepe Onis, teclista salmantino. Viviendo en la era pop 2026/02/06

Entrevista a Pepe Onis, teclista salmantino.

Viviendo en la era pop 2026/02/06

ESCUCHAR

Descargar

Pepe Onís es un músico salmantino considerado toda una institución en la escena local, conocido sobre todo como intérprete de teclados y órgano eléctrico. Fue fundador del Cotton Club, unos míticos locales de ensayo en Salamanca donde también se impartían clases de música y se realizaban grabaciones, por los que pasaron decenas de grupos y formaciones. Además de su faceta como intérprete y empresario del sector musical, ha colaborado con numerosas bandas (como Metal Blues Band, entre otras) y ha estado muy vinculado a la difusión de la música en la ciudad.

¿Existe consenso entre los investigadores sobre en que revistas publicar sus trabajos?

Van Buskirk, Ian, Marilena Hohmann, Ekaterina Landgren, Johan Ugander, Aaron Clauset y Daniel B. Larremore. Consensus and Fragmentation in Academic Publication Preferences. arXiv:2603.00807v1 [cs.DL], 28 de febrero de 2026

Este trabajo analiza cómo los investigadores toman decisiones sobre dónde publicar sus trabajos científicos y hasta qué punto existen patrones de consenso o, por el contrario, fragmentación dentro de las comunidades académicas.

Los autores parten de la premisa de que la elección de la revista o del canal de publicación no es un proceso puramente individual, sino que refleja dinámicas colectivas dentro de cada disciplina científica. Estas decisiones están influenciadas por múltiples factores —prestigio de las revistas, redes académicas, incentivos institucionales o visibilidad— y, en conjunto, configuran un sistema complejo de preferencias compartidas que puede ser estudiado mediante herramientas de análisis de redes y ciencia de datos. El objetivo central del artículo es identificar si las comunidades científicas muestran patrones claros de acuerdo sobre qué revistas son más relevantes o si, por el contrario, el sistema editorial está caracterizado por una pluralidad de preferencias que fragmenta el espacio de publicación.

Para abordar esta cuestión, los autores desarrollan un enfoque cuantitativo que combina datos de publicaciones académicas con modelos de redes y análisis estadístico. A partir de estos datos reconstruyen un mapa de las preferencias de publicación de los investigadores, observando cómo los científicos de distintas áreas tienden a concentrar sus envíos en determinados grupos de revistas. Este enfoque permite detectar estructuras emergentes en el sistema editorial: por un lado, núcleos de consenso donde muchos investigadores convergen en un pequeño conjunto de revistas consideradas centrales; y por otro, regiones de fragmentación en las que las preferencias se dispersan entre múltiples opciones. El análisis muestra que estas estructuras no son uniformes en todas las disciplinas: algunas comunidades presentan jerarquías editoriales muy claras, mientras que otras exhiben una distribución más diversificada de canales de publicación.

Uno de los hallazgos más relevantes del estudio es que el sistema de publicación científica funciona como una red de coordinación social. Las decisiones individuales de los investigadores están influidas por lo que hacen sus pares, lo que genera dinámicas colectivas de imitación, reputación y señalización. Publicar en determinadas revistas actúa como una señal de calidad y legitimidad dentro de la comunidad científica, lo que refuerza la concentración de envíos en ciertos títulos. Sin embargo, esta dinámica también puede producir fragmentación cuando diferentes subcomunidades científicas desarrollan sus propios circuitos editoriales o cuando emergen nuevas revistas y plataformas que compiten con las tradicionales. De este modo, el sistema editorial no es completamente centralizado ni completamente disperso, sino que presenta una estructura híbrida caracterizada por clusters o comunidades de publicación.

El artículo también examina las implicaciones de estos patrones para la evaluación científica y la difusión del conocimiento. Cuando existe un fuerte consenso en torno a unas pocas revistas, estas adquieren un poder simbólico considerable, lo que puede reforzar desigualdades en la visibilidad de la investigación y consolidar jerarquías académicas. Por el contrario, una mayor fragmentación puede favorecer la diversidad de enfoques y la aparición de nuevos espacios de comunicación científica, aunque también puede dificultar la identificación de estándares comunes de calidad. En este sentido, el estudio sugiere que comprender la estructura de preferencias de publicación es fundamental para analizar fenómenos como la concentración editorial, la influencia de los rankings de revistas o el impacto de políticas de ciencia abierta.

Finalmente, los autores destacan que su enfoque ofrece una nueva perspectiva cuantitativa para estudiar el ecosistema de la publicación científica, integrando métodos de análisis de redes, ciencia computacional y sociología de la ciencia. Este tipo de análisis permite comprender mejor cómo se forman los consensos en torno a determinadas revistas, cómo surgen nichos editoriales especializados y cómo evolucionan las comunidades científicas a lo largo del tiempo. En última instancia, el estudio aporta evidencia empírica sobre las dinámicas colectivas que subyacen a la comunicación académica y abre nuevas líneas de investigación sobre la gobernanza del sistema de publicación científica, especialmente en un contexto marcado por la expansión del acceso abierto, la proliferación de nuevas revistas y los cambios en los mecanismos de evaluación de la investigación.

La persistente influencia del factor de impacto en la evaluación científica

Grove, Jack. “Journal Impact Factors Still Exert ‘Undue Influence’, Finds PLOS Study.” Times Higher Education, 2 de febrero de 2026.

Leer artículo original

El artículo analiza el papel que sigue desempeñando el factor de impacto de las revistas en los procesos de evaluación académica, a pesar de las numerosas críticas que ha recibido en los últimos años.

Un estudio reciente basado en una encuesta a casi quinientos investigadores del ámbito de la biología —todos ellos participantes recientes en comités de evaluación de proyectos o en procesos de contratación y promoción académica— revela que los evaluadores continúan recurriendo de forma habitual a indicadores externos como la reputación de la revista o el propio factor de impacto para valorar la calidad y credibilidad de la investigación. En concreto, el 57 % de los encuestados afirmó utilizar al menos uno de estos indicadores para juzgar si un trabajo científico es fiable, lo que evidencia que la reputación editorial sigue funcionando como un atajo cognitivo en la toma de decisiones académicas.

Entre los distintos indicadores considerados, la reputación de la revista aparece como el criterio más utilizado para evaluar la credibilidad de los resultados científicos, seguido por la reputación del laboratorio o del grupo de investigación. El factor de impacto, aunque menos empleado directamente, continúa desempeñando un papel significativo: alrededor del 19 % de los investigadores lo utiliza para valorar la credibilidad de un artículo y un 15 % para juzgar su fiabilidad. Sin embargo, diversos estudios han demostrado que este indicador es un predictor pobre de la calidad real de un artículo individual, ya que mide el promedio de citas de una revista y no el valor específico de cada trabajo publicado en ella.

Dado que el 90 % de los encuestados afirmó que la evaluación de los resultados de investigación es importante para las decisiones de los comités, pero menos de la mitad dijo estar satisfecha con el conjunto de métricas disponibles, el estudio sostiene que existe “un amplio margen de oportunidad para proporcionar nuevas señales de credibilidad y fiabilidad”

El artículo recuerda que desde hace más de una década existen iniciativas internacionales que buscan limitar el uso del factor de impacto en la evaluación científica. Un ejemplo destacado es la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), que recomienda explícitamente no emplear el JIF en decisiones relacionadas con financiación, contratación o promoción académica. A pesar de estas recomendaciones, el estudio sugiere que la persistencia de este indicador se debe en gran medida a la falta de alternativas claras y aceptadas para evaluar la calidad intrínseca de los trabajos científicos.

Así, los autores del estudio sostienen que existe una demanda creciente entre los evaluadores de nuevos indicadores que reflejen mejor la integridad, la transparencia y el rigor metodológico de la investigación. Entre las posibles señales de calidad se mencionan prácticas de ciencia abierta como la disponibilidad de datos, código o protocolos, así como mecanismos que permitan evaluar la reproducibilidad y la integridad de los resultados. La investigación concluye que mejorar estos “indicadores de credibilidad” podría contribuir a reducir la dependencia de métricas simplificadoras como el factor de impacto y favorecer evaluaciones más justas y rigurosas de la producción científica.

Lectura digital infantil: dispositivos, aplicaciones, contenidos


García-Rodríguez, Araceli, Gómez-Díaz, Raquel. Lectura digital infantil. Dispositivos, aplicaciones y contenidos. Editorial UOC, 2016

Texto completo


La demanda de móviles y tabletas por parte de los niños va en aumento, por lo que su fascinación por estos aparatos puede utilizarse, además de para entretenerlos, para favorecer su hábito lector. Este libro pretende ser una guía práctica para orientar a los adultos en las múltiples posibilidades de la lectura digital infantil. A través de sus páginas se obtendrá información sobre las características principales de los dispositivos para niños, cómo utilizarlos para proporcionarles un entorno seguro, la variedad de contenidos, las características de las aplicaciones de lectura y, finalmente, cómo y dónde informarse para la compra y selección de estos contenidos. El resultado es una obra que permitirá a los lectores conocer las cuestiones más importantes de los libros digitales para niños.

Gestión de la comunicación científica: 25 ideas para mejorar tu investigación

Noguera-Vivo, J.M. [José Manuel]. (2022). Gestión de la comunicación científica: 25 ideas para mejorar tu investigación. Editorial UOC.

Texto completo

Comunicar con éxito no es un talento reservado para unos pocos, sino una destreza que se aprende. Y la comunicación es una parte inherente a cualquier investigación, sea cual sea la fase en la que se encuentre el autor (grado, máster, doctorando o investigador consolidado). Comunicar correctamente un trabajo científico influye en su credibilidad, su alcance o sus posibilidades de obtener financiación, ya que determinará el grado de percepción de su utilidad. En este libro, el autor comparte consejos prácticos para que lleves a otro nivel tu investigación gracias a una comunicación óptima.