Archivo de la etiqueta: Wikipedia

Relación entre el uso de la inteligencia artificial (IA) y la evolución de Wikipedia

Reeves, Neal, Wenjie Yin, y Elena Simperl. “Exploring the Impact of ChatGPT on Wikipedia Engagement.” Collective Intelligence, 2025. https://doi.org/10.1177/26339137251372599

Se analiza cómo la aparición de ChatGPT ha influido en los patrones de uso y contribución en Wikipedia. Los autores investigan si el lanzamiento de esta herramienta ha alterado el comportamiento de los usuarios en cuanto a consultar, minar información o editar artículos de la enciclopedia libre.

Se examina de manera exhaustiva cómo la irrupción de la inteligencia artificial generativa —especialmente ChatGPT— ha influido en los patrones de interacción de los usuarios con Wikipedia. Su objetivo principal es determinar si el uso masivo de modelos conversacionales está desplazando el papel tradicional de la enciclopedia libre como fuente de conocimiento o, por el contrario, si ambos sistemas pueden coexistir de manera complementaria.

Los investigadores realizaron un análisis longitudinal entre 2021 y 2024, abarcando doce ediciones lingüísticas de Wikipedia. Eligieron la mitad de ellas en países donde ChatGPT está ampliamente disponible y la otra mitad en regiones donde el acceso es limitado o nulo. Este enfoque permitió comparar cómo varían el tráfico, las consultas y la actividad editorial dependiendo de la presencia o ausencia de la inteligencia artificial conversacional. Contra lo que muchos expertos predecían, los resultados no muestran un descenso generalizado en el uso de Wikipedia: en la mayoría de las ediciones analizadas, el número de visitas e incluso las contribuciones editoriales se mantuvieron estables o crecieron moderadamente.

El estudio sugiere que, lejos de sustituir a Wikipedia, ChatGPT ha reconfigurado la forma en que los usuarios se relacionan con el conocimiento digital. Muchos de ellos utilizan la inteligencia artificial para obtener respuestas rápidas o resúmenes, pero recurren a Wikipedia para verificar información, explorar en mayor profundidad los temas o consultar las fuentes originales. De este modo, se produce una relación de complementariedad más que de competencia directa. La IA actúa como una interfaz de acceso rápido al conocimiento, mientras que Wikipedia conserva su papel como repositorio abierto, verificable y colaborativo.

No obstante, los autores advierten que esta coexistencia plantea desafíos serios. Uno de los principales es el fenómeno de la toma masiva de datos (data scraping), mediante el cual las empresas que entrenan modelos de IA extraen grandes cantidades de texto de Wikipedia sin atribución explícita. Este proceso no solo genera tensiones éticas sobre la propiedad intelectual y la autoría colectiva, sino que también puede perjudicar la sostenibilidad técnica del proyecto, al incrementar la carga sobre los servidores y reducir el tráfico directo hacia la enciclopedia. Si los usuarios reciben respuestas inmediatas sin necesidad de visitar la fuente original, la comunidad editorial de Wikipedia puede perder visibilidad, participación y, en última instancia, relevancia.

El estudio también aborda el riesgo de que la inteligencia artificial difunda información derivada de Wikipedia sin el mismo rigor editorial ni el sistema de verificación comunitaria que caracteriza al proyecto. Los modelos de lenguaje no siempre reproducen el contexto o las referencias adecuadas, lo que puede conducir a distorsiones o errores. Ante esta situación, los autores abogan por establecer un nuevo marco de cooperación entre las plataformas de IA y la Fundación Wikimedia, basado en principios de transparencia, atribución y uso responsable de los datos.

Como propuesta práctica, el equipo investigador menciona la posibilidad de que los modelos de inteligencia artificial utilicen bases de datos estructuradas como Wikidata, en lugar de copiar texto plano de los artículos. Este tipo de integración permitiría a los sistemas de IA acceder a información verificable y actualizada, respetando al mismo tiempo la integridad del contenido original y reduciendo la dependencia de métodos de extracción masiva. Además, abriría la puerta a una sinergia más constructiva, en la que la inteligencia artificial contribuya a mejorar la accesibilidad y la difusión del conocimiento sin socavar las bases colaborativas sobre las que se asienta Wikipedia.

Cómo los modelos de Inteligencia Artificial amenazan la sostenibilidad de Wikipedia

Vetter, Matthew A., Jialei Jiang, y Zachary J. McDowell. «An Endangered Species: How LLMs Threaten Wikipedia’s SustainabilityAI & Society, 2024. https://doi.org/10.1007/s00146-025-02199-9.

El estudio de Matthew A. Vetter, Jialei Jiang y Zachary J. McDowell analiza el impacto de los modelos de lenguaje a gran escala (LLMs) en la sostenibilidad de Wikipedia. Aunque la enciclopedia abierta es una fuente clave para entrenar inteligencia artificial, su uso plantea desafíos éticos en cuanto a la procedencia de los datos, la producción de conocimiento y el trabajo digital. Mediante entrevistas con expertos, la investigación destaca la falta de claridad sobre el papel de Wikipedia en el entrenamiento de LLMs, así como los riesgos de sesgos sistémicos y sostenibilidad. Los autores abogan por mayor transparencia y responsabilidad en el uso de bases de datos abiertas por parte de las grandes tecnológicas, promoviendo marcos colaborativos que prioricen la ética y la representación equitativa.

A partir de entrevistas con expertos en la intersección entre Wikimedia y la IA, la investigación identifica tres desafíos clave:

  1. Falta de transparencia en el uso de Wikipedia: No está claro en qué medida Wikipedia es utilizada en el entrenamiento de los LLMs, lo que impide evaluar su impacto en la generación de conocimiento automatizado.
  2. Problemas éticos y de sesgo sistémico: Los modelos de IA pueden amplificar desigualdades existentes en la producción de conocimiento, reproduciendo sesgos presentes en Wikipedia y en los datos utilizados en su entrenamiento.
  3. Sostenibilidad y reconocimiento del trabajo colaborativo: La creciente dependencia de Wikipedia por parte de las empresas de IA sin un retorno claro a la comunidad plantea desafíos para su mantenimiento a largo plazo.

El estudio subraya la necesidad de mayor transparencia y responsabilidad en el uso de bases de datos abiertas como Wikipedia por parte de grandes empresas tecnológicas. Los autores proponen marcos colaborativos que prioricen principios éticos, equidad en la representación y mecanismos para asegurar que el valor generado por la IA también beneficie a la comunidad que sustenta Wikipedia.

Los artículos en Acceso Abierto tienen una tasa de citación en Wikipedia del 44.1% significativamente mayor

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Open Access Improves the Dissemination of Science: Insights from Wikipedia». Scientometrics, 15 de octubre de 2024. https://doi.org/10.1007/s11192-024-05163-4.

Este estudio analiza cómo el acceso abierto (Open Access, OA) influye en el uso de artículos científicos en Wikipedia. Aunque se supone que el OA facilita la difusión del conocimiento científico, la magnitud de esta relación no se había investigado a fondo hasta ahora. Los autores examinaron un extenso conjunto de datos de citas en la Wikipedia en inglés y compararon los patrones de citación en relación con el acceso abierto.

Los hallazgos revelan que los artículos en OA tienen una tasa de citación en Wikipedia del 44.1%, significativamente mayor que su disponibilidad en otras fuentes científicas como Web of Science (23.6%) y OpenAlex (22.6%). Además, el estatus de acceso abierto y el impacto académico (medido por el número de citas) aumentan la probabilidad de que un artículo sea citado en Wikipedia. En particular, los artículos de acceso abierto tienen un 64.7% más de probabilidad de ser citados en comparación con los artículos con restricciones de acceso, después de controlar factores de confusión.

El estudio destaca que el acceso abierto facilita la difusión del conocimiento científico, incrementando la probabilidad de que llegue a una audiencia más amplia a través de Wikipedia. También refuerza la confiabilidad de Wikipedia, ya que los editores pueden acceder a resultados novedosos y actualizados gracias a la disponibilidad de artículos en OA.


ChatGPT encabeza la lista de los artículos más vistos de Wikipedia en 2023

Fortinsky, S. (2023, diciembre 5). ChatGPT tops Wikipedia’s most-viewed articles of 2023 list [Text]. The Hill. https://thehill.com/policy/technology/4342633-chatgpt-wikipedia-most-viewed-articles-2023/

La página de ChatGPT, el chatbot basado en modelos de inteligencia artificial de uso gratuito, fue el artículo en inglés más visto de Wikipedia en 2023, según las cifras publicadas el martes por la Fundación Wikimedia, la organización sin ánimo de lucro que alberga la enciclopedia libre.

La Fundación Wikimedia dijo que las páginas de Wikipedia en inglés atrajeron más de 84.000 millones de páginas vistas en 2023, y ChatGPT encabezó su lista anual de los 25 artículos más vistos con un total de 49,5 millones de páginas vistas.

El chatbot, creado por OpenAI de Sam Altman, se ha hecho muy popular este año, ya que gran parte del público ha tenido su primera oportunidad de utilizar la inteligencia artificial de forma práctica. El sistema de IA debutó hace poco más de un año, el 30 de noviembre de 2022, y superó los 100 millones de usuarios, según la organización sin ánimo de lucro.

Tras ChatGPT, «Muertes en 2023» fue la segunda página más visitada, con 42,7 millones de visitas; «Mundial de Cricket 2023» ocupó el tercer lugar, con 38,2 millones de visitas; «Premier League india» se situó en cuarto lugar, con 32 millones de visitas; y «Oppenheimer (película)» completó los cinco primeros puestos, con 28,3 millones de visitas.

El resto de la lista incluye artículos sobre deportes, cine/televisión, famosos y algunos acontecimientos de actualidad.

En 2022, «Jeffrey Dahmer» encabezó la lista de los más vistos con 54,9 millones de páginas vistas. En 2021, «Muertes en 2021» ocupó el primer puesto con 44,5 millones de visitas. En 2020, «Pandemia de COVID-19» encabezó la lista con la friolera de 83,8 millones de visitas.

Aquí está la lista completa de los 25 temas más vistos.

  1. ChatGPT, 49,490,406 visualizaciones
  2. Deaths in 2023, 42,666,860
  3. 2023 Cricket World Cup, 38,171,653
  4. Indian Premier League, 32,012,810
  5. Oppenheimer (film), 28,348,248
  6. Cricket World Cup, 25,961,417
  7. J. Robert Oppenheimer, 25,672,469
  8. Jawan (film), 21,791,126
  9. 2023 Indian Premier League, 20,694,974
  10. Pathaan (film), 19,932,509
  11. The Last of Us (TV series), 19,791,789
  12. Taylor Swift, 19,418,385
  13. Barbie (film), 18,051,077
  14. Cristiano Ronaldo, 17,492,537
  15. Lionel Messi, 16,623,630
  16. Premier League, 16,604,669
  17. Matthew Perry, 16,454,666
  18. United States, 16,240,461
  19. Elon Musk, 14,370,395
  20. Avatar: The Way of Water, 14,303,116
  21. India, 13,850,178
  22. Lisa Marie Presley, 13,764,007
  23. Guardians of the Galaxy Vol. 3, 13,392,917
  24. Russian invasion of Ukraine, 12,798,866
  25. Andrew Tate, 12,728,616

Del capital académico al capital mediático: ¿Hasta qué punto la reputación científica de las universidades se traduce en atención en Wikipedia?

Arroyo-Machado, W., Díaz-Faes, A. A., Herrera-Viedma, E., & Costas, R. (2023). From academic to media capital: To what extent does the scientific reputation of universities translate into Wikipedia attention? Journal of the Association for Information Science and Technology, 1–15. https://doi.org/10.1002/asi.24856

Las universidades se enfrentan a crecientes exigencias para mejorar su visibilidad, proyección pública y presencia en línea. Existe un amplio consenso en que la reputación científica aumenta significativamente la atención que reciben las universidades. Sin embargo, en la mayoría de los casos las estimaciones de la reputación científica se basan en indicadores compuestos o ponderados y en posiciones absolutas en las clasificaciones de las universidades.

En este estudio, adoptamos un enfoque más granular para la evaluación del rendimiento científico de las universidades utilizando un conjunto multidimensional de indicadores del Ranking de Leiden y probando sus efectos individuales sobre las visitas a las páginas de Wikipedia de las universidades. Distinguimos entre atención internacional y local y encontramos una asociación positiva entre el rendimiento de la investigación y la atención de Wikipedia que se mantiene para regiones y áreas lingüísticas. Un análisis adicional muestra que la productividad, el impacto científico y la colaboración internacional tienen un efecto curvilíneo en la atención de las universidades a Wikipedia. Este hallazgo sugiere que puede haber otros factores, además de la reputación científica, que impulsen el interés del público en general por las universidades. Nuestro estudio se suma a una corriente creciente de trabajos que consideran las altmetrías como herramientas para profundizar en las interacciones entre ciencia y sociedad, más que como medidas directas del impacto y el reconocimiento de la producción científica.

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

Wikieducación: prácticas y experiencias educativas de México con Wikipedia y otros recursos abiertos

Wikieducación: prácticas y experiencias educativas de México con Wikipedia y otros recursos abiertos. Wikimedia México. 2023

Texto completo

Cuando surgió WIKIMEDIA MÉXICO se pensó un proyecto de educación que tuviera cabida en las aulas de las instituciones educativas del país. Se echó mano de colegas inmersos en el fenómeno educativo con el interés de incluir Wikipedia en el salón de clases, lo cual le dio base y sustento al programa.

A partir de un diagnóstico, re-planteamiento y proyección, se incorporaron elementos fundamentales para tener hoy día un Programa de Educación holístico. La principal línea de acción del programa es la generación y la consolidación de diferentes comunidades educativas (educadoras y educadores, docentes, alumnas y alumnos, entre otras personas) a lo largo del país.

Cada vez son más los profesores que adoptan la Wikipedia en el aula

D’Agostino, Susan. «Wikipedia, Once Shunned, Now Embraced in the Classroom». Inside Higher Ed, 9 de noviembre de 2022.

Ver noticia completa

Los profesores que incorporan tareas de edición de Wikipedia en sus cursos mejoran las habilidades de alfabetización digital de sus estudiantes, al tiempo que amplían sus propias funciones: de educar a los estudiantes universitarios a educar a la sociedad.

Hace una década, Amin Azzam, profesor de psiquiatría de la Universidad de California en San Francisco, solía decir a sus estudiantes de medicina que no buscaran información sobre salud en Wikipedia por temor a la fiabilidad del sitio web. Pero una vez un estudiante le miró «como si estuviera loco», lo que le hizo replantearse esa postura.

«Mira, todos vamos allí primero como estudiantes», le dijo el alumno a Azzam. «¿Por qué te enfrentas a nosotros? ¿Por qué no nos ayudas a mejorarlo?».

Azzam consideró la sabiduría del comentario del estudiante: las entradas de la enciclopedia libre están escritas de forma que los estudiantes las entiendan. También ofrecen una primera aproximación accesible a temas nuevos o un repaso de temas olvidados. Además, decidió que muchos pacientes confían en la Wikipedia para investigar sus problemas médicos, y los médicos que ignoran esta realidad se engañan a sí mismos. Decidió diseñar e impartir un curso optativo en la facultad de medicina sobre la edición de Wikipedia.

«En aquel momento, era una idea demasiado descabellada hacer que todos los estudiantes de medicina tuvieran que editar la Wikipedia», dijo Azzam. Desde entonces, la Facultad de Medicina de la UCSF ha incorporado una tarea de edición de Wikipedia en un curso básico obligatorio para todos los estudiantes de medicina. La tarea se enmarca en una parte del plan de estudios diseñada para fomentar la identidad de los estudiantes como médicos que encarnan un «hábito mental de investigación», que se define como una «práctica que es difícil de abandonar». Se anima a los estudiantes que disfruten de la tarea a que se inscriban en el curso optativo que se centra por completo en la edición de Wikipedia.

Azzam forma parte de una tendencia creciente de profesores que incorporan a sus clases tareas de edición de Wikipedia. En el proceso, estos profesores están dejando de lado viejos argumentos contra el sitio web de crowdsourcing, mejorando las habilidades de alfabetización digital de sus estudiantes y ampliando sus funciones de educadores desde el aula a la sociedad. Pero, aparte de los esfuerzos curriculares para aumentar la facilidad de los estudiantes con la Wikipedia, algunos siguen desaconsejando que la citen como fuente en sus investigaciones.

Cuando alguien investiga un tema en Internet, la entrada de Wikipedia suele aparecer como resultado principal. La plataforma de crowdsourcing es bien conocida por su profundidad y amplitud, aunque también por sus defectos, como la desigual representación geográfica, histórica, de género, racial, de identidad sexual y cultural.

Según Diana Park, bibliotecaria de ciencias de la Universidad Estatal de Oregón, los profesores que dan cabida a la Wikipedia en sus aulas aprovechan la oportunidad de involucrar a los alumnos en conversaciones sobre cómo se construye y se comparte el conocimiento. Su investigación, llevada a cabo con Laurie Bridges, bibliotecaria de instrucción y divulgación y profesora asociada de la Universidad Estatal de Oregón, se basa en sus experiencias a la hora de impartir un curso de dos créditos en la universidad que ayuda a los estudiantes a pensar en la equidad de la información a través de la lente de Wikipedia.

En un curso de edición de Wikipedia, los estudiantes perfeccionan sus habilidades de investigación y alfabetización digital mientras escriben y editan artículos en la plataforma. Los profesores utilizan su conocimiento de la materia para evaluar la calidad de las contribuciones de los estudiantes, al tiempo que hacen hincapié en valores como el intercambio de conocimientos y la diversidad de puntos de vista. Wiki Education proporciona a los profesores recursos y apoyo para la enseñanza y la edición.

Los estudiantes también aprenden habilidades que les ayudan a detectar la calidad de la información en el sitio. El WikiProyecto Medicina, por ejemplo, clasifica los artículos de Wikipedia relacionados con la salud según su importancia -superior, alta, media, baja- y los califica. Estas clasificaciones, tomadas en conjunto, estratifican el contenido del sitio web relacionado con la salud por su importancia y calidad, dijo Azzam. Los estudiantes también aprenden sobre la «página de discusión» de un artículo, donde otros discuten sus méritos.

Los estudiantes que editan artículos de Wikipedia como parte del trabajo del curso a menudo lo encuentran «mucho más significativo que escribir un trabajo que sólo ve su profesor», dijo Park.

Sesgos de género y país en las citas de Wikipedia a publicaciones académicas

Zheng, Xiang, Jiajing Chen, Erjia Yan, y Chaoqun Ni. «Gender and Country Biases in Wikipedia Citations to Scholarly Publications». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 9 de noviembre de 2022. https://doi.org/10.1002/asi.24723.

Garantizar que Wikipedia cite las publicaciones académicas basándose en la calidad y la relevancia sin prejuicios es fundamental para una difusión creíble y justa del conocimiento. Se investigaron los sesgos basados en el género y el país en las prácticas de citación de Wikipedia utilizando datos vinculados de la Web of Science y un conjunto de datos de citación de Wikipedia.

Utilizando un emparejamiento exacto, se mostró que las publicaciones de las mujeres se citan menos en Wikipedia de lo esperado, y que las publicaciones de las mujeres tienen menos probabilidades de ser citadas que las de los hombres. Las publicaciones académicas de autores afiliados a países no pertenecientes a la Anglósfera también están en desventaja a la hora de ser citadas por Wikipedia, en comparación con las de autores afiliados a países de la Anglósfera. El nivel de las desigualdades de género o de país varía según el campo de investigación, y el sesgo interseccional de género-país es prominente en los campos STEM de uso intensivo de las matemáticas. Para garantizar la credibilidad y la igualdad en la presentación del conocimiento, Wikipedia debería considerar estrategias y directrices para citar las publicaciones académicas independientemente del género y el país de los autores.

La guerra de la información y Wikipedia: a la caza de los «topos» desinformadores de Wikipedia

Carl Miller, Melanie Smith, Oliver Marsh, Kata Balint, Chris Inskip, Francesca Visser «Information Warfare and Wikipedia». ISD., 2022. Accedido 19 de octubre de 2022.

Ver completo

Los guardianes de la enciclopedia colectiva tienen la misión de protegerla de los manipuladores patrocinados por el Estado. Un nuevo estudio revela cómo.

Al unirse al aire, el mar, la tierra, el espacio y el ciberespacio, la información se considera cada vez más un escenario de guerra. En este informe, ISD y CASM Technology se propusieron examinar las formas en que Wikipedia puede ser vulnerable a las formas de manipulación sistemática que han sido expuestas en Facebook, Twitter, YouTube, Reddit y una serie de otros espacios de información. El informe combina una revisión bibliográfica sobre la investigación e información disponible públicamente en torno a Wikipedia, entrevistas a expertos y un estudio de caso.

Para el estudio de caso, se eligió la página de Wikipedia en inglés sobre la guerra ruso-ucraniana, donde se examinaron las cuentas que editaron la página y que posteriormente han sido bloqueadas para editar. Se mapeó su comportamiento de edición en otras páginas de Wikipedia para comprender la escala y el solapamiento de las contribuciones. Este mapeo de la red pareció identificar una estrategia particular utilizada por los malos actores de dividir las ediciones en páginas similares a través de una serie de cuentas con el fin de evadir la detección. A continuación, los investigadores probaron un enfoque de filtrado de las ediciones de los editores bloqueados en función de si añadían referencias a sitios afiliados o patrocinados por los medios de comunicación estatales, y descubrieron que varias ediciones presentaban narrativas coherentes con la guerra de la información patrocinada por el Kremlin. Basándose en esto, los investigadores pudieron identificar otras páginas de Wikipedia en las que los editores bloqueados introdujeron dominios afiliados al Estado, lo que ayuda a destacar varias regiones de Wikipedia que podrían ser investigadas más de cerca.

Algunos investigadores creen que Wikipedia podría ser un lugar ignorado para la guerra de la información, y han estado desarrollando tecnologías y métodos similares a los utilizados en Facebook y Twitter para descubrirla. Un equipo del UK-based Institute for Strategic Dialogue (ISD) and the Centre for the Analysis of Social Media (CASM Technology) han publicado hoy un artículo en el que exploran cómo descubrir la desinformación en Wikipedia. También creen que el mapeo de datos puede haber descubierto una estrategia que los Estados podrían utilizar para introducir desinformación. El truco, dicen, es jugar el juego largo y sutil.

«Podemos ver lo que está ocurriendo en YouTube, Facebook, Twitter y Telegram, podemos ver cuánto esfuerzo están poniendo los Estados para tratar de controlar y maniobrar en esos espacios», dice Carl Miller, un director de investigación del CASM bajo el think tank de política pública del Reino Unido Demos. «No hay nada que me sugiera que Wikipedia sea inmune a tanto esfuerzo, tiempo y reflexión como en cualquiera de esos otros ámbitos». Los gobiernos tienen buenas razones para influir en Wikipedia: 1.800 millones de dispositivos únicos visitan los sitios de la Fundación Wikimedia cada mes, y sus páginas se encuentran regularmente entre los primeros resultados de las búsquedas en Google. La creciente desconfianza en las instituciones y en los medios de comunicación dominantes ha hecho que las fuentes de información fiable sean aún más codiciadas.

La investigación ha seguido a 86 «editores» que ya han sido expulsados de Wikipedia. Los editores trataron de desviar la narrativa de la página de Wikipedia en inglés sobre la guerra ruso-ucraniana hacia puntos de vista favorables al Kremlin, a través de cambios sutiles como poner en duda la objetividad de los relatos pro-occidentales, cambiar el contexto histórico y añadir enlaces de noticias y sitios web de propiedad estatal rusa.

«Wikipedia tiene muchas defensas para evitar que los vándalos añadan al azar información errónea en el sitio», dice Miller. «Pero cuando se observa la forma en que los estados pueden atacar a Wikipedia, el tipo de amenaza parece completamente diferente. Sería muy parecido a estos editores».

Ver además: Borak, Masha. «The Hunt for Wikipedia’s Disinformation Moles». Wired. Accedido 19 de octubre de 2022.