Archivo de la etiqueta: Fiabllidad

Cómo enseñar a los estudiantes a evaluar la calidad de la información en línea

alfin-2

 

Leigh Ann Whittle “How to Teach Students to Evaluate the Quality of Online Information”  Edudemic, 2015

Texto completo

El volumen de información disponible en Internet es asombroso y cada vez se va incrementando más. La empresa de inteligencia de negocios DOMO estima que cada minuto se crean 571 nuevos sitios web. Con esa cantidad de información, puede ser difícil para los estudiantes distinguir un sitio con información confiable o no. Por ello dotar a los estudiantes de competencias sobre la calidad y fiabilidad de las fuentes de información les será de gran utilidad en su vida académica y profesional.

 

 

Los estudiantes de hoy no conocen un mundo sin Internet, pero eso no significa que sepan cómo pensar críticamente sobre lo que ven en línea. Julie Coiro, profesora asociada de educación de la Universidad de Rhode Island, escribió en una entrada del blog de Edutopia que los estudiantes de secundaria tienden a centrarse más en la relevancia que en la credibilidad. El tipo de autor y de publicación son de importancia limitada para los estudiantes, y si examinan estos elementos, no pueden explicar por qué eligieron ciertos sitios web. Coiro también observó problemas similares entre los estudiantes de secundaria y universitarios.

Coiro sugiere estrategias para ayudar a los estudiantes a evaluar efectivamente lo que ven en Internet, practicar la refutación de lo que hay en Internet y verificar la información. En otras palabras, convertirse en consumidores críticos de material en línea significa más que simplemente ver un sitio web. Requiere conocer cómo se puede calificar un contenido como de calidad y cómo juzgar lo que es buen material y lo que no lo es.

 

Identificar el buen contenido

Hay algunos controles necesarios para asegurar que el contenido en línea sea realmente creíble. Para ser considerado como tal, el contenido debe ser relevante para la cuestión que se estudia o investiga, estar actualizado con información que pueda ser verificada a través de otras fuentes, y respaldado por un autor o editor confiable, especialmente aquellos con más autoridad en la disciplina. También es importante detectar cualquier sesgo personal o comercial que se pueda derivar del contenido.

La mayoría de nosotros rehuimos de Wikipedia como recurso, pero la enciclopedia en línea establece sus propios estándares para un contenido confiable. Irónicamente, Wikipedia también desalienta al uso de las páginas de Wikipedia en sus normas de fiabilidad. Entre las fuentes que Wikipedia considera más dignas de crédito se encuentran las revistas científicas, los diarios académicos, los periódicos convencionales y los blogs de noticias escritos por los propios periodistas. Wikipedia sugiere además evitar el trabajo auto-publicado si no hay manera de verificar que el autor es un experto en el campo.

 

Aprender a utilizar los sitios web de manera eficaz

Es posible que los estudiantes no entiendan las diferencias de calidad entre los sitios web. Demostrar a los estudiantes cómo son los diferentes sitios web, y su propósito, les ayuda a ver cómo deben usar cada tipo de sitio. Los sitios web incluyen sitios personales, de interés especial, profesionales, de noticias y comerciales. Determinar las diferencias entre ellos también es una buena lección para identificar cualquier sesgo.

Los nombres de dominio son también un indicio de la credibilidad de un sitio web. Los sitios en los dominios .edu, .gov y .org se consideran confiables, pero aquellos con dominios .com y .net requieren un escrutinio más detallado. El examen de todos los elementos de la dirección web puede ayudar a los estudiantes a determinar la fiabilidad de una fuente. La Universidad George Mason ofrece el ejemplo del sitio web “http://www.gmu.edu/facstaff/policy/administrative/60.html”, en el que cada parte de la dirección web ofrece una pista sobre el origen de la información del sitio.

Enseñar a los estudiantes buscar la “buena información” puede ayudarles a determinar el buen contenido en línea. Especialmente deben conocer los motores de búsqueda académicos, como Elsevier, Ebsco y otros, que contienen información revisada por expertos. Incluso las búsquedas en Google pueden ser más adecuadas cuando se utiliza la opción “Búsqueda Avanzada”. Google también ofrece una Búsqueda de libros y una Búsqueda de artículos de investigación en Google Académico. En las bases de datos los estudiantes deben saber también utilizar eficazmente los operadores de búsqueda booleanos (AND, OR, NOT… “) para poder acotar un tema en particular.

 

Juzgar el contenido de manera efectiva

Los estudiantes deben considerar el propósito del proyecto y qué fuentes son valiosas en ese campo. Por ejemplo, sitios web como el OWL de Purdue o la Modern Language Association MLA pueden ser más valiosos para un artículo en inglés que un sitio web más comercial. Un buen contenido se atribuye típicamente a un autor en particular, excepto cuando organizaciones confiables como universidades, gobiernos, o medios de comunicación y organizaciones no gubernamentales han publicado el material.

Es importante enseñar a los estudiantes cómo es el proceso de publicación contrastando los estándares de publicación de libros, revistas y periódicos con los de los sitios web, muchos de los cuales no siguen los mismos estándares rigurosos que sus contrapartes impresas. La discusión puede entonces girar hacia las recomendaciones que los estudiantes deben usar para evaluar el contenido.

La verificación cruzada de la información es una buena manera para que los estudiantes vean cuán confiable es el contenido en línea, y los anima a explorar otros contenidos y a evaluarlos en cuanto a su credibilidad. Si los estudiantes son capaces de encontrar la misma información en otro lugar, es probable que puedan probar que el contenido es preciso y fiable.

 

Creación de lecciones de contenido web

Hacer un proyecto de investigación en clase a partir de un ejercicio de credibilidad de un sitio web no sólo enseña a los estudiantes a determinar si la información en línea es de calidad, sino que también los involucra en un tema en particular. Esta es una excelente manera de introducir un concepto y a la vez enseñar habilidades de navegación en la web. Al hacerlo, los estudiantes aprenden a evaluar la información que encuentran al mismo tiempo que aprenden un poco de historia.

 

Comprender por qué es importante

Los estudiantes necesitarán evaluar el material en línea para acreditar su credibilidad. Gran parte de la búsqueda de este material se llevará a cabo en línea, lo que significa que tendrán que entender cuales son las evidencias que califican a un sitio web como confiable. Al mismo tiempo que desafía a los estudiantes a pensar críticamente sobre su tema y a determinar qué puntos son relevantes para su trabajo o investigación. Ser capaz de construir un argumento efectivo y relevante no sólo ayuda a los estudiantes en el trabajo académico futuro, sino que también les ayuda a ser más persuasivos y a comunicarse más claramente en otras áreas de sus vidas. Ya que poder identificar y seleccionar información confiable es útil para para su propia credibilidad personal y profesional.

 

 

Desafiando la Verdad y la Confianza: Un Inventario Global de la Manipulación Organizada de los Medios Sociales

42702673645_213c2746ed_b_d

 

Bradshaw, S. and P. N. Howard. [e-Book] Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation. Oxford, Oxford Internet Institute, University of Oxford, 2018.

Texto completo

Más información sobre

Noticias Falsas

Bots

La manipulación de la opinión pública sobre las plataformas de medios sociales ha surgido como una amenaza crítica para la vida pública. Alrededor del mundo, una serie de agencias gubernamentales y partidos políticos están explotando las plataformas de los medios sociales para difundir noticias basura y desinformación, ejercer la censura y el control, y socavar la confianza en los medios de comunicación, las instituciones públicas y la ciencia.

En un momento en el que el consumo de noticias es cada vez más digital, la inteligencia artificial, la gran analítica de datos y los algoritmos de la “caja negra” se están aprovechando para desafiar la verdad y la confianza: las piedras angulares de nuestra sociedad democrática. En 2017, el primer inventario de Global Cyber Troops arrojó luz sobre la organización mundial de la manipulación de los medios sociales por parte del gobierno y los actores de los partidos políticos.

Este informe de 2018 analiza las nuevas tendencias de la manipulación de los medios organizados, así como las crecientes capacidades, estrategias y recursos que apoyan este fenómeno.

Los hallazgos clave del informe Challenging Truth and Trust son:

1. Se han encontrado evidencias de campañas de manipulación de medios sociales formalmente organizadas en 48 países, en comparación con 28 países el año pasado. En cada país hay al menos un partido político o agencia gubernamental que utiliza los medios sociales para manipular la opinión pública a nivel nacional.

2. Gran parte de este crecimiento proviene de países donde los partidos políticos están difundiendo desinformación durante las elecciones, o países donde las agencias gubernamentales se sienten amenazadas por las noticias basura y la interferencia extranjera y están respondiendo desarrollando sus propias campañas de propaganda informática en respuesta.

3. En una quinta parte de estos 48 países -principalmente en el Sur del mundo- encontramos pruebas de campañas de desinformación que operan a través de aplicaciones de chat como WhatsApp, Telegram y WeChat.

4. La propaganda computacional todavía involucra la automatización de cuentas de medios sociales y equipos de comentarios en línea, pero está haciendo un uso cada vez mayor de anuncios pagados y optimización de motores de búsqueda en una amplia gama de plataformas de Internet.

5. La manipulación de las redes sociales es un gran negocio. Desde 2010, los partidos políticos y los gobiernos han gastado más de 500 millones de dólares en la investigación, desarrollo e implementación de operaciones psicológicas y manipulación de la opinión pública a través de los medios sociales. En unos pocos países esto incluye esfuerzos para contrarrestar el extremismo, pero en la mayoría de los países esto implica la difusión de noticias chatarra y desinformación durante las elecciones, las crisis militares y los complejos desastres humanitarios.

 

A pesar de las consecuencias negativas que acechan la vida digital los expertos consideran que su impacto general es positivo

pi_18-06-22_digitallife_featured

Anderso, Janna ; Rainie, Lee “Stories From Experts About the Impact of Digital Life“. Washington: Pew Research, 2018

Texto completo

Si bien muchos expertos y estudiosos de la tecnología están preocupados por las consecuencias sociales, políticas y económicas de la difusión de las actividades digitales, también tienden a señalar que su propia experiencia de la vida digital ha sido positiva.

 

A lo largo de los años de sondeos realizados por el Pew Research Center y  Elon University’s Imagining the Internet Center, han sido muchos los expertos que han  manifestado su preocupación por la forma en que las actividades en línea de la gente pueden socavar la verdad, fomentar la desconfianza, poner en peligro el bienestar de las personas, afectar la salud física y emocional, permitir que los trolls debiliten la democracia y la comunidad, y que a medida que los algoritmos se incrustan en más actividades, afecten a la privacidad, hagan que las instituciones sean menos seguras, abran divisiones sociales más grandes a medida que las brechas digitales se ensanchan, y eliminen un número incalculable de empleos.

A principios de 2018, un sondeo de expertos en tecnología, académicos y especialistas en salud sobre el futuro de la vida digital y el bienestar. También se pidió que compartieran anécdotas sobre sus propias experiencias personales con la vida digital. En el presente informe se comparten esas observaciones.

El resto de este informe se basa en la elaboración de estas ideas por parte de los encuestados que compartieron anécdotas y observaciones. Se divide en tres capítulos: 1) anécdotas y comentarios sobre los aspectos positivos de la vida digital; 2) anécdotas y comentarios sobre aspectos potencialmente dañinos de esa vida; y 3) respuestas en las que las declaraciones o anécdotas de las personas se dividieron equitativamente tanto con los pros como con los contras de la vida digital.

 

 

 

 

 

¿Qué significa el acceso a la información? No es lo mismo acceso a la información que abundancia de información

information-overload

Fister, Bárbara. Access Means More than Abundance: Exploring what “free to all” might mean today. En Inside Highter June 26, 2018

 

Ver original

Con toda la información que podemos obtener a través de cualquier buscador de información ¿qué significa el acceso a la información? ¿por qué necesitamos bibliotecas cuando todo se puede buscar en Google? ¿Cómo podríamos los bibliotecarios simplificar el uso de nuestros sistemas tal como lo hace Google? ¿Qué vamos a hacer con el hecho de que la mayoría de la gente ya no comienza su búsqueda en la biblioteca sino en Google? ¿Cómo pueden las bibliotecas argumentar su relevancia dada la ubicuidad de una de las corporaciones más poderosas del mundo?  ¿Qué pasaría si tuviéramos un gran éxito con el acceso abierto y los modelos de financiamiento evolucionaran de tal manera que compartir toda la investigación fuera libre y gratuito? ¿Podríamos todos buscar todo en Google? ¿Sería ese el acceso definitivo?

 

 

En el siglo XIX, el acceso fue un valor que impulsó la fundación de las primeras bibliotecas públicas, poniendo libros y periódicos a disposición de todos con la esperanza de mejorar a las personas y a la sociedad en general. Al principio se llamaba “la fe en la biblioteca” – donde toda esta amplia gama de acceso al conocimiento conduciría inevitablemente a una vida mejor y a una sociedad más fuerte. ¿Qué significa esa fe cuando estamos tan saturados de información?

De promedio, a nivel mundial se publican diariamente más de 6.000 artículos científicos, más de 6.000 libros, sin contar los que son autoeditados. Eso es sólo la punta del iceberg de contenido. Cada día, según varias estimaciones, 1.450 millones de personas se conectan a Facebook para compartir fotos y enlaces. Se envían 500 millones de Tweets. Mil millones de horas de contenido de vídeo se ven en YouTube. Google responde a más de 3.000 millones de solicitudes de búsqueda utilizando los 130 billones de páginas web que ha indexado. Mientras tanto, las bibliotecas han reducido drásticamente su adquisición de libros y están comenzando a desprenderse de los paquetes de revistas. (Suecia acaba de decirle No a Elsevier), con toda esta abundancia  ¿qué significa el acceso a la información?

Al principio sentimos una gran confianza en la red, se encontraba buena información. Posteriormente la red se volvió competitiva. ¿Cómo podríamos los bibliotecarios simplificar el uso de nuestros sistemas tal como lo hace Google? ¿Qué podemos hacer con el hecho de que la mayoría de la gente ya no comienza su búsqueda en la biblioteca sino en Google? ¿Cómo pueden las bibliotecas argumentar su relevancia dada la ubicuidad de una de las corporaciones más poderosas del mundo?

Por otra parte, los académicos están haciendo más investigación, y cada vez a un nivel más avanzado, las expectativas de investigación se han disparado, la cantidad publicada es vertiginosa, y mientras que las bibliotecas de los países pudientes tenemos sistemas para conseguirle casi cualquier cosa que deseemos a través de las plataformas de las 5 grandes de la edición científica. Pero además, algunas personas tienen tanta prisa que recurren a bibliotecas ilegales como SciHub, que tienen casi el 85% de todos los artículos y no piden credenciales. Y eso también es una amenaza para los bibliotecarios que han escuchado con demasiada frecuencia “¿por qué necesitamos bibliotecas cuando todo se puede buscar en Google?

Los bibliotecarios están atrapados en ese extraño lugar intermedio de querer tomarnos en serio el lema “gratis para todos” luchando por el acceso abierto a la investigación, pero  ¿Qué pasaría si tuviéramos un gran éxito con el acceso abierto y los modelos de financiamiento evolucionaran de tal manera que compartir toda la investigación fuera libre y gratuito? ¿Podríamos todos buscar todo en Google? ¿Sería ese el acceso definitivo?

… hay algunos problemas con ese posible escenario de futuro. Google está en el negocio de la publicidad, y para aumentar sus ingresos, necesitan mantener nuestra atención y adaptar los anuncios a nuestros perfiles. Lo llaman “mejorar la experiencia del cliente”, pero cuando dependemos de las corporaciones tecnológicas monopolísticas para nuestro acceso, les dejamos decidir quién puede ver qué. Cada vez más, les permitimos responder a nuestras preguntas, no mostrándonos una gama de opciones, sino diciéndonos a través de un asistente de voz o resaltando en un recuadro la respuesta, por lo general un poco de texto de Wikipedia o alguna otra fuente de gran flujo de información, lo que le proporciona gran autoridad. Incluso si ignoramos esa respuesta singular, es poco probable que vayamos más allá de la primera página de resultados, y el algoritmo utilizado para posicionar lo que aparece en primer lugar es un secreto comercial (Page Rank), cambiando constantemente para superar a la industria de optimización que ha surgido para hacer que determinadas paginas queden optimizadas en un buen posicionamiento. Los sistemas de bibliotecas para catalogación están lejos de ser perfectos y son poco visibles a los buscadores, pero al menos son transparentes, y no asumen que el punto es encontrar una respuesta simple.

Cuando buscamos, tenemos una variedad de metas autodirigidas que influirán en nuestro camino. Es posible que estemos buscando un conjunto de datos o un libro en particular, o que hayamos oído hablar de una teoría que queramos explorar en el contexto de alguna idea que estemos probando. En una búsqueda de Google todo se mezcla con la idea de que siempre vas a encontrar una respuesta, al igual que cuando vas a una gran superficie para encontrar un producto. El conocimiento no se presta a ese tipo de estilo de búsqueda de entrar y salir. Sin contexto, sin poder discernir conexiones y relaciones, tenemos abundancia, pero eso no es lo mismo que acceso.

Otra cosa a tener en cuenta es que estos sistemas son vastos y globales, pero no tienen sentido de la cultura local y de cómo se elabora el significado de la misma. Se ven forzados a hacer algunas concesiones legales porque el contenido que cruza las fronteras internacionales choca con las leyes nacionales, pero eso es todo lo que se puede hacer para hacer frente al hecho de que es un mundo cada vez más globalizado. Mucha gente tiene acceso a la información a través de Facebook y sus implicaciones globales son masivas. Facebook está desplegando acceso a Internet a jardines amurallados en los países en desarrollo, proporcionando acceso “gratuito” a Facebook y a algunas otras plataformas elegidas por Facebook, todas ellas vigiladas por burócratas locales que protegen su poder. El liderazgo de Facebook tiene una comprensión muy poco sofisticada de lo que sucede cuando se proporcionan a la gente herramientas que permiten la comunicación, pero que están diseñadas para amplificar el material más buscado para vender la publicidad y atención de los anunciantes.

 

 

Dos tercios de los enlaces a sitios web populares son publicados por cuentas automatizadas, no por seres humanos

los-bots-estc3a1n-en-todas-partes

Wojcik, S., S. Messing, et al. (2018). [e-Book]  “Bots in the Twittersphere” (Two-Thirds of Tweeted Links to Popular Websites are Posted by Automated Accounts, Not Human Beings). Washington D. C., Pew Research Center, 2018.

Texto completo

 

Una gran parte de los enlaces twiteados a contenido digital son generados por bots, es decir, por cuentas automatizadas que publican contenido o interactúan con otros usuarios sin participación humana directa. Un nuevo análisis del Pew Research Center de 1,2 millones de tweets encuentra que el 66% de los enlaces tuiteados al contenido de sitios web populares son publicados o compartidos por bots. Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales.

 

El análisis se centró en enlaces a 2.315 sitios web populares en una amplia gama de temas, incluyendo deportes, información comercial, celebridades, noticias y sitios creados por diversas organizaciones. Entre los sitios web de noticias populares y eventos actuales, el 66% de los enlaces tweeteados son compartidos por bots – similar a la proporción total de enlaces creados por robots a todo tipo de sitios populares-. La proporción de enlaces tuiteados compartidos por los robots varía dependiendo de los atributos de los diferentes sitios de noticias y eventos actuales. Por ejemplo, el 89% de los enlaces tuiteados a sitios de agregación -sitios que recopilan historias de toda la web- son publicados por bots.

La importancia del estudio es que surgen en un momento en que el papel de los bots en la promoción de material web está centrando el debate sobre los cambios en los hábitos de información de las personas, la veracidad de la información y la prevalencia de las “noticias falsas” en línea. Este análisis proporciona una nueva evidencia sobre el alcance de la actividad de los robots en la esfera de Twitter. El estudio no hace ninguna evaluación sobre si los robots son “buenos” o “malos”, ni de la precisión del material compartido por ellos, o el grado en que el público se involucra con el material generado por los robots.

Resultados fundamentales:

  • Ciertos tipos de sitios -sobre todo los que se centran en contenidos para adultos y deportes- reciben una gran parte de sus enlaces de Twitter de cuentas automatizadas. Los investigadores clasificaron los sitios en siete grupos diferentes: contenido para adultos, deportes, celebridades, productos o servicios comerciales, organizaciones o grupos, noticias y eventos actuales, y tweets con enlaces a otros materiales en Twitter. Las cuentas automatizadas fueron responsables de aproximadamente el 90% de todos los enlaces twiteados a sitios web populares centrados en contenido para adultos durante el periodo de estudio. En el caso de los sitios web populares centrados en contenidos deportivos, se estimó que esa proporción era del 76%.
  • Entre los sitios web de noticias populares y de eventos actuales, el 66% de los enlaces twitteados son hechos por bots sospechosos. La proporción de enlaces twiteados creados por robots es aún mayor entre ciertos tipos de sitios de noticias.
  • Un número relativamente pequeño de robots altamente activos son responsables de una parte significativa de los enlaces a sitios de noticias populares y eventos actuales. Este análisis encuentra que las 500 cuentas de bot más activas son responsables del 22% de los enlaces tuiteados a sitios de noticias populares y eventos actuales durante el periodo en el que se llevó a cabo este estudio. En comparación, los 500 usuarios humanos más activos son responsables de una proporción mucho menor (se estima que el 6%) de los enlaces twiteados a estos puntos de venta.
  • El estudio no encuentra evidencia de que las cuentas automatizadas tengan un “sesgo político” liberal o conservador en su comportamiento general de compartir enlaces. Un análisis de un subconjunto de sitios de noticias y eventos actuales que se enfocan al contenido político encontró que los bots sospechosos comparten aproximadamente el 41% de los enlaces a sitios políticos cuya audiencia es principalmente conservadora y el 44% de los enlaces a sitios políticos cuya audiencia es principalmente liberal – una diferencia que no es estadísticamente significativa. Por el contrario, los bots sospechosos comparten entre el 57% y el 66% de los enlaces de sitios de noticias y eventos actuales cuya audiencia es ideológicamente mixta o centrista.

 

Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales, ya que las cuentas automatizadas están lejos de ser un fenómeno de nicho: comparten una porción significativa de enlaces tuiteados, incluso a las publicaciones más prominentes e importantes y a los puntos de venta en línea. Dado que estos datos pueden impactar la información que la gente ve en los medios sociales, es importante tener un sentido de su importancia en los medios sociales.

 

 

 

Guía de recomendaciones y buenas prácticas para editar el contenido científico de Wikipedia

 

39655557945_31e59b09ea_b_d

Aibar, E., P. Dunajcsik, et al. [e-Book]  Guía de recomendaciones y buenas prácticas para editar el contenido científico de Wikipedia: Especialmente orientada a científic@s, centros de investigación, universidades y sociedades científicas. Madrid, FECYT, 2016.

Texto completo

Un aspecto de Wikipedia que, en cambio, tiende a pasar mucho menos desapercibido es su uso como fuente de información científica. Diferentes estudios recientes sobre comunicación y percepción pública de la ciencia coinciden en constatar que Internet se ha convertido, actualmente, en la principal fuente de información científica para la mayoría de ciudadanos (Brossard & Scheufele, 2013; FECYT, 2012). En los últimos años Internet ha sobrepasado en este terreno a los medios de comunicación tradicionales: prensa escrita, radio y  televisión. Según un estudio de la National Science Foundation (EEUU) más del 60% de los ciudadanos que buscan información científica sobre algún tema específico, recurren en primer lugar a Internet, mientras que sólo un 12% recurren a la versión en línea de medios tradicionales – prensa diaria o revistas (National Science Board, 2012)

Los datos de la Encuesta de Percepción Social de la Ciencia en España de la FECYT (2012)
muestran que Internet es la principal fuente de información científica para el público español – en concreto para el 40,9% de los encuestados. Por primera vez en España, Internet se sitúa por encima de la TV (31%) y muy por encima del resto. Preguntados por el tipo de recursos en Internet que utilizan para obtener información científica, el 21,7% manifiesta utilizar Wikipedia como fuente prioritaria. Sólo blogs y redes sociales están por encima, pero dado que tanto unos como otros engloban una gran diversidad de instancias, Wikipedia se convierte de hecho en la fuente singular más consultada y, por tanto, en el canal de comunicación pública de la ciencia más importante en la actualidad. Dicho de otro modo, cuando los ciudadanos necesitan algún tipo de información específica sobre temas de ciencia y tecnología, es cada vez más frecuente que acudan en primer lugar a Wikipedia.

La importancia de este hecho no debe pasar desapercibida. Es necesario tener en cuenta que no estamos hablando únicamente de búsquedas de información científica para satisfacer la simple curiosidad o el deseo de saber más sobre un tema determinado – algo que, por sí solo, ya es ciertamente destacable, considerando las quejas recurrentes por parte de diferentes instituciones sobre los bajos niveles de alfabetización científica de la población. En primer lugar, muchas de esas consultas por parte del público general se realizan sobre temas “sensibles” de orden médico o sanitario, por ejemplo, y pueden ser utilizadas para tomar decisiones importantes respecto a su salud – terapias, tratamientos, medicamentos, etc. – o a la de personas cercanas. En segundo lugar, las consultas pueden ser hechas no a título individual, sino por miembros de asociaciones o colectivos que también pueden utilizan la información obtenida para emprender acciones o proyectos en un sentido particular.

Los académicos usan habitualmente Wikipedia, pero rara vez la citan

wikipedia-no-es-fiable

Thompson, Neil ; Hanley, Douglas “Science Is Shaped by Wikipedia: Evidence From a Randomized Control Trial.” MIT Sloan Research Paper No. 5238-17

Texto completo

“A veces pienso que los tratados generales y populares son casi tan importantes para el progreso de la ciencia como el trabajo original.”

Charles Darwin, 1865.

Wikipedia  está entre los diez sitios más visitados del mundo, su uso es una práctica común en la educación y la ciencia. Pero, ¿cómo son las relaciones que los investigadores han establecido con la más famosa enciclopedia en línea participativa y colaborativa?  Este trabajo demuestra que los académicos utilizan frecuentemente la Wikipedia, aunque por diversas razones no la citan en sus trabajos de investigación.

Muchas universidades prohíben específicamente las citaciones a la enciclopedia en línea en los documentos de estudiantes y profesores, razonando que las definiciones generadas por la multitud no pueden ser tan exactas y exhaustivas como las creadas por los investigadores. Esto es así a pesar del hecho de que algunos estudios han encontrado que los artículos de Wikipedia son considerablemente más largos y contienen menos errores que los de las enciclopedias convencionales. Irónicamente, el MIT, que patrocinó y dio a conocer este estudio que referenciamos aquí, prohíbe el uso de Wikipedia en la investigación académica.

Hace algunos años pude entrevistar en mi programa de Radio “Planeta Biblioteca” a Eduard Aibar, profesor de Humanidades de la UOC  y especialista en estudios sobre Ciencia y Tecnología, sobre un estudio que estaba desarrollado en torno a las “Percepciones, aptitudes y prácticas de los profesores ante la Wikipedia“, en el que ya apuntó la idea de que aunque la Wikipedia se considera una fuente poco confiable, es usada habitualmente por los profesores, si bien no reconocen que la utilizan. Un estudio de 2009 halló que el 26 por ciento de los médicos en formación consultan regularmente a Wikipedia para un consejo médico y que el 70 por ciento lo utilizan al menos de vez en cuando. Los profesionales están usando la Wikipedia intensamente tanto para utilizarla en información científica y profesional. En 2015 se publicó un libro titulado  Wikipédia, objet scientifique non identifié. que abordaba los patrones de uso de la Wikipedia por parte de los investigadores, llegando a unas conclusiones similares. El pasado año G. Maresh publicó en JIST  “Academia’s recognition of Wikipedia”, este estudio correlacionaba las citas de la Wikipedia en Wos y afirmaba que la confianza de los investigadores en la Wikipedia va en aumento. Otra investigación de  Teplitskiy, y otros “Amplifying the impact of open access: Wikipedia and the diffusion of science.” demuestra que los artículos en acceso abierto son un 50% más referenciados en la Wikipedia

Esta misma idea sobre el nivel confiabilidad de la enciclopedia y el reconocimiento por parte de los académicos es la que se plantearon dos investigadores del Massachusetts Institute of Technology (MIT) y la Universidad de Pittsburgh, que recientemente publicaron una investigación que muestra como la Wikipedia está impactando sobre la investigación científica, aunque los autores casi nunca la citan como fuente. El estudio utilizó un modelo estadístico para establecer que Wikipedia también está ayudando a avanzar el progreso de la ciencia en todo el mundo, particularmente en los países menos desarrollados. Neil C. Thompson, de la Escuela Sloan del MIT, y Douglas Hanley, de la Universidad de Pittsburgh, descubrieron que el lenguaje de los artículos científicos publicados en Wikipedia aparece en las principales revistas académicas, con una sorprendente duplicación, particularmente frecuente entre las revistas más prestigiosas. Esto a pesar de que sólo el 0,01 por ciento de los artículos científicos citan a Wikipedia como fuente. Para demostrarlo, los investigadores encargaron a estudiantes de postgrado que escribieran 43 artículos sobre temas de química que Wikipedia no cubría aún. A continuación realizaron un análisis de palabras clave de revistas científicas relacionadas seis meses antes y seis meses después de la publicación de cada artículo para ver con qué frecuencia las palabras usadas en Wikipedia aparecían en la investigación académica y compararon los resultados con un grupo de control de artículos inéditos sobre temas similares. La investigación mostró una correlación estadísticamente significativa entre la presencia de un artículo de Wikipedia y una terminología comparable en los trabajos académicos. Para un artículo típico en el campo, Wikipedia influyó en una de cada 300 palabras. Se encontró una correlación aún mayor entre las revistas que publicaban investigación de vanguardia, donde se vieron afectada una de cada 140 palabras. Sin embargo, casi ninguno de los artículos estudiados citó a Wikipedia como fuente. Sin embargo, la investigación de Thompson y Hanley no se centro en el uso poco ético de esta fuente, sino en demostrar  la importancia de Wikipedia como herramienta de difusión. Interpretando la hipótesis de que los nuevos artículos de Wikipedia creados a partir de la ciencia de vanguardia se convierten en un camino para que otros aprendan acerca de esas ideas. Es decir, que la Wikipedia tiene un importante valor en la difusión del conocimiento.

Posteriormente analizaron por qué son tan raras y escasas las citas de Wikipedia en los trabajos de investigación. Una posible razón es la vergüenza, Hay un sentimiento de que hay ciertas cosas que los académicos hacen y citar una enciclopedia es algo no parece muy científico de cara a sus colegas. Otra teoría, es que el contenido de Wikipedia se considera parte del corpus de conocimiento público y por lo tanto no necesita una citación.

Un hallazgo importante fue que los autores científicos en los países más pobres tenían hasta un 50% más de probabilidades de ser influenciados por Wikipedia que aquellos que vivían en países económicamente más desarrollados, lo que sugiere que las fuentes de referencia en línea ayudan a nivelar la brecha digital en el campo educativo. Estos resultados sugieren que los repositorios públicos de conocimiento, como Wikipedia, tienen un efecto de mejora de la equidad, beneficiando a quienes tienen menos acceso a la información.

Los autores elogiaron a Wikipedia por su amplitud de cobertura, señalando que incluye más del 90 por ciento de los temas científicos cubiertos en un programa de licenciatura y el 43 por ciento a nivel de grado. Los artículos que los estudiantes graduados crearon obtuvieron una excelente tracción, teniendo más de 4.400 vistas por mes y acumulando más de 2 millones de vistas en dos años. Eso estableció un cambio de influencia causal estadísticamente válida.