Recursos para la visibilidad e indización de revistas académicas.

José Octavio Alonso Gamboa ; Felipe Rafael Reyna Espinosa. Recursos para la visibilidad e indización de revistas académicas. 2a ed. Latindex, 2023

Texto completo

Este documento compila una selección de recursos de información (bases de datos) que indizan revistas académicas iberoamericanas. Las bases de datos han sido clasificadas de la siguiente manera: servicios de índices y resúmenes, directorios de revistas, portales o hemerotecas virtuales, servicios de categorización y evaluación de revistas, servicios que informan sobre las políticas de acceso y uso de los contenidos y sistemas nacionales de clasificación de revistas, también conocidos como listas núcleo nacionales. Los autores seguiran trabajando y agregando más bases de datos en subsecuentes versiones.

Estado de las iniciativas en torno a la ciencia abierta en las universidades españolas y CSIC

REBIUN. «Estado de las iniciativas en torno a la ciencia abierta en las universidades españolas y CSIC», 19 de mayo de 2023.

Texto completo

Este informe sobre iniciativas en torno a la ciencia abierta en España se basa en una encuesta dirigida a las universidades y centros de investigación bajo el paraguas Crue y CSIC. Se analizan los resultados en materia de estrategias y políticas, estructuras organizativas, servicios de asesoramiento, infraestructuras, acciones de monitorización y seguimiento, formación, difusión y comunicación, y cooperación. Dataset disponible en https://doi.org/10.21950/Y1Y48R.

¿Es legal y justo el uso de contenidos protegidos por derechos de autor en modelos de IA

Los modelos de inteligencia artificial se basan en gran medida en contenidos de alta calidad creados por seres humanos, a menudo sujetos a protección por derechos de autor. Sin estos recursos, el rendimiento del modelo sería deficiente. Surge la pregunta de si es legal utilizar obras protegidas por derechos de autor durante la fase de entrenamiento en el desarrollo de un modelo de inteligencia artificial.

Los modelos de IA de gran envergadura, como el GPT-4 de OpenAI, el PaLM 2 de Google y el Llama 2 de Meta, se han construido en parte utilizando una amplia gama de fuentes, que incluyen millones de libros, artículos, conversaciones y otros contenidos disponibles en Internet. Esta práctica ha generado disputas legales por parte de algunos creadores de estos contenidos, quienes argumentan violaciones de derechos de autor, mientras que otros buscan ser compensados por sus contribuciones.

Sin embargo, surge la pregunta de cómo se puede evaluar el valor de un dato específico cuando un modelo de IA ha absorbido una gran parte de lo que ha sido publicado en Internet durante la última década o incluso más. Benedict Evans, analista tecnológico, resalta este desafío en un reciente artículo sobre IA al señalar que el modelo no distingue entre un libro o sitio web en particular, sino que requiere acceso a «todos» los libros y «todos» los sitios web. Esto plantea un dilema, ya que el retiro de contenidos por parte de una empresa no solucionaría el problema si todas lo hicieran.

El concepto de «apalancamiento de datos», como lo describe el profesor Vincent, destaca la importancia de que las comunidades comprendan el valor de sus datos para los modelos de IA, lo que les permitiría negociar de manera más efectiva la compensación por su contribución. Si se puede determinar que el conjunto de todos los libros, por ejemplo, es responsable de una parte significativa del rendimiento de un modelo de IA como ChatGPT, entonces es posible asignar un valor adecuado a esa contribución.

En este contexto, se presenta SILO, un nuevo modelo lingüístico desarrollado por investigadores de instituciones como la Universidad de Washington en Seattle, la UC Berkeley y el Allen Institute for AI. SILO se creó con el objetivo general de minimizar riesgos legales al eliminar datos sensibles, pero también se ha desarrollado una metodología para evaluar la contribución específica de datos a los resultados de un modelo de IA. Esto podría abrir la puerta para que los propietarios de datos reciban el reconocimiento adecuado, o incluso una compensación directa, cada vez que sus datos contribuyan a las predicciones de un modelo. Como se demuestra, el rendimiento de los modelos se ve afectado significativamente si se entrenan solo con texto de bajo riesgo, como libros o documentos gubernamentales sin derechos de autor, debido a las limitaciones en tamaño y cobertura de dominio.

Basado en: Barr, Alistair. «“Data Leverage” and the Harry Potter Test: How Much Is a Single Book Worth to a Giant AI Model?» Business Insider. Accedido 4 de septiembre de 2023. https://www.businessinsider.com/data-leverage-harry-potter-test-putting-value-data-ai-models-2023-8.

El modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gemini es un modelo de IA multimodal de nueva generación en el que están trabajando los investigadores de DeepMind, la división de IA de Google, y que se espera que vea la luz a finales de 2023. Es el esfuerzo más serio del gigante de las búsquedas para competir con el GPT-4 de OpenAI. Google Gemini multiplica por 5 la GPT-4, la GPU-Poors

Gemini pretende desafiar el dominio de ChatGPT en el espacio de la IA generativa. Este movimiento subraya el compromiso de Google con la innovación en IA y la competencia en el mercado de la IA generativa, en rápido crecimiento y con un valor previsto de 1,3 billones de dólares para 2032.

¿Qué es Google Gemini?

Gemini es un conjunto de grandes modelos lingüísticos (LLM) que combinan GPT-4 con técnicas de entrenamiento tomadas de AlphaGo, como el aprendizaje por refuerzo y la búsqueda, que tiene el potencial de desbancar a ChatGPT como la solución de IA generativa más dominante del planeta.

La noticia llega pocos meses después de que Google combinara sus laboratorios de IA Brain y DeepMind para crear un nuevo equipo de investigación llamado Google DeepMind, y pocos meses después del lanzamiento de Bard y su LLM PaLM 2 de nueva generación.

Teniendo en cuenta que los investigadores prevén que el mercado de la IA generativa alcanzará un valor de 1,3 billones de dólares en 2032, está claro que Google va a invertir en este campo para mantener su posición de líder en el desarrollo de la IA.

A primera vista, la capacidad de Gemini para generar texto e imágenes le da una seria ventaja sobre GPT4 en cuanto a la gama de contenidos que puede producir. El artículo, escrito por Dylan Patel y Daniel Nishball, de la empresa de investigación SemiAnalysis, sostiene que el modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gran parte del análisis, que según Patel se basa en datos obtenidos de un proveedor de Google, se reduce a que Google tiene acceso a infinitamente más chips de primer nivel y a que su modelo supera a GPT-4 en una medida de rendimiento relacionada con los cálculos informáticos conocida como FLOPS.

Este modelo requería más de 14 veces los FLOPS de GPT-2 para entrenarse, pero esto era en gran medida irrelevante porque sólo unos meses más tarde OpenAI lanzó GPT-3, que tenía >65x más parámetros y >60x el recuento de tokens, >4.000x más FLOPS. La diferencia de rendimiento entre estos dos modelos era enorme.

Marian la Bibliotecaria de la película Music Man

Marian, además de bibliotecaria, es profesora de piano. En una época en la que los bibliotecarios de todo el mundo buscan inspiración frente a los retos que plantean los libros, Marian brilla con luz propia.

Marian Paroo, comúnmente conocida como «Marian la Bibliotecaria», es un personaje ficticio del musical de Broadway de 1957 «The Music Man», con música y letras de Meredith Willson y un libreto de Meredith Willson y Franklin Lacey. El personaje de Marian es una figura central en la historia y sirve como interés romántico del personaje principal, Harold Hill. La película fue lanzada en 1962 y está dirigida por Morton DaCosta. Shirley Jones interpreta el papel de Marian en la película, y Robert Preston interpreta a Harold Hill, el personaje principal.

Marian es la bibliotecaria de la ciudad en River City, Iowa, y se la representa como una mujer inteligente. Inicialmente, es escéptica hacia Harold Hill, un encantador pero fraudulento vendedor ambulante que llega a la ciudad, afirmando ser un profesor de música. El plan de Hill es comenzar una banda de chicos y recolectar dinero para instrumentos y uniformes, pero luego irse de la ciudad antes de que nadie se dé cuenta de que es un fraude.

A medida que avanza la historia, Marian comienza a ver un lado diferente de Harold Hill y se enamora de él, incluso cuando descubre la verdad sobre sus intenciones engañosas. En última instancia, su amor y creencia en Hill desempeñan un papel importante en su redención y la transformación de la ciudad.

El personaje de Marian es conocido por sus canciones memorables, incluyendo «Goodnight, My Someone» y «Till There Was You», que se han convertido en clásicos del teatro musical. La actriz Barbara Cook interpretó por primera vez el papel de Marian en Broadway, y el personaje ha sido interpretado por muchas actrices talentosas en varias producciones de «The Music Man» a lo largo de los años. Marian la Bibliotecaria es una figura querida en el mundo del teatro musical, conocida por su inteligencia, amabilidad y hermosa voz cantante.

Inteligencia Artificial, aprendizaje automático y WorldCat: mejora de los registros para catalogación e identificación

Proffitt, Merrilee. «Machine Learning and WorldCat: Improving Records for Cataloging and Discovery Hanging Together». Hanging Together (blog), 14 de agosto de 2023. https://hangingtogether.org/machine-learning-and-worldcat-improving-records-for-cataloging-and-discovery/.

Cualquier sistema que agregue datos de miles de fuentes necesita procesos sofisticados que mitiguen la duplicación* y garanticen que permanezcan los datos correctos. WorldCat es uno de estos sistemas, que recibe miles de registros bibliográficos de bibliotecas de todo el mundo todos los días. Ya sea en forma manual o automatizada, se ha realizado algún tipo de de duplicación en los registros bibliográficos desde principios de la década de 1980. Si bien el personal de OCLC y los trabajadores bibliotecarios de las instituciones que participan en el Member Merge Program realizan diariamente algunas revisiones manuales de datos, la mayoría de los registros de WorldCat dependen de programas automatizados de de duplicación. Los procesos automatizados introducidos en la década de 1990, conocidos como Duplicate Detection and Resolution (DDR) han madurado. Actualmente, se elimina un promedio de 11.000 registros manualmente y 1 millón mediante la automatización por mes. Además, todos los meses fusionamos millones de registros recién ingresados con registros existentes de WorldCat, lo que significa que también trabajamos para mitigar los registros duplicados antes de su creación.

Las reglas e instrucciones de catalogación han evolucionado muchas veces a lo largo de las décadas. Esto significa que las reglas que tratan la duplicación deben evolucionar continuamente para mantenerse al día con lo último y lo mejor. A lo largo de la vida de nuestros procesos de fusión, el personal de OCLC ha revisado cuidadosamente los resultados para mejorar los procesos, especialmente con fusiones inapropiadas o fallidas, y ha actualizado el sistema basado en reglas en consecuencia. Si bien esto funciona bien en muchos casos, los registros duplicados siguen llegando a WorldCat, lo que afecta a los catalogadores, los investigadores y los flujos de trabajo del personal bibliotecario.

Afortunadamente, la tecnología sigue avanzando y podemos incorporar nuevas tecnologías a los procesos automatizados. En los últimos años, el aprendizaje automático (Machine Learning, ML) se ha hecho un hueco en la corriente dominante, después de haber existido durante varias décadas. Una excelente definición de ML es «…algoritmos [que] construyen un modelo basado en datos de muestra, conocidos como datos de entrenamiento, con el fin de hacer predicciones o tomar decisiones sin ser explícitamente programados para ello».

Se investigaron diferentes algoritmos de ML, pero el obstáculo más importante era reunir un conjunto de datos de entrenamiento para ejecutar el algoritmo elegido. El equipo de Ciencia de Datos se puso en contacto con el equipo de Calidad de Datos para encontrar conjuntos de datos. Calidad de Datos pudo proporcionar información para los conjuntos iniciales de revisiones.

A mediados de 2022, se perfeccionó el modelo ML con análisis continuos y aportaciones del equipo de Calidad de Datos. También se construyó y probó una interfaz de usuario para el ejercicio de etiquetado de datos. La interfaz permitía a los usuarios recuperar un par de registros bibliográficos que fueran posibles duplicados. Los usuarios podían generar el par seleccionando valores para la lengua de catalogación, el tipo de material y la antigüedad del registro

En noviembre, se presentó la herramienta a los participantes del Programa de fusión de miembros, que se implementó para todos los miembros de OCLC a principios de diciembre. La herramienta estuvo abierta hasta mediados de abril de 2023. Para entonces, se habían evaluado poco más de 34.000 pares de posibles registros duplicados. Si bien no se realizaron tres revisiones de cada par, se recopilaron muchos datos para entrenar el modelo ML. Descubrimos que más del 95% de los pares que recibieron varias revisiones no presentaban desacuerdos entre los revisores. Esto demostró que el modelo estaba a la par con los humanos en la identificación de duplicados. Estos datos se utilizaron para perfeccionar el modelo, y el equipo de Calidad de Datos revisó los nuevos resultados para comprobar su precisión.

A partir de fines de agosto de 2023, se procesará una serie inicial de un (1) millón de registros -500.000 pares- a través del algoritmo de aprendizaje automático. Como resultado, se fusionarán 500 000 registros duplicados en WorldCat, lo que mejorará y agilizará las experiencias de catalogación, identificación y préstamo interbibliotecario tanto para el personal de la biblioteca como para los usuarios finales.

Marco y métricas del Instituto de Diversidad, Equidad e Inclusión de la ARL (Association of Research Libraries)

DeLa Dos and Jung Mi Scoulas. ARL Diversity, Equity, and Inclusion Institute Framework and Metrics August 31, 2023

Texto completo

Association of Research Libraries ha publicado un informe final en el que se describe el marco curricular y las métricas de éxito del Institute Diversity, Equity, and Inclusion (EDI). El desarrollo de este informe fue apoyado por un premio del Institute of Museum and Library Services FY2020 Laura Bush 21st Century Librarian Program (RE246354-OLS-20).

En cuanto a los tipos de programas o actividades de DEI que ofrecen sus instituciones a los empleados, se pidió a los encuestados que seleccionaran varias opciones. De los 316 encuestados, la mayoría (83%) indicó que contaba con un comité, grupo de trabajo, consejo o estructura similar, mientras que más del 60% respondió que sus instituciones compartían recursos con los empleados a través de comunicaciones internas, seguidas de la asistencia patrocinada de los empleados a conferencias relacionadas con la DEI. Más de la mitad de los encuestados indicaron que sus instituciones creaban oportunidades de desarrollo profesional relacionadas con la DEI a nivel interno (59%) o externo (55%). Alrededor del 6% de los encuestados respondieron que no sabían, y el 4% seleccionó «ninguna».

La mayoría de los encuestados indica que las Galerías, Bibliotecas, Archivos y Museos (GLAM) no deben ser neutrales (89%) y están en buena posición para actuar sobre el cambio social (78%). Además, su satisfacción individual con el trabajo de DEI es superior a la de la organización y los GLAM.

Los encuestados declararon estar más satisfechos con el trabajo de DEI a nivel individual, pero menos satisfechos con el trabajo de DEI a nivel de GLAM. a nivel individual, pero menos satisfechos con el trabajo de DEI a nivel GLAM. Un análisis más detallado la satisfacción con el trabajo de DEI en los niveles institucional y GLAM con el acuerdo de neutralidad del GLAM con respecto a la DEI. DEI. Esto implica que los encuestados que probablemente no estén de acuerdo con la postura neutral del GLAM son menos propensos a estarlo. GLAM de permanecer neutrales tienen menos probabilidades de estar satisfechos con la con el trabajo de DEI de la institución y del GLAM.

Hubo una diferencia significativa en el nivel de satisfacción a nivel individual entre los encuestados BIPOC y los no BIPOC. individual entre los encuestados BIPOC y los no BIPOC. con el trabajo de DEI a nivel individual que los encuestados no BIPOC. que los encuestados no BIPOC; sin embargo, no hubo diferencias estadísticamente Sin embargo, no hubo diferencias estadísticamente significativas en el nivel de satisfacción con el trabajo de DEI a nivel institucional y GLAM entre los encuestados BIPOC y no BIPOC. GLAM entre los encuestados BIPOC y los no BIPOC.

Los encuestados proporcionaron más información sobre las necesidades relacionadas con la DEI en su trabajo y sobre el terreno. Se revelaron cuatro temas principales, entre ellos (1) la necesidad de que el GLAM comprenda, reconozca y admita los objetivos y las (2) la necesidad de reformas sistemáticas en diversos ámbitos, como la contratación, la recopilación de recursos y la formación. contratación, recopilación de recursos y técnicas de formación para apoyar a los empleados y líderes BIPOC (3) la falta de dedicación y sostenibilidad del trabajo de DEI y (4) la necesidad de herramientas y evaluaciones para avanzar.

¿Qué son Los derechos de publicación secundarios?

Los derechos de publicación secundarios, también conocidos como «secondary rights» en inglés, se refieren a los derechos de un autor o creador que se derivan de la explotación secundaria de su obra después de la publicación inicial o su uso principal. Estos derechos pueden involucrar la reproducción, distribución y adaptación de la obra en diferentes formatos o para diferentes propósitos. Aquí hay algunas aclaraciones sobre los derechos de publicación secundarios:

  • Derechos de reproducción: Esto incluye el derecho de permitir que la obra se reproduzca en diferentes formatos o medios, como impresiones posteriores de libros, reediciones, versiones electrónicas o incluso adaptaciones cinematográficas.
  • Derechos de traducción: Los autores pueden otorgar derechos para que su obra sea traducida a diferentes idiomas y publicada en mercados internacionales.
  • Derechos de adaptación: Esto se refiere a la posibilidad de que la obra sea adaptada a otros medios, como películas, series de televisión, obras de teatro, videojuegos o cualquier otra forma de entretenimiento.
  • Derechos de distribución: Los derechos de distribución pueden incluir acuerdos para que la obra se distribuya en diferentes territorios geográficos o en diversos canales de venta, como librerías, tiendas en línea, bibliotecas, etc.
  • Derechos de sincronización: En el ámbito musical, los derechos de sincronización permiten que una canción sea utilizada en películas, programas de televisión, anuncios, videojuegos y otros medios audiovisuales.
  • Derechos de representación y actuación: En el teatro y las artes escénicas, los derechos de representación y actuación permiten la representación pública de una obra, ya sea en un teatro o en otro lugar.
  • Derechos de impresión de arte: En el caso de los artistas visuales, los derechos de impresión de arte pueden permitir la reproducción de su obra en forma de impresiones, carteles, tarjetas, etc.

En resumen, los derechos de publicación secundarios son una parte importante de la propiedad intelectual de un autor o creador y pueden generar ingresos adicionales a lo largo del tiempo a medida que su obra se utiliza de diversas formas o se difunde en diferentes mercados. Estos derechos se negocian generalmente a través de contratos y acuerdos entre el autor o creador y las partes interesadas, como editoriales, productoras de cine, agentes literarios, entre otros.

Los derechos de publicación secundarios pueden mejorar el acceso público a la investigación científica

Selman, Brianne, y Mark Swartz. «Secondary Publishing Rights Can Improve Public Access to Academic Research». The Conversation, 25 de julio de 2023. http://theconversation.com/secondary-publishing-rights-can-improve-public-access-to-academic-research-209761.

Tradicionalmente, los autores académicos ceden sus derechos de autor a editoriales privadas o no retienen suficientes derechos que les permitan a ellos o a sus financiadores volver a publicar o reutilizar su propio trabajo, o no conservan suficientes derechos que les permitan a ellos o a sus financiadores volver a publicar o reutilizar su propio trabajo. Esta práctica se opone al objetivo de la educación y la investigación: maximizar el impacto de la investigación compartiéndola lo más ampliamente posible y en el menor tiempo posible. impacto de la investigación compartiéndola lo más ampliamente posible en el momento oportuno.

Las agencias federales canadienses que conceden ayudas a la investigación anunciaron recientemente una revisión de la Política de Acceso Abierto a las Publicaciones de la Tri-Agencia, con el objetivo de exigir el acceso abierto y gratuito inmediato a todas las publicaciones académicas generadas a través de la investigación apoyada por la Tri-Agencia para 2025.

Para cumplir este requisito, el gobierno canadiense debería capacitar a los autores académicos mediante la adopción de derechos de publicación secundarios. Estos derechos garantizarían que los autores puedan «volver a publicar inmediatamente la investigación financiada con fondos públicos tras su primer depósito en un repositorio de acceso abierto o en cualquier otro lugar», incluso en los casos en que los editores lo prohíban.

Modificar la Ley de Propiedad Intelectual para incluir estos derechos daría a los autores académicos la posibilidad de poner a disposición del público artículos de revistas financiados por los contribuyentes a través del acceso abierto tras su publicación.

Permitir que la investigación canadiense sea accesible abiertamente sin barreras contribuirá al bien público, ayudando a fomentar la innovación y el descubrimiento.

La investigación encerrada tras muros de pago es un impedimento para la ciencia, la innovación y el progreso cultural. En el pasado, la mayoría de los trabajos de investigación sólo eran accesibles para las personas que pagaban por acceder a ellos o que trabajaban o estudiaban en universidades dispuestas a pagar por el acceso. Este modelo está cambiando, y muchas publicaciones están ahora a disposición del público en abierto. Sin embargo, cada vez se exige más a los autores que paguen a los editores para poder publicar en acceso abierto.

La actual Política de Acceso Abierto a las Publicaciones de la Agencia Tripartita exige que los autores pongan a disposición del público en línea copias de los artículos de revistas financiadas, pero permite un periodo de embargo de 12 meses en el que los editores obtienen derechos exclusivos sobre el contenido y pueden mantenerlo bloqueado tras un muro de pago. Esto puede suponer importantes retrasos en el libre acceso a investigaciones vitales.

Los datos de OA.Report muestran que las publicaciones financiadas por el Consejo de Investigación de Ciencias Sociales y Humanidades de Canadá solo cumplían la política en un 52% en 2023 hasta la fecha. El resultado es que gran parte de la investigación financiada con fondos públicos sigue sin estar a disposición del público.

Las APC son tasas que pagan los autores académicos por publicar en revistas de acceso abierto. Los autores pueden pagar entre 1.000 y 13.000 dólares. Las revistas dependen cada vez más de los APC, lo que hace que el coste de la publicación en acceso abierto sea prohibitivo para muchos autores. Las estimaciones indican que los autores académicos canadienses gastaron al menos 27,6 millones de dólares en gastos de procesamiento de 2015 a 2018, a pesar de la preponderancia de las revistas de acceso abierto gratuitas.

Los autores no siempre tienen fondos para cubrir estas tarifas, y descargarlas a las bibliotecas universitarias a través de fondos de acceso abierto o acuerdos transformadores no es sostenible y conduce a oportunidades de publicación desiguales entre instituciones grandes y pequeñas. Además, los académicos del Sur Global han llamado la atención sobre la naturaleza desigual de la publicación basada en APC, mientras que otros modelos de financiación de revistas de acceso abierto se están eliminando.

Existen vías claras que permiten un acceso más abierto. Mientras que la publicación de revistas académicas es extremadamente rentable para las editoriales, los autores, editores y revisores que forman la columna vertebral del sistema rara vez son compensados por su trabajo y se enfrentan a dificultades para negociar acuerdos de publicación justos.

La Federación Canadiense de Asociaciones de Bibliotecarios y Bibliotecas ha propuesto recientemente una solución parcial: ofrecer derechos de publicación secundarios a los autores académicos en Canadá. La propuesta cuenta también con el respaldo de la Asociación Canadiense de Bibliotecas de Investigación.

Los derechos de publicación secundarios ya se han implantado en múltiples países europeos, siendo quizás el ejemplo más notable la Enmienda Taverne en los Países Bajos, que ha visto cómo la tasa de acceso abierto superaba el 80%.

La aplicación de estos derechos en los países europeos incluye actualmente periodos de embargo. Sin embargo, la Asociación Europea de Bibliotecas de Investigación ha publicado un borrador de redacción de derechos secundarios sin periodo de embargo que permitiría el «autoarchivo legal en repositorios abiertos, públicos y sin ánimo de lucro«.

Si Canadá adoptara una ley similar junto con la revisión de la política de la Triple Agencia, se podría convertir en un líder mundial en publicaciones académicas de acceso abierto.

En última instancia, un acceso abierto más inmediato y a menor coste significaría que todos tendríamos un mejor acceso a la información que podría ayudarnos a comprender mejor el mundo que nos rodea, ya se trate de información médica, innovaciones en ingeniería o nuevas exploraciones de la cultura y la historia.

Encuesta a expertos sobre la desinformación

Altay, S., Berriche, M., Heuer, H., Farkas, J., & Rathje, S. (2023). A survey of expert views on misinformation: Definitions, determinants, solutions, and future of the fieldHarvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-119

Se encuestó a 150 expertos académicos en desinformación e identificamos áreas de consenso entre los expertos. Los expertos definieron la desinformación como información falsa y engañosa, aunque hubo divergencia de opiniones sobre la importancia de la intencionalidad y lo que constituye exactamente desinformación. La razón más popular por la que la gente cree y comparte información errónea fue el partidismo, mientras que la falta de formación fue una de las razones menos populares. Los expertos se mostraron optimistas sobre la eficacia de las intervenciones contra la desinformación y apoyaron las acciones a nivel de sistema contra la desinformación, como los cambios en el diseño de las plataformas y los cambios algorítmicos. La dirección futura más acordada para el campo de la desinformación fue recopilar más datos fuera de Estados Unidos.

PREGUNTAS DE INVESTIGACIÓN:

  • ¿Cómo definen los expertos la desinformación?
  • ¿Qué opinan los expertos sobre los debates actuales en torno a la desinformación, las redes sociales y las cámaras de eco?
  • Según los expertos, ¿por qué la gente cree y comparte la desinformación?
  • ¿Qué opinan los expertos sobre la eficacia de las intervenciones contra la desinformación?
  • ¿Cómo creen los expertos que podría mejorarse el estudio de la desinformación?

RESUMEN DEL ENSAYO

Los expertos encuestados definen la desinformación como información falsa y engañosa. Coinciden en que la pseudociencia y las teorías de la conspiración son desinformación, mientras que las noticias satíricas no lo son. Los expertos de distintas disciplinas y métodos discreparon sobre la importancia de la intencionalidad y sobre si la propaganda, los titulares clickbait y las noticias hiperpartidistas son desinformación.

Los expertos coincidieron en que las plataformas de medios sociales agravaron el problema de la desinformación y que la gente está expuesta a más puntos de vista opuestos en línea que fuera de ella. Los encuestados también se mostraron escépticos ante la afirmación de que la desinformación determinó el resultado de las elecciones presidenciales estadounidenses de 2016, mientras que los psicólogos no.

Las explicaciones más populares de por qué la gente cree y comparte información errónea fueron el partidismo, la identidad, el sesgo de confirmación, el razonamiento motivado y la falta de confianza en las instituciones.

Los expertos encuestados coincidieron en que las intervenciones actuales contra la desinformación, como la alfabetización mediática y la comprobación de los hechos, serían eficaces si se adoptaran de forma generalizada. Los expertos se mostraron a favor de cambios en el diseño de las plataformas, cambios algorítmicos, moderación de contenidos, desplatforming y regulaciones más estrictas.

Estos expertos también coincidieron en que en el futuro será importante recopilar más datos fuera de Estados Unidos, realizar más trabajo interdisciplinar, examinar formas más sutiles de desinformación, estudiar plataformas distintas de Twitter y Facebook y desarrollar mejores teorías e intervenciones.