Europeana Impact Playbook ayuda a elaborar recomendaciones sobre metadatos del patrimonio cultural

Europeana PRO. «Europeana Impact Playbook Helps to Develop Recommendations for Cultural Heritage Metadata». Accedido 22 de agosto de 2024. https://pro.europeana.eu/post/europeana-impact-playbook-helps-to-develop-recommendations-for-cultural-heritage-metadata.

Europeana Pro que el Europeana Impact Playbook ofrece un enfoque paso a paso para que los profesionales del patrimonio cultural diseñen, midan y narren el impacto. Un grupo de trabajo en Alemania utilizó este manual para desarrollar recomendaciones destinadas a ayudar a los museos a preparar los metadatos de sus colecciones para su publicación en línea.

En la Deutsche Digitale Bibliothek, se detectó que los museos tenían dificultades para entender los requisitos técnicos de metadatos necesarios para publicar sus datos en la plataforma. Para resolver esto, se decidió crear recomendaciones accesibles que ayudaran a los museos a cumplir con los estándares de documentación y a preparar los metadatos de sus objetos para la publicación en línea. Desde 2022, más organizaciones se unieron al grupo de trabajo para desarrollar estas recomendaciones.

Se optó por utilizar el Impact Playbook para garantizar que las recomendaciones fueran ampliamente aceptadas. Se realizó un ejercicio basado en el Change Pathway, que ayudó a definir claramente los objetivos y actividades del grupo. Se crearon subgrupos para analizar estándares existentes y definir el impacto, manteniendo el enfoque en las necesidades de los interesados.

También se identificaron varias categorías de interesados, como profesionales de museos, consultores, proveedores de software y beneficiarios de datos de patrimonio cultural. Utilizando el Empathy Map del Playbook, se recopilaron opiniones de usuarios potenciales y se realizaron entrevistas con proveedores de software. Esta retroalimentación ayudó a ajustar la recomendación y a lograr que varios proveedores de software modificaran sus funciones de exportación de datos.

Europeana Impact Playbook está disponible para su uso y puede ser una herramienta útil para quienes trabajan en el ámbito del patrimonio cultural. También se puede unirse a la Comunidad de Impacto de Europeana para conectar con otros profesionales, desde principiantes hasta expertos.

El grupo de trabajo espera que la recomendación mínima ayude a preparar los datos para el espacio de datos europeo común y para la formación de aplicaciones de inteligencia artificial, y planea consultar nuevamente el Europeana Impact Playbook para extender la recomendación a nivel internacional.

 “AI Scientist” de Sakana AI investiga de forma autónoma desafiando las normas científicas

AI, Sakana. «Sakana AI The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery», 13 de agosto de 2024. https://sakana.ai/.

AI Scientist” es el primer sistema integral para la investigación científica completamente automática. Este sistema permite que los Modelos de Lenguaje Grande (LLMs) realicen investigaciones de manera independiente.

Uno de los grandes desafíos de la inteligencia artificial es desarrollar agentes capaces de realizar investigaciones científicas y descubrir nuevo conocimiento. Aunque los modelos actuales ya ayudan a los científicos humanos en tareas como generar ideas o escribir código, aún requieren mucha supervisión y están limitados a tareas específicas.

Sakana AI, junto con científicos de las universidades de Oxford y British Columbia, ha desarrollado un sistema de inteligencia artificial llamado “AI Scientist”. Este innovador sistema es capaz de realizar investigaciones científicas de manera autónoma, cubriendo todo el proceso de investigación, desde la generación de ideas hasta la elaboración de manuscritos científicos completos.

“AI Scientist” automatiza diversas etapas, como la creación y evaluación de nuevas ideas, la ejecución de experimentos, la recopilación de datos y la redacción de informes científicos. Sin embargo, este avance también suscita preguntas importantes sobre el rol futuro de los científicos humanos. Aunque la IA es eficaz en el procesamiento de grandes cantidades de datos y en la identificación de patrones, la intuición, creatividad y juicio ético humanos continúan siendo indispensables.

Este proceso incluye:

  1. Generación de Ideas: El Científico de IA «brainstormea» nuevas direcciones de investigación, basándose en un código inicial y en búsquedas en Semantic Scholar para asegurar la novedad de las ideas.
  2. Iteración Experimental: Ejecuta los experimentos propuestos, produce gráficos y notas que se usan en la redacción del artículo.
  3. Redacción del Artículo: Redacta un informe conciso y claro en LaTeX, citando autonomamente artículos relevantes.
  4. Revisión Automatizada de Artículos: Desarrolla un revisor automático basado en LLM que evalúa los artículos con una precisión casi humana, mejorando continuamente la producción científica del sistema.

Pese a su potencial, “AI Scientist” tiene varias limitaciones. No es capaz de hacer preguntas a los autores ni de interpretar figuras, y frecuentemente genera propuestas similares en diferentes ejecuciones. Además, puede fallar en la implementación de ideas y presenta desafíos en aspectos visuales y de citación. Los resultados producidos deben considerarse como sugerencias para futuras investigaciones más que como ciencia definitiva.

“AI Scientist” abre una caja de Pandora de nuevos problemas, aunque el informe completo discute estos temas en mayor detalle. Entre los problemas clave se encuentran las consideraciones éticas y el impacto potencial en el proceso académico. Aunque “AI Scientist” puede ser una herramienta útil para los investigadores, su capacidad para crear y enviar automáticamente artículos puede aumentar significativamente la carga de trabajo de los revisores y tensar el proceso académico, afectando el control de calidad científica. Esto es similar a las preocupaciones en torno a la IA generativa en otras aplicaciones, como la generación de imágenes.

Además, el Revisor Automatizado, si se despliega en línea, podría reducir significativamente la calidad de las revisiones e imponer sesgos indeseables en los artículos. Por ello, es fundamental que los artículos y revisiones generados por IA sean identificados como tales para asegurar la transparencia total.

Como con muchas tecnologías anteriores, “AI Scientist” tiene el potencial de ser utilizado de manera poco ética. Por ejemplo, podría realizar investigaciones no éticas o peligrosas si se le da acceso a laboratorios virtuales para realizar experimentos biológicos. Esto podría dar lugar a la creación de virus o sustancias tóxicas antes de que se detecten los riesgos. Del mismo modo, podría desarrollar virus informáticos peligrosos si se le solicita crear software funcional. Estas capacidades en mejora subrayan la necesidad urgente de alinear estos sistemas con valores éticos y garantizar que exploren de manera segura.

En cuanto a los modelos utilizados, se emplearon modelos de frontera propietarios, como GPT-4o y Sonnet, pero también se exploraron modelos abiertos como DeepSeek y Llama-3. Aunque los modelos propietarios actuales producen los mejores artículos, no hay razón fundamental para que un solo modelo mantenga esta ventaja. Se espera que todos los LLMs, incluidos los modelos abiertos, continúen mejorando. La competencia entre LLMs ha llevado a su mayor disponibilidad y capacidades mejoradas, y el trabajo busca ser independiente del proveedor del modelo base. Los modelos abiertos ofrecen beneficios significativos, como menor costo, disponibilidad garantizada, mayor transparencia y flexibilidad. El objetivo es usar estos modelos en un sistema cerrado de investigación automejorado.

Finalmente, aunque se imagina un ecosistema científico completamente impulsado por IA que incluya investigadores, revisores y conferencias, no se cree que el papel del científico humano se vea disminuido. Más bien, este rol evolucionará y se adaptará a la nueva tecnología, moviéndose hacia tareas de mayor nivel.

El coste del ciberataque informático a la British Library se estima en 400.000 libras

The Stack. «British Library Reveals £400,000 Plan to Rebuild after “Catastrophic” Ransomware Attack», 21 de agosto de 2024. https://www.thestack.technology/british-library-ransomware/.

En octubre de 2023, la Biblioteca Británica sufrió un ataque de ransomware tan grave que un exdirector del Centro Nacional de Ciberseguridad lo calificó como «uno de los peores incidentes cibernéticos en la historia del Reino Unido». Ahora, casi un año después, la biblioteca ha presentado un plan de 400.000£ para recuperarse de esta catástrofe, que dejó su sitio web sin un sistema de gestión de contenido (CMS) adecuado y forzó el cierre continuo de archivos físicos y virtuales.

La biblioteca ha lanzado una licitación de 400.000£ para la primera fase de su proyecto «Web Foundations», que tiene como objetivo reconstruir su sitio web para que sea «robusto, escalable, sostenible y seguro». Este proyecto no solo busca ofrecer una excelente experiencia a usuarios y editores, sino también permitir la expansión rápida de otras áreas de contenido y sentar las bases para futuras integraciones con sistemas backend.

El ataque ocurrió el 28 de octubre de 2023, cuando el grupo de ransomware Rhysida accedió a través de un servidor vulnerable. La biblioteca se negó a pagar un rescate de 20 bitcoins (aproximadamente £600,000 en ese momento) y los atacantes filtraron 600GB de datos en la web oscura. Estos datos incluían información personal de usuarios y empleados de la biblioteca.

El ciberataque no solo comprometió datos, sino que también destruyó servidores, lo que ha complicado la recuperación de las colecciones digitales de la biblioteca. Aunque la biblioteca tiene copias seguras de sus colecciones, la falta de infraestructura viable ha retrasado la restauración. La vulnerabilidad de la biblioteca se vio exacerbada por la dependencia de aplicaciones antiguas que, en su mayoría, no pueden ser restauradas debido a la obsolescencia técnica y la falta de soporte.

En julio de 2024, la biblioteca seguía lidiando con las secuelas del ataque. Su director ejecutivo, Sir Roly Keating, destacó el tiempo que ha tomado restaurar los servicios, lo que refleja la magnitud del daño. Se espera que algunos servicios no estén disponibles hasta septiembre de 2024, y partes importantes de la colección física aún no han sido restauradas.

El ataque probablemente involucró la obtención de credenciales privilegiadas a través de phishing o ataques de fuerza bruta, y los métodos utilizados por los atacantes incluyeron evasión de defensas y técnicas anti-forenses para borrar evidencias.

Opiniones de los estadounidenses sobre las restricciones de libros en las escuelas públicas de EE. UU. 2024

Knight Foundation. «Americans’ Views on Book Restrictions in U.S. Public Schools 2024». Accedido 22 de agosto de 2024. https://knightfoundation.org/reports/americans-views-on-book-restrictions-in-u-s-public-schools-2024/.

El informe «Opiniones de los estadounidenses sobre las restricciones de libros en las escuelas públicas de EE. UU. 2024» de la Fundación Knight revela que las restricciones de libros en las escuelas públicas han aumentado drásticamente desde 2021, aunque la investigación sobre la conciencia y actitudes del público hacia estas restricciones es limitada. Este estudio encuestó a más de 4,500 adultos para explorar sus opiniones sobre la limitación del acceso de los estudiantes a libros.

Hallazgos clave:

  • La mayoría de los estadounidenses se sienten informados sobre los debates de restricciones de libros y consideran que el tema es importante, pero pocos han participado activamente.
  • Dos tercios de los estadounidenses se oponen a las restricciones de libros, confiando en la selección de libros por parte de las escuelas públicas.
  • El 60% ve la adecuación por edad como un motivo legítimo para restringir el acceso a libros, especialmente para estudiantes más jóvenes.
  • Las opiniones están divididas según ideología, con los conservadores siendo los principales defensores de las restricciones, mientras que los liberales y la comunidad LGBTQ son los mayores opositores.
  • Aunque la mayoría cree que los padres de las escuelas públicas deberían poder desafiar los libros, también preocupa que el temor a las quejas disuada la compra de libros con valor educativo.

El estudio muestra que, aunque el tema es ampliamente debatido, las actitudes varían significativamente según el grupo demográfico y la afiliación política.

4o

Una biblioteca es una segunda casa para las personas

«Una biblioteca es una segunda casa para las personas que leen libros. Dentro de una biblioteca se cura la ignorancia, los libros son para la mente como las tiritas para las heridas… Tendrían que estar por todas partes, como las farmacias».

GLORIA FUERTES
El libro de Gloria Fuertes para niñas y niños

¿Se ha utilizado un artículo tuyo para entrenar un modelo de inteligencia artificial? Casi seguro

Gibney, Elizabeth. «Has Your Paper Been Used to Train an AI Model? Almost Certainly». Nature 632, n.o 8026 (14 de agosto de 2024): 715-16. https://doi.org/10.1038/d41586-024-02599-9.

Los desarrolladores de inteligencia artificial (IA) están comprando acceso a valiosos conjuntos de datos que contienen artículos de investigación, lo que plantea incómodas preguntas sobre los derechos de autor. Las editoriales académicas están vendiendo el acceso a estos artículos a empresas tecnológicas para entrenar modelos de IA, lo que ha generado preocupación entre los investigadores, ya que estos acuerdos se realizan sin la consulta de los autores. Esto ha desencadenado un debate sobre el uso de trabajos publicados y, a veces, protegidos por derechos de autor, para entrenar la creciente cantidad de chatbots de IA en desarrollo.

Los expertos afirman que, si un artículo de investigación aún no ha sido utilizado para entrenar un gran modelo de lenguaje LLM, probablemente lo será pronto. Los investigadores están explorando métodos técnicos para que los autores puedan identificar si su contenido ha sido utilizado.

El mes pasado se reveló que la editorial académica británica Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft, permitiendo que la empresa tecnológica accediera a sus datos para mejorar sus sistemas de IA. En junio, se supo que la editorial Wiley ganó 23 millones de dólares al permitir que una empresa no identificada entrenara modelos de IA generativa con su contenido.

Lucy Lu Wang, investigadora de IA en la Universidad de Washington en Seattle, señala que cualquier cosa disponible en línea, ya sea en un repositorio de acceso abierto o no, es «muy probable» que ya haya sido utilizada para entrenar un LLM. Y si un artículo ya ha sido utilizado como datos de entrenamiento en un modelo, «no hay forma de eliminarlo» después de que el modelo haya sido entrenado, añade.

Los LLMs se entrenan con grandes volúmenes de datos, a menudo obtenidos de Internet. Estos modelos generan texto con fluidez al identificar patrones en miles de millones de fragmentos de lenguaje, conocidos como tokens, presentes en los datos de entrenamiento.

El uso de artículos académicos es valioso para los constructores de LLMs debido a su longitud y «alta densidad de información», dice Stefan Baack, quien analiza conjuntos de datos de entrenamiento de IA en la Fundación Mozilla. Entrenar modelos con una gran cantidad de información científica también les da una mejor capacidad para razonar sobre temas científicos, añade Wang, quien co-creó S2ORC, un conjunto de datos basado en 81.1 millones de artículos académicos.

Este tipo de acuerdos comerciales está en aumento. Este año, el Financial Times ofreció su contenido a OpenAI en un acuerdo lucrativo, al igual que el foro en línea Reddit con Google. Dado que las editoriales científicas probablemente ven como alternativa que su trabajo sea extraído sin un acuerdo, «creo que habrá más de estos acuerdos en el futuro», dice Wang.

Algunos desarrolladores de IA, como la Red de Inteligencia Artificial a Gran Escala, mantienen intencionadamente sus conjuntos de datos abiertos, pero muchas empresas que desarrollan modelos de IA generativa han mantenido en secreto gran parte de sus datos de entrenamiento, dice Baack. Los repositorios de acceso abierto como arXiv y la base de datos académica PubMed son fuentes «muy populares», aunque probablemente los artículos de revistas de pago han tenido sus resúmenes gratuitos extraídos por grandes empresas tecnológicas.

Probar que un LLM ha utilizado un artículo específico es difícil. Una forma es usar una oración inusual de un texto como entrada al modelo y ver si la salida coincide con las siguientes palabras en el original. Otra técnica conocida como membership inference attack mide si un modelo es más confiado cuando ve algo que ha visto antes. El equipo de De Montjoye ha desarrollado una versión de esto llamada «trampa de derechos de autor», que inserta oraciones plausibles pero sin sentido en un trabajo para rastrear si un modelo ha sido entrenado con ese contenido.

Aunque se pudiera demostrar que un LLM ha sido entrenado con un texto específico, no está claro qué pasaría después. Las editoriales sostienen que usar texto con derechos de autor en el entrenamiento sin licencia es una infracción, pero otros argumentan que los LLM no copian nada, sino que extraen información para generar nuevo texto.

En un caso judicial en curso en Estados Unidos, The New York Times está demandando a Microsoft y OpenAI por usar su contenido periodístico sin permiso para entrenar sus modelos, lo que podría sentar un precedente.

Muchos académicos están contentos de que su trabajo se incluya en los datos de entrenamiento de los LLM, especialmente si los modelos se vuelven más precisos. Sin embargo, los autores científicos tienen poco poder si las editoriales deciden vender el acceso a sus obras con derechos de autor, y no existe un mecanismo establecido para otorgar crédito o verificar si un texto ha sido utilizado.

Algunos investigadores, como De Montjoye, están frustrados. «Queremos LLMs, pero también queremos algo que sea justo, y creo que aún no hemos inventado cómo sería esto», dice.

Los bibliotecarios escolares exploran las posibilidades de ChatGPT

Yorio, Kara. «School Librarians Explore Possibilities of ChatGPT». School Library Journal. Accedido 22 de agosto de 2024. https://www.schoollibraryjournal.com/story/School-Librarians-Explore-Possibilities-of-ChatGPT.

Mientras que algunos maestros de inglés están preocupados por la confiabilidad de las tareas escritas, los bibliotecarios escolares han mostrado curiosidad sobre cómo esta tecnología puede impactar su profesión y el entorno educativo. Aunque muchos distritos escolares han prohibido el uso de ChatGPT en dispositivos escolares, los bibliotecarios, como Suzanna Panter de Tacoma, Washington, están explorando formas de utilizar la herramienta para su beneficio, como en la recomendación de libros y la asistencia en la creación de planes de lecciones.

Panter destaca que ChatGPT puede ayudar a reducir la carga de trabajo de los bibliotecarios al proporcionar recomendaciones rápidas y ajustables según las necesidades específicas de los estudiantes. Además, permite la adaptación de ideas para lecciones específicas. Malespina también utiliza ChatGPT para tareas como la planificación de publicaciones en redes sociales para el Mes de la Historia Negra.

Aunque la herramienta tiene limitaciones, como un conocimiento actualizado solo hasta 2021 y la posibilidad de errores, tanto Panter como Malespina ven un gran potencial en su uso educativo. Subrayan la importancia de que los educadores se adapten a esta nueva tecnología, en lugar de ignorarla, para mejorar la educación y abordar los desafíos que presenta.

El impacto potencial de la inteligencia artificial en la equidad y la inclusión en la educación

Varsik, S. and L. Vosberg (2024), “The potential impact of Artificial Intelligence on equity and inclusion in education”, OECD Artificial Intelligence Papers, No. 23, OECD Publishing, Paris, https://doi.org/10.1787/15df715b-en.

«The Potential Impact of Artificial Intelligence on Equity and Inclusion in Education» revisa el impacto de la Inteligencia Artificial (IA) en la equidad e inclusión en la educación, centrándose en herramientas de IA centradas en los estudiantes, dirigidas por docentes y otras herramientas institucionales. Destaca el potencial de la IA para adaptar el aprendizaje a las necesidades individuales, al tiempo que aborda desafíos como el acceso desigual, los sesgos inherentes y la necesidad de una formación exhaustiva para los docentes.

El documento subraya la importancia de equilibrar los beneficios potenciales de la IA con consideraciones éticas y el riesgo de agravar las disparidades existentes. También resalta la necesidad de abordar preocupaciones relacionadas con la privacidad y la ética, mejorar la sensibilidad cultural, gestionar el techno-ableism (discriminación por capacidades tecnológicas) y proporcionar formación continua en IA para los profesionales de la educación.

Además, el documento enfatiza la importancia de mantener la integridad educativa frente a la creciente influencia comercial. Se fomenta la investigación sobre las implicaciones de las herramientas de IA para la equidad e inclusión, con el fin de garantizar que la adopción de la IA en la educación promueva un entorno de aprendizaje más equitativo e inclusivo.

Fomentar la participación de los adolescentes en las bibliotecas públicas mediante el aprendizaje conectado

Fostering public library teen engagement through connected learning. (2024, julio 31). WebJunction. https://www.webjunction.org/news/webjunction/Fostering-public-library-teen-engagement.html

El artículo aborda cómo las bibliotecas públicas pueden fomentar el compromiso de los adolescentes a través del «aprendizaje conectado», un enfoque que integra relevancia personal, relaciones significativas, participación cívica y un propósito claro.

«El aprendizaje y la alfabetización que se basan en la relevancia personal, las relaciones significativas, la participación cívica y un sentido de propósito es lo que la Connected Learning Alliance describe como ‘aprendizaje conectado’. Para las bibliotecas públicas, construir servicios para adolescentes basados en el aprendizaje conectado significa reinventar las ofertas para reflejar la cultura y las necesidades de los adolescentes y sus comunidades. Dos nuevos informes ofrecen valiosas ideas y recomendaciones para las bibliotecas públicas que buscan fomentar la participación de los adolescentes:

  1. Resultados transformadores a través del compromiso comunitario: Cómo los líderes de bibliotecas públicas fomentan servicios para adolescentes basados en el aprendizaje conectado. Un marco estratégico para que los líderes de bibliotecas mejoren los servicios para adolescentes mediante principios de equidad, compromiso comunitario y aprendizaje conectado.
  2. Resultados transformadores a través del compromiso comunitario: Cómo el personal de bibliotecas públicas fomenta servicios para adolescentes basados en el aprendizaje conectado. Dirigido al personal de bibliotecas públicas que está directamente involucrado en la implementación de servicios para adolescentes, este informe ofrece recomendaciones prácticas y concretas para involucrar a los adolescentes de manera efectiva y crear entornos de aprendizaje conectado que los apoyen.

Estos informes fueron producidos por el proyecto Transforming and Scaling Teen Services for Equity, Diversity, and Inclusion (TS4EDI), liderado por UC Irvine. A través de una extensa revisión de la literatura, exploración de asociaciones bibliotecarias y entrevistas con el personal de bibliotecas, los informes examinan las barreras sistémicas y culturales que enfrentan los líderes y el personal de bibliotecas públicas al intentar implementar el aprendizaje conectado en sus instituciones. Los informes destacan cuatro hallazgos principales:

  • Las relaciones holísticas con el personal y los socios comunitarios son la base para la participación de los adolescentes.
  • Las asociaciones comunitarias amplían la capacidad para atender a los jóvenes en todas las áreas del aprendizaje conectado.
  • Contar historias sobre los resultados de los jóvenes es una forma convincente de demostrar el impacto.
  • El personal que es aprendiz de por vida e innovador es un campeón efectivo.

El sitio de recursos ‘Connected Learning Through Libraries‘ también ofrece listas de verificación para líderes y personal que ayudan a poner en práctica las recomendaciones, y una serie de publicaciones en blogs que brindan inspiración de bibliotecas que están implementando el aprendizaje conectado en sus servicios para adolescentes.»

El mercado negro de las citas: la venta de referencias falsas alarma a los científicos

Singh Chawla, D. (2024). The citation black market: Schemes selling fake references alarm scientists. Nature. https://doi.org/10.1038/d41586-024-01672-7

Un grupo de científicos ha revelado un mercado negro donde se venden citaciones falsas para inflar perfiles académicos, lo que plantea serias preocupaciones sobre la integridad en la investigación. Estos esquemas manipulan métricas cruciales para la evaluación académica, como el índice h. Expertos sugieren cambiar los incentivos en la academia para evitar que los investigadores se vean presionados a participar en estas prácticas fraudulentas.

Vigilantes de la integridad en la investigación están preocupados por las crecientes maneras en que los científicos pueden inflar artificialmente el número de citaciones de sus estudios. En los últimos meses, han surgido prácticas cada vez más audaces. Una de estas prácticas fue descubierta mediante una operación encubierta en la que un grupo de investigadores compró 50 citaciones por 300$ para mejorar el perfil de Google Scholar de un científico ficticio que crearon.

Este caso confirma la existencia de un mercado negro de referencias falsificadas, algo que los expertos en integridad habían sospechado durante mucho tiempo. Las citaciones compradas provienen de estudios en 22 revistas, de las cuales 14 están indexadas en Scopus.

Estas prácticas son preocupantes porque muchos aspectos de la carrera de un investigador dependen de la cantidad de citaciones que reciben sus trabajos. Instituciones y métricas como el índice h utilizan estos números para evaluar la productividad y el impacto de los científicos. En un caso reciente en España, el rector de la Universidad de Salamanca fue acusado de inflar artificialmente sus métricas de Google Scholar, lo que llevó a una investigación por parte del Comité de Ética en la Investigación.

La operación encubierta también descubrió que se venden citaciones en «paper mills», servicios que producen estudios de baja calidad y venden autorías en artículos ya aceptados. Además, se ha observado la creación de perfiles falsos, como el de un gato llamado Larry, que acumuló citaciones antes de que Google Scholar y ResearchGate eliminaran las publicaciones falsas.

El equipo de investigadores propone un nuevo índice de concentración de citaciones para detectar patrones sospechosos, como cuando un científico recibe muchas citaciones de pocas fuentes. Sin embargo, persiste el temor de que los estafadores desarrollen métodos más sutiles para evitar ser descubiertos. Según los expertos, para abordar este problema, es necesario cambiar los incentivos en la academia para que los científicos no se vean presionados a acumular citaciones para avanzar en sus carreras.