Archivo de la etiqueta: Citas bibliográficas

Guía de citación y referenciación Normas APA 7.ª edición

Rivera Lozada. O., Yangali Vicente, J. S., Bonilla Asalde, C. A. Guía de citación y referenciación APA (7.ª edición) Lima: Universidad Privada Norbert Wiener, 2021

Texto completo

Citar y referenciar fuentes es una de las tareas más arduas, necesarias y confusas en la labor académica, ya que requiere identificar con precisión los detalles de cada fuente y respetar la propiedad intelectual. Las normas APA, ampliamente utilizadas en humanidades, ciencias sociales, educación y derecho, ofrecen un sistema preciso y económico para organizar citas y referencias en textos extensos. Estas normas han evolucionado con el tiempo y la guía actual, basada en la séptima edición, adapta sus indicaciones al contexto hispanohablante y simplifica sus reglas para los investigadores en formación. La guía busca facilitar la práctica del citado, reducir temores y servir como recurso habitual en la actividad académica y administrativa.

Por qué ChatGPT crea citas científicas que no existen

Westreich, Sam. «Why ChatGPT Creates Scientific Citations — That Don’t ExistAge of Awareness, June 4, 2025. https://medium.com/age-of-awareness/why-chatgpt-creates-scientific-citations-that-dont-exist-8978ec973255

Se aborda un fenómeno cada vez más observado en la inteligencia artificial generativa: la creación de referencias bibliográficas falsas o inventadas. Este problema, conocido en la comunidad de IA como “hallucination” (alucinación), consiste en que los modelos de lenguaje como ChatGPT generan respuestas plausibles y estructuradas, pero que no se corresponden con datos reales verificables.

En el caso de las citas científicas, el modelo construye referencias completas que incluyen autores, títulos, años y revistas, pero que no existen en ninguna base de datos académica. Esto ocurre porque la IA no accede directamente a una base de datos específica al generar la respuesta, sino que se basa en patrones probabilísticos aprendidos durante su entrenamiento en grandes corpus textuales.

El fenómeno de la hallucination en modelos de lenguaje ha sido documentado por varios estudios recientes. Por ejemplo, Ji et al. (2023) en su trabajo “Survey of Hallucination in Natural Language Generation” indican que esta tendencia a inventar hechos o detalles es inherente a la forma en que estos modelos predicen palabras en secuencia para maximizar la coherencia textual, pero sin una “conciencia” o acceso en tiempo real a datos verdaderos (Ji et al., 2023, ACM Computing Surveys). Así, el modelo genera lo que “suena correcto” más que lo que es correcto, produciendo con frecuencia referencias falsas, especialmente cuando se le solicita citar fuentes académicas.

El problema de las citas inventadas tiene graves implicaciones en ámbitos científicos y académicos, donde la veracidad y la confiabilidad de las referencias es fundamental para la integridad del conocimiento. Según un artículo publicado en Nature sobre la creciente adopción de IA en la generación de textos académicos, existe preocupación entre investigadores sobre el potencial de estas herramientas para introducir errores difíciles de detectar, que pueden desinformar a estudiantes y profesionales (Nature Editorial, 2024). La confianza que los usuarios depositan en estas IA aumenta el riesgo, dado que una cita bien formada visualmente se asume auténtica, lo que puede propagar información errónea y socavar la credibilidad de trabajos científicos.

Westreich señala que la raíz del problema está en la naturaleza probabilística del entrenamiento del modelo, que aprende a generar texto basado en patrones estadísticos en lugar de verificar hechos. Además, las bases de datos académicas tienen un acceso limitado y no siempre están integradas en los sistemas de generación de lenguaje, lo que impide la validación automática de las citas en tiempo real. Sin embargo, se están explorando soluciones para mitigar este problema. Por ejemplo, la integración de sistemas de búsqueda y recuperación de información en tiempo real (RAG, Retrieval-Augmented Generation) permitiría a los modelos consultar bases de datos académicas fiables durante la generación de texto, reduciendo la producción de referencias falsas (Lewis et al., 2020, NeurIPS).

Otra estrategia recomendada es aumentar la transparencia del modelo, avisando a los usuarios de que las referencias generadas pueden no ser reales y deben ser verificadas independientemente. Instituciones educativas y editoriales también pueden establecer guías para el uso responsable de estas herramientas, fomentando la revisión manual de las citas generadas por IA.

En un análisis crítico más amplio, la producción de citas falsas por IA pone en evidencia la brecha entre la fluidez lingüística y la comprensión real del contenido que tienen estos modelos. Aunque pueden imitar estructuras y formatos, carecen de un sistema de verificación interna que asegure la veracidad. Por ello, investigadores como Bender et al. (2021) advierten que el uso indiscriminado de estas tecnologías sin supervisión puede erosionar la confianza en la información científica y educativa, un problema que debe abordarse con estrategias técnicas, educativas y éticas.

La comunidad científica y tecnológica trabaja para desarrollar métodos que permitan una generación de contenido más responsable, precisa y verificable. Mientras tanto, es imprescindible que los usuarios mantengan un enfoque crítico y verifiquen cualquier referencia proporcionada por estas herramientas, para preservar la integridad académica y evitar la propagación de desinformación.

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

El 51.8% de las citas proporcionadas por ChatGPT son inventadas, falsas o inexistentes

Oladokun, Bolaji David, Rexwhite Tega Enakrire, Adefila Kolawole Emmanuel, Yusuf Ayodeji Ajani, y Adebowale Jeremy Adetayo. “Hallucination in Scientific Writing: Exploring Evidence from ChatGPT Versions 3.5 and 4o in Responses to Selected Questions in Librarianship.” Journal of the Association for Information Science and Technology, publicado en línea el 20 de abril de 2025. https://doi.org/10.1080/19322909.2025.2482093

El uso acelerado de la inteligencia artificial (IA) en la redacción académica, especialmente con herramientas como ChatGPT, ha generado preocupaciones importantes sobre la veracidad y la precisión de los contenidos generados por estas tecnologías. En particular, un fenómeno llamado “alucinación” —que se refiere a la invención o fabricación de información, en este caso, citas bibliográficas falsas o inexistentes— representa un riesgo significativo para la calidad y la confiabilidad de los trabajos científicos.

Este estudio se centra en analizar cómo se manifiesta esta alucinación en dos versiones de ChatGPT, la 3.5 y la 4o, cuando se les plantea preguntas relacionadas con la bibliotecología y ciencias de la información. Para ello, los autores diseñaron un experimento en el que ChatGPT generó contenido científico con citas, las cuales fueron posteriormente verificadas de forma sistemática a través de Google Scholar y los sitios web oficiales de las editoriales.

Los resultados fueron preocupantes: ambas versiones de ChatGPT presentaron un alto porcentaje de citas falsas o no existentes. En concreto, la versión 3.5 fabricó un 42,9% de citas inexistentes, mientras que la versión 4o aumentó este porcentaje hasta el 51,8%. Aunque hubo una ligera mejora en la precisión de las citas reales, con tasas de acierto del 3,92% en la versión 3.5 y del 6,35% en la versión 4o, estas cifras son muy bajas y evidencian limitaciones graves en ambos modelos.

Las diferencias entre las versiones también fueron notables en el tipo de errores cometidos: ChatGPT 3.5 tendía a inventar fuentes completamente ficticias, mientras que ChatGPT 4o generaba errores más sutiles, como citar artículos reales pero atribuyéndolos a revistas incorrectas o mezclando detalles bibliográficos. Esto implica que, aunque la versión más avanzada pueda parecer más sofisticada, los riesgos de información errónea persisten y pueden pasar desapercibidos con mayor facilidad.

Finalmente, el estudio concluye que no existe una diferencia estadísticamente significativa en la precisión entre las dos versiones evaluadas, lo que subraya la importancia de no confiar ciegamente en las citas generadas por IA en la redacción científica. Los autores llaman a una verificación rigurosa y crítica de todo contenido bibliográfico producido por inteligencia artificial, con el fin de preservar la integridad y la credibilidad de la investigación académica.

Litmaps:  herramienta IA para visualizar y rastrear la evolución de la investigación académica a través de mapas de citas.

Litmaps

Acceder

Litmaps es una solución innovadora para gestionar el conocimiento académico, descubrir nuevas conexiones entre investigaciones y mantener al día el seguimiento de publicaciones recientes. Ideal tanto para estudiantes como para investigadores consolidados, su uso puede marcar la diferencia a la hora de elaborar una revisión exhaustiva, preparar un artículo o simplemente organizar la información científica de manera visual y eficaz.

Litmaps es una herramienta digital diseñada para ayudar a investigadores, académicos y estudiantes a explorar, visualizar y gestionar literatura científica de manera más eficiente. Su principal utilidad radica en la creación de mapas conceptuales interactivos que muestran visualmente cómo están conectados diferentes artículos académicos mediante citas y referencias. Esto permite comprender la evolución de un campo de estudio y detectar relaciones clave entre investigaciones que, de otro modo, podrían pasar desapercibidas.

Una de sus funciones más destacadas es el descubrimiento automático de literatura relacionada. A partir de los artículos que el usuario incorpora en su mapa, Litmaps sugiere nuevas publicaciones relevantes, lo que facilita la ampliación de la revisión bibliográfica sin necesidad de realizar múltiples búsquedas manuales en distintas bases de datos. Además, ofrece la posibilidad de seguir temas de interés, de manera que se reciben notificaciones cuando se publican trabajos nuevos sobre el área específica que se está investigando.

Litmaps también permite organizar la información de forma clara. Los usuarios pueden agrupar artículos por temas, añadir etiquetas y notas personalizadas, lo que resulta especialmente útil para estructurar trabajos académicos como tesis, artículos científicos o presentaciones. Otra ventaja importante es su función colaborativa: los mapas pueden compartirse con otros investigadores o compañeros de equipo, lo que facilita el trabajo en grupo y la coordinación en proyectos conjuntos.

Esta plataforma funciona directamente desde el navegador y es compatible con herramientas como Zotero, Mendeley o archivos BibTeX, lo que permite importar bibliografía con facilidad. Litmaps ofrece una versión gratuita con funciones básicas y opciones de pago que habilitan características más avanzadas como mapas ilimitados o descubrimiento extendido.

OpenAlex y Crossref como fuentes de datos bibliográficas alternativas a Web of Science y Scopus en ciencias de la salud.

Cebrián, Guillem, Ángel Borrego y Ernest Abadal. 2025. «OpenAlex y Crossref como fuentes de datos bibliográficas alternativas a Web of Science y Scopus en ciencias de la salud.» Revista Española de Documentación Científica 48 (1). https://doi.org/10.3989/redc.2025.1.1649.

El artículo analiza el valor de OpenAlex y Crossref como fuentes alternativas a las reconocidas bases de datos Web of Science (WoS) y Scopus, particularmente en el campo de las ciencias de la salud. La motivación surge del creciente uso de WoS y Scopus en procesos de evaluación científica, lo que ha derivado en críticas por su falta de transparencia, sesgos comerciales y limitada cobertura temática y geográfica. En este contexto, los autores exploran si OpenAlex y Crossref pueden ofrecer una cobertura más amplia, representativa y abierta.

Para abordar el primer objetivo, los autores partieron de un listado de revistas categorizadas como «Health Sciences» por Scopus. A partir de este conjunto, analizaron cuántas de estas publicaciones estaban indexadas en Crossref, WoS y Scopus. También compararon el país y la editorial de cada revista.

Para el segundo objetivo, se seleccionaron al azar 300 artículos (100 de cada año entre 2017 y 2019) publicados en revistas científicas españolas de ciencias de la salud. Se consultaron las tres bases de datos (OpenAlex, WoS y Scopus) para verificar la presencia de estos artículos, el número de citas que habían recibido, y la completitud de los metadatos (autores, título, año, DOI, etc.). Para acceder a la información de Crossref y OpenAlex, se emplearon consultas mediante sus respectivas APIs.

1. Cobertura de revistas y editoriales

  • Crossref indexa un mayor número de títulos que WoS y Scopus. En concreto, supera en un 18 % a WoS y en un 14 % a Scopus.
  • La cobertura por países y editoriales también es más amplia en Crossref, que muestra una mayor representatividad de editoriales pequeñas o periféricas.
  • Mientras que WoS y Scopus tienden a concentrarse en publicaciones de grandes editoriales y países centrales (EE.UU., Reino Unido, Países Bajos), Crossref incluye una variedad más diversa.

2. Cobertura de artículos y citas en OpenAlex

  • De los 300 artículos muestreados, OpenAlex recuperó el 93 %, mientras que Scopus y WoS recuperaron el 88 % y 82 % respectivamente.
  • El cómputo de citas fue mayor en OpenAlex que en las otras dos bases. En promedio, OpenAlex ofrecía un 23 % más de citas que WoS y un 17 % más que Scopus.
  • En cuanto a la calidad de los metadatos, no hubo grandes diferencias. Las tres bases presentaban niveles similares de completitud, especialmente en campos como título, autores y año. OpenAlex destaca por su apertura y facilidad de acceso a los datos mediante API.

Los resultados confirman que Crossref y OpenAlex ofrecen una cobertura más amplia y representativa, lo que las convierte en herramientas útiles para investigaciones y procesos de evaluación más inclusivos. Su carácter abierto y gratuito constituye una ventaja clara frente a WoS y Scopus, que son plataformas comerciales con acceso limitado.

Sin embargo, los autores también advierten de ciertas limitaciones. Por ejemplo, aunque Crossref ofrece una amplia cobertura de revistas, no todas están actualizadas o bien mantenidas por sus editores. Por otro lado, OpenAlex, al ser un recurso relativamente reciente, aún está en desarrollo y puede presentar inconsistencias ocasionales.

Conclusiones

  1. Crossref presenta una cobertura de revistas superior a WoS y Scopus, tanto en cantidad como en diversidad editorial y geográfica.
  2. OpenAlex muestra mayor cobertura de artículos y citas, así como una calidad de metadatos comparable a la de las otras dos bases.
  3. Ambas plataformas representan una alternativa viable y sólida para estudios bibliométricos, especialmente en un entorno que promueve la ciencia abierta.
  4. Los resultados del estudio pueden servir de base para repensar los criterios de evaluación científica, diversificando las fuentes y apoyando modelos más equitativos y abiertos.

¿Qué miden realmente los rankings universitarios? Un sistema atrapado en su propia lógica

Mohan, Deepanshu. “In a Ranking-Obsessed System, What Exactly Are Universities Measuring?” The Wire, marzo 2025. https://thewire.in/education/ranking-universities-education-system-research

En la educación superior actual, los rankings universitarios globales, como los QS World University Rankings by Subject, han dejado de ser simples clasificaciones para convertirse en herramientas de gran influencia. Estos rankings moldean percepciones, guían decisiones políticas y afectan tanto la elección de los estudiantes como las prioridades de inversión de los gobiernos.

La edición de 2025 de los QS Rankings by Subject, publicada el 12 de marzo, evaluó más de 55 disciplinas en cinco grandes áreas del conocimiento, lo que refleja la creciente especialización académica. Se incorporaron 171 nuevas instituciones, evidenciando una expansión significativa, sobre todo en áreas estratégicas como medicina, ciencias de la computación y ciencia de materiales. Por ejemplo, las universidades clasificadas en informática pasaron de 601 en 2020 a 705 en 2024. Este crecimiento no solo revela un mayor interés académico, sino también una fuerte competencia entre universidades por visibilidad y prestigio en sectores con alto potencial de financiación e innovación.

Se cuestiona si los rankings realmente miden mérito académico o si premian a quienes mejor entienden y manipulan su lógica. En países como Arabia Saudita o Singapur, se observa un crecimiento desproporcionado en la reputación académica sin una mejora equivalente en las citas, lo que sugiere posibles prácticas de gestión reputacional poco éticas.

Fuente: Clasificación Mundial de Universidades QS por Materias 2025

Se ha identificado una correlación preocupante entre el aumento de publicaciones y el incremento en retracciones de artículos científicos, especialmente en países como China, India, Pakistán, Arabia Saudita, Egipto e Irán. Esto sugiere que la presión por publicar y escalar posiciones ha conducido en algunos casos a malas prácticas científicas como la fabricación o duplicación de resultados. Arabia Saudita, por ejemplo, duplicó su producción científica entre 2019 y 2024, pero también registró un fuerte aumento en retracciones. En India, la producción aumentó más de un 56% en cinco años, pero también se han visto afectadas por problemas de calidad y control.

Fuente: Número total de trabajos de investigación según Scopus: artículos y revisiones.

Se destaca el ascenso de instituciones de Asia Occidental y países árabes como Arabia Saudita, Emiratos Árabes Unidos y Catar, gracias a inversiones en I+D. Sin embargo, también se cuestiona si este progreso refleja mejoras reales o estrategias diseñadas para escalar en el ranking, como el aumento artificial de citaciones o encuestas de reputación manipuladas.

India ha sido uno de los países con mayor crecimiento en los rankings globales, especialmente en áreas STEM (ciencia, tecnología, ingeniería y matemáticas). Este ascenso se ha vinculado a políticas como la iniciativa Institutions of Eminence (IoE), que busca crear universidades de élite. Sin embargo, esta estrategia ha generado críticas por concentrar recursos en pocas instituciones, mientras muchas universidades estatales sufren abandono, falta de financiación y precariedad.

Los rankings se basan ahora en indicadores como la reputación académica (40 %), la reputación entre empleadores (10 %), las citas de investigación por artículo (20 %) y el índice H (20 %), respaldados además por la puntuación de la red internacional de investigación. Uno de los problemas principales es que el QS otorga casi el 50% del peso a encuestas de reputación académica y empresarial, lo que deja margen para maniobras estratégicas de autopromoción institucional y visibilidad controlada. A esto se suma el fenómeno de las “citas en anillo” y la contratación de académicos con alta visibilidad para inflar métricas.

Además, estos rankings influyen profundamente en la formulación de políticas educativas, especialmente en economías emergentes. Estar en el top 200 puede significar más financiación, mayor atracción de estudiantes internacionales y prestigio diplomático. Sin embargo, esta influencia genera comportamientos orientados a mejorar la posición en rankings antes que a desarrollar auténtica calidad educativa.

En conclusión, los rankings como QS y THE, aunque útiles para comparaciones internacionales, también pueden ser engañosos. Favorecen la visibilidad y los indicadores cuantitativos sobre la calidad docente, el compromiso social o la equidad. La carrera por ascender en estas clasificaciones puede fomentar reformas superficiales y cosméticas, en lugar de una transformación estructural del sistema educativo.

Evaluación de la cobertura lingüística de OpenAlex

van Eck, Nees Jan, Ludo Waltman, y Thed N. van Leeuwen. 2024. “Evaluating the Linguistic Coverage of OpenAlex: An Assessment of Metadata Accuracy and Completeness.” Journal of the Association for Information Science and Technology. https://doi.org/10.1002/asi.24979

Más sobre Open Alex

El artículo analiza en profundidad la cobertura lingüística de OpenAlex, una base de datos de acceso abierto que busca convertirse en una alternativa transparente y gratuita a plataformas comerciales de referencia como Web of Science (WoS) y Scopus. Uno de los objetivos centrales del estudio es evaluar la precisión y completitud de los metadatos relativos al idioma de publicación que ofrece OpenAlex, un aspecto clave para investigaciones bibliométricas, estudios de comunicación científica y análisis de la diversidad lingüística en la producción académica.

Para llevar a cabo esta evaluación, los autores diseñaron una metodología basada en la validación manual de una muestra significativa de 6,836 artículos. Esta muestra fue seleccionada para representar diversas disciplinas y procedencias geográficas, lo cual permite examinar no solo la precisión de los datos de idioma en OpenAlex, sino también su comparabilidad frente a otras fuentes como WoS. A través de este análisis, se busca determinar en qué medida OpenAlex refleja adecuadamente la diversidad lingüística real de las publicaciones académicas.

Uno de los principales hallazgos del estudio es que OpenAlex ofrece una cobertura lingüística más amplia y equilibrada que Web of Science, particularmente en lo que se refiere a publicaciones en idiomas distintos del inglés. Mientras que WoS tiende a priorizar y sobrerrepresentar publicaciones en inglés —lo cual ha sido señalado como una limitación en muchos estudios— OpenAlex incorpora un número relativamente mayor de trabajos en lenguas como el español, portugués, francés, alemán o chino. Esto representa una ventaja significativa en términos de inclusión y representatividad de comunidades científicas no angloparlantes.

Sin embargo, este avance no está exento de problemas. El estudio identifica que, pese a su cobertura más inclusiva, OpenAlex presenta notables inexactitudes en los metadatos relacionados con el idioma. En muchos casos, el idioma asignado por el sistema no coincide con el idioma real del texto, lo que lleva a una sobreestimación de publicaciones en inglés y una subestimación de otros idiomas. Además, se detectan casos de entradas sin especificación del idioma, o con asignaciones erróneas derivadas de errores de extracción automatizada o de la falta de estandarización en los metadatos originales.

Los autores subrayan que estos errores no son triviales: afectan directamente la calidad de los análisis bibliométricos que utilizan estos datos, y perpetúan sesgos que podrían comprometer estudios sobre la diversidad lingüística, las dinámicas de publicación regional, o las políticas de ciencia abierta. Por ello, se destaca que para que OpenAlex pueda ser una fuente confiable para estudios multilingües, es urgente mejorar la infraestructura técnica subyacente y los algoritmos de detección y normalización del idioma.

En conclusión, el artículo reconoce el enorme potencial de OpenAlex como herramienta abierta, accesible y más equitativa en la representación de la producción científica global. No obstante, también advierte que dicho potencial solo podrá materializarse plenamente si se abordan las deficiencias actuales en la calidad de sus metadatos lingüísticos. Mejorar estos aspectos permitiría realizar análisis más rigurosos y completos sobre las lenguas utilizadas en la ciencia, contribuyendo así a una comprensión más justa y realista del ecosistema de conocimiento global.

Aprovechar las citas de datos para responder a las necesidades de evaluación de datos de las bibliotecas.

Dean, Clare. 2025. Leveraging Data Citations to Respond to Libraries’ Data Evaluation Needs. Zenodo. https://doi.org/10.60804/yxna-f837

Se presenta un estudio sobre cómo la automatización de citas de datos puede mejorar las métricas de datos abiertos y ayudar a las bibliotecas a evaluar el uso y el impacto de los conjuntos de datos generados por sus instituciones.

Las bibliotecas desempeñan un papel clave en la promoción de los datos abiertos y necesitan evaluar el uso e impacto de los conjuntos de datos para apoyar la gestión de datos de investigación y reconocer el trabajo de sus investigadores. Sin embargo, medir este impacto es complejo debido a la dispersión y falta de visibilidad de la información.

Una solución prometedora es el uso de citas de datos como indicadores de utilización. Para demostrar su valor, se analizó el uso de datos en la Universidad Northwestern y la Universidad de Colorado Boulder mediante el Data Citation Corpus y Europe PMC. Se observó un aumento significativo de citas entre 2020 y 2023, con un pico en 2021. Los repositorios más citados fueron dbSNP, Protein Data Bank y European Nucleotide Archive, reflejando un fuerte enfoque en biomedicina y biología estructural.

En cuanto a áreas intensivas en datos, Northwestern destaca en investigación médica y neurociencia, mientras que Colorado Boulder lo hace en ciencias ambientales y biología vegetal. Las citas provienen principalmente de revistas especializadas en dichas disciplinas.

1. Objetivo principal

Mejorar la capacidad de las bibliotecas para rastrear, analizar y reportar el impacto de los datos de investigación utilizando citas automatizadas a gran escala, especialmente a través del Data Citation Corpus.

2. Instituciones involucradas

  • University Libraries, University of Colorado Boulder
  • Helmholtz Open Science Office, Alemania
  • Northwestern University Feinberg School of Medicine

3. Hallazgos clave (Key Data Citation Insights)

  • Los datos de Northwestern se citan más en revistas de ciencias de la vida y biomédicas.
  • Los datos de CU Boulder se usan más en revistas específicas de campos como ciencias ambientales.

Áreas de investigación intensiva en datos:

  • CU Boulder: Ciencias ambientales, biología molecular y genética, ciencias de las plantas.
  • Northwestern: Investigación médica, bioquímica, biología molecular, neurociencia.

Se concluye que las citas de datos ofrecen información valiosa para las estrategias institucionales, y se está ampliando el Data Citation Corpus con nuevas fuentes y mejoras en los metadatos. También se están desarrollando recursos para que las bibliotecas integren estas métricas en procesos de evaluación institucional junto con iniciativas como HELIOS Open.

Cómo hacer que ChatGPT proporcione mejores fuentes y citas

Nellis, Stephan. 2024. «How to Make ChatGPT Provide Better Sources and CitationsZDNet, March 4, 2024. https://www.zdnet.com/article/how-to-make-chatgpt-provide-better-sources-and-citations/.

Nellis explica que una de las principales críticas a ChatGPT es su falta de precisión en las fuentes que proporciona. A menudo, la IA no cita sus fuentes o brinda enlaces incorrectos. Sin embargo, existen estrategias para mejorar la calidad de las referencias obtenidas

Una de las críticas más recurrentes a ChatGPT es la dificultad para verificar la precisión de la información que proporciona. Esto se debe a que no siempre incluye fuentes, notas a pie de página o enlaces que respalden sus respuestas.

Según la propia descripción de ChatGPT: «En su versión gratuita, GPT-4o ofrece citas básicas y esenciales, priorizando referencias rápidas y concisas para facilitar la trazabilidad de la información. En cambio, la versión de pago proporciona citas más detalladas y frecuentes, incorporando múltiples fuentes y anotaciones contextuales para una verificación y comprensión más completas. Esto garantiza una experiencia más sólida y fiable, especialmente útil para quienes necesitan información en profundidad y validación rigurosa de las fuentes.»

Para mejorar la precisión de las fuentes y citas proporcionadas por ChatGPT, es esencial adoptar estrategias que incrementen la fiabilidad de sus respuestas. A continuación, se detallan algunas recomendaciones respaldadas por recursos externos:

  • Solicitar fuentes y citas explícitamente: Se recomienda preguntar directamente por fuentes y enlaces, especificando la cantidad deseada o el tipo de fuente (académica, revisada por pares, etc.).
  • Refinar las solicitudes: Se pueden mejorar los resultados pidiendo fuentes confiables o ajustando los rangos de fechas para evitar información obsoleta.
  • Verificar la validez de las fuentes: Muchos enlaces proporcionados por ChatGPT son incorrectos o irrelevantes, por lo que es esencial contrastarlos con búsquedas en Google Scholar, JSTOR u otras bases de datos académicas.
  • Utilizar ChatGPT como asistente de investigación: En lugar de confiar ciegamente en sus respuestas, se recomienda usar sus sugerencias como punto de partida para investigaciones más profundas.