Archivo de la etiqueta: Inteligencia artificial

El uso no declarado de herramientas de inteligencia artificial (IA) generativa en la redacción de literatura científica



Glynn, Alex. “Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset.” arXiv, November 30, 2024. https://arxiv.org/abs/2411.15218.

El artículo aborda un problema creciente en el ámbito académico: el uso no declarado de herramientas de inteligencia artificial (IA) generativa en la redacción de literatura científica. Estas herramientas, como ChatGPT de OpenAI, han ganado popularidad en los últimos años, permitiendo a los investigadores utilizarlas para tareas como la generación de texto y la edición de manuscritos. Sin embargo, el uso de estas tecnologías plantea serias preocupaciones éticas cuando no se revela explícitamente en los trabajos publicados, a pesar de que las normativas de las editoriales lo exigen.

El estudio utiliza el conjunto de datos Academ-AI, diseñado para documentar ejemplos de uso sospechoso de IA en la literatura académica. Según Glynn, estos casos pueden identificarse gracias a patrones lingüísticos idiosincráticos que son característicos de los modelos de lenguaje generativo, como frases repetitivas o construcciones poco naturales que no encajan con el estilo habitual de los autores. De los primeros 500 casos analizados, el autor concluye que el uso no declarado de IA está ampliamente extendido, incluso en revistas científicas de prestigio y congresos relevantes. Sorprendentemente, estas prácticas se detectaron con mayor frecuencia en publicaciones con altos índices de citación y elevados costos de procesamiento de artículos (Article Processing Charges, APCs), lo que sugiere que incluso las editoriales con mayores recursos no están logrando prevenir este tipo de irregularidades.

Uno de los problemas más graves que destaca el análisis es la limitada capacidad de detección y corrección de estas irregularidades. Glynn señala que, aunque en algunos casos se han identificado textos sospechosos, las correcciones post-publicación son extremadamente escasas y, en la mayoría de las ocasiones, insuficientes para solucionar el problema de fondo. Esto deja en evidencia la falta de un sistema robusto que permita identificar y rectificar el uso indebido de IA en la etapa de revisión o tras la publicación.

Además, el autor subraya que muchos casos de uso no declarado de IA probablemente sean indetectables. Esto se debe a la creciente sofisticación de las herramientas de IA generativa, que permiten a los usuarios generar contenido que resulta más difícil de distinguir del texto escrito por humanos. Este fenómeno plantea un desafío significativo para las editoriales académicas, que deben encontrar formas de garantizar la transparencia sin depender exclusivamente de sistemas automatizados de detección.

El uso no declarado de IA en la literatura académica tiene profundas implicaciones para la ética y la integridad científica. Glynn advierte que estas prácticas no solo comprometen la credibilidad de los artículos afectados, sino que también amenazan la confianza en el sistema de publicación académica en su conjunto. El hecho de que los casos detectados sean más frecuentes en publicaciones de alto impacto amplifica la gravedad del problema, ya que estos trabajos suelen ser citados más ampliamente y, por lo tanto, tienen un impacto desproporcionado en la comunidad científica.

El estudio también pone de relieve las desigualdades que podrían surgir de esta situación. Mientras que algunos investigadores y editoriales tienen acceso a herramientas y recursos avanzados para verificar la autenticidad de los textos, otros carecen de estas capacidades, lo que podría generar un terreno desigual en la producción y evaluación de conocimiento académico.

Para mitigar este fenómeno, Glynn enfatiza la necesidad de que las editoriales refuercen sus políticas contra el uso no declarado de IA, especialmente en los casos que sean detectables. Esto implica no solo mejorar los procesos de revisión para identificar patrones sospechosos, sino también implementar sanciones claras y medidas correctivas efectivas. El autor sugiere que la transparencia y la rendición de cuentas deben convertirse en pilares fundamentales del proceso de publicación académica en la era digital.

En última instancia, el artículo concluye que abordar este problema de manera proactiva es esencial para preservar la calidad y la credibilidad de la literatura científica. En un contexto donde la inteligencia artificial desempeña un papel cada vez más importante, la comunidad académica debe establecer normas claras y efectivas para garantizar que el uso de estas herramientas sea transparente y ético. Esto no solo protegerá la integridad de las publicaciones científicas, sino que también fomentará un entorno de investigación más equitativo y confiable.

Cómo incorporar IA generativa al aula

Cómo incorporar IA generativa al aula: una orientación en ChatGPT para docentes. Ciudad Autónoma de Buenos Aires: Educ.ar S.E., 2024.

Texto completo

El texto aborda cómo la inteligencia artificial, representada por herramientas como ChatGPT, está transformando la educación. Plantea que esta tecnología supone una revolución en el ámbito educativo, ofreciendo tanto desafíos como oportunidades para docentes, estudiantes e instituciones.

Capítulo 1: ChatGPT, definición y primeros pasos
Se describe qué es ChatGPT, cómo funciona y sus principales funcionalidades. Además, se reflexiona sobre aspectos éticos y de privacidad necesarios para un uso responsable de la herramienta en contextos educativos.

Capítulo 2: Cómo optimizar la gestión institucional con IA
Este capítulo explora las aplicaciones de la IA en la organización y gestión institucional, como la planificación de reuniones escolares, la implementación de actividades interactivas y la elaboración de informes sobre el desempeño de los estudiantes.

Capítulo 3: Cómo transformar la enseñanza con IA
Se analiza cómo la IA puede personalizar el aprendizaje, gestionar el aula, planificar clases, enseñar idiomas y fomentar la creatividad. También se incluyen aplicaciones como la creación de estudios de caso y el diseño de evaluaciones sumativas.

Capítulo 4: Aportes de la IA generativa en proyectos sociocomunitarios
Se destaca el potencial de la IA para crear materiales educativos destinados a proyectos comunitarios, promoviendo el aprendizaje más allá del aula y fortaleciendo el vínculo entre la escuela y su entorno.

Capítulo 5: ChatGPT como herramienta educativa: reflexiones finales
El texto concluye con precauciones sobre el uso de ChatGPT, como el plagio y el uso indebido, y reflexiona sobre el papel de la formación docente y la investigación educativa. Finalmente, se proyecta el impacto futuro de la IA en la educación, subrayando las nuevas oportunidades que esta tecnología puede ofrecer.

Guía de Prompting: Inteligencia Artificial Generativa

Cristián Cortés, Marcelo Taito. Guía de Prompting: Inteligencia Artificial Generativa. HARAMBEE, 2024

Texto completo

Esta guía ha sido creada por la comunidad Harambee, un colectivo que trabaja para potenciar el uso efectivo de herramientas de inteligencia artificial. Su propósito principal es ofrecer apoyo a los usuarios interesados en desarrollar habilidades más avanzadas y obtener mejores resultados al trabajar con sistemas de IA.

El enfoque central de esta guía son las soluciones relacionadas con texto, abarcando desde la generación de contenido hasta la edición, corrección y mejora de textos en diversos contextos. Está diseñada para quienes desean ir más allá del uso básico y aprovechar al máximo las capacidades que la IA puede ofrecer en el ámbito textual.

A través de consejos, ejemplos prácticos y buenas prácticas, esta guía busca ayudar a los usuarios a refinar su interacción con modelos de IA, logrando resultados más precisos, creativos y personalizados.

Para aprovechar al máximo las herramientas de inteligencia artificial centradas en texto, puedes aplicar estas estrategias clave:

1. Escribe instrucciones claras. Asegúrate de ser específico y directo en tus solicitudes. Un planteamiento bien definido ayuda al modelo a ofrecer respuestas más precisas y relevantes.

2. Proporciona texto de referencia. Si tienes ejemplos o fragmentos relacionados con tu objetivo, inclúyelos. Esto orienta al modelo y mejora la calidad de los resultados.

3. Divide tareas complejas. Cuando enfrentes una tarea extensa o complicada, desglósala en subtareas más simples. Esto facilita que el modelo aborde cada aspecto de forma efectiva.

4. Dale tiempo al modelo para pensar. Formula preguntas secuenciales o permite que el modelo revise varias veces su respuesta. Este enfoque mejora el razonamiento y la calidad del contenido generado.

5. Utiliza herramientas externas. Complementa las capacidades del modelo con software especializado, como verificadores de datos, editores de texto o motores de búsqueda, para resultados más robustos.

6. Haz pruebas sistemáticas. Experimenta con diferentes planteamientos y ajustes. Probar y comparar resultados te ayudará a identificar lo que funciona mejor para tus necesidades.

HarperCollins confirma que tiene un acuerdo para vender las obras de sus autores a una empresa de IA

Cole ·, Samantha. 2024. «HarperCollins Confirms It Has a Deal to Sell Authors’ Work to AI Company». 404 Media. 18 de noviembre de 2024. https://www.404media.co/harpercollins-ai-deal/.

HarperCollins, una de las editoriales más grandes del mundo, ha confirmado un acuerdo con una empresa de tecnología de inteligencia artificial (IA) para permitir el uso limitado de ciertos títulos de no ficción de su catálogo para entrenar modelos de IA. La participación de los autores en este acuerdo es opcional; ellos pueden decidir si aceptan o rechazan la propuesta.

Según un portavoz de HarperCollins, este convenio busca mejorar la calidad y el rendimiento de los modelos de IA y cuenta con restricciones claras para respetar los derechos de los autores. La editorial enfatiza que su objetivo es proteger el valor inherente de las obras de sus autores y garantizar el flujo compartido de ingresos y regalías. Además, destaca su larga tradición de innovación y exploración de nuevos modelos de negocio.

El acuerdo contempla el pago de 2.500$ por título a los autores que opten por participar, una cantidad que no es negociable. Este ofrecimiento ha generado debate, especialmente en relación con el uso de materiales protegidos por derechos de autor en el entrenamiento de modelos de IA.

Daniel Kibblesmith, autor del libro infantil Santa’s Husband, compartió en la red social Bluesky un correo de su agente que describe la propuesta de HarperCollins. En el mensaje, su agente menciona las controversias alrededor del uso de materiales con derechos de autor para entrenar IA, destacando que muchas empresas lo hacen sin reconocer ni compensar a los creadores originales. También se alude al temor de que estos modelos puedan hacer obsoletos a los autores en el futuro.

Kibblesmith criticó la decisión de HarperCollins, calificándola como una búsqueda desesperada de ganancias a corto plazo. Señaló que este desarrollo podría dividir el mercado en dos tipos de lectores: aquellos que buscan una conexión humana auténtica a través de los libros y aquellos que prefieren contenido personalizado y generado por IA, diseñado para evitar cualquier desafío intelectual.

El uso de obras protegidas por derechos de autor para entrenar IA ha sido un tema polémico. Numerosas empresas han sido acusadas de aprovecharse de materiales sin compensar a sus creadores. Este acuerdo de HarperCollins es una de las primeras instancias donde una gran editorial propone explícitamente un trato transparente y compensatorio, aunque limitado, para el uso de este tipo de contenido.

En general, el tema pone de relieve las tensiones entre la innovación tecnológica y la preservación del valor del trabajo creativo humano, planteando preguntas sobre el futuro de los derechos de autor y la sostenibilidad de las profesiones creativas en la era de la IA.

Enfoque innovador para evaluar la calidad de las revistas académicas utilizando inteligencia artificial

Thelwall, Mike, y Kayvan Kousha. 2024. «Journal Quality Factors from ChatGPT: More meaningful than Impact Factors?» arXiv. https://doi.org/10.48550/arXiv.2411.09984.

Este estudio representa el primer intento de utilizar un modelo de lenguaje avanzado como ChatGPT para evaluar la calidad de las revistas académicas. Aunque no busca reemplazar las métricas tradicionales, aporta una dimensión adicional que podría transformar la manera en que se mide la calidad en el ámbito académico, destacando el potencial de la inteligencia artificial en la investigación.

Un reciente artículo publicado en arXiv propone un enfoque innovador para evaluar la calidad de las revistas académicas utilizando inteligencia artificial, específicamente a través de ChatGPT. El estudio, titulado «Journal Quality Factors From ChatGPT: More Meaningful Than Impact Factors?», fue realizado por Mike Thelwall (Universidad de Sheffield) y Kayvan Kousha (Universidad de Wolverhampton). Este trabajo plantea una alternativa a las métricas tradicionales como el Journal Impact Factor (JIF), centrándose en aspectos más amplios de la calidad académica.

Journal Impact Factor, ampliamente utilizado para medir el impacto académico, se basa principalmente en la cantidad de citas recibidas. Sin embargo, esta métrica no evalúa otros aspectos clave, como el impacto social, la originalidad de los artículos o el rigor metodológico. Para abordar esta limitación, los investigadores definieron el Journal Quality Factors (JQFs), como puntuaciones promedio asignadas por ChatGPT para valorar los artículos de una revista considerando una perspectiva más holística.

El análisis incluyó 1.300 revistas que publicaron 130.000 artículos en 2021, cubriendo 25 de los 27 campos principales de investigación definidos por Scopus. El JQF fue comparados con clasificaciones nacionales de revistas de Polonia, Noruega y Finlandia, así como con las tasas de citación de las publicaciones. Además, se examinaron casos atípicos en los que Factor de Impacto no coincidían con las clasificaciones tradicionales, para explorar posibles sesgos o influencias externas.

Principales hallazgos

Correlación con clasificaciones existentes: El JQFs mostraron una correlación positiva y sólida (mediana de 0.641) con los rankings nacionales de revistas en 24 de los 25 campos analizados. Esto sugiere que ChatGPT puede estimar la calidad de las revistas de manera consistente en la mayoría de las disciplinas.

Comparación con las tasas de citación: Las tasas de citación también mostraron correlaciones altas con los rankings nacionales, lo que indica que los JQFs no son necesariamente superiores, pero ofrecen una alternativa igualmente válida.

Influencia del estilo de los resúmenes: Los investigadores encontraron que ciertos estilos de redacción, como la mención de contextos sociales en los resúmenes, pueden influir en las puntuaciones del JQF, destacando la sensibilidad del modelo a los matices de presentación.

El artículo reconoce que los resultados podrían variar si se usaran diferentes sistemas de clasificación, ya que no existe un consenso universal sobre qué define la calidad de una revista. Además, los JQFs, aunque prometedores, no deben reemplazar a las métricas tradicionales en todos los contextos, ya que su utilidad depende del propósito específico de la evaluación.

ChatGPT para tareas complejas de evaluación de textos

Thelwall, M. (2024). ChatGPT for complex text evaluation tasksJournal of the Association for Information Science and Technology, 1–4. https://doi.org/10.1002/asi.24966

ChatGPT y otros modelos de lenguaje a gran escala (LLMs) han demostrado ser efectivos en tareas de procesamiento de lenguaje natural y computacional con diversos niveles de complejidad. Este documento resume las lecciones aprendidas de una serie de investigaciones sobre su uso en la evaluación de calidad de investigaciones, una tarea compleja de análisis de textos.

En términos generales, ChatGPT destaca por su capacidad para comprender y ejecutar tareas complejas de procesamiento de textos, produciendo respuestas plausibles con un mínimo de intervención por parte del investigador. Sin embargo, los resultados deben ser evaluados sistemáticamente, ya que pueden ser engañosos. A diferencia de las tareas simples, los resultados en tareas complejas son muy variables, y se pueden obtener mejores resultados repitiendo los comandos en sesiones diferentes y promediando las respuestas obtenidas. Modificar los parámetros de configuración de ChatGPT respecto a sus valores predeterminados no parece ser útil, excepto en lo relacionado con la extensión del texto solicitado en las respuestas.

Capacidad de Procesamiento Complejo: ChatGPT es muy hábil para realizar tareas de análisis textual complejo, generando respuestas plausibles con instrucciones detalladas. Sin embargo, sus resultados no siempre son precisos y requieren validación sistemática.

Variabilidad en Tareas Complejas: A diferencia de tareas simples (como análisis de sentimiento), los resultados en evaluaciones complejas varían significativamente. Mejores resultados se obtienen al repetir los comandos múltiples veces y promediando las respuestas.

Configuración del Modelo: Cambiar parámetros predeterminados no suele mejorar los resultados, salvo ajustes en la longitud de la salida. Modelos más avanzados (como GPT-4o frente a 4o-mini) ofrecen mejor desempeño, pero versiones económicas pueden ser una opción práctica.

Estructura de las Instrucciones: Instrucciones complejas y detalladas, adaptadas del formato usado por evaluadores humanos, producen mejores resultados. Sin embargo, instrucciones más breves y simplificadas tienden a disminuir la precisión.

Evaluación y Limitaciones: ChatGPT puede producir salidas plausibles, pero estas no siempre reflejan una evaluación significativa. Por ejemplo, al evaluar artículos basándose en títulos y resúmenes en lugar del texto completo, ChatGPT ofrece mejores resultados, probablemente debido a la concisión de la información.

Uso de Información Condensada: Aunque puede manejar textos extensos, ChatGPT parece ser más efectivo al trabajar con entradas resumidas, como títulos y resúmenes, en lugar de textos completos, evitando sobrecarga de información irrelevante.

Financiación y Costos: Realizar evaluaciones sistemáticas con múltiples iteraciones implica altos costos en el uso de la API. Por ello, las versiones más económicas de los modelos, aunque menos precisas, pueden ser adecuadas para ciertos proyectos.

Fine-Tuning: La personalización del modelo mediante fine-tuning es efectiva en tareas simples, pero no parece prometedora para evaluaciones complejas debido a la diversidad de salidas posibles y la falta de patrones consistentes en evaluaciones humanas.

Como conclusión puede decirse que ChatGPT muestra un gran potencial en la evaluación académica, pero sus limitaciones subrayan la necesidad de realizar validaciones exhaustivas. Los investigadores deben considerar enfoques sistemáticos, como repetir comandos y ajustar configuraciones, para optimizar resultados. Aunque aún quedan cuestiones abiertas, como el papel del fine-tuning en estas tareas, los resultados sugieren que LLMs pueden complementar, pero no reemplazar, las evaluaciones humanas en tareas complejas.

The New York Times exige a Perplexity cesar el uso no autorizado de su contenido para IA

Davis, Wes. «The New York Times Warns AI Search Engine Perplexity to Stop Using Its Content». The Verge, 15 de octubre de 2024. https://www.theverge.com/2024/10/15/24270774/new-york-times-cease-and-desist-letter-perplexity-ai-search-engine.

New York Times ha enviado una carta de cesación y desista a la empresa emergente de motores de búsqueda Perplexity, exigiendo que dejen de utilizar su contenido, según informó The Wall Street Journal el 15 de octubre de 2024.

La demanda se produce en el contexto de una disputa legal más amplia, ya que el Times está demandando a OpenAI y Microsoft por presuntamente usar su contenido sin permiso para entrenar sus modelos de inteligencia artificial. En este caso, el periódico acusa a Perplexity de haber estado utilizando su contenido sin autorización, algo que también había sido señalado previamente por otras empresas como Forbes y Condé Nast.

La carta enviada por el Times, de acuerdo con The Wall Street Journal, incluye el siguiente pasaje:

«Perplexity y sus socios comerciales se han enriquecido injustamente al utilizar, sin autorización, el periodismo expresivo, cuidadosamente redactado, investigado y editado del Times sin licencia.»

El New York Times tiene una política clara que prohíbe el uso de su contenido para entrenar modelos de inteligencia artificial. En este sentido, han bloqueado explícitamente varios rastreadores de IA, incluido el de Perplexity, mediante el archivo robots.txt, que indica a los motores de búsqueda qué URLs pueden indexar.

Por su parte, Perplexity ha respondido a las acusaciones a través de un comunicado de su portavoz, Sara Platnick, en el que afirman no estar «robando» contenido para el entrenamiento de modelos de IA. En cambio, defiende que se dedica a «indexar páginas web y mostrar contenido factual» como citas para informar las respuestas a las preguntas de los usuarios. Además, Perplexity sostiene que «ninguna organización posee los derechos de autor sobre los hechos», argumentando que este principio permite un ecosistema de información abierto y libre, lo que también beneficia a los medios de comunicación al poder informar sobre temas previamente cubiertos por otros.

En respuesta a la carta de cesación, Perplexity tiene plazo hasta el 30 de octubre de 2024 para presentar su respuesta. La empresa, sin embargo, ha intentado suavizar la situación, enfatizando su interés en colaborar con los editores de contenido. Aravind Srinivas, CEO de Perplexity, expresó NYT que la compañía «no tiene interés en ser el antagonista de nadie» y que está dispuesta a trabajar con todos los editores, incluido el New York Times.

Este conflicto ocurre en medio de las crecientes tensiones sobre el uso de contenido protegido por derechos de autor por parte de modelos de IA. Durante el verano, Perplexity ya había sido acusada de plagio, lo que la llevó a cerrar acuerdos con varios editores, ofreciendo ingresos por publicidad y suscripciones gratuitas a socios como Fortune, Time, y The Texas Tribune. Sin embargo, la disputa con el New York Times pone de manifiesto el creciente choque entre las empresas tecnológicas emergentes y los medios de comunicación tradicionales en cuanto al uso y la compensación por su contenido digital.

Cómo la Inteligencia Artificial Generativa (Gen AI) ya está impactando el mercado laboral

Ozge Demirci, Jonas Hannane and Xinrong Zhu Research: How Gen AI Is Already Impacting the Labor Market. Harvard Business Publishing:, 2024

Texto original

El artículo aborda cómo las herramientas de inteligencia artificial generativa (Gen AI), como ChatGPT y las herramientas de generación de imágenes como DALL-E 2, Midjourney y Stable Diffusion, están transformando el mercado laboral, especialmente en plataformas de freelancing. Los investigadores analizan cómo estas tecnologías afectan la demanda de trabajo, la competencia entre trabajadores humanos y máquinas, y la evolución de las habilidades requeridas en diversos sectores laborales.

El estudio se centra en el impacto de estas tecnologías en el mercado de freelancing, utilizando datos de 1.388.711 publicaciones de trabajo en plataformas como Upwork y Fiverr entre julio de 2021 y julio de 2023. Se clasificaron las publicaciones en tres tipos de trabajos: aquellos manuales, los propensos a la automatización y los relacionados con la creación de imágenes. El análisis se enfoca en cómo la introducción de herramientas de IA generativa ha afectado la demanda de estos tipos de trabajos.

Los hallazgos del estudio revelan que la adopción de ChatGPT y las herramientas de generación de imágenes ha causado una disminución significativa en la demanda de trabajos propensos a la automatización. En particular, los trabajos relacionados con la escritura y el desarrollo de software fueron los más afectados, con una disminución del 30.37% en la cantidad de publicaciones. Asimismo, las tareas de diseño gráfico y modelado 3D experimentaron una reducción en la demanda de 17.01% durante el primer año tras la introducción de herramientas como DALL-E 2.

Además de la disminución de la demanda, se observó un aumento en la competencia entre los trabajadores humanos. Para los trabajos automatizables, el número de propuestas enviadas por freelancer por cada trabajo publicado aumentó un 8.57%, lo que indica una intensificación de la competencia en un mercado que se ve inundado tanto por freelancers como por IA. Esto ha generado un entorno donde los empleadores tienen más opciones, lo que pone a los trabajadores humanos en competencia directa con las máquinas.

Otro hallazgo importante fue el aumento de la complejidad de los trabajos. Los trabajos que sobrevivieron a la automatización ahora requieren habilidades más especializadas. Por ejemplo, los trabajos relacionados con la escritura y el desarrollo de software que sobrevivieron a la automatización tuvieron un aumento del 2.18% en su complejidad. Además, los salarios para estos trabajos aumentaron en un 5.71%, lo que refleja un cambio hacia trabajos más complejos que requieren un mayor nivel de habilidad y conocimiento en la integración de la IA.

El estudio también destaca el aumento de la demanda de habilidades relacionadas con la IA. Se observó un incremento significativo en las publicaciones que mencionaban explícitamente herramientas como ChatGPT, reflejando el creciente interés de las empresas por contratar trabajadores que puedan integrar la IA en sus procesos. Esto sugiere que, si bien algunas tareas son reemplazadas por la IA, otras requieren una integración más avanzada de estas tecnologías, lo que abre nuevas oportunidades para los trabajadores que se especialicen en estas áreas.

Finalmente, el artículo señala una brecha de género en el uso de tecnologías como ChatGPT. Las mujeres, en particular, eran menos propensas a utilizar ChatGPT en comparación con los hombres, lo que resalta una disparidad en la adopción de la IA en los mismos roles. Este hallazgo subraya la necesidad de implementar programas de capacitación inclusiva para abordar esta desigualdad y asegurar que todos los trabajadores tengan las mismas oportunidades para adaptarse a los cambios tecnológicos.

En conclusión, la inteligencia artificial generativa está transformando el mercado laboral al automatizar ciertas tareas, pero también al crear nuevos roles que requieren habilidades especializadas. Las empresas que adopten estrategias de capacitación en IA y fomenten una cultura de adaptabilidad tendrán mayores oportunidades de prosperar en este nuevo entorno. La clave será complementar las capacidades humanas con la IA, en lugar de reemplazarlas por completo, para maximizar la eficiencia sin perder creatividad ni supervisión humana.

ChatGPT ya es capaz de catalogar libros en formato Marc 21

ChatGPT puede ayudarte a crear un registro MARC 21 de manera manual, proporcionando el formato correcto y ayudándote a organizar los campos de manera adecuada.

A continuación os proporciono un ejemplo de cómo sería el registro en formato MARC 21 para el libro Luisa Mora Villarejo, Un legado común: las donaciones recibidas en el siglo XXI en la Biblioteca Islámica «Félix María Pareja» (Agencia Española de Cooperación Internacional para el Desarrollo, 2023), Para ello he copiado la información textual del catálogo y lo he pegado en ChatGPT, pidiendo que me elabore un registro MARC 21 de este libro. El resultado es este:

=LDR  01716cam a2200361 i 4500
=001 0000000001
=005 20231211
=008 231211s2023 sp 000 0 spa
=020 ## $a 9788483471937
=020 ## $a 109-23-042-X
=035 ## $a (NIPO) 0000000001
=035 ## $a (DL) M 33141-2023
=041 0# $a spa
=100 1# $a Mora Villarejo, Luisa, $e autor.
=245 10 $a Un legado común : $b las donaciones recibidas en el siglo XXI en la Biblioteca Islámica 'Félix María Pareja' / $c Luisa Mora Villarejo.
=260 ## $a Madrid : $b Agencia Española de Cooperación Internacional para el Desarrollo, Ministerio de Asuntos Exteriores, Unión Europea y Cooperación, $c 2023.
=300 ## $a 184 p. : $b il. col. ; $c 24 cm.
=490 1# $a Ciencias y humanismo (Agencia Española de Cooperación Internacional)
=504 ## $a Bibliografía: p. 155-159.
=520 ## $a El libro aborda las donaciones recibidas en el siglo XXI por la Biblioteca Islámica 'Félix María Pareja', destacando las bibliotecas personales donadas por figuras del arabismo y la cooperación cultural entre España y los países árabes.
=650 0# $a Agencia Española de Cooperación Internacional para el Desarrollo. $v Biblioteca.
=650 0# $a Bibliotecas $x Historia.
=650 0# $a Cooperación cultural de España.
=650 0# $a Arabistas españoles.
=650 0# $a Relaciones España-Países árabes.
=650 0# $a Colecciones especiales.
=710 2# $a Agencia Española de Cooperación Internacional para el Desarrollo, $e emisor.
=830 0# $a Ciencias y humanismo (Agencia Española de Cooperación Internacional)
=856 41 $u http://creativecommons.org/licenses/by-nc-sa/4.0/ $z Licencia Creative Commons - Attribution, Non-Commercial, ShareAlike (BY-NC-SA)

La herramienta también nos explica que es cada uno de los campos.

Explicación de los campos principales:

  • =245: Título completo, en este caso incluye el título y subtítulo del libro.
  • =260: Información de publicación, que incluye el lugar de publicación, el editor y la fecha de publicación.
  • =300: Descripción física del libro, que indica el número de páginas y el tamaño.
  • =504: Nota bibliográfica que incluye la bibliografía.
  • =520: Resumen o sinopsis del contenido del libro.
  • =650: Descriptores de temas que ayudan a clasificar el libro, en este caso relacionados con bibliotecas, makerspaces e innovación.
  • =852: Información sobre la ubicación del libro, en este caso, una biblioteca central.

Este es un ejemplo de cómo se podría estructurar el registro de este libro en un sistema de catalogación MARC 21 para una biblioteca.

¿Puede la inteligencia artificial revisar la literatura científica y descifrar su significado?

Pearson, Helen. «Can AI Review the Scientific Literature — and Figure out What It All Means?» Nature 635, n.o 8038 (13 de noviembre de 2024): 276-78. https://doi.org/10.1038/d41586-024-03676-9.


La inteligencia artificial (IA) está revolucionando la revisión de la literatura científica al ofrecer herramientas que pueden resumir grandes volúmenes de información de manera rápida. Sin embargo, esta innovación plantea tanto beneficios como riesgos.

La IA en la ciencia no es un tema nuevo. Los investigadores han utilizado herramientas de software durante décadas para buscar y analizar la literatura científica. Sin embargo, los recientes modelos de lenguaje de gran escala (LLM), como ChatGPT, han generado entusiasmo por la automatización de la síntesis de información. Estos modelos no solo encuentran y resumen artículos, sino que ahora pueden, en teoría, generar revisiones narrativas de literatura científica, aunque todavía no alcanzan el nivel de rigor de las revisiones sistemáticas.

Este campo está en auge debido a la dificultad de los investigadores para mantenerse al día con la creciente cantidad de publicaciones científicas. Tal es el caso de Sam Rodriques, quien, junto a su equipo de la startup FutureHouse, ha creado un sistema de IA llamado PaperQA2, diseñado para sintetizar información científica. Con él, lograron producir artículos sobre 17.000 genes humanos, muchos de los cuales carecían de una página en Wikipedia.

Los motores de búsqueda de IA en ciencia

Algunos motores de búsqueda con IA, como Consensus y Elicit, se han diseñado específicamente para facilitar la revisión de literatura académica. Estos motores primero realizan una búsqueda en bases de datos científicas como Semantic Scholar y PubMed, y luego utilizan un LLM para resumir los estudios encontrados y generar respuestas sintetizadas. El usuario puede ver referencias y filtros para ajustar los resultados. Estas herramientas pueden hacer que el proceso de revisión y redacción sea más eficiente al encargarse de las tareas más laboriosas, aunque la calidad de sus resúmenes no es comparable aún a la de una revisión realizada por expertos.

Desafíos y limitaciones

Los expertos advierten que pedirle a una IA como ChatGPT que redacte revisiones completas desde cero sería poco fiable. Los LLM entrenan con grandes volúmenes de texto y generan respuestas basadas en probabilidad, sin evaluar la credibilidad de las fuentes. Esto significa que pueden combinar información académica válida con fuentes menos confiables, sin dar prioridad a la literatura de mayor calidad. Además, pueden generar errores o «alucinaciones», es decir, referencias o afirmaciones inexistentes.

Para evitar estos problemas, algunos investigadores emplean un método llamado “generación aumentada por recuperación”, que consiste en cargar en el modelo únicamente artículos seleccionados previamente. Esta técnica reduce los errores, pero no los elimina por completo.

Revisión sistemática y el papel de la IA

Mientras las revisiones narrativas son confiables, la revisión sistemática presenta mayores obstáculos. Este tipo de revisión requiere pasos estrictos, como búsqueda exhaustiva, evaluación de la calidad de los estudios, síntesis de datos y, a menudo, un meta-análisis. Cada paso es revisado por al menos dos investigadores para garantizar precisión y transparencia. En 2019, un equipo de investigadores, incluido Paul Glasziou, estableció un récord al completar una revisión sistemática en solo dos semanas, empleando herramientas como RobotSearch y RobotReviewer, que usan IA para identificar estudios y evaluar riesgos de sesgo. Sin embargo, aunque estas herramientas reducen el tiempo de revisión, la IA aún no puede completar una revisión sistemática de forma autónoma.

Elicit y otros sistemas afirman ayudar en la revisión sistemática, pero no la automatizan completamente. En su lugar, permiten a los investigadores acelerar pasos específicos, como la clasificación de artículos y la extracción de datos, mientras que otros procesos siguen dependiendo del juicio humano. La limitación de estos sistemas es que solo pueden buscar en artículos de acceso abierto y abstracts, dejando fuera gran parte de la literatura científica, que suele estar bajo pago.

Riesgos y futuro de la IA en revisiones científicas

Aunque la IA puede ayudar a mejorar la velocidad y eficiencia de las revisiones, también podría dar lugar a revisiones menos rigurosas y de menor calidad. La tentación de utilizar herramientas de IA para realizar revisiones rápidamente podría resultar en artículos poco precisos, contaminando la literatura científica. Sin embargo, hay quienes creen que la IA también podría elevar los estándares en la revisión de literatura al hacer que más científicos consulten la literatura existente antes de lanzar nuevos estudios.

Algunos expertos sugieren que el desarrollo de herramientas de IA para la ciencia debería estar en manos de organizaciones sin fines de lucro que promuevan la transparencia y la evaluación rigurosa. Recientemente, en el Reino Unido se ha anunciado una inversión significativa en herramientas de síntesis de evidencia, lo que refleja el creciente interés en abordar estos desafíos. La clave para el futuro parece estar en equilibrar la eficiencia que la IA puede aportar con la necesidad de mantener estándares rigurosos en la investigación científica.