Archivo de la etiqueta: Ética de la información

20.000 investigadores publican la sospechosa cifra de cientos de artículos al año

Chawla, Dalmeet Singh. “20,000 Scientists Publish at Unrealistic Rates, Study Says.Chemical & Engineering News, February 4, 2025. https://cen.acs.org

Un nuevo análisis sugiere que alrededor de 20.000 científicos están publicando un número «implausiblemente alto» de artículos en revistas académicas y cuentan con un número inusualmente alto de nuevos colaboradores.

El estudio, publicado en Accountability in Research, analizó los patrones de publicación de aproximadamente 200.000 investigadores de la lista de los principales científicos del 2% de Stanford, basada en métricas de citación. Se encontró que alrededor del 10% de estos científicos producen cientos de estudios anualmente, con cientos o miles de nuevos coautores cada año.

Simone Pilia, coautor del estudio y geocientífico en la Universidad Rey Fahd de Petróleo y Minerales, advierte que esta tendencia está poniendo en riesgo la integridad académica, ya que muchos investigadores, especialmente los jóvenes, sienten presión para priorizar la cantidad sobre la calidad.

El estudio también examinó la producción de 462 ganadores del Premio Nobel en física, química, medicina y economía, y reveló que muchos académicos pueden estar utilizando prácticas poco éticas, como la inclusión de coautores sin una contribución real a la investigación.

Para abordar este problema, Pilia y su coautor Peter Mora proponen corregir o ajustar las métricas cuando los científicos alcanzan ciertos umbrales de publicaciones y coautores, con el objetivo de reducir la presión por producir en volumen.

Sin embargo, Ludo Waltman, experto en métricas de investigación en la Universidad de Leiden, critica la propuesta, argumentando que añadir complejidad a las métricas puede hacerlas menos transparentes y difíciles de interpretar. En su opinión, la evaluación de los científicos debe basarse en un conjunto más amplio de actividades de investigación, y no solo en métricas de publicación.

Meta utilizó libros pirateados de Library Genesis (LibGen) para entrenar su modelo de inteligencia artificial Llama 3 sin autorización de los autores

Reisner, Alex. “Meta Used Pirated Books to Train Its AI.” The Atlantic, March 20, 2025. https://www.theatlantic.com/technology/archive/2025/03/libgen-meta-openai/682093/?gift=iWa_iB9lkw4UuiWbIbrWGYDRoX8kfg3ZQZL6J-W0kQE.

La decisión de emplear estos materiales surge de la necesidad de contar con grandes volúmenes de texto de alta calidad para mejorar sus productos de IA y competir con modelos como ChatGPT. Sin embargo, en lugar de optar por acuerdos de licencia con editoriales y autores, lo cual implicaba costos elevados y plazos largos, la empresa decidió recurrir a LibGen, una de las mayores bibliotecas piratas de Internet, que alberga más de 7.5 millones de libros y 81 millones de artículos académicos.

Las revelaciones provienen de documentos judiciales recientemente desclasificados en el marco de una demanda por infracción de derechos de autor presentada por autores como Sarah Silverman y Junot Díaz. Entre los hallazgos más significativos se encuentra la confirmación de que Meta obtuvo permiso explícito de su CEO, Mark Zuckerberg, para descargar y utilizar la base de datos de LibGen en el entrenamiento de su modelo de IA. Este hecho subraya que la empresa no solo era consciente de la ilegalidad de sus acciones, sino que las respaldó desde los niveles más altos de la compañía.

Meta, al igual que OpenAI, ha defendido su uso de contenido protegido argumentando que los modelos de IA generan obras «transformadoras» a partir del material entrenado y, por lo tanto, están amparados bajo el principio de «fair use» (uso justo). No obstante, este argumento es altamente controvertido y todavía está lejos de una resolución definitiva en los tribunales. Más allá de la cuestión de si entrenar IA con libros pirateados constituye un uso legítimo de los materiales protegidos por derechos de autor, el artículo plantea un problema adicional: la forma en que Meta accedió a estos contenidos. Según los registros internos, la empresa utilizó BitTorrent para descargar los archivos, un método que generalmente implica no solo la descarga, sino también la distribución de los mismos, lo que agravaría aún más su situación legal.

Los documentos internos de Meta también revelan que sus empleados eran plenamente conscientes del riesgo legal que implicaba usar LibGen, calificándolo de «riesgo medio-alto». Para mitigar posibles repercusiones, sugirieron estrategias para ocultar la procedencia de los datos, como eliminar metadatos que indicaran que los textos estaban protegidos por derechos de autor y evitar cualquier mención pública del uso de LibGen. Además, se discutió la posibilidad de ajustar Llama 3 para que se negara a responder solicitudes que pudieran revelar la reproducción de contenido protegido, como pedirle que generara las primeras páginas de un libro específico.

El artículo también aborda el papel de LibGen en el acceso al conocimiento. Esta biblioteca pirata surgió en Rusia en 2008 con el propósito de ofrecer acceso gratuito a libros y artículos académicos, particularmente para estudiantes y profesionales de países con dificultades para costear estos materiales, como India, Pakistán e Irán. Sin embargo, su crecimiento exponencial ha facilitado su uso más allá de estos contextos, permitiendo que grandes corporaciones tecnológicas como Meta se beneficien del contenido sin retribuir a los autores originales.

Finalmente, Reisner plantea una reflexión sobre el impacto de esta práctica en el ecosistema del conocimiento y la creación intelectual. Si bien bibliotecas piratas como LibGen han democratizado el acceso a la información, el uso que hacen las empresas de IA de estos materiales plantea preocupaciones éticas y económicas. Al desarrollar chatbots y modelos generativos que sintetizan el conocimiento sin citar sus fuentes, estas compañías descontextualizan la información, limitan la colaboración intelectual y dificultan que escritores e investigadores reciban reconocimiento por su trabajo. La cuestión de fondo es si este tipo de apropiación tecnológica realmente beneficia a la sociedad en su conjunto o simplemente maximiza los beneficios de las grandes corporaciones, desplazando a los creadores originales en el proceso.

Las grandes empresas de inteligencia artificial han hecho caso omiso de las leyes de copyright

Pastor, Javier. “Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias.” Xataka, 13 de marzo de 2025. https://www.xataka.com/legislacion-y-derechos/todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias

Las grandes empresas de inteligencia artificial utilizan material protegido por derechos de autor para entrenar sus modelos, y hasta ahora, no han enfrentado repercusiones significativas. La reciente demanda de editoriales francesas contra Meta es solo otro capítulo en una batalla legal que parece no tener fin.

Las grandes empresas de inteligencia artificial (IA) han sido objeto de múltiples demandas por presuntas violaciones de derechos de autor al utilizar contenido protegido para entrenar sus modelos. A pesar de la gravedad de estas acusaciones, muchas de estas compañías han logrado eludir consecuencias legales significativas.

Las editoriales francesas han decidido actuar contra Meta por el uso indebido de contenido protegido. Sin embargo, no son las primeras en dar este paso, ni probablemente serán las últimas. Desde hace años, compañías de IA han empleado materiales con derechos de autor para alimentar sus algoritmos sin autorización, y la respuesta judicial ha sido, hasta ahora, ineficaz.

Getty Images fue una de las primeras en llevar a los tribunales a una empresa de IA. En 2023, demandó a Stable Diffusion por el uso no autorizado de sus imágenes en la generación de contenido visual. Sin embargo, a pesar de la magnitud de este caso y de muchos otros que han surgido desde entonces, la falta de resoluciones contundentes ha permitido que el problema persista.

Demandas destacadas contra empresas de IA

  • Getty Images vs. Stability AI: En enero de 2023, Getty Images demandó a Stability AI, desarrolladora de Stable Diffusion, acusándola de copiar y procesar ilegalmente millones de imágenes protegidas por derechos de autor para entrenar su modelo de IA generativa.
  • Discográficas vs. Empresas de IA: En junio de 2024, las principales discográficas, incluyendo Sony Music Entertainment, Universal Music Group y Warner Records, demandaron a las empresas de IA Suno y Udio por supuesta infracción de derechos de autor al utilizar contenido musical protegido sin autorización en el entrenamiento de sus modelos.
  • Autores vs. Anthropic: En agosto de 2024, un grupo de escritores presentó una demanda contra la empresa de IA Anthropic, acusándola de construir su negocio utilizando cientos de miles de libros protegidos por derechos de autor sin permiso ni compensación.

Resultados legales favorables a las empresas de IA

A pesar de las numerosas demandas, varias empresas de IA han obtenido fallos judiciales favorables:

  • OpenAI: En julio de 2024, OpenAI logró que se desestimaran dos demandas en su contra por supuestas violaciones de derechos de autor, relacionadas con la eliminación de información de gestión de derechos en los datos de entrenamiento de ChatGPT.
  • GitHub Copilot: En noviembre de 2022, se presentó una demanda contra GitHub Copilot por presunta violación de acuerdos de licencia abierta al utilizar código protegido para entrenar su modelo de IA. Sin embargo, en julio de 2024, un juez desestimó prácticamente todas las reclamaciones de los demandantes.

Iniciativas regulatorias y debates legales

La creciente preocupación por el uso de contenido protegido en el entrenamiento de modelos de IA ha llevado a iniciativas regulatorias y debates legales:

  • Regulación en España: El Gobierno español aprobó en marzo de 2025 una norma que obliga a etiquetar claramente los contenidos creados con IA, adaptando la legislación al Reglamento Europeo de IA. Las infracciones pueden acarrear multas de hasta 35 millones de euros o entre el 5% y el 7% de la facturación mundial de las empresas infractoras.
  • Propuestas en EE. UU.: OpenAI y Google han sugerido al Gobierno de Estados Unidos relajar las medidas de copyright para permitir un entrenamiento más eficiente de los modelos de IA, lo que ha generado debates sobre el equilibrio entre la innovación tecnológica y la protección de los derechos de autor.

La tensión entre el avance de la inteligencia artificial y la protección de los derechos de autor continúa siendo un tema central en la industria tecnológica. Mientras las empresas de IA buscan acceder a vastos conjuntos de datos para mejorar sus modelos, creadores y titulares de derechos exigen mecanismos que garanticen el uso ético y legal de sus obras. El desarrollo de marcos legales y regulaciones claras será esencial para equilibrar la innovación tecnológica con la protección de la propiedad intelectual.

Normas ISO sobre Inteligencia Artificial

International Organization for Standardization. ISO/IEC 22989:2022: Information Technology—Artificial Intelligence—Artificial Intelligence Concepts and Terminology. International Organization for Standardization. Última modificación el 2022. https://www.iso.org/es/contents/data/standard/07/42/74296.html

International Organization for Standardization. ISO/IEC 23894:2023: Artificial Intelligence — Guidance on Risk Management. International Organization for Standardization. Última modificación en 2023. https://www.iso.org/es/contents/data/standard/07/73/77304.html

La norma ISO/IEC 22989:2022, titulada «Tecnologías de la información — Inteligencia artificial — Conceptos y terminología de inteligencia artificial», establece una terminología común y describe los conceptos fundamentales en el ámbito de la inteligencia artificial (IA). Esta norma, publicada en julio de 2022, tiene como objetivo facilitar la comunicación entre diversos actores, incluyendo empresas, investigadores y organismos reguladores, proporcionando un lenguaje común que mejore la comprensión y la interoperabilidad en el desarrollo y uso de sistemas de IA.

Principales aspectos de la ISO/IEC 22989:2022:

  1. Definición de conceptos clave: La norma aborda una amplia gama de términos relacionados con la IA, tales como:
    • Tipos de IA: Diferencia entre IA general (capaz de realizar múltiples tareas como un humano) e IA estrecha (diseñada para tareas específicas).
    • Aprendizaje automático (Machine Learning): Explica métodos como aprendizaje supervisado, no supervisado, por refuerzo y transferencia de aprendizaje.
    • Redes neuronales: Introduce términos como perceptrón, redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN).
    • Confiabilidad de la IA: Aborda factores como sesgo algorítmico, explicabilidad, transparencia y controlabilidad.
    • Ciclo de vida de los sistemas de IA: Desde el diseño y desarrollo hasta la operación y monitoreo continuo.
  2. Facilitación de la interoperabilidad: Al establecer un marco de referencia común, la norma promueve la interoperabilidad entre diferentes tecnologías y sistemas de IA, lo que es esencial en un entorno tecnológico diverso y en constante evolución. iso.org
  3. Mejora de la transparencia y confianza: Proporcionar definiciones claras y consistentes ayuda a mejorar la transparencia en los sistemas de IA, lo que a su vez aumenta la confianza de los usuarios y facilita la adopción ética y responsable de estas tecnologías.
  4. Aplicaciones prácticas: La norma es aplicable a una amplia gama de organizaciones, incluyendo empresas comerciales, agencias gubernamentales y organizaciones sin fines de lucro. Su adopción puede beneficiar a sectores como el desarrollo de asistentes virtuales, sistemas de detección de fraudes y otras aplicaciones de IA, permitiendo a las organizaciones tomar decisiones más informadas y alineadas con las mejores prácticas internacionales. iso.org

La ISO/IEC 22989:2022 es una herramienta esencial para profesionales y organizaciones involucradas en el desarrollo, implementación y regulación de sistemas de IA. Su adopción contribuye a la construcción de sistemas más confiables, eficientes y éticamente alineados, promoviendo una mayor comprensión y colaboración en el campo de la inteligencia artificial.

La norma ISO/IEC 23894, titulada Artificial Intelligence — Guidance on Risk Management, publicada en 2023 proporciona directrices sobre cómo gestionar los riesgos asociados con la inteligencia artificial (IA). Se enfoca en la identificación, evaluación y mitigación de riesgos en el ciclo de vida de los sistemas de IA, incluyendo aspectos éticos, operativos y de seguridad. La norma busca asegurar que las organizaciones adopten prácticas responsables para minimizar los impactos negativos de la IA, fomentando una implementación más segura y confiable de estas tecnologías.

El marco de alfabetización en IA

Stanford Teaching Commons. «Understanding AI LiteracyTeaching Commons, last modified 2024. https://teachingcommons.stanford.edu/teaching-guides/artificial-intelligence-teaching-guide/understanding-ai-literacy

La alfabetización en IA se define como un conjunto de competencias que permite a las personas evaluar críticamente las tecnologías de IA, colaborar efectivamente con ellas y utilizarlas de manera ética, tanto en el hogar como en el trabajo. Se relaciona estrechamente con la alfabetización digital y de datos, ya que la IA depende de estos aspectos.

El marco de alfabetización en IA incluye cuatro dominios: funcional, ético, retórico y pedagógico. Cada uno tiene objetivos progresivos de competencia, buscando que se superpongan y se informen mutuamente.

El marco de alfabetización en IA sigue un enfoque centrado en el ser humano, subrayando que los individuos deben liderar el uso de la IA para maximizar sus beneficios y minimizar impactos negativos. El objetivo es emplear la IA para potenciar el aprendizaje y las capacidades humanas. Además, se destaca la responsabilidad ética en el uso de la tecnología, reconociendo que las decisiones informadas requieren esfuerzo y tiempo continuo.

El marco de alfabetización en IA identifica cuatro dominios clave:

  1. Alfabetización funcional: ¿Cómo funciona la IA?
  2. Alfabetización ética: ¿Cómo abordar los problemas éticos de la IA?
  3. Alfabetización retórica: ¿Cómo usar el lenguaje natural y generado por IA para lograr objetivos?
  4. Alfabetización pedagógica: ¿Cómo usar la IA para mejorar la enseñanza y el aprendizaje?

La alfabetización funcional en IA abarca el conocimiento de cómo funciona la IA, las habilidades necesarias para usar herramientas comunes y la conciencia sobre el desarrollo de la tecnología. Comienza con el uso básico de herramientas y la comprensión de términos y procesos clave, como el papel de los datos en el entrenamiento de la IA. Con el tiempo, se pueden evaluar las capacidades y limitaciones de la IA, usar herramientas avanzadas y crear recursos personalizados para la comunidad.

Los chatbots de IA basados en modelos de lenguaje grandes (LLM) generan respuestas al analizar datos masivos de la web, creando una voz compuesta basada en patrones comunes. Aunque pueden ser útiles en tareas como la lluvia de ideas o explicaciones generales, no son ideales para contenido especializado o soluciones originales. Comprender cómo funcionan los LLMs puede mejorar el uso de herramientas de IA y permitir aplicaciones más sofisticadas.

La alfabetización ética en IA implica comprender los problemas éticos relacionados con la IA y las prácticas para su uso responsable. Inicia con la evaluación de la precisión, fiabilidad y sesgos implícitos, y avanza hacia la reflexión sobre la integridad académica, la equidad, la privacidad y otros temas éticos. Con el tiempo, se pueden investigar impactos en comunidades marginadas y diseñar herramientas más éticas para la educación.

Al usar herramientas de IA para trabajos académicos, como un artículo de investigación, es crucial examinar sus implicaciones en términos de autoría, originalidad y propiedad. Aunque las herramientas de IA pueden ser muy útiles, pueden generar confusión sobre quién posee el contenido. Con el uso colaborativo de IA, las diferencias entre el material generado por IA y el creado por humanos pueden volverse más sutiles, y las políticas sobre transparencia y atribución pueden variar según el contexto.

La alfabetización retórica en IA se refiere a la habilidad de usar el lenguaje de manera efectiva para lograr objetivos y analizar la relación entre el lenguaje humano y el generado por IA. Comienza con la experimentación en la estructuración de tus escritos y en la elección de palabras al interactuar con herramientas de IA. A medida que adquieres experiencia, puedes colaborar con la IA para mejorar la calidad del contenido y utilizarla de manera más inclusiva y crítica, promoviendo lenguajes y perspectivas marginadas.

La alfabetización pedagógica en IA implica integrar prácticas de enseñanza efectivas con herramientas de IA para apoyar el aprendizaje estudiantil. Se comienza explorando teorías del aprendizaje, métodos de diseño de cursos y estrategias pedagógicas, además de herramientas educativas impulsadas por IA. Con el tiempo, se identifican prácticas basadas en evidencia para promover el pensamiento crítico, la inclusión y el bienestar. Con maestría, se evalúan los efectos de la IA en la enseñanza y se promueven innovaciones pedagógicas.

¿Cómo pueden los bibliotecarios proteger a los investigadores de revistas y editoriales no confiables?

Estelle, Lorraine. «How Librarians Can Protect Researchers from Untrustworthy Journals and Book Publishers.» International Federation of Library Associations and Institutions, February 26, 2025. https://blogs.ifla.org/arl/2025/02/26/how-librarians-can-protect-researchers-from-untrustworthy-journals-and-book-publishers/

En el ámbito de la publicación académica, los bibliotecarios pueden ayudar a los investigadores a evitar las editoriales y revistas depredadoras, que cobran tarifas sin ofrecer servicios adecuados. Los bibliotecarios pueden orientar y promover recursos a través de sus sitios web y materiales visuales, convirtiéndose en guías confiables para mantener la integridad de la investigación.

En el vertiginoso mundo de la publicación académica, los investigadores se enfrentan a una gran cantidad de opciones, no todas legítimas. Una amenaza creciente son los editores y revistas depredadoras, también conocidos como editoriales fraudulentas o engañosas. Estos actores operan con un objetivo común: explotar a los investigadores, imponiéndoles tarifas considerables sin proporcionar los servicios de edición o revisión por pares que prometen.

Aunque el modelo de negocio basado en tarifas es común en la publicación académica, lo que diferencia a los editores depredadores es su mala fe. En lugar de contribuir al avance del conocimiento, se aprovechan de la manipulación y la tergiversación, dejando a los investigadores vulnerables y sin el reconocimiento que su trabajo merece.

La amenaza creciente de la publicación depredadora

La publicación depredadora no es solo una molestia; se ha convertido en una epidemia global que afecta a todos los países. Con el aumento de las revistas en línea, los editores depredadores han encontrado una vía más fácil para operar encubiertos. Aunque los correos electrónicos mal redactados podrían ser una señal de advertencia, los editores depredadores actuales son cada vez más astutos, adoptando nombres que imitan a revistas respetables y presumiendo factores de impacto falsos o consejos editoriales inventados. Incluso existen revistas secuestradas que copian el sitio web de una revista legítima para engañar a los investigadores y hacer que envíen sus artículos a la versión clonada. Incluso los académicos experimentados pueden caer en esta trampa.

Una solución simple: Think. Check. Submit.

La buena noticia es que los investigadores no tienen que enfrentarse a esta amenaza por su cuenta. Think. Check. Submit. es una colaboración intersectorial que ofrece herramientas para ayudar a los investigadores a evaluar la confiabilidad de las editoriales y revistas antes de enviarles su trabajo. Mediante listas de verificación prácticas, esta iniciativa permite a los investigadores evaluar si una editorial o revista es adecuada para su investigación y si es confiable.

El rol de los bibliotecarios como socios confiables

Los bibliotecarios desempeñan un papel crucial en la difusión de Think. Check. Submit., ya que los sitios web de las bibliotecas son una de las principales fuentes a través de las cuales los investigadores descubren este recurso. A continuación se mencionan algunas formas en las que las bibliotecas pueden ayudar:

  1. Agregar un enlace: Incluir el enlace a Think. Check. Submit. en los sitios web o guías bibliográficas de la biblioteca para facilitar su acceso a los investigadores.
  2. Compartir recursos visuales: Descargar carteles, gráficos para redes sociales y otros materiales para promover la concienciación sobre el tema. P. ejemplo ¿Cómo detectar una revista depredadora? Planeta Biblioteca 2019/10/15
  3. Incorporar el video explicativo: Usar el video animado de Think. Check. Submit. para explicar de manera divertida y memorable cómo evaluar la confiabilidad de una editorial o revista.

Al tomar estas simples medidas, los bibliotecarios pueden convertirse en defensores de la integridad de la investigación, ayudando a los investigadores a evitar las trampas de la publicación depredadora y asegurando que su trabajo llegue al público que merece.

Fuentes adicionales sobre publicaciones depredadoras:

  • La Unión Internacional de Editores ha abordado el tema de las publicaciones depredadoras, destacando la necesidad de aumentar la conciencia sobre estas prácticas y apoyar a los investigadores en la toma de decisiones informadas.
  • Think. Check. Submit. también está respaldado por organizaciones de bibliotecas y universidades de todo el mundo, como la Sociedad de Bibliotecarios de Reino Unido (CILIP), que promueven su uso como herramienta educativa esencial.
  • Un informe de Nature (2019) señala que los investigadores que caen en las trampas de las publicaciones depredadoras pueden enfrentar serias consecuencias profesionales, incluida la deslegitimación de su trabajo académico.

Estos recursos, junto con el compromiso activo de bibliotecarios y otros profesionales de la información, pueden ayudar a mitigar los efectos perjudiciales de las publicaciones depredadoras en la comunidad académica.

Más sobre

Alonso Arévalo J., Saraiva R. y Flórez Holguín R. (2020). Revistas depredadoras: fraude en la ciencia. Cuadernos de Documentación Multimedia31, e68498. https://doi.org/10.5209/cdmu.68498

La inteligencia artificial y la generación de contenidos académicos

La inteligencia artificial y la generación de contenidos académicos

27 DE FEBRERO de 2025 10:00 AM de Colombia. 16 h. de España Escuela de Ingenieros Militares de Colombia Biblioteca Coronel Lino de Pombo de la Escuela de Ingenieros Militares los invita: CONFERENCIA Virtual GRATUITA

Conferenciante: Julio Alonso Arévalo Universidad de Salamanca

«Declaración sobre el lenguaje ofensivo» para reconocer y abordar el lenguaje problemático en el catálogo de la biblioteca

Newlin, Rachel, and Aaron Bock. «Addressing Harmful Language in Library Metadata and CollectionsJournal of Library and Information Science, 2022 https://americanlibrariesmagazine.org/2025/01/02/words-matter/

En los últimos años, bibliotecarios y archiveros han mostrado preocupación por el lenguaje ofensivo o desactualizado en metadatos y colecciones. En 2022, la Biblioteca del Distrito de Schaumburg Township (STDL) en Illinois adoptó una declaración sobre contenido dañino para reconocer y abordar el lenguaje problemático en su catálogo.

En 2022, la Biblioteca del Distrito de Schaumburg Township (STDL) en Illinois adoptó una declaración sobre contenido dañino—también conocida como «declaración sobre lenguaje dañino» o «declaración sobre contenido dañino»—para reconocer y abordar el lenguaje problemático en el catálogo de la biblioteca. Estas declaraciones ayudan a las bibliotecas a enfocarse en describir los materiales de manera respetuosa e informada por sus comunidades. La declaración debe ser un catalizador para conversaciones significativas sobre diversidad, equidad e inclusión.

La STDL es una de las muchas bibliotecas que han implementado políticas similares para abordar el lenguaje problemático en sus colecciones. Por ejemplo, la Biblioteca Pública de Chicago ha revisado sus políticas de adquisición y catalogación para garantizar que sus colecciones sean inclusivas y respetuosas. Además, la Biblioteca del Congreso de los Estados Unidos ha trabajado en la actualización de sus registros bibliográficos para eliminar términos ofensivos y promover un lenguaje más inclusivo.

Estas iniciativas reflejan un esfuerzo más amplio en la comunidad bibliotecaria para reconocer y rectificar el lenguaje que puede ser perjudicial o excluyente, promoviendo así un entorno más inclusivo y respetuoso para todos los usuarios.

Declaración sobre Contenido Dañino de STDL


Nuestra colección, al igual que nuestra comunidad, es diversa y dinámica. Parte de la organización de los materiales en nuestra colección incluye el uso de metadatos y descripciones estandarizadas en nuestro catálogo. En la biblioteca, nos comprometemos a crear descripciones inclusivas que describan con precisión nuestros materiales. Sin embargo, reconocemos que puede haber lenguaje en las descripciones de nuestra colección que esté desactualizado, sea insensible o inexacto. Tales descripciones no reflejan el punto de vista de la biblioteca, sino las actitudes sociales y circunstancias del período o lugar en el que fueron creadas. Nos dedicamos a encontrar formas de mitigar el uso de lenguaje dañino en las descripciones de nuestro catálogo.

Reconocemos que a menudo estamos describiendo comunidades de las que no formamos parte. Reconocemos nuestra responsabilidad de describir nuestra colección de manera respetuosa y cuidadosa. También reconocemos que en ocasiones podemos fallar y estamos comprometidos con un proceso de reflexión constante y mejora.

¿Cómo se describen los materiales y por qué algunas descripciones son dañinas?

Al procesar nuestras colecciones, el personal toma decisiones sobre qué lenguaje utilizar para describir nuestros materiales. Algunas de estas descripciones fueron escritas hace muchos años, utilizando un lenguaje que era aceptable en su momento. Los bibliotecarios a menudo utilizan un conjunto estándar de términos, como las Encabezamientos de Materias de la Biblioteca del Congreso, para describir los materiales. Algunos de estos términos estandarizados están desactualizados, son ofensivos o insensibles. A veces, el personal comete errores o usa un juicio inapropiado. Estamos comprometidos a trabajar para mejorar el acceso y actualizar las descripciones que sean dañinas.

¿Cómo estamos trabajando para abordar este problema y ayudar a los usuarios a entender mejor este contenido?

  • Trabajando directamente con comunidades mal representadas y subrepresentadas para mejorar la forma en que son representadas.
  • Informando a los usuarios sobre la presencia y el origen del contenido dañino.
  • Proponiendo cambios y adiciones a los vocabularios estándar para promover un acceso más inclusivo y preciso a las obras.
  • Implementando vocabularios de sistemas alternativos de vocabulario y clasificación.
  • Incluyendo metadatos descriptivos en el guion original de obras en lenguas que no usan el alfabeto latino.
  • Favoreciendo los términos usados por las comunidades e individuos descritos en nuestras colecciones.
  • Participando en discusiones continuas dedicadas a examinar nuestro legado y prácticas históricas de catalogación.

¿Cómo puedo reportar contenido dañino?

Mantener una descripción actualizada y precisa de los materiales es un proceso continuo y no siempre tomamos las decisiones correctas. Fomentamos la retroalimentación de todos los miembros de nuestra comunidad, para que podamos aprender y ajustar nuestras prácticas.

Fuente: Schaumburg Township (Ill.) District Library

Los artículos fraudulentos contaminan la literatura científica mundial, alimentan una industria corrupta y frenan la investigación médica legítima para salvar vidas

Joelving, Frederik, Cyril Labbé, y Guillaume Cabanac. «Fake Papers Are Contaminating the World’s Scientific Literature, Fueling a Corrupt Industry and Slowing Legitimate Lifesaving Medical Research.» The Conversation, 29 enero 2025. https://theconversation.com/fake-papers-are-contaminating-the-worlds-scientific-literature-fueling-a-corrupt-industry-and-slowing-legitimate-lifesaving-medical-research-246224

En la última década, entidades comerciales depredadoras de todo el mundo han industrializado la producción, venta y difusión de investigaciones académicas falsas, socavando la literatura en la que se basan desde médicos hasta ingenieros para tomar decisiones sobre vidas humanas.

Resulta extremadamente difícil determinar con exactitud la magnitud del problema. Hasta la fecha se han retirado unos 55.000 artículos académicos por diversos motivos, pero los científicos y las empresas que analizan la literatura científica en busca de indicios de fraude calculan que circulan muchos más artículos falsos, posiblemente hasta varios cientos de miles. Estas investigaciones falsas pueden confundir a los investigadores legítimos, que deben vadear densas ecuaciones, pruebas, imágenes y metodologías sólo para descubrir que son inventadas.

Incluso cuando se descubren los artículos falsos -generalmente por detectives aficionados en su tiempo libre-, las revistas académicas suelen tardar en retractarse, lo que permite que los artículos manchen lo que muchos consideran sacrosanto: la vasta biblioteca mundial de trabajos académicos que introducen nuevas ideas, revisan otras investigaciones y discuten hallazgos.

Cuando Adam Day ejecutó el programa Papermill Alarm de su empresa en los 5,7 millones de artículos publicados en 2022 en la base de datos OpenAlex, descubrió un número preocupante de artículos potencialmente falsos, especialmente en biología, medicina, informática, química y ciencia de los materiales. Papermill Alarm señala los artículos que contienen similitudes textuales con falsificaciones conocidas.

Estos documentos falsos están frenando una investigación que ha ayudado a millones de personas con medicamentos y terapias que salvan vidas, desde el cáncer hasta el COVID-19. Los datos de los analistas muestran que los campos relacionados con el cáncer y la medicina están especialmente afectados, mientras que áreas como la filosofía y el arte lo están menos. Algunos científicos han abandonado el trabajo de su vida porque no pueden seguir el ritmo ante la cantidad de documentos falsos que deben rechazar.

El problema refleja una mercantilización mundial de la ciencia. Las universidades, y quienes financian la investigación, llevan mucho tiempo utilizando la publicación regular en revistas académicas como requisito para ascensos y seguridad laboral, dando lugar al mantra «publicar o perecer».

Pero ahora, los estafadores se han infiltrado en la industria editorial académica para dar prioridad a los beneficios sobre la erudición. Equipados con destreza tecnológica, agilidad y vastas redes de investigadores corruptos, están produciendo artículos sobre todo tipo de temas, desde genes oscuros hasta la inteligencia artificial en medicina.

Estos artículos se incorporan a la biblioteca mundial de la investigación más rápido de lo que pueden ser eliminados. Cada semana se publican en todo el mundo unos 119.000 artículos académicos y ponencias en congresos, lo que equivale a más de 6 millones al año. Los editores calculan que, en la mayoría de las revistas, alrededor del 2% de los artículos presentados -pero no necesariamente publicados- son probablemente falsos, aunque esta cifra puede ser mucho mayor en algunas publicaciones.

Aunque ningún país es inmune a esta práctica, es particularmente pronunciada en las economías emergentes, donde los recursos para hacer ciencia de buena fe son limitados y donde los gobiernos, deseosos de competir a escala mundial, impulsan incentivos particularmente fuertes de «publicar o perecer».

Como resultado, existe una economía sumergida en línea para todo lo relacionado con las publicaciones académicas. Se venden autores, citas e incluso directores de revistas académicas. Este fraude es tan frecuente que tiene su propio nombre: «fábricas de artículos», una expresión que recuerda a las «fábricas de trabajos del curso», en las que los estudiantes hacen trampas consiguiendo que otra persona escriba un trabajo de clase por ellos.

El impacto en los editores es profundo. En los casos más sonados, los artículos falsos pueden perjudicar los resultados de una revista. Importantes índices científicos -bases de datos de publicaciones académicas en las que se basan muchos investigadores para realizar su trabajo- pueden excluir de la lista a las revistas que publiquen demasiados artículos dudosos. Cada vez se critica más que los editores legítimos podrían hacer más por rastrear y poner en la lista negra a las revistas y autores que publican regularmente artículos falsos que, a veces, son poco más que frases encadenadas generadas por inteligencia artificial.

El resultado es una crisis profundamente arraigada que ha llevado a muchos investigadores y responsables políticos a reclamar una nueva forma de evaluar y recompensar a académicos y profesionales de la salud en todo el mundo.

Al igual que los sitios web tendenciosos disfrazados de información objetiva están acabando con el periodismo basado en pruebas y amenazando las elecciones, la ciencia falsa está acabando con la base de conocimientos sobre la que se asienta la sociedad moderna.

Wiley retracta de 26 artículos por la posible participación de fábricas de artículos científicos en ellos

Marcus, Adam. «Wiley Journal Retracts 26 Papers for ‘Compromised Peer Review.’» Retraction Watch, February 19, 2025. https://retractionwatch.com/2025/02/19/environmental-toxicology-wiley-journal-retractions-compromised-peer-review/#more-131105

Los artículos retirados de Environmental Toxicology tienen en común que todos los autores están afiliados a universidades chinas, y muchos de los correos electrónicos de los autores no corresponden a dominios académicos legítimos, sino que contienen secuencias aleatorias de letras y números. Este patrón sugiere la posible participación de fábricas de artículos científicos, que producen y publican trabajos sin un proceso científico genuino.

La revista Environmental Toxicology de Wiley ha realizado la retractación de más de una veintena de artículos en los últimos meses debido a problemas relacionados con el proceso de revisión por pares, lo que ha puesto en evidencia ciertas irregularidades en el manejo editorial de la publicación. Este problema, que se detectó en varias fases, incluyó lotes de retractaciones en noviembre de 2024, enero y más recientemente en febrero de 2025. La investigación interna de Wiley concluyó que estos artículos fueron aceptados exclusivamente debido a un proceso de revisión por pares dudosa, es decir, un procedimiento en el que las evaluaciones de los manuscritos no fueron realizadas de manera justa ni objetiva.

Los artículos en cuestión, todos ellos publicados en Environmental Toxicology, tienen un denominador común: todos los autores están afiliados a universidades de China, y la mayoría de los correos electrónicos de los autores correspondientes no estaban relacionados con dominios universitarios o de instituciones de investigación reconocidas, sino que contenían secuencias aleatorias de letras y números. Este patrón ha sido identificado como una posible señal de actividades vinculadas a fábricas de artículos científicos (Paper Mills), donde se crean y se publican artículos sin un verdadero proceso científico detrás de ellos.

El representante de la oficina de prensa de Wiley explicó que la editorial había identificado patrones preocupantes en la revisión de los manuscritos en proceso, así como en algunos artículos previamente publicados. El caso de Environmental Toxicology forma parte de una investigación más amplia que también ha afectado a otras publicaciones de Wiley, incluidas las retractaciones masivas de artículos en el International Wound Journal en junio de 2024, también por problemas de revisión por pares dudosa. Desde finales de 2022, Wiley ha tenido que retirar más de 11.000 artículos publicados en revistas adquiridas de Hindawi, que la editorial compró en 2021.

Dentro de las retractaciones recientes, nueve de ellas incluyeron declaraciones de uno o más de los autores que no estuvieron de acuerdo con la retirada del artículo. Por ejemplo, Zheng Lufeng, profesor asociado de la Universidad Farmacéutica de China en Nanjing, fue coautor correspondiente de uno de los artículos retirados titulado “MiR-375 impair breast cancer cell stemness by targeting the KLF5/G6PD signaling axis.” Lufeng expresó que los autores no participaron en el proceso de revisión por pares y que esta era una responsabilidad del editor, no de los autores. También solicitó que los editores modificaran los avisos de retractación para indicar que la retirada de los artículos no tenía nada que ver con la implicación directa de los autores en los problemas de la revisión.

Hasta ahora, la mayoría de los artículos retirados fueron publicados en 2024 o en línea bajo el servicio EarlyView de Wiley, lo que implica que la mayoría de los trabajos afectados no habían pasado aún por el proceso de publicación final y revisión completa. Según los avisos de retractación, todos los artículos fueron retirados de común acuerdo entre el Editor en Jefe de la revista y Wiley Periodicals LLC. Paul B. Tchounwou, quien era el editor en jefe de la revista hasta noviembre de 2024, y Christyn Bailey, la actual editora en jefe, no respondieron a las solicitudes de comentarios sobre esta situación.

Este escándalo ha puesto nuevamente en evidencia las vulnerabilidades de los procesos editoriales en el ámbito académico, especialmente en lo que respecta a la integridad de la revisión por pares. Las editoriales enfrentan presiones crecientes por garantizar la calidad de los artículos que publican, lo que genera preocupaciones sobre el auge de prácticas fraudulentas como las fábricas de artículos científicos, que afectan la credibilidad de la investigación académica global. A medida que las editoriales, como Wiley, continúan enfrentando estos desafíos, el proceso de revisión por pares se mantiene como uno de los pilares más importantes para preservar la fiabilidad y la calidad de la investigación publicada.

Además, esta situación también subraya la importancia de la transparencia y la responsabilidad en las publicaciones científicas. El uso de correos electrónicos y dominios no verificados o no asociados con universidades o instituciones de investigación legítimas es una señal de alerta que puede poner en riesgo la calidad de la investigación publicada y afectar la confianza de la comunidad científica. El debate sobre la efectividad del proceso de revisión por pares sigue siendo un tema relevante en el campo académico, con nuevas medidas y plataformas que buscan garantizar la calidad, la integridad y la transparencia en la publicación de trabajos científicos.