Archivo de la etiqueta: Ética de la información

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

La ciencia se está ahogando en la basura de la IA

Andersen, Ross. 2026. “Science Is Drowning in AI Slop.The Atlantic, 22 de enero de 2026. https://www.msn.com/en-us/news/us/science-is-drowning-in-ai-slop/ar-AA1UK0tV

Ross Andersen aborda una crisis creciente en el mundo académico: el aluvión de investigaciones generadas con apoyo de inteligencia artificial que están saturando la producción científica con contenidos de baja calidad, irrelevantes o incluso falsos, lo que él denomina “AI slop” —una especie de desecho digital académico– que la comunidad científica aún no ha aprendido a gestionar eficazmente.

Cada día, en Bluesky y LinkedIn, Quintana veía a académicos publicar mensajes sobre el hallazgo de estas “citas fantasma” en artículos científicos. (La versión inicial del “Informe MAHA” de la administración Trump sobre la salud infantil, publicada la pasada primavera, contenía más de media docena de ellas). Pero hasta que Quintana encontró un falso artículo firmado por un “Quintana” citado en una revista para la que actuaba como revisor, había pensado que el problema se limitaba a publicaciones con estándares más bajos. “Cuando ocurre en una revista que respetas, te das cuenta de lo extendido que está el problema”.

Casi inmediatamente después de que los grandes modelos de lenguaje se popularizaran, los manuscritos comenzaron a llegar a las bandejas de entrada de las revistas en cantidades nunca vistas. Parte de este fenómeno puede atribuirse a la capacidad de la IA para aumentar la productividad, especialmente entre científicos no angloparlantes que necesitan ayuda para presentar su investigación. Pero ChatGPT y herramientas similares también se están utilizando para dar una nueva apariencia de plausibilidad a trabajos fraudulentos o chapuceros, según Mandy Hill, directora general de publicación académica en Cambridge University Press & Assessment. Esto hace que la tarea de separar el grano de la paja sea mucho más lenta para editores y revisores, y también más compleja desde el punto de vista técnico.

Andersen explica que la presión por publicar, combinada con la facilidad de generación de texto e incluso figuras mediante modelos de lenguaje avanzados, ha hecho que conferencias y revistas reciban enormes cantidades de trabajos que no aportan hallazgos verificables ni replicables, y que rara vez se someten a una revisión crítica profunda.

Este problema se agrava por la propia mecánica de la revisión por pares: muchos revisores están recurriendo también a herramientas de IA para evaluar artículos, y al mismo tiempo algunos autores insertan mensajes ocultos que incitan a estas IA a elogiar sus textos, lo que distorsiona aún más el proceso. Andersen describe casos concretos, como ilustraciones generadas que parecen plausibles pero son absurdas o científicamente incorrectas, y un incremento sin precedente en las presentaciones a conferencias de alto impacto en campos como el aprendizaje automático y la robótica. La IA también puede generar las imágenes de un artículo falso. Un artículo de revisión de 2024, ya retractado, publicado en Frontiers in Cell and Developmental Biology, incluía una ilustración generada por IA de una rata con unos testículos desproporcionadamente grandes y ridículos, que no solo superó la revisión por pares, sino que se publicó antes de que nadie lo advirtiera. Por embarazoso que fuera para la revista, el daño fue escaso. Mucho más preocupante es la capacidad de la IA generativa para crear imágenes convincentes de tejidos cortados en láminas finísimas, campos microscópicos o geles de electroforesis, que se usan habitualmente como pruebas en la investigación biomédica.

Las actas de congresos son el principal canal de publicación de artículos en IA y otras ciencias de la computación, y en los últimos años se han visto desbordadas por los envíos. NeurIPS, una de las principales conferencias de IA, ha visto duplicarse las presentaciones en cinco años. ICLR, la conferencia líder en aprendizaje profundo, también ha experimentado un aumento y parece incluir una cantidad considerable de slop: una startup de detección de LLM analizó los envíos para su próxima reunión en Brasil y encontró más de 50 que incluían citas alucinadas. La mayoría no se había detectado durante la revisión por pares. Eso podría deberse a que muchas de las revisiones por pares se realizaron con ayuda de la IA. Pangram Labs analizó recientemente miles de informes de revisión enviados a ICLR y descubrió que más de la mitad habían sido redactados con ayuda de un LLM, y alrededor de una quinta parte eran completamente generados por IA. En todas las ciencias académicas, los autores de artículos incluso han empezado a usar fuentes blancas diminutas para incrustar mensajes secretos dirigidos a los LLM revisores. Instan a las IA a elogiar el artículo que están leyendo, a describirlo como “revolucionario” y “transformador”, y a ahorrarles la molestia de una revisión exigente sugiriendo solo correcciones fáciles.

Este volumen ha superado la capacidad de revisión crítica de la comunidad, de modo que la investigación real y valiosa queda sepultada por un ruido cuya proporción crece constantemente. Además, el autor extiende el análisis a los servidores de preprints (sitios donde los científicos comparten borradores de sus trabajos antes de la revisión formal), donde la llegada masiva de textos asistidos por IA ha catalizado un incremento de publicaciones superficiales. Esto plantea un riesgo no solo para la credibilidad de estos repositorios, sino para todo el sistema de comunicación científica, que depende de un equilibrio entre cantidad y calidad para que los hallazgos genuinos puedan ser detectados, replicados y aprovechados. Expertos citados señalan que si este flujo no se frena, podría convertirse en una “crisis existencial” para ciertos campos del conocimiento, al difuminarse la distinción entre trabajo bien fundamentado y “slop” generado por algoritmos que simplemente repiten patrones sin entendimiento real. Hasta el punto de que ya se está hablando de una teoría conspirativa denominada “internet muerto”. Sus defensores creen que, en las redes sociales y otros espacios en línea, solo unas pocas personas reales crean publicaciones, comentarios e imágenes, y que el resto son generados y amplificados por redes de bots en competencia. Las IA escribirían la mayoría de los artículos y revisarían la mayoría de ellos. Este intercambio vacío serviría para entrenar nuevos modelos de IA. Imágenes fraudulentas y citas fantasma se incrustarían cada vez más profundamente en nuestros sistemas de conocimiento. Se convertirían en una contaminación epistemológica permanente que nunca podría filtrarse.

Miles de citas invisibles se infiltran en artículos y generan métricas falsas

Joelving, Frederik. “How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch, 9 de octubre de 2023. https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

El artículo de Retraction Watch expone un fenómeno descubierto en 2022 por el científico informático Guillaume Cabanac: ciertos trabajos científicos acumulaban un número inusualmente alto de citas en poco tiempo a pesar de haber sido descargados muy pocas veces, una discrepancia que no cuadraba con el impacto real del artículo.

Tras una investigación, Cabanac y sus colegas identificaron la causa en los metadatos enviados a Crossref, donde se incluían referencias que no aparecían ni en el PDF ni en la versión HTML del artículo, sino únicamente en los archivos técnicos que utilizan las bases de datos para indexar publicaciones.

El buscador marcó este artículo en particular —que ya ha sido retractado— por contener las llamadas frases manipuladas, giros extraños en términos establecidos que probablemente fueron introducidos por software de traducción o por personas que buscaban evadir los detectores de plagio.

Cabanac notó algo extraño: el estudio había sido citado 107 veces según el «donut de Altmetrics», un indicador del impacto potencial de un artículo, pero solo se había descargado 62 veces.

Además, según Google Académico, este artículo solo había sido citado una vez. “Había una clara discrepancia entre los recuentos de Google Académico y los de Altmetrics/Dimensions”, afirma Cabanac. Esta diferencia es especialmente significativa, ya que “sabemos que Google Académico suele sobreestimar el número de citas”, añade.

Este tipo de “citas invisibles” —citas añadidas en los metadatos pero no visibles para los lectores— acaba siendo procesado por servicios de métricas como Altmetrics o Dimensions, inflando artificialmente los contadores de citas y otras métricas de impacto académico. El artículo señala que esta manipulación perjudica la integridad de los sistemas de evaluación científica, pues métricas como el número de citas o índices derivadas de ellas se emplean a menudo para medir el rendimiento de investigadores y asignar financiación, lo que podría dar una imagen errónea del impacto real de ciertos autores o publicaciones.

Además, el reporte aclara que estas falsas referencias parecían proceder especialmente de ciertas revistas producidas por un editor específico, y que ni siquiera está claro si se trata de una manipulación deliberada o un fallo técnico de procesos de envío de metadatos. La situación pone de relieve la necesidad de mejorar los mecanismos de control de calidad en la producción de metadatos académicos y de desarrollar herramientas que comparen sistemáticamente las referencias visibles en el texto con las incluidas en los registros técnicos, para evitar que tales citaciones ocultas distorsionen las métricas científicas.

Un investigador “infla” su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas

Joelving, Frederik. “How to Juice Your Google Scholar H-Index, Preprint by Preprint.” Retraction Watch, December 8, 2025. https://retractionwatch.com/2025/12/08/how-to-juice-your-google-scholar-h-index-preprint-by-preprint/

Un investigador logró inflar artificialmente su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas, aprovechando que la plataforma indexa documentos sin revisión por pares.

Un investigador asociado a la Universidad de Zhejiang, Muhammad Zain Yousaf, logró un aumento extraordinario en su índice h de Google Scholar en un corto período de tiempo mediante una estrategia que aprovechó preprints cargados de autocitas. Según la investigación, Yousaf subió diez documentos a un servidor de preprints (TechRxiv) en solo dos días, y la mayoría de las referencias dentro de estos documentos eran trabajos propios, en muchos casos con el autor repitiéndose en una proporción muy alta de la bibliografía. Esto provocó que su índice h, una medida de productividad y impacto científico que combina publicaciones y citaciones, se disparara a niveles comparables a los de académicos sénior, aunque la calidad real de los documentos era cuestionada por expertos que los describieron como incoherentes o de baja calidad técnica.

La situación generó sospechas de manipulación de métricas académicas, ya que Google Scholar indexa automáticamente citas incluso de fuentes sin revisión por pares, lo que permite que documentos no evaluados formalmente influyan en el cómputo de indicadores bibliométricos. Investigadores que analizaron el caso descubrieron que, al excluir autocitas y fuentes sin revisión formal (como preprints y actas de conferencias), el índice h real de Yousaf se reducía a la mitad o más, lo que pone en evidencia la fragilidad del sistema para medir el impacto científico auténtico frente a maniobras de este tipo.

El informe también pone énfasis en que esta no es una anomalía única: otros casos documentados muestran que Google Scholar puede ser sencillo de manipular debido a la forma en que indexa contenido en línea, lo que plantea preocupaciones sobre su uso generalizado para evaluaciones académicas, contrataciones y financiación. Expertos citados en el artículo señalan que, mientras continúe la presión sobre investigadores para obtener altas métricas de citación, seguirán apareciendo tácticas similares que explotan lagunas en los sistemas de evaluación automatizados.

Ética de la inteligencia artificial: consideraciones fundamentales para bibliotecas universitarias

Hart, Brandi. 2025. “Keeping Up With… AI Ethics.Association of College and Research Libraries. American Library Association. https://www.ala.org/acrl/publications/keeping_up_with/ai_ethics

El texto aborda la creciente presencia de la inteligencia artificial en el ámbito de la educación superior y, en particular, en las bibliotecas académicas, subrayando la necesidad de reflexionar sobre sus implicaciones éticas.

La Inteligencia Artificial (IA) se ha integrado cada vez más en casi todas las facetas de la vida, lo que plantea numerosos problemas éticos urgentes en relación con su diseño y uso, así como sus impactos en la sociedad y el medio ambiente. Si bien la IA, el campo científico dedicado a crear sistemas que puedan igualar el rendimiento humano (realizar acciones que un ser humano puede realizar), existe desde la década de 1950, el lanzamiento público de la herramienta de IA generativa ChatGPT en noviembre de 2022 y su comercialización acelerada desde entonces la han situado en el centro de la concienciación y la preocupación pública.

Dada su capacidad para generar contenido que antes solo se creaba mediante la inteligencia humana, la IA generativa también ha tenido un gran impacto en la educación superior, las bibliotecas académicas y la investigación académica. Por lo tanto, este artículo presenta algunos de los aspectos fundamentales de la ética de la IA que los bibliotecarios académicos deben comprender como necesarios para fundamentar sus decisiones individuales e institucionales sobre la adopción o el uso de la IA, la formación y las políticas, a fin de evitar perjuicios éticos, dada la naturaleza disruptiva de la IA como tecnología sin precedentes.

¿Qué es la ética de la IA?

La ética de la IA aborda las cuestiones éticas de la IA, incluidas qué normas morales se deben codificar en la IA para intentar que sea segura (alineación), qué constituye usos moralmente buenos y moralmente malos de la IA a nivel social (gobernanza, políticas, leyes) y a nivel individual, y las consecuencias éticas y el daño de la IA ya sea por su diseño o por cómo se utiliza. La ética de la IA aborda ampliamente:

  1. Cuestiones éticas derivadas de las características de la IA (p. ej., problemas de privacidad, ya que la IA depende de datos personales para su entrenamiento).
  2. Cuestiones éticas derivadas de cómo los humanos deciden usar la IA (p. ej., la definición de estándares éticos para un uso responsable de la IA frente a su uso para perjudicarse mutuamente).
  3. El impacto social y ambiental de las cuestiones éticas de la IA (p. ej., el uso de la automatización de la IA para sustituir el trabajo humano). [2]

Dado que este breve artículo no puede abordar todas las cuestiones de la ética de la IA, hay que centrarse en el uso ético de la IA (no en su diseño ético) en función de cada categoría:

  1. Las cuestiones éticas que surgen de la naturaleza de la IA como una forma de agencia sin precedentes. A saber, la erosión de los principios fundamentales de la dignidad humana debido al uso de la IA.
  2. Los casos de uso ético de la IA (el bueno, el malo y el uso excesivo) para guiar su uso.
  3. El daño social y ambiental causado por el uso excesivo irresponsable de la IA.

(A menos que se especifique lo contrario, «IA» se referirá a la IA generativa en la siguiente sección, dado que es la forma predominante de IA utilizada en las bibliotecas académicas).

La IA es agencia sin inteligencia.

La IA abarca una variedad de sistemas, algoritmos y modelos que destacan en la realización de tareas en áreas específicas con metas y objetivos claros. Sin embargo, la IA solo «imita el pensamiento y el razonamiento»; por lo tanto, no es inteligente. De hecho, la IA es simplemente una forma sin precedentes de agencia (la capacidad de actuar, interactuar con y manipular el mundo físico) que carece de inteligencia (la capacidad de pensar racionalmente).[4]

Por diseño, la IA es incapaz de comprender; no puede discernir el bien del mal, la verdad de la falsedad, la realidad de la invención, ni otros conceptos que requieren inteligencia. De hecho, la IA simplemente los ignora por completo. Debido a su propia naturaleza, la IA a menudo «alucina» o genera información falsa que presenta como un hecho. De igual manera, su capacidad para producir contenido de forma automática y rápida con una «personalización sin precedentes» y un «poder predictivo» nos hace sobreestimar considerablemente sus capacidades y pasar por alto sus defectos.

Agencia Humana, Inteligencia y Responsabilidad

La capacidad generalizada de la IA para moldear sutilmente nuestros pensamientos y acciones «predeterminados por algoritmos subyacentes» está oculta y está llevando a muchas personas a renunciar a parte de su autonomía humana sin darse cuenta. Por lo tanto, es esencial que protejamos nuestros principios fundamentales de dignidad humana: agencia: lo que podemos hacer; capacidad: lo que podemos lograr; autorrealización: en quiénes podemos convertirnos; y cuidado: cómo nos tratamos unos a otros (conexión) y a nuestro entorno. La erosión de estos principios no solo conduce a la desigualdad social y económica, sino que también amenaza con limitar aquello que nos hace humanos.

Desafortunadamente, esto ya ha sucedido, como lo demuestran las empresas con ánimo de lucro, atraídas por la «eficiencia» de la IA, que han optado por reemplazar los empleos de muchas personas con la automatización de la IA, devaluando así su inteligencia, experiencia, habilidades y creatividad, y provocando desempleo y subempleo. A nivel individual, considere cuánto se vinculan la identidad personal, la autoestima y las aspiraciones de vida con el trabajo, y cuán negativamente afecta esta valoración de la agencia artificial sobre la agencia humana a las personas a nivel personal, social y económico.

Retractados 45 artículos de un autor por el uso de direcciones de correo electrónico falsas en la revisión por pares

Marques, F. (2025, marzo). Use of fake email addresses leads to retraction of 45 articles by Brazilian scientists. Revista Pesquisa FAPESP. Recuperado de https://revistapesquisa.fapesp.br/en/use-of-fake-email-addresses-leads-to-retraction-of-45-articles-by-brazilian-scientists/

Se relata un caso significativo de problemas de integridad académica que llevó a la retracción de 45 artículos científicos firmados por un mismo investigador brasileño, el biólogo Guilherme Malafaia Pinto, del Instituto Federal Goiano (IF-Goiano), campus de Urutaí.

Los 45 trabajos fueron publicados en la revista Science of the Total Environment (STOTEN), editada por Elsevier, y su retirada no obedeció a errores experimentales o conclusiones erróneas, sino al compromiso del proceso de revisión por pares. Las notas de retracción señalaron que el sistema de evaluación había sido adulterado porque, aunque Malafaia sugería a revisores legítimos para sus manuscritos —práctica habitual en muchos procesos editoriales—, proporcionó direcciones de correo electrónico falsas para al menos tres de esos investigadores, de modo que las invitaciones de STOTEN llegaban a cuentas ficticias desde las cuales se devolvían opiniones favorables a la publicación. Como resultado, a pesar de que algunos artículos también recibieron evaluaciones de revisores independientes, Elsevier decidió retirar los trabajos al haber “perdido confianza en la validez o integridad” de los manuscritos.

La publicación también explora el contexto y las consecuencias del caso, tanto para el propio investigador como para la comunidad académica. Antes de este escándalo, Malafaia era un científico muy productivo, con casi 350 artículos publicados en una carrera de 15 años, supervisión de numerosos estudiantes de maestría y doctorado, y participación en comités editoriales de varias publicaciones, incluida STOTEN. Él niega haber manipulado deliberadamente la revisión de sus artículos, afirmando que usó direcciones de una base de datos china (CNKI) sin saber que eran falsas y que no tuvo participación directa en la redacción de los supuestos informes de revisión. En una carta abierta, argumentó que el problema fundamental era responsabilidad de los editores por no verificar los correos, y sugirió que sanciones menos drásticas que la retracción hubieran sido más apropiadas. Sin embargo, la situación ha tenido un impacto profundo en su reputación y la de sus colaboradores, muchos de los cuales ahora enfrentan cuestionamientos y el dilema de defender o distanciarse de los trabajos retractados; a la vez, la comunidad académica brasileña reflexiona sobre la importancia de fortalecer la ética y los sistemas de revisión para preservar la confianza en la ciencia.

Citas invisibles y métricas falsas: la ingeniería oculta detrás de las métricas científicas

How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch. Publicado el 9 de octubre de 2023.
https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

Se describe cómo investigadores detectaron un mecanismo de manipulación de métricas científicas consistente en la inserción de «citas invisibles» (o “sneaked citations”). En 2022, el informático Guillaume Cabanac observó un caso extraño: un artículo tenía más de 100 citas en menos de dos meses, pese a haberse descargado solo 62 veces. Cuando se decidió revisar los archivos de metadatos que las editoriales proporcionan a las bases de datos, y se descubrió que contenían referencias que no estaban visibles ni en el PDF ni en la versión online del artículo.

El artículo explica cómo miles de “citas invisibles” pueden infiltrarse en los metadatos de artículos científicos y generar métricas falsas. La alerta surgió cuando un investigador descubrió que un artículo acumulaba más de cien citas en menos de dos meses, pese a que apenas había sido descargado. Esto llevó a examinar los archivos de metadatos que las editoriales envían a los sistemas de indexación, donde se encontró que incluían referencias que no aparecían en el PDF ni en la versión web del artículo.

A partir de esta sospecha, se revisaron los metadatos que las editoriales envían a las bases de datos. En esos archivos —que contienen información técnica para la indexación, como títulos, autores, resúmenes y referencias— se encontraron listas de citaciones que no aparecían en el artículo tal como lo ve el lector. Es decir, la versión en PDF o HTML mostraba una bibliografía normal, pero la versión enviada a los indexadores incluía muchas más referencias añadidas artificialmente. Estas “citas fantasma” no estaban destinadas al lector, sino a los sistemas automatizados.

El problema es que la mayoría de plataformas que calculan métricas —incluyendo sistemas que cuentan citas, generan índices de impacto o alimentan rankings académicos— se basan en esos metadatos. No revisan manualmente las bibliografías visibles, sino que extraen la información directamente de los archivos técnicos. Esto significa que una cita inexistente en el papel puede convertirse en una cita “real” en las métricas, alterando indicadores que son usados en evaluaciones, promociones y decisiones de financiación.

La investigación mostró que esta no era una irregularidad aislada, sino un patrón repetido en varias revistas controladas por un mismo editor. En algunos casos, casi una décima parte de todas las referencias de los artículos eran invisibles para los lectores, pero muy visibles para los algoritmos. Lo más preocupante es que estas citas fantasma beneficiaban sobre todo a un grupo pequeño de autores, lo que sugiere que no eran simples errores técnicos, sino un mecanismo deliberado para inflar perfiles individuales.

Este tipo de manipulación es especialmente peligrosa por su invisibilidad. No se trata de alterar un manuscrito, plagiar contenido o falsificar datos; el artículo, tal y como se publica, parece completamente normal. Toda la distorsión ocurre en una capa oculta que solo las máquinas leen y que pocos investigadores examinan. Esta sofisticación hace que sea mucho más difícil detectar el fraude y, por tanto, mucho más fácil que pase desapercibido durante largos periodos.

El artículo también subraya las implicaciones más amplias para el ecosistema de investigación. Las métricas bibliométricas se han vuelto herramientas cruciales para evaluar la productividad, el prestigio y la influencia científica. Cuando estas métricas pueden manipularse de manera tan sencilla, y a una escala tan grande, se compromete la credibilidad de todo el sistema de evaluación. Investigadores que juegan limpio pueden quedar en desventaja frente a quienes manipulan los metadatos; instituciones pueden otorgar recursos basándose en indicadores inflados; y el público puede perder confianza en la fiabilidad de la ciencia.

Finalmente, se plantea la necesidad urgente de que las editoriales, los indexadores y las plataformas bibliométricas revisen sus procedimientos, auditen los metadatos que reciben y establezcan medidas de detección de anomalías. La transparencia en la gestión de metadatos y la trazabilidad de las referencias podrían ayudar a evitar este tipo de prácticas. Sin medidas correctoras, las “citas invisibles” seguirán distorsionando el sistema científico y creando métricas engañosas que no reflejan la calidad real del trabajo académico.

Suben las calificaciones de los trabajos de clase y bajan las notas en los exámenes presenciales

Oatley, Gabe. 2025. “The New Learning Curve: How Student AI Use Is Changing Teaching at UofT.” TorontoToday.ca, November 24, 2025. https://www.torontotoday.ca/local/education/learning-curve-student-artificial-intelligence-use-changing-teaching-uoft-11532998

Estudio

El uso creciente de herramientas de inteligencia artificial por parte del alumnado está transformando profundamente la enseñanza en la University of Toronto. Los profesores han detectado un fenómeno especialmente llamativo: mientras que las calificaciones de los trabajos para casa han subido de forma notable, los resultados en los exámenes presenciales finales han caído de manera significativa. Esta divergencia, según apuntan, se explica por un uso extendido —y en muchos casos no declarado— de modelos de lenguaje avanzados para elaborar tareas que antes exigían un esfuerzo de lectura, análisis y redacción personal.

Datos clave:

  • El 59 % de los estudiantes canadienses encuestados usan IA generativa para sus trabajos escolares — un aumento respecto al 52 % del año anterior.
  • De entre los estudiantes que usan IA, un 67 % dice que no cree estar aprendiendo o reteniendo tanto conocimiento como antes.
  • A pesar de ello, el 75 % considera que las herramientas de IA han mejorado la calidad de sus trabajos escolares.
  • El uso frecuente: el 63 % dice usar IA generativa varias veces por semana.
  • El 82 % admite que presenta como propio contenido generado por IA.
  • Un 70 % prefiere recurrir a la IA antes que pedir ayuda a sus profesores.
  • Entre quienes usan IA, aproximadamente un 65 %–67 % sienten que su uso equivale a hacer trampa.
  • El 63 % teme ser descubierto por su institución por depender de IA en sus trabajos.

Ante esta realidad, los docentes han comenzado a observar patrones de comportamiento nuevos en su alumnado. Muchos estudiantes recurren a herramientas como ChatGPT o Gemini para resolver dudas, generar ideas iniciales o mejorar la coherencia de sus textos, lo que en algunos casos puede tener un efecto positivo, especialmente cuando se usa para reforzar el aprendizaje. Sin embargo, un número creciente de estudiantes emplea la IA como sustituto del propio proceso cognitivo: delegan totalmente la elaboración de trabajos escritos o incluso la resolución de ejercicios técnicos. Esto ha generado una sensación de falsa competencia, pues los trabajos parecen impecables pero el rendimiento en evaluaciones sin asistencia tecnológica revela lagunas importantes de comprensión.

El artículo también subraya que detectar el uso indebido de IA es una tarea compleja. Las herramientas de detección disponibles no son fiables, y los profesores encuentran difícil —y muchas veces imposible— demostrar que un texto ha sido producido o modificado sustancialmente por un sistema automático. Además, la dinámica de aprendizaje ha cambiado: los estudiantes hacen menos preguntas en clase, participan menos en foros y asisten menos a tutorías, ya que encuentran en la IA una fuente inmediata de respuestas, disponible en cualquier momento. Para parte del profesorado, esta sustitución del diálogo pedagógico por consultas a modelos generativos supone la pérdida de una dimensión esencial de la educación universitaria: la interacción humana, que permite matizar conceptos, plantear dudas profundas y construir pensamiento crítico.

Frente a estos desafíos, los profesores de la universidad están rediseñando sus estrategias docentes. Una respuesta habitual ha sido aumentar el peso de las evaluaciones presenciales, incluyendo exámenes escritos en el aula, defensas orales o entrevistas breves vinculadas a trabajos entregados. De este modo, se busca comprobar que los estudiantes realmente dominan los contenidos que presentan en sus tareas. Otra estrategia consiste en diseñar actividades “auténticas”, vinculadas a experiencias reales, análisis de campo, estudios de caso o ejercicios creativos basados en situaciones concretas que resultan más difíciles de delegar a una IA. En algunas asignaturas se ha optado por dividir las tareas en fases: por ejemplo, primero marcar y comentar un texto leído, y solo después elaborar una reflexión personal. Esto permite observar el proceso de pensamiento del estudiante y no solo el producto final.

A lo largo del artículo se destaca que el uso de IA en la educación superior ya no es una tendencia pasajera, sino un cambio estructural que obliga a repensar la evaluación y la enseñanza. Según los profesores entrevistados, la forma tradicional de asignar trabajos y corregirlos ha dejado de ser viable en un contexto donde una herramienta automatizada puede producir textos correctos en segundos. La cuestión ya no es si permitir o prohibir estas tecnologías, sino cómo integrarlas de manera responsable, enseñando a los estudiantes a utilizarlas como apoyo sin renunciar a la comprensión profunda, el razonamiento propio y el desarrollo de habilidades intelectuales fundamentales. En definitiva, la universidad se enfrenta a una nueva curva de aprendizaje institucional, en la que conviven innovación, preocupación y la necesidad urgente de adaptar la pedagogía a un entorno educativo donde la inteligencia artificial es parte del día a día.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.