Archivo de la etiqueta: Ética de la información

¿Cuál es la magnitud del problema de los artículos falsos en la ciencia?

Van Noorden, Richard. 2023. «How Big Is Science’s Fake-Paper Problem?» Nature 623 (7987): 466-67. https://doi.org/10.1038/d41586-023-03464-x.

La literatura científica está contaminada con manuscritos falsos generados por fábricas de documentos (Paper Mills), empresas que venden trabajos y autorías falsas a investigadores que necesitan publicaciones para sus currículos. Un análisis no publicado compartido con Nature sugiere que en las últimas dos décadas se han publicado más de 400.000 artículos de investigación que muestran similitudes textuales con estudios conocidos producidos por estas fábricas. Alrededor de 70.000 de estos fueron publicados solo el año pasado. El análisis estima que el 1.5-2% de todos los artículos científicos publicados en 2022 se asemejan estrechamente a trabajos de fábricas de documentos, aumentando al 3% en biología y medicina.

El problema de las fábricas de documentos se ilustra en un gráfico que muestra el porcentaje de artículos con similitud a productos de fábricas de 2000 a 2022, según estimaciones no publicadas de Adam Day.

Sin investigaciones individuales, es imposible saber si todos estos documentos son realmente productos de fábricas de documentos. Adam Day, director de la empresa de servicios de datos académicos Clear Skies en Londres, realizó el análisis utilizando un software de aprendizaje automático llamado Papermill Alarm. En septiembre, una iniciativa de editores llamada STM Integrity Hub, que busca combatir la ciencia fraudulenta, licenció una versión del software de Day para detectar manuscritos potencialmente fabricados.

Los estudios de fábricas de documentos se producen en lotes grandes y a gran velocidad, a menudo siguiendo plantillas específicas. Day utilizó su software para analizar títulos y resúmenes de más de 48 millones de artículos publicados desde 2000, identificando manuscritos con texto que se asemejaba mucho a trabajos conocidos de fábricas de documentos.

Bimler elogia el enfoque de similitud estilística de Day como el mejor disponible para estimar la prevalencia de estos estudios, aunque advierte sobre posibles falsos positivos. Day intentó minimizarlos validando los resultados con conjuntos de prueba de documentos genuinos o falsos.

Day también examinó un subconjunto de 2.85 millones de trabajos publicados en 2022, encontrando que alrededor del 2.2% se parecían a estudios de fábricas de documentos, variando según la disciplina científica.

A pesar de algunas preocupaciones, la estimación de Day es considerada plausible por algunos expertos. Day ve su estimación como un límite inferior, ya que puede perder fábricas de documentos que evitan plantillas conocidas. La distribución de estas fábricas no es uniforme en las revistas y se agrupan en títulos específicos, aunque Day no revela públicamente cuáles se ven más afectados.

Se destaca que las editoriales han intensificado sus esfuerzos para combatir las fábricas de documentos, utilizando diversas señales, como patrones textuales, direcciones de correo sospechosas, gráficos idénticos que representan diferentes experimentos y otras pistas.

A pesar de los esfuerzos, el problema parece abrumar los sistemas de las editoriales. La base de datos de retractaciones más grande del mundo, mantenida por Retraction Watch, registra menos de 3.000 retractaciones relacionadas con actividades de fábricas de documentos de un total de 44.000. Los números de retractación son considerados una subestimación, lo que sugiere que los productores de fábricas de documentos se sienten relativamente seguros.

La curación de los datos es un paso crítico en la creación de una Inteligencia Artificial Súper Inteligente (ASI) segura.

AI is Deterministic Based Upon the Starting Data – AI Alignment Could Be Relatively Easy. Next Big Future November 27, 2023 by Brian Wang

Texto completo

Un empleado de OpenAI ha observado que los Modelos de Lenguaje Grandes (LLM) que comienzan con el mismo conjunto de datos convergen hacia el mismo punto. Esto sugiere que la curación de los datos es un paso crítico en la creación de una Inteligencia Artificial Súper Inteligente (ASI) segura. Si podemos cargar la IA con ejemplos éticos deseados y a favor de la humanidad desde el principio, el sistema resultante debería tener un núcleo de seguridad alineado con los valores humanos.

La superinteligencia artificial (ASI) es un sistema basado en software con capacidades intelectuales más allá de las de los humanos en una amplia gama de categorías y campos de acción. La ASI aún no existe y es un estado hipotético de la inteligencia artificial (IA). La ASI difiere de la inteligencia artificial regular (IA), que implica la simulación basada en software de las capacidades intelectuales humanas, como el aprendizaje a través de la adquisición de información, el razonamiento y la autocorrección

Se plantea la posibilidad de que sea muy fácil entrenar al LLM en datos acumulados de todos los estudios relacionados con el conocimiento de la alineación de la IA. En teoría, la IA debería aprender y absorber las lecciones de manera efectiva.

El autor, Brian Wang, destaca la importancia de la curación de datos para la seguridad de la IA y sugiere que alinear la IA con valores éticos humanos podría ser relativamente fácil si se aborda desde el inicio con la información correcta.

Cabe señalar que algunos comentarios en la publicación plantean dudas sobre la premisa, argumentando que simplemente escalar un LLM puede no ser suficiente para lograr una ASI y que se pueden necesitar avances fundamentales en la comprensión y modelos internos de la IA.

El índice de transparencia de los principales modelos de Inteligencia Artificial revela que la gran mayoría son opacos

Índice de Transparencia de Modelos Fundamentales

«New Index Finds AI Models Are Murky, Not Transparent At All». 2023. Accedido 21 de diciembre de 2023. https://www.darkreading.com/cyber-risk/new-index-finds-ai-models-are-murky-not-transparent-at-all.


El Índice de Transparencia de Modelos Fundamentales de la Inteligencia Artificial es una evaluación que se realiza a los principales modelos de IA para medir la transparencia en su desarrollo y funcionamiento. Cuando se menciona que la gran mayoría de estos modelos son opacos, significa que existe una falta significativa de claridad y divulgación sobre cómo se entrenan, las fuentes de datos que utilizan, y cómo toman decisiones.


La nueva orden ejecutiva sobre inteligencia artificial (IA) firmada por el presidente de Estados Unidos, Joe Biden, detalla cómo la industria debe asegurarse de que la IA sea confiable y útil. La orden sigue a discusiones destacadas en julio y septiembre entre empresas de IA y la Casa Blanca, que resultaron en promesas sobre cómo las empresas de IA serán más transparentes acerca de las capacidades y limitaciones de la tecnología.

Hacer promesas de transparencia es un paso positivo, pero es necesario contar con un método para medir cuán bien se están cumpliendo esas promesas. Un método podría ser el Model Transparency Index desarrollado por el Centro de Investigación sobre Modelos Fundamentales de la Universidad de Stanford. El índice calificó 10 modelos de IA en función de 100 métricas diferentes, incluyendo cómo se entrenan los modelos, información sobre las propiedades y funciones del modelo, y cómo se distribuyen y utilizan los modelos. Las puntuaciones se calcularon en base a datos disponibles públicamente, aunque las empresas tuvieron la oportunidad de proporcionar información adicional para cambiar la puntuación.

¿Cómo se ve la transparencia al hablar de algunos de los modelos fundamentales más utilizados? No es buena. «Ningún desarrollador importante de modelos fundamentales se acerca a proporcionar transparencia adecuada, revelando una falta fundamental de transparencia en la industria de la IA», escribieron los investigadores de Stanford en el resumen de sus hallazgos.

Llama 2 de Meta recibió la puntuación total más alta en el índice, con 54 sobre 100.

El GPT-4 de OpenAI obtuvo 48, lo cual no es sorprendente, ya que OpenAI decidió retener detalles «sobre la arquitectura (incluido el tamaño del modelo), hardware, ordenador de entrenamiento, construcción del conjunto de datos [y] método de entrenamiento» al pasar de GPT-3 a GPT-4 a principios de este año.

En su mayor parte, los sistemas de IA potentes, como el GPT-4 de OpenAI y el PaLM2 de Google, son sistemas de caja negra. Estos modelos se entrenan con grandes volúmenes de datos y se pueden adaptar para su uso en una amplia variedad de aplicaciones. Pero para un creciente grupo de personas preocupadas por cómo se utiliza la IA y cómo podría afectar a las personas, el hecho de que haya poca información disponible sobre cómo se entrenan y utilizan estos modelos es un problema.

Según los investigadores, hay un poco más de transparencia en torno a la protección de datos de usuario y la funcionalidad básica del modelo. Los modelos de IA obtuvieron buenos resultados en indicadores relacionados con la protección de datos de usuario (67%), detalles básicos sobre cómo se desarrollan sus modelos fundamentales (63%), las capacidades de sus modelos (62%) y sus limitaciones (60%).

La nueva orden ejecutiva describe varias cosas que deben suceder para mejorar la transparencia. Los desarrolladores de IA deberán compartir los resultados de las pruebas de seguridad y otra información con el gobierno. El Instituto Nacional de Estándares y Tecnología tiene la tarea de crear estándares para garantizar que las herramientas de IA sean seguras y seguras antes de su lanzamiento público.

Las empresas que desarrollen modelos que representen riesgos serios para la salud y seguridad públicas, la economía o la seguridad nacional deberán notificar al gobierno federal cuando estén entrenando el modelo y compartir los resultados de las pruebas de seguridad antes de hacer públicos los modelos.

Estafadores que se hacen pasar por editores invitados para publicar documentos falsos

Else, Holly. 2021. «Scammers Impersonate Guest Editors to Get Sham Papers Published». Nature 599 (7885): 361-361. https://doi.org/10.1038/d41586-021-03035-y.

Cientos de artículos publicados en revistas revisadas por pares están siendo retractados después de que estafadores explotaran los procesos para publicar números especiales con el fin de incluir documentos de baja calidad, a veces compuestos completamente de incoherencias, en revistas establecidas. En algunos casos, los defraudadores se hicieron pasar por científicos y ofrecieron editar números especiales que luego llenaron con documentos fraudulentos.

Elsevier está retirando 165 artículos actualmente en prensa y planea retractar 300 más que se han publicado como parte de 6 números especiales en una de sus revistas, mientras que Springer Nature está retractando 62 artículos publicados en un número especial de una revista. Las retractaciones se producen después de que ambos editores emitieran comunicados de preocupación a principios de este año, que cubrían cientos de artículos.

Expertos en integridad científica esperan que haya más investigaciones en los próximos meses a medida que otros títulos se den cuenta de que han sido engañados.

«Es muy preocupante», dice Guillaume Cabanac, un científico informático de la Universidad de Toulouse en Francia, quien ha trabajado para descubrir documentos de ciencia sin sentido en números especiales. Añade que es impactante ver tales documentos en revistas de editores «emblemáticos» y que «no solo son las revistas depredadoras las que publican tonterías».

Un portavoz de Springer Nature dijo que una investigación reveló «intentos deliberados de subvertir el proceso editorial basado en la confianza y manipular el registro de publicación». Agregaron que aún no saben quién es responsable Elsevier dice que ha implementado medidas para evitar problemas similares en el futuro.

Muchas revistas publican números especiales, colecciones de artículos que se centran en un tema particular de relevancia para sus lectores. Estos números a menudo son supervisados por editores invitados que son expertos en el tema de investigación, pero que generalmente no están involucrados en el trabajo editorial diario de la revista.

Los estafadores han sido descubiertos varias veces en los últimos años al intentar utilizar números especiales como una forma de publicar documentos de baja calidad en revistas legítimas, pero el número de documentos afectados parece estar aumentando.

En 2016, Retraction Watch informó que los estafadores se hicieron pasar por un científico conocido para engañar a The Scientific World Journal, publicado por Hindawi, para que los nombrara editor invitado de un número especial sobre metaheurísticas. Una investigación posterior del editor encontró que varios informes de revisión por pares para documentos publicados en el número especial provenían de cuentas de correo electrónico comprometidas pertenecientes a otros investigadores. Hindawi le dijo a Retraction Watch que no tenía idea de quién estaba detrás de la estafa y dijo que había implementado medidas para ayudar a prevenir que el problema vuelva a ocurrir.

En diciembre de 2020, el Journal of Nanoparticle Research de Springer Nature escribió que había sido «atacado de una nueva manera por una red sofisticada y organizada». Un grupo de lo que parecían ser eminentes científicos e ingenieros de instituciones conocidas en Alemania y el Reino Unido escribieron a los editores de la revista sugiriendo un número especial sobre el papel de la nanotecnología en la atención médica en septiembre de 2019. La junta editorial aceptó la propuesta, creó una entrada para el número especial en su sistema de gestión editorial y dio acceso a tres miembros del grupo para que pudieran manejar los manuscritos.

Meses después, algunos miembros de la junta editorial comenzaron a notar que la mayoría de los manuscritos presentados para el número especial eran de baja calidad o no se ajustaban al tema. Iniciaron una investigación, pero para entonces, 19 de las 80 presentaciones ya habían sido aceptadas o publicadas. Estos documentos han sido retractados desde entonces.

La investigación reveló que las personas que sugirieron el número especial no eran quienes decían ser, sino estafadores que usaban nombres de dominio de Internet que se parecían mucho a las direcciones de correo electrónico institucionales reales de los científicos. Estos incluían un sufijo de correo electrónico con ‘univ’ en lugar de ‘uni’ y ‘-ac.uk’ en lugar de ‘.ac.uk’. También hubo anomalías con las identidades de los revisores y los informes de revisión por pares.

«Todo apunta a una red organizada que intenta, en este caso con éxito, infiltrarse en revistas científicas con el objetivo de publicar fácilmente manuscritos de seudo científicos o investigadores menos productivos que desean aparecer en revistas respetables», escribieron tres miembros de la junta editorial de la revista en el artículo de diciembre.

Todavía no está claro por qué los estafadores están manipulando el sistema para publicar artículos falsos. Cabanac sugiere que podría deberse a la presión sobre los investigadores para publicar artículos y continuar con sus carreras. La capacidad de publicar en revistas específicas, incluso si los documentos son claramente sin sentido, podría permitir que algunos investigadores «obtengan publicaciones para su currículum y un pase verde para permanecer en la academia», dice.

Pero las motivaciones de los estafadores siguen siendo un misterio para Ivan Oransky, un periodista que dirige Retraction Watch. Incluso los títulos de los artículos, que se listarían como parte del historial de publicaciones de un individuo, a menudo no tienen sentido, dice. «Los artículos son tan obviamente terribles, ¿por qué querrías tenerlos en tu currículum?»

Las últimas retractaciones de importantes editoriales académicas, Springer Nature y Elsevier, señalan una creciente sofisticación y prevalencia de prácticas engañosas en la publicación académica. A pesar de estos esfuerzos, persisten preocupaciones sobre la credibilidad de los números especiales, con una posible culpabilidad por asociación planteando un desafío. Ivan Oransky, cofundador de Retraction Watch, anticipa más retractaciones en el futuro, subrayando la necesidad de una vigilancia continua y medidas preventivas dentro de la comunidad de publicaciones académicas.

Récord de retracciones en investigación en 2023: Más de 10.000 artículos retirados

Van Noorden, Richard. 2023. «More than 10,000 Research Papers Were Retracted in 2023 — a New Record». Nature, diciembre. https://doi.org/10.1038/d41586-023-03974-8.


Durante el año 2023, se ha registrado un número sin precedentes de retractaciones para artículos de investigación, superando los 10,000, en medio de esfuerzos editoriales por abordar una proliferación de documentos fraudulentos y prácticas fraudulentas en la revisión por pares. Un análisis realizado por Nature revela que entre las naciones líderes en producción de investigación, Arabia Saudita, Pakistán, Rusia y China destacan por tener las tasas de retractación más elevadas en las últimas dos décadas.

El año 2023 ha experimentado un aumento significativo en la retractación de artículos de investigación, con más de 10.000 retracciones, marcando un nuevo récord. Este aumento se atribuye a los esfuerzos de los editores para abordar documentos fraudulentos y manipulación de la revisión por pares. Entre los países líderes con altas tasas de retractación en las últimas dos décadas se encuentran Arabia Saudita, Pakistán, Rusia y China. Hindawi, una subsidiaria con sede en Londres de Wiley, es responsable de la mayoría de las retractaciones en 2023, con más de 8.000 artículos retirados debido a preocupaciones sobre la revisión por pares comprometida y manipulación del proceso de publicación.

Wiley ha decidido deshacerse la marca Hindawi y ha implementado procesos más rigurosos para garantizar la integridad del proceso de publicación y revisión por pares. El editor espera una pérdida de ingresos de 35-40 millones de dólares debido a estos problemas. A pesar de ser en su mayoría artículos falsos, los documentos retirados de Hindawi fueron citados colectivamente más de 35.000 veces, indicando su impacto.

.

.

La tendencia general de retractaciones supera el crecimiento de los documentos científicos, con el número total de retractaciones superando las 50.000. El análisis de Nature sugiere que la tasa de retractación se ha triplicado en la última década, alcanzando más del 0.2% en 2022. Arabia Saudita tiene la tasa de retractación más alta entre los países que han publicado más de 100.000 artículos en las últimas dos décadas.

.

.

El análisis también revela que alrededor de una cuarta parte de las retractaciones son documentos de conferencias, siendo el Instituto de Institute of Electrical and Electronics Engineers (IEEE) líder en esta categoría. IEEE ha enfrentado críticas por problemas como el fraude de citas y el plagio en algunos de sus documentos.

.

.

Los expertos en integridad enfatizan que las retractaciones registradas son solo la punta del iceberg, con potencialmente cientos de miles de artículos de «fábricas de documentos» (empresas que venden investigación falsa) que aún no se han abordado. Estos documentos fraudulentos representan un problema, ya que pueden agregarse a artículos de revisión y integrarse en la literatura convencional.

Puntos Clave:

  • Más de 10.000 artículos de investigación retractados en 2023, estableciendo un nuevo récord.
  • Hindawi, una subsidiaria de Wiley, es responsable de la mayoría de las retractaciones, con más de 8.000 artículos retirados.
  • Wiley discontinúa la marca Hindawi y anticipa una pérdida de ingresos de 35-40 millones de dólares.
  • Las tasas de retractación están aumentando, superando el crecimiento de los documentos científicos, con un número total que supera las 50.000.
  • Arabia Saudita tiene la tasa de retractación más alta entre los países que publican más de 100.000 artículos.
  • El IEEE lidera las retractaciones de documentos de conferencias, con medidas preventivas en su lugar pero enfrentando críticas por fraude de citas y plagio.
  • Los expertos en integridad sugieren que las retractaciones registradas son solo una fracción del problema, con potencialmente cientos de miles de documentos fraudulentos de «fábricas de documentos» aún por abordar.

Comprender los distintos tipos de mala conducta científica

Nader Ale Ebrahim «Shedding Light on the Shadows: Understanding Different Types of Scientific Misconduct». 2023. Accedido 18 de diciembre de 2023. https://www.linkedin.com/pulse/shedding-light-shadows-understanding-different-types-ale-ebrahim-y32qc.

En la búsqueda del conocimiento y la verdad, la comunidad científica opera sobre una base de confianza, integridad y conducta ética. Sin embargo, el panorama de la investigación científica no está exento de conductas impropias. Este artículo profundiza en diversas formas de mala conducta científica, con el objetivo de aumentar la conciencia y promover una cultura de honestidad y transparencia en la investigación.

  1. Plagio: El Ladrón Silencioso El plagio, el acto de utilizar el trabajo o las ideas de alguien más sin el debido reconocimiento, representa una grave violación de la integridad académica. Minimiza la credibilidad de la investigación y muestra falta de respeto por el trabajo original de otros. Detectar y prevenir el plagio es crucial para mantener la integridad de la literatura científica.
  2. Fabricación y Falsificación de Datos: El Arte de la Decepción La fabricación de datos implica crear datos ficticios, mientras que la falsificación implica manipular o alterar datos para ajustarlos a resultados deseados. Ambas prácticas son perjudiciales, ya que pueden llevar a conclusiones incorrectas y engañar a otros investigadores, potencialmente causando un efecto dominó de desinformación.
  3. Autoría indebida: Cuando se otorga autoría a individuos que no han contribuido significativamente a la investigación o, por el contrario, se omiten contribuyentes merecedores. Esta mala conducta cuestiona la autenticidad de la autoría y puede dar lugar a disputas y desconfianza dentro de la comunidad académica.
  4. Publicación Duplicada: Publicar los mismos datos o estudio en varias revistas como trabajo original es otra forma de mala conducta. Esta práctica puede distorsionar la literatura científica, dando una falsa impresión de hallazgos corroborados e inflando artificialmente el historial de publicaciones del investigador.
  5. Manipulación de la Revisión por Pares: La revisión por pares es fundamental para la validación de la investigación. Manipular este proceso, ya sea influyendo en los revisores o comprometiendo la imparcialidad de la revisión, socava la esencia misma de la validación de la investigación.

En conclusión, comprender y reconocer las diversas formas de mala conducta científica es el primer paso para combatirlas. Incumbe a las instituciones, revistas y a los propios investigadores fomentar un entorno donde la conducta ética sea la norma, no la excepción. La vigilancia, la educación y políticas rigurosas son clave para mantener la integridad de la investigación científica. Como miembros de la comunidad científica, debemos comprometernos con estos estándares, asegurando que nuestra búsqueda del conocimiento sea pura, creíble y confiable.

10 tipos de plagio que todo escritor académico debería conocer para evitarlo según Turnitin.

R, Dr Somasundaram. 2023. «10 Types of Plagiarism – Every Academic Writer Should Know – Updated». iLovePhD. 8 de julio de 2023. https://www.ilovephd.com/10-types-of-plagiarism-every-academic-writer-should-know/.

Ver infografía

El plagio es el problema más común al que se enfrentan los escritores académicos al redactar sus trabajos de investigación o tesis. La conocida herramienta de detección de plagio Turnitin clasifica el plagio en 10 tipos comunes antes de generar el informe. En este artículo, exploraremos los 10 tipos de plagio que todo escritor académico debería conocer para evitarlo.

1. Clonación (Clone) – Plagio: En la clonación, una persona copia el trabajo de otra (palabra por palabra) sin realizar ningún cambio y lo presenta como su propio trabajo.

2. Remodelación (Remix) – Plagio: En el tipo de plagio por remodelación, una persona recopila información de varias fuentes, la mezcla en un solo documento y reclama el trabajo como propio.

3. Copiar y Pegar (Ctrl+C) – Plagio: En este caso, se copia una parte significativa del texto de un solo origen sin realizar ninguna alteración, lo cual se denomina como plagio Ctrl+C.

4. Híbrido (Hybrid) – Plagio: En el plagio híbrido, se copian documentos de origen perfectamente citados y se organizan como un nuevo documento sin citarlos.

5. Buscar y Reemplazar (Find-Replace) – Plagio: Cambiar las palabras y frases más comunes en el contenido copiado y no realizar cambios en el documento es conocido como «buscar y reemplazar» – un tipo de plagio.

6. Reciclaje (Recycle) – Plagio: El reciclaje, también conocido como autoplagio, se refiere a la acción de tomar prestado de un documento anterior propio sin una cita adecuada.

7. Mezcla (Mashup) – Plagio: Cuando se copia un documento escrito de más de una fuente y se mezclan todos sin una cita adecuada, se llama plagio de mezcla.

8. Error 404 (404 Error) – Plagio: El «error 404» – plagio es cuando una persona crea un documento copiando de diversas fuentes y lo presenta como un solo documento con citas. Sin embargo, si las citas son inexactas o conducen a recursos que no existen, se llamará 404 tipos de plagio.

9. Agregador (Aggregator) – Plagio: En este tipo de plagio, el documento escrito incluye todas las citas adecuadas, pero no contiene trabajo original.

10. Retuitear (Re-Tweet) – Plagio: Si todo el documento escrito parece perfecto con marcas debidamente citadas, pero aún así el documento se asemeja en alguna parte a la estructura o las palabras originales del texto, se llama plagio por retuiteo.

Wiley dejará de utilizar la marca «Hindawi» por críticas sobre venta de autorías, lo que ha generado un descenso de ingresos de 18 millones de dólares

Kincaid, Author Ellie. 2023. «Wiley to Stop Using “Hindawi” Name amid $18 Million Revenue Decline». Retraction Watch (blog). 6 de diciembre de 2023. https://retractionwatch.com/2023/12/06/wiley-to-stop-using-hindawi-name-amid-18-million-revenue-decline/.


Wiley ha comunicado su decisión de no utilizar la problemática marca Hindawi. La editorial Hindawi ha llevado a controversias, desatando numerosas críticas acerca de la calidad de algunos de sus artículos, venta de autorías y retractaciones masivas. En un movimiento estratégico, Wiley planea integrar las alrededor de 200 revistas de Hindawi en el conjunto de su cartera para mediados del próximo año.

Hindawi era una editorial académica especializada en revistas de acceso abierto. La empresa se estableció en 1997 en Egipto y creció para convertirse en uno de los principales editores de acceso abierto en el mundo. Su adquisición por parte de Wiley en 2021 ha generado problemas significativos, con una pérdida de ingresos de 18 millones de dólares en el último trimestre financiero en comparación con el mismo trimestre del año anterior, según reveló la misma Wiley. Las revistas de Hindawi se han visto afectadas por la publicación de contenido de baja calidad y «fabricas de papel«*, lo que ha llevado a miles de retractaciones, cierres de revistas y la exclusión de varios títulos de un importante índice.

En el actual año fiscal, Wiley anticipa una pérdida de ingresos de entre 35 y 40 millones de dólares procedentes de Hindawi. Esto se debe a los esfuerzos en curso para abordar los problemas en las revistas y retractarse de los artículos. Matthew Kissner, presidente y CEO interino de Wiley, comunicó en la conferencia de resultados que la empresa espera que los ingresos comiencen a recuperarse en el próximo año fiscal.

* En el ámbito de la investigación, una fábrica de artículos se refiere a una organización con fines de lucro, no oficial y potencialmente ilegal que produce y vende manuscritos fraudulentos que pretenden asemejarse a investigaciones genuinas.

Cómo y por qué citar fuentes en trabajos académicos

Ayala Aceves, Marcela [et al.]. Cómo y por qué citar fuentes en trabajos académicos México: UNAM, 2023

Texto completo

El conocimiento se construye de manera colectiva, requiriendo la síntesis, análisis y reflexión sobre saberes previos y fuentes de información para generar ideas o conocimientos innovadores.

En el ámbito académico, es esencial otorgar crédito de manera sistemática y precisa a las fuentes y trabajos previos, reconociendo que el conocimiento se forma de manera colaborativa. El propósito de esta obra es mostrar la forma adecuada de citar fuentes y libros, resaltando la importancia de llevar a cabo este proceso, según señala en una entrevista.

Hacer referencia a las fuentes que respaldan el trabajo de manera sistemática es fundamental. Al hacerlo, reconocemos adecuadamente la autoría, permitimos la verificación de la información y tomamos conciencia de la naturaleza colaborativa del conocimiento.

Esta guía ofrece una explicación concisa sobre cómo y por qué citar diversos tipos de fuentes. Se recomienda utilizarla como referencia principal y consultar recursos adicionales, como los enlistados en la bibliografía. Para enriquecer los ejemplos y adaptarlos a casos específicos, se sugiere revisar las páginas siguientes en compañía de otras personas.

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.