Archivo de la etiqueta: Plagio

Percepciones de los estudiantes de educación superior sobre ChatGPT

Ravšelj, Dejan, et al. “Higher Education Students’ Perceptions of ChatGPT: A Global Study of Early Reactions.” PLOS One 20, no. 2 (February 5, 2025). https://doi.org/10.1371/journal.pone.0315011

Se analiza cómo los estudiantes universitarios de todo el mundo perciben y utilizan ChatGPT en sus actividades académicas. La investigación se basa en una muestra de 23.218 estudiantes provenientes de 109 países y territorios, convirtiéndose en el estudio más amplio realizado hasta la fecha sobre este tema.

Uno de los principales hallazgos del estudio es que los estudiantes utilizan ChatGPT principalmente para la generación de ideas (brainstorming), la síntesis de textos y la búsqueda de artículos académicos. También se observa que algunos lo emplean para la escritura profesional y creativa, aunque en menor medida. En general, los estudiantes encuentran útil la herramienta para simplificar información compleja y resumir contenido, lo que les ayuda a comprender mejor ciertos temas.

Sin embargo, a pesar de sus ventajas, los estudiantes expresan reservas sobre la fiabilidad de la información proporcionada por ChatGPT, especialmente en contextos que requieren precisión y rigor académico. Algunos incluso consideran que las respuestas de la herramienta son más claras que las explicaciones de sus compañeros o profesores, lo que indica que valoran la capacidad de síntesis y estructuración del contenido que ofrece la IA.

A lo largo del estudio, los participantes manifestaron una preocupación generalizada por el impacto de ChatGPT en la educación, lo que ha llevado a un consenso sobre la necesidad de establecer regulaciones claras para su uso. Entre las principales inquietudes destacan el riesgo de plagio y fraude académico, así como la posibilidad de que fomente el aislamiento social al reducir la interacción entre estudiantes y profesores.

En cuanto al aprendizaje y el desarrollo de habilidades, los estudiantes reconocen que ChatGPT puede mejorar el acceso al conocimiento, aumentar la eficiencia en el estudio y contribuir a la obtención de mejores calificaciones. No obstante, también señalan que su uso excesivo podría afectar el desarrollo de habilidades clave como la comunicación interpersonal, la toma de decisiones, el pensamiento crítico y la competencia en el idioma nativo.

El estudio también explora la percepción de los estudiantes sobre el impacto de la IA en el mercado laboral. En general, creen que la integración de la inteligencia artificial en diversos sectores incrementará la demanda de habilidades digitales y facilitará el trabajo remoto, aunque no prevén un impacto significativo en las tasas de desempleo.

Desde un punto de vista emocional, la mayoría de los estudiantes reportan sentir curiosidad y calma al interactuar con ChatGPT. Esto sugiere que, si bien existen preocupaciones sobre su uso, en términos generales los estudiantes se sienten cómodos utilizando la herramienta y explorando sus posibilidades.

El estudio también identifica diferencias en las percepciones y usos de ChatGPT según factores socioeconómicos y geográficos, lo que indica que el acceso a la tecnología y el contexto cultural influyen en la forma en que los estudiantes adoptan y valoran esta herramienta.

Los hallazgos de esta investigación ofrecen información valiosa para docentes, administradores y legisladores. Los responsables de la educación pueden utilizar estos datos para diseñar planes de estudio que integren la inteligencia artificial de manera efectiva, desarrollar metodologías de enseñanza que fomenten el pensamiento crítico y la autonomía de los estudiantes, y establecer sistemas de evaluación que mitiguen el riesgo de plagio.

Por otro lado, los legisladores y formuladores de políticas educativas deben considerar el desarrollo de estrategias de capacitación digital para preparar a los estudiantes para un mercado laboral en evolución, así como la implementación de regulaciones que aborden las preocupaciones éticas y prácticas relacionadas con el uso de la IA en la educación.

En conclusión, el estudio subraya la importancia de encontrar un equilibrio en la integración de herramientas de inteligencia artificial como ChatGPT en la educación superior. Es fundamental maximizar los beneficios que estas tecnologías pueden ofrecer en términos de acceso al conocimiento y eficiencia en el estudio, sin descuidar la necesidad de desarrollar habilidades esenciales para el aprendizaje y el trabajo futuro.

Libros basura generados por IA ya está en tu biblioteca pública

Maiberg, Emanuel. «AI-Generated Slop Is Already In Your Public Library404 Media, 4 de febrero de 2025. https://www.404media.co/ai-generated-slop-is-already-in-your-public-library-3/

Los bibliotecarios están enfrentando un problema creciente en las bibliotecas públicas de EE. UU. con respecto a los libros de baja calidad generados por inteligencia artificial (IA). Estos libros están siendo incluidos en los catálogos digitales de bibliotecas públicas, lo que obliga a los bibliotecarios a revisar una gran cantidad de material para identificar qué libros son generados por IA y cuáles son escritos por humanos.

Las plataformas Hoopla y OverDrive, que gestionan los libros electrónicos en muchas bibliotecas, están facilitando la inclusión de estos títulos, sin que los bibliotecarios tengan un control efectivo sobre la selección. Aunque Hoopla ofrece un catálogo muy amplio, esto también significa que los bibliotecarios deben lidiar con contenido de baja calidad, incluyendo libros escritos o generados por IA con poca o ninguna supervisión. Este tipo de contenido es conocido como «slop» o «basura de IA», y se ha convertido en un problema debido a la falta de curaduría en las plataformas. Algunos de estos libros, aunque no presentan información peligrosa, están mal escritos y tienen una presentación pobre.

Los bibliotecarios expresan su preocupación por la cantidad creciente de contenido de IA en sus catálogos, ya que los usuarios pueden no ser conscientes de que están leyendo material generado por IA. Además, esto genera un gasto innecesario para las bibliotecas, que deben pagar por libros de baja calidad. Los bibliotecarios piden mayor transparencia y control en el proceso de selección de los libros, y sugieren que los libros generados por IA deben estar claramente identificados en los catálogos para que los usuarios sepan que no fueron escritos por autores humanos.

ChatGPT el chatbot de IA que cambió la vida de los científicos

Lenharo, Mariana. «ChatGPT Turns Two: How the AI Chatbot Has Changed Scientists’ Lives.» Nature, December 2, 2024. https://www.nature.com/articles/d41586-024-03940-y.

Desde su lanzamiento en noviembre de 2022, ChatGPT ha sido utilizado por investigadores para mejorar la redacción académica, revisar literatura científica y escribir código para analizar datos. Aunque algunos creen que el chatbot aumenta la productividad, otros temen que esté facilitando el plagio, introduciendo imprecisiones en los artículos y consumiendo grandes cantidades de energía.

Un estudio de la editorial Wiley, realizado entre marzo y abril de 2024, reveló que el 81% de los investigadores han usado ChatGPT, lo que lo convierte en la herramienta de IA más popular entre los académicos. La mayoría de los encuestados considera que, en los próximos cinco años, será crucial que los investigadores desarrollen habilidades en IA.

  • Se estima que al menos 60.000 artículos académicos publicados en 2023 fueron escritos con la ayuda de un modelo de lenguaje grande (LLM).
  • El 10% de los artículos en biomedicina y el 17,5% en informática en 2024 tuvieron sus resúmenes redactados con asistencia de IA.
  • Se estima que entre el 6,5% y el 16,9% de las revisiones por pares en conferencias de IA en 2023 y 2024 fueron generadas sustancialmente por LLM.

ChatGPT ha demostrado ser útil para superar barreras lingüísticas, ayudando especialmente a investigadores que no tienen el inglés como lengua materna. Sin embargo, se reconoce que tiene limitaciones, especialmente en tareas complejas como revisiones bibliográficas, ya que puede generar información errónea o inventada. Además, la privacidad es una preocupación, ya que los datos introducidos en la IA podrían ser utilizados para entrenar nuevos modelos.

A pesar de estos desafíos, algunos investigadores están explorando la posibilidad de que ChatGPT y otros modelos de IA puedan ir más allá de ser simples asistentes virtuales, convirtiéndose en «científicos» capaces de diseñar proyectos de investigación. Algunos estudios preliminares, como un proyecto reciente en el que los modelos de IA colaboraron para diseñar nanocuerpos contra el coronavirus, han mostrado resultados prometedores.

Retraction Watch pone en marcha una base de datos de revistas secuestradas

Retraction Watch Hijacked Journals Checker

Las revistas secuestradas imitan a las legítimas adoptando sus títulos, ISSN y otros metadatos. En raras ocasiones, sin embargo, los editores compran los derechos de una revista legítima, pero continúan la publicación bajo protocolos de publicación considerablemente menos estrictos y sin señalar claramente al lector el cambio en la propiedad o las normas de publicación (a veces conocidas como revistas «clonadas»). Los académicos pueden verse engañados para que publiquen en revistas secuestradas -muchas de las cuales son de pago- con ofertas de publicación rápida e indexación en bases de datos como Scopus; estar indexado en esas bases de datos es reconocido por muchas universidades y gobiernos como una marca de legitimidad.

Rastrear estas revistas no es tarea fácil, pero saber qué revistas pueden haber sido secuestradas es vital para la integridad del mundo editorial. Anna Abalkina se involucró en el proceso cuando ella y sus colegas, investigando denuncias de plagio, se toparon con varios títulos, entre ellos el Journal of Talent Development and Excellence, que aumentó drásticamente su indexación de artículos en Scopus en 2020, y Waffen-und Kostümkunde, una revista que citaba un artículo sobre psicología absolutamente ajeno a la especialización en armas y vestuario de la revista. Abalkina comenzó entonces a analizar los archivos de estas revistas y halló coincidencias con otras.

En colaboración con Retraction Watch, Abalkina ha creado la herramienta  Retraction Watch Hijacked Journal Checker. Este recurso se actualiza periódicamente; se añadirán más revistas a medida que se descubra su condición de secuestradas.

La herramienta se basa en el método de análisis de archivos desarrollado por Anna Abalkina, quien ha identificado más de 60 dominios web de revistas secuestradas. Además, amplió su investigación incorporando títulos sugeridos por lectores.

Los principales métodos empleados incluyen:

  • Archivos duplicados: Comparación de archivos de revistas con títulos iguales o similares para detectar coincidencias en los artículos publicados.
  • Plantillas web idénticas: Detección de revistas secuestradas por el uso de plantillas web idénticas entre ellas.
  • Crecimiento anómalo en indexación: Un aumento inusual en la cantidad de artículos indexados en bases de datos internacionales puede indicar secuestro.
  • Citas anómalas: Publicaciones con citas no relacionadas con la temática de la revista pueden ser señal de secuestro.
  • Comentarios de académicos: Opiniones de investigadores en plataformas como Scimago o por correspondencia pueden alertar sobre revistas comprometidas.

Para confirmar el secuestro, también se analizan aspectos como el título, ISSN, indexación, dominio web, comité editorial y archivos de la revista. En algunos casos, no se puede identificar con certeza la revista original, pero se señala que un dominio es altamente sospechoso de ser un secuestro.

Si conoces algún titulo a tener en cuenta para su estudio y que sea incluido en la lista lo puedes comunicar aquí

La Authors Guild lanza la certificación «Human Authored» para preservar la autenticidad en la literatura en un mundo impulsado por la IA

Authors Guild. «Authors Guild Launches ‘Human Authored’ Certification to Preserve Authenticity in LiteratureAuthors Guild, January 29, 2025. https://authorsguild.org/news/ag-launches-human-authored-certification-to-preserve-authenticity-in-literature/

El Authors Guild ha lanzado «Human Authored», una certificación oficial destinada a preservar la autenticidad en la literatura en un mundo saturado por la inteligencia artificial (IA). Con el creciente número de libros generados por IA que se parecen y a veces incluso leen como libros escritos por humanos, los lectores pueden no saber si lo que están leyendo fue creado por IA o por un autor humano. El Authors Guild sostiene que los lectores tienen derecho a saber si un texto fue escrito por IA o por un humano y que los autores deben poder distinguir su trabajo en mercados cada vez más llenos de contenido generado por IA.

La certificación «Human Authored» permitirá a los escritores y editores usar un sello para indicar que el texto de un libro fue escrito por un humano, incluso si se utilizó IA para herramientas menores como la corrección ortográfica o de gramática. Este sello será registrado en la Oficina de Patentes y Marcas de EE. UU. y estará respaldado por un sistema de registro que permitirá verificar el origen humano de un libro a través de una base de datos pública.

El proceso de certificación es sencillo pero riguroso: los autores deben registrarse en el portal, verificar la información de su libro, firmar un acuerdo de licencia y recibir un sello único que podrán utilizar en las portadas, lomos o materiales promocionales. La iniciativa no rechaza la tecnología, sino que busca crear transparencia y resaltar los elementos humanos en la narrativa, en un mercado cada vez más saturado de contenido generado por IA.

Actualmente, la certificación está disponible solo para miembros del Authors Guild y para libros de un solo autor, pero se expandirá en el futuro para incluir libros con varios autores y a escritores fuera de la organización.

Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.

La presión para publicar está contribuyendo a un aumento en la retractación de artículos científicos

Tran, Nham. «The ‘Publish or Perish’ Mentality Is Fuelling Research Paper Retractions – and Undermining ScienceThe Conversation, September 24, 2024. https://theconversation.com/the-publish-or-perish-mentality-is-fuelling-research-paper-retractions-and-undermining-science-238983

Los científicos, al realizar descubrimientos importantes, suelen publicar sus hallazgos en revistas científicas para que otros puedan leerlos y beneficiarse de ese conocimiento. Esta difusión de información es fundamental para el progreso de la ciencia, ya que permite que otros investigadores construyan sobre trabajos previos y, potencialmente, realicen nuevos descubrimientos significativos. Sin embargo, los artículos publicados pueden ser retractados si se detectan problemas de precisión o integridad en los datos. En años recientes, el número de retractaciones ha aumentado considerablemente. En 2023, se retractaron más de 10.000 artículos de manera global, estableciendo un nuevo récord.

El aumento en las retractaciones está impulsado por la mentalidad de «publicar o perecer», una situación que ha prevalecido en la academia durante décadas. La publicación de artículos de investigación es un factor clave para el avance en la carrera académica y para la mejora de los rankings universitarios. Las universidades y los institutos de investigación suelen utilizar el número de publicaciones como indicador principal de productividad y reputación. Esto ha llevado a una presión constante sobre los académicos para publicar regularmente, lo que, a su vez, ha contribuido a un aumento en la presentación de datos fraudulentos. Si esta tendencia continúa, el paisaje de la investigación podría cambiar hacia estándares menos rigurosos, dificultando el progreso en áreas críticas como la medicina, la tecnología y la ciencia climática.

Retraction Watch, una de las bases de datos más grandes que monitorea las retractaciones científicas, ha revelado un incremento en la cantidad de artículos retractados. En la última década, se han retractado más de 39.000 publicaciones, y el número anual de retractaciones está creciendo alrededor de un 23% cada año. Aproximadamente la mitad de estas retractaciones se deben a problemas relacionados con la autenticidad de los datos. Un ejemplo es el caso de Richard Eckert, un bioquímico senior de la Universidad de Maryland, Baltimore, quien falsificó datos en 13 artículos publicados. De estos, cuatro han sido corregidos, uno ha sido retractado y los demás están en proceso de acción.

El plagio es la segunda razón más común para la retractación de artículos, representando el 16% de los casos. Otro motivo significativo es el uso de revisiones por pares falsas, un problema que ha aumentado diez veces en la última década. También ha habido un incremento en las publicaciones asociadas con las llamadas «fábricas de artículos» (Paper Mills), que son empresas que producen artículos falsos por una tarifa. En 2022, hasta un 2% de todas las publicaciones provinieron de estas fábricas. Los errores genuinos en el proceso científico solo representan aproximadamente el 6% de todas las retractaciones en la última década.

La presión para publicar ha llevado a un aumento en los errores y las prácticas fraudulentas. Aunque la digitalización ha facilitado la detección de datos sospechosos, también ha intensificado la cultura de «publicar o perecer» en las universidades. La mayoría del personal académico debe cumplir con cuotas específicas de publicaciones para evaluaciones de desempeño, y las instituciones utilizan el rendimiento en publicaciones para mejorar su posición en los rankings globales, lo que atrae a más estudiantes y genera ingresos por enseñanza.

El sistema de recompensas en la academia a menudo prioriza la cantidad sobre la calidad de las publicaciones. Este enfoque puede llevar a los científicos a recortar esquinas, apresurar experimentos o incluso falsificar datos para cumplir con las métricas impuestas. Para abordar este problema, iniciativas como la Declaración de San Francisco sobre la Evaluación de la Investigación están impulsando un cambio hacia la evaluación de la investigación basada en su calidad e impacto social, en lugar de métricas centradas en revistas, como factores de impacto o recuentos de citas.

Cambiar las políticas de las revistas para priorizar el intercambio de todos los datos experimentales podría mejorar la integridad científica, permitiendo a los investigadores replicar experimentos para verificar los resultados de otros. Además, las universidades, los institutos de investigación y las agencias de financiamiento necesitan mejorar su diligencia debida y responsabilizar a aquellos involucrados en malas conductas. Incluir preguntas simples en las solicitudes de subvenciones o promociones académicas, como «¿Alguna vez ha tenido o estado involucrado en un artículo retractado?», podría mejorar la integridad de la investigación al disuadir comportamientos poco éticos. Las respuestas deshonestas podrían ser fácilmente detectadas gracias a la disponibilidad de herramientas en línea y bases de datos como Retraction Watch.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.

Uso de grandes modelos lingüísticos como herramientas de inteligencia artificial en la investigación académica y la publicación entre los investigadores

Mishra, Tanisha, Edward Sutanto, Rini Rossanti, Nayana Pant, Anum Ashraf, Akshay Raut, Germaine Uwabareze, Ajayi Oluwatomiwa, y Bushra Zeeshan. «Use of Large Language Models as Artificial Intelligence Tools in Academic Research and Publishing Among Global Clinical ResearchersScientific Reports 14, no. 31672 (2024). https://doi.org/10.1038/s41598-024-81370-6.

El articulo explora el creciente uso de los Modelos de Lenguaje de Gran Escala (LLMs) en la investigación académica, particularmente en el ámbito clínico. Los autores analizan cómo estos modelos, como el Generative Pre-trained Transformer (GPT), están siendo empleados para tareas como la revisión de literatura, el cribado de resúmenes y la redacción de manuscritos.

El estudio se basa en una encuesta transversal aplicada a 226 investigadores médicos y paramédicos de 59 países, formados en el programa de Certificación en Investigación de Harvard Medical School entre 2020 y 2024. Los resultados muestran que el 87.6% de los encuestados estaban al tanto de los LLMs, y aquellos con mayor conocimiento tendían a tener un mayor número de publicaciones indexadas en PubMed.

Entre los encuestados conscientes de los LLMs, el 18.7% los había utilizado principalmente para corrección gramatical y formateo, aunque una proporción significativa no reconoció explícitamente su uso en sus publicaciones. La percepción general sobre el impacto futuro de los LLMs es mayormente positiva, con el 50.8% de los encuestados anticipando un impacto beneficioso en el proceso de publicación, especialmente en la corrección gramatical, revisión y edición, redacción y revisión de literatura.

El estudio también revela preocupaciones éticas, ya que el 58.1% de los encuestados opinó que las revistas deberían permitir el uso de IA en la investigación, mientras que el 78.3% cree que se deben establecer regulaciones para evitar abusos. Los autores enfatizan la necesidad de desarrollar directrices y un marco ético para gobernar el uso de la IA en la investigación académica, abordando los desafíos actuales y asegurando un uso responsable de estas herramientas avanzadas.

La poesía generada por IA es indistinguible de la poesía escrita por humanos y es calificada de manera más favorable

Porter, Benjamin, y Edouard Machery. «AI-generated poetry is indistinguishable from human-written poetry and is rated more favorablyScientific Reports 14 (2024): 26133. https://doi.org/10.1038/s41598-024-76900-1

El estudio publicado en Scientific Reports explora cómo las personas perciben la poesía generada por inteligencia artificial (IA) en comparación con la escrita por humanos. A través de dos experimentos, los investigadores descubrieron que los lectores no expertos tenían una tasa de precisión inferior al azar al intentar distinguir entre poesía generada por IA y la escrita por poetas famosos. En promedio, acertaron solo en un 46.6% de las ocasiones. Curiosamente, los poemas generados por IA fueron más frecuentemente considerados como escritos por humanos que los poemas de autores reales.

Además, cuando los participantes evaluaron las cualidades de los poemas, los de IA fueron calificados más positivamente, especialmente en características como ritmo y belleza, lo que contribuyó a la confusión sobre su autoría. Este hallazgo sugiere que la poesía generada por IA puede ser percibida como más accesible o agradable en ciertos aspectos, lo que lleva a la preferencia de los lectores por estos poemas sobre los escritos por humanos.

Este estudio resalta cómo las capacidades de la IA están evolucionando rápidamente, y plantea preguntas sobre cómo distinguir entre las creaciones humanas y las generadas por máquinas, especialmente en el contexto de la literatura y el arte