
«Study finds AI-generated research papers on Google Scholar – why it matters | ZDNET», accedido 16 de septiembre de 2024, https://www.zdnet.com/article/study-finds-ai-generated-research-papers-on-google-scholar-why-it-matters/#ftag=RSSbaffb68.
Un estudio reciente, publicado en la Harvard Kennedy School’s Misinformation Review, encontró que al menos 139 artículos disponibles en Google Scholar parecen haber sido generados por herramientas de inteligencia artificial (IA). De estos, la mayoría se encontró en revistas no indexadas, pero 19 aparecieron en revistas verificadas y otras 19 en bases de datos universitarias, presuntamente escritas por estudiantes. Esto subraya una creciente preocupación sobre la proliferación de investigaciones falsas, facilitada por herramientas generativas de IA como ChatGPT.
Los investigadores identificaron estos estudios sospechosos por la inclusión de frases típicas de los modelos de lenguaje, como las generadas por ChatGPT. Además, los estudios estaban ampliamente disponibles en varias bases de datos, archivos y redes sociales, aumentando su visibilidad. Temas sensibles como la salud, la tecnología computacional y el medio ambiente estaban entre los más comúnmente abordados por estos artículos falsos, lo que es alarmante dado que pueden influir en decisiones de políticas públicas y la percepción de temas clave.
El estudio destacó que la aparición de ChatGPT y otras IA en 2022, junto con el funcionamiento de Google Scholar, ha incrementado la posibilidad de que personas sin formación académica (como periodistas, políticos, pacientes y estudiantes) encuentren y citen estudios falsos. Esto es particularmente problemático porque, a diferencia de los sesgos o «alucinaciones» de los chatbots de IA, los estudios presentados en una plataforma académica como Google Scholar parecen auténticos y pueden llevar a una mayor confusión o desinformación.
Aunque Google Scholar contiene una amplia gama de literatura académica de calidad, el estudio critica su falta de transparencia y sus criterios automáticos de inclusión, lo que permite que cualquier autor, independientemente de su afiliación científica, pueda subir artículos. A diferencia de otras bases de datos académicas, Scholar no permite filtrar por tipo de material, estado de publicación o si los artículos han sido revisados por pares, lo que facilita que estudios falsos o generados por IA se cuelen en los resultados de búsqueda.
Otro punto preocupante es que, aunque herramientas de detección de contenido generado por IA están mejorando, aún no son lo suficientemente sofisticadas como para identificar de manera confiable estos estudios falsificados. El estudio también señala que, en el pasado, otros investigadores han encontrado libros y artículos falsos en Google Books y Google Scholar utilizando frases características de los chatbots como «Hasta mi última actualización de conocimiento», común en respuestas de ChatGPT.
Con millones de usuarios confiando en Google Scholar para sus investigaciones, la posibilidad de que se citen estos estudios falsos es cada vez mayor. Esto plantea un grave riesgo para la integridad del registro científico y del sistema de comunicación académica, ya que los estudios generados por IA pueden parecer convincentemente científicos, aunque sean completamente falsos. Los autores del estudio advierten que, a medida que la tecnología avanza, será más difícil detectar estos estudios, lo que amenaza con sobrecargar el ecosistema de investigación y desinformar tanto a académicos como al público en general.
En resumen, la creciente inclusión de estudios falsos generados por IA en Google Scholar plantea un peligro para la comunidad científica y el público, ya que estos trabajos pueden influir en decisiones importantes sin ser detectados. La falta de filtros y la facilidad con la que se puede subir contenido no revisado en plataformas académicas populares hace que sea crucial abordar este problema antes de que cause daños irreparables a la confianza en la ciencia y la academia.