Archivo de la etiqueta: Ética de la información

Más de la mitad de los adolescentes desconfía de que las grandes empresas tecnológicas de Inteligencia Artificial tomen decisiones éticas y responsables

Common Sense Media. “Research Reveals Teens’ Distrust in Tech Companies and AI-Generated Content.Common Sense Media, January 31, 2025.

Texto completo

El informe Teens, Trust, and Technology in the Age of AI, publicado por Common Sense Media, revela una brecha de confianza entre los adolescentes y las empresas tecnológicas. Basado en una encuesta representativa a nivel nacional de 1.045 adolescentes de entre 13 y 18 años, el estudio muestra que casi dos tercios de los encuestados (64%) no confían en que las compañías tecnológicas se preocupen por su bienestar, y un 62% duda de que prioricen la seguridad del usuario sobre las ganancias.

Este informe proporciona información crucial para padres, educadores y legisladores sobre el impacto de la tecnología en los jóvenes y cómo proteger su bienestar en un mundo cada vez más digitalizado.

Hallazgos clave:

  • Desconfianza generalizada: Más de la mitad de los adolescentes encuestados desconfía de que las grandes empresas tecnológicas tomen decisiones éticas y responsables en el diseño de sus productos (53%), protejan su información personal (52%) o sean inclusivas y justas con diferentes tipos de usuarios (51%).
  • Uso de IA y preocupaciones éticas: El 47% tiene poca o ninguna confianza en que las empresas tecnológicas tomen decisiones responsables sobre el uso de inteligencia artificial en sus productos.
  • Errores en la IA generativa: Un 39% de los adolescentes que han utilizado IA generativa para tareas escolares han detectado errores en sus resultados.
  • Regulación y transparencia: Aproximadamente el 70% de los encuestados apoya medidas de privacidad y transparencia en los sistemas de IA.
  • Etiquetado de contenido generado por IA: Un 73% considera importante que el contenido creado por inteligencia artificial esté claramente identificado o marcado con una marca de agua.
  • El estudio subraya la necesidad de regulaciones más estrictas y de una mayor responsabilidad por parte de las empresas tecnológicas para garantizar un entorno digital más seguro y confiable para los jóvenes.

Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.

La presión para publicar está contribuyendo a un aumento en la retractación de artículos científicos

Tran, Nham. «The ‘Publish or Perish’ Mentality Is Fuelling Research Paper Retractions – and Undermining ScienceThe Conversation, September 24, 2024. https://theconversation.com/the-publish-or-perish-mentality-is-fuelling-research-paper-retractions-and-undermining-science-238983

Los científicos, al realizar descubrimientos importantes, suelen publicar sus hallazgos en revistas científicas para que otros puedan leerlos y beneficiarse de ese conocimiento. Esta difusión de información es fundamental para el progreso de la ciencia, ya que permite que otros investigadores construyan sobre trabajos previos y, potencialmente, realicen nuevos descubrimientos significativos. Sin embargo, los artículos publicados pueden ser retractados si se detectan problemas de precisión o integridad en los datos. En años recientes, el número de retractaciones ha aumentado considerablemente. En 2023, se retractaron más de 10.000 artículos de manera global, estableciendo un nuevo récord.

El aumento en las retractaciones está impulsado por la mentalidad de «publicar o perecer», una situación que ha prevalecido en la academia durante décadas. La publicación de artículos de investigación es un factor clave para el avance en la carrera académica y para la mejora de los rankings universitarios. Las universidades y los institutos de investigación suelen utilizar el número de publicaciones como indicador principal de productividad y reputación. Esto ha llevado a una presión constante sobre los académicos para publicar regularmente, lo que, a su vez, ha contribuido a un aumento en la presentación de datos fraudulentos. Si esta tendencia continúa, el paisaje de la investigación podría cambiar hacia estándares menos rigurosos, dificultando el progreso en áreas críticas como la medicina, la tecnología y la ciencia climática.

Retraction Watch, una de las bases de datos más grandes que monitorea las retractaciones científicas, ha revelado un incremento en la cantidad de artículos retractados. En la última década, se han retractado más de 39.000 publicaciones, y el número anual de retractaciones está creciendo alrededor de un 23% cada año. Aproximadamente la mitad de estas retractaciones se deben a problemas relacionados con la autenticidad de los datos. Un ejemplo es el caso de Richard Eckert, un bioquímico senior de la Universidad de Maryland, Baltimore, quien falsificó datos en 13 artículos publicados. De estos, cuatro han sido corregidos, uno ha sido retractado y los demás están en proceso de acción.

El plagio es la segunda razón más común para la retractación de artículos, representando el 16% de los casos. Otro motivo significativo es el uso de revisiones por pares falsas, un problema que ha aumentado diez veces en la última década. También ha habido un incremento en las publicaciones asociadas con las llamadas «fábricas de artículos» (Paper Mills), que son empresas que producen artículos falsos por una tarifa. En 2022, hasta un 2% de todas las publicaciones provinieron de estas fábricas. Los errores genuinos en el proceso científico solo representan aproximadamente el 6% de todas las retractaciones en la última década.

La presión para publicar ha llevado a un aumento en los errores y las prácticas fraudulentas. Aunque la digitalización ha facilitado la detección de datos sospechosos, también ha intensificado la cultura de «publicar o perecer» en las universidades. La mayoría del personal académico debe cumplir con cuotas específicas de publicaciones para evaluaciones de desempeño, y las instituciones utilizan el rendimiento en publicaciones para mejorar su posición en los rankings globales, lo que atrae a más estudiantes y genera ingresos por enseñanza.

El sistema de recompensas en la academia a menudo prioriza la cantidad sobre la calidad de las publicaciones. Este enfoque puede llevar a los científicos a recortar esquinas, apresurar experimentos o incluso falsificar datos para cumplir con las métricas impuestas. Para abordar este problema, iniciativas como la Declaración de San Francisco sobre la Evaluación de la Investigación están impulsando un cambio hacia la evaluación de la investigación basada en su calidad e impacto social, en lugar de métricas centradas en revistas, como factores de impacto o recuentos de citas.

Cambiar las políticas de las revistas para priorizar el intercambio de todos los datos experimentales podría mejorar la integridad científica, permitiendo a los investigadores replicar experimentos para verificar los resultados de otros. Además, las universidades, los institutos de investigación y las agencias de financiamiento necesitan mejorar su diligencia debida y responsabilizar a aquellos involucrados en malas conductas. Incluir preguntas simples en las solicitudes de subvenciones o promociones académicas, como «¿Alguna vez ha tenido o estado involucrado en un artículo retractado?», podría mejorar la integridad de la investigación al disuadir comportamientos poco éticos. Las respuestas deshonestas podrían ser fácilmente detectadas gracias a la disponibilidad de herramientas en línea y bases de datos como Retraction Watch.

Un nuevo enfoque de la ética de la investigación: utilizar el diálogo guiado para fortalecer las comunidades de investigación

Henriikka Mustajoki y Arto Mustajoki, A New Approach to Research Ethics: Using Guided Dialogue to Strengthen Research Communities (London: Routledge, 2017), https://doi.org/10.4324/9781315545318.

A New Approach to Research Ethics es una guía clara, práctica y útil sobre los problemas éticos a los que se enfrentan los investigadores hoy en día. Examinando las teorías de la toma de decisiones éticas y aplicándolas a diversas situaciones dentro de una carrera e proceso de investigación, este texto ofrece una perspectiva más amplia sobre cómo la ética puede ser una fuerza positiva para fortalecer la comunidad investigadora.

Basado en una sólida selección de estudios de caso desafiantes, este texto ofrece un nuevo enfoque para abordar los problemas éticos y proporciona al lector:

  • Una visión más amplia sobre la ética en la investigación práctica, abarcando tanto las diferentes etapas de las carreras investigadoras como diversas tareas dentro de esa carrera, incluyendo la supervisión y las evaluaciones de investigación.
  • Reflexiones sobre cuestiones como la creciente globalización, la ciencia abierta y la competencia intensificada.
  • Una mayor comprensión de la investigación en un mundo de nuevas tecnologías.
  • Una extensión de la ética en la investigación hacia un enfoque multidisciplinario e interdisciplinario.
  • Una introducción a un método de «diálogo guiado», que ayuda a identificar y abordar los problemas éticos tanto a nivel individual como dentro de la comunidad investigadora.

Un nuevo enfoque de la ética en la investigación permite la autorreflexión y ofrece orientación para el desarrollo profesional en un área cada vez más competitiva. Lleno de valiosas recomendaciones para el investigador y el tomador de decisiones éticas, este texto es esencial para estudiantes de posgrado, académicos senior y desarrolladores de cursos de formación sobre ética para investigadores.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.

Uso de grandes modelos lingüísticos como herramientas de inteligencia artificial en la investigación académica y la publicación entre los investigadores

Mishra, Tanisha, Edward Sutanto, Rini Rossanti, Nayana Pant, Anum Ashraf, Akshay Raut, Germaine Uwabareze, Ajayi Oluwatomiwa, y Bushra Zeeshan. «Use of Large Language Models as Artificial Intelligence Tools in Academic Research and Publishing Among Global Clinical ResearchersScientific Reports 14, no. 31672 (2024). https://doi.org/10.1038/s41598-024-81370-6.

El articulo explora el creciente uso de los Modelos de Lenguaje de Gran Escala (LLMs) en la investigación académica, particularmente en el ámbito clínico. Los autores analizan cómo estos modelos, como el Generative Pre-trained Transformer (GPT), están siendo empleados para tareas como la revisión de literatura, el cribado de resúmenes y la redacción de manuscritos.

El estudio se basa en una encuesta transversal aplicada a 226 investigadores médicos y paramédicos de 59 países, formados en el programa de Certificación en Investigación de Harvard Medical School entre 2020 y 2024. Los resultados muestran que el 87.6% de los encuestados estaban al tanto de los LLMs, y aquellos con mayor conocimiento tendían a tener un mayor número de publicaciones indexadas en PubMed.

Entre los encuestados conscientes de los LLMs, el 18.7% los había utilizado principalmente para corrección gramatical y formateo, aunque una proporción significativa no reconoció explícitamente su uso en sus publicaciones. La percepción general sobre el impacto futuro de los LLMs es mayormente positiva, con el 50.8% de los encuestados anticipando un impacto beneficioso en el proceso de publicación, especialmente en la corrección gramatical, revisión y edición, redacción y revisión de literatura.

El estudio también revela preocupaciones éticas, ya que el 58.1% de los encuestados opinó que las revistas deberían permitir el uso de IA en la investigación, mientras que el 78.3% cree que se deben establecer regulaciones para evitar abusos. Los autores enfatizan la necesidad de desarrollar directrices y un marco ético para gobernar el uso de la IA en la investigación académica, abordando los desafíos actuales y asegurando un uso responsable de estas herramientas avanzadas.

Hacia un Archivo Común de Libros para una IA Ética y de Interés Público



Authors Alliance. «Developing a Public-Interest Training Commons of BooksAuthors Alliance, December 5, 2024. https://www.authorsalliance.org/2024/12/05/developing-a-public-interest-training-commons-of-books/.

Este proyecto busca equilibrar el desarrollo de IA con principios éticos y sociales, aprovechando la riqueza cultural de los libros mientras se promueve la equidad en el acceso al conocimiento y en la representación de los datos utilizados.

La Authors Alliance, con el apoyo de la Fundación Mellon, ha lanzado un proyecto para planificar un archivo de libros orientado al interés público en el desarrollo de inteligencia artificial (IA). Northeastern University Library colabora en la coordinación de esta iniciativa.

Los modelos de lenguaje de IA (LLMs) requieren grandes volúmenes de texto para su entrenamiento, y los libros representan un recurso valioso. Sin embargo, el desarrollo de IA hasta ahora ha estado dominado por empresas privadas que priorizan la competencia sin atender suficientemente a la diversidad, la veracidad, el sesgo o el impacto social de sus datos.

El proyecto busca crear un plan para establecer una organización o alianza que gestione un archivo de libros con fines de interés público, impulsado por bibliotecas sin fines de lucro. Este archivo estará diseñado para considerar las perspectivas de autores, editoriales, investigadores y tecnólogos, asegurando que la IA se desarrolle de manera ética e inclusiva.

El proyecto aborda varios desafíos esenciales:

  • Misión y objetivos: Definir metas a corto y largo plazo.
  • Aspectos técnicos y logísticos: Diseñar estrategias distintas a las iniciativas actuales lideradas por bibliotecas.
  • Diversidad del corpus: Garantizar un archivo amplio y diverso que ofrezca alternativas viables a los datos actuales.
  • Gobernanza: Crear estructuras que equilibren los intereses de todos los actores involucrados.
  • Sostenibilidad: Diseñar un modelo de financiación a largo plazo para el mantenimiento y crecimiento del archivo.
  • Legalidad y derechos de autor: Asegurar que los libros se adquieran legalmente y que se respete a autores y titulares de derechos mediante compensaciones y créditos adecuados.
  • Segmentación de usuarios: Reconocer y satisfacer las diferentes necesidades de investigadores sin fines de lucro, nuevas empresas y grandes actores comerciales.

¿Navegar con IA o hundirse con IA? Análisis de verbos de títulos de artículos de investigación sospechosos de contener contenidos generados/asistidos por IA

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content.» Learned Publishing, publicado por primera vez el 1 de diciembre de 2024. https://doi.org/10.1002/leap.1647.



El estudio examina cómo la inteligencia artificial generativa (IA), como ChatGPT, puede estar influyendo en el lenguaje de los títulos de artículos académicos. Analizando 15 verbos seleccionados en títulos extraídos de SCOPUS (2015-2024), se detectó un incremento notable de ciertos términos asociados con IA. Los hallazgos sugieren que estas herramientas afectan la escritura científica, especialmente en disciplinas específicas. Se subraya la importancia de establecer estándares para el uso de IA en publicaciones académicas y se plantea la necesidad de más investigaciones para ampliar el análisis lingüístico.

Se analizaron cómo la aparición frecuente del verbo «navigating» en títulos académicos revisados en 2023 despertando sospechas sobre la influencia de herramientas de inteligencia artificial generativa (IA). Lo cual motivó una investigación que conecta los avances en modelos de lenguaje como ChatGPT con cambios en la redacción científica, particularmente en los títulos. Los resultados de la misma sugieren que la IA está transformando los métodos de escritura académica, aunque la detección de su uso sigue siendo un desafío. Los títulos, clave en la visibilidad y selección editorial, se examinan como indicadores de esta influencia emergente.

El estudio buscaba entender cómo la IA está transformando la comunicación científica, para ello se analizaron los verbos de acción en títulos de artículos científicos para identificar patrones que sugieran contenido generado o asistido por IA, especialmente ChatGPT. Sus objetivos incluyen:

  1. Identificar verbos recurrentes indicativos de IA generativa.
  2. Analizar tendencias en el uso de estos verbos durante la última década.
  3. Examinar características de documentos con títulos sospechosos.
  4. Cuantificar manuscritos asistidos por IA, estimando su impacto en la redacción académica.

La metodología del estudio se desarrolló en dos pasos principales:

  1. Identificación de verbos sospechosos: Se analizaron verbos presentes en títulos generados por ChatGPT usando resúmenes de artículos recientes en cuatro disciplinas. Esto resultó en una lista de 25 verbos potencialmente indicativos de contenido asistido por IA, basándose en aumentos significativos en su uso desde 2023 en títulos indexados en SCOPUS.
  2. Análisis bibliométrico: Se examinaron tendencias de uso y características de manuscritos con estos verbos en bases como SCOPUS y DOAJ, proyectando datos de 2024 para evaluar patrones lingüísticos relacionados con la IA.

El estudio identificó 15 verbos con un notable aumento de uso en títulos de manuscritos entre 2023 y 2024, lo que sugiere una posible influencia de herramientas de IA como ChatGPT. Verbos como revolutionizing y unleashing mostraron tasas de crecimiento anual (YoYG) superiores al 100%, mientras que otros como exploring y bridging presentaron incrementos más moderados. Estos datos, obtenidos de SCOPUS, revelan un patrón de crecimiento en el uso de términos asociados con innovación y descubrimiento, correlacionado con la creciente adopción de tecnologías de IA.

El análisis de títulos en SCOPUS mostró un aumento significativo en el uso de verbos asociados con IA, con 165.087 documentos estimados para 2024 que contienen al menos uno de los 15 verbos analizados. Este incremento es más notable en categorías como ‘Letters’ y ‘Review’, lo que sugiere una creciente dependencia de herramientas de IA para redactar comunicaciones rápidas y revisiones literarias. Además, se observó un aumento del 144.5% en el uso de IA en países no anglófonos, mientras que en los países de habla inglesa fue del 59.8%.



Para estimar el número de títulos generados o asistidos por IA, se siguieron tres pasos: calcular el crecimiento interanual (YoYG) promedio de 2016 a 2022, estimar el YoYG para 2023-2024 según esa media, y calcular la diferencia entre esta estimación y los datos reales para determinar los títulos potencialmente generados por IA. Se observó un aumento notable de títulos sospechosos de ser asistidos por IA en SCOPUS, con un total de 63.780 títulos en dos años, destacando verbos como “Enhancing” y “Exploring” en el lenguaje académico.

Desarrollo ético de las plataformas de IA

O’Donnell, James. «We Need to Start Wrestling with the Ethics of AI AgentsMIT Technology Review, November 26, 2024. https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/.



Se analiza los retos éticos de las plataformas de IA, capaces de realizar tareas complejas y simular comportamientos humanos con precisión. Estas tecnologías plantean preocupaciones sobre la privacidad, los deepfakes y la transparencia en las interacciones con usuarios. Abordar estas cuestiones es clave antes de su adopción masiva.

Actualmente, las plataformas de IA se dividen en dos tipos principales: las plataformas basadas en herramientas, que ejecutan tareas digitales específicas como rellenar formularios o buscar información, y las plataformas de simulación, capaces de imitar personalidades humanas con notable precisión. Estas últimas surgieron inicialmente en investigaciones sociales para realizar estudios difíciles o poco éticos con participantes reales.

El desarrollo reciente de estas plataformas ha alcanzado niveles impresionantes, como lo demuestra un estudio de 2024 donde se crearon simulaciones precisas de las preferencias y valoraciones de mil personas tras entrevistas de dos horas. Esta convergencia entre ambos tipos de plataformas plantea escenarios en los que la IA no solo puede imitar la personalidad de un individuo, sino también actuar en su nombre. Empresas como Tavus ya trabajan en «gemelos digitales» que podrían desempeñar roles como terapeutas, médicos o profesores.

Sin embargo, este avance trae consigo preocupaciones éticas. Por un lado, la facilidad para replicar voces, comportamientos y personalidades podría agravar problemas como los deepfakes dañinos o el uso no consensuado de datos personales. Por otro lado, surge la pregunta de si las personas tienen derecho a saber si están interactuando con una IA o con un ser humano. Estas cuestiones son especialmente relevantes en contextos como el servicio al cliente, donde los límites entre humanos y máquinas se difuminan.

El autor subraya que, aunque esta tecnología aún está en desarrollo, no está tan lejos como podría parecer. Es crucial abordar estos dilemas éticos de manera anticipada, dado que las implicaciones sociales y personales podrían ser profundas y disruptivas.

Gestión de publicaciones retractadas por parte de diferentes bases de datos

Salami, Malik Oyewale, Corinne McCumber, y Jodi Schneider. 2024. «Analyzing the Consistency of Retraction Indexing». OSF. https://doi.org/10.31222/osf.io/gvfk5.

El artículo aborda un problema crítico en el ámbito académico: la inconsistencia en la identificación y el manejo de publicaciones retractadas por parte de diferentes bases de datos. Se analiza cómo estas bases gestionan las retractaciones, evaluando la calidad de su indexación.

El propósito central es investigar por qué las publicaciones retractadas siguen siendo citadas incluso después de que se retiran oficialmente. Esto puede atribuirse, en parte, a las dificultades que enfrentan autores y editores para identificar sistemáticamente estas publicaciones en diferentes bases de datos académicas. Los investigadores buscan comprender el nivel de acuerdo entre estas bases de datos y señalar los errores más comunes en la indexación.

Para llevar a cabo el estudio se evaluaron 11 bases de datos científicas relevantes, utilizando una lista unificada de 85.392 publicaciones únicas retractadas como referencia. Se analizaron las publicaciones que cada base incluía, aquellas que identificaban como retractadas y las que no eran reconocidas en absoluto. Y finalmente se midió la concordancia entre las bases de datos en cuanto a la identificación de publicaciones retractadas.

Hallazgos principales:

  • Baja consistencia entre bases de datos: Los resultados muestran que las bases de datos tienen una baja concordancia en la indexación de publicaciones retractadas, incluso cuando cubren los mismos documentos. Esto genera discrepancias significativas sobre qué trabajos se identifican oficialmente como retractados.
  • Errores en la indexación: Se encontraron problemas recurrentes en cómo se manejan las retractaciones, tales como: Las publicaciones retractadas que no son marcadas adecuadamente en ciertas bases. Inconsistencias en el etiquetado de retractaciones entre diferentes plataformas.
  • Impacto en las citas posteriores a la retractación: Debido a estas inconsistencias, muchos trabajos retractados siguen siendo citados por error, lo que perpetúa información incorrecta y afecta la credibilidad de futuras investigaciones.

El estudio destaca varias implicaciones importantes para la comunidad académica debido a la falta de estándares claros en la gestión de publicaciones retractadas.

  • Primero, hay una confusión para los investigadores. Los autores pueden no estar al tanto de que una publicación ha sido retractada si buscan referencias en bases de datos que no la han actualizado adecuadamente. Esto puede llevar a la cita de trabajos que ya no son válidos, lo que afecta la calidad de la investigación.
  • En segundo lugar, hay un impacto en la calidad científica. Las citas erróneas de publicaciones retractadas pueden disminuir la precisión de nuevos estudios. Si otros investigadores basan su trabajo en artículos retractados, esto puede afectar la fiabilidad de sus propios resultados, lo que reduce la confianza en la ciencia.

El estudio también presenta varias recomendaciones para mejorar la situación. Una de las principales sugerencias es crear directrices claras sobre cómo las bases de datos deben manejar las publicaciones retractadas. Además, se debe mejorar la coordinación entre las plataformas para asegurarse de que todas las bases de datos identifiquen correctamente los trabajos retractados. Finalmente, se recomienda implementar mejores sistemas de notificación para alertar a los investigadores cuando un artículo haya sido retractado, asegurando que todos estén informados y puedan evitar usar referencias incorrectas.

El análisis pone de manifiesto un desafío crítico en el sistema académico global: la inconsistencia en el manejo de las retractaciones. Resolver este problema es fundamental para mejorar la transparencia y la confiabilidad de la investigación científica