Archivo de la etiqueta: Ética de la información

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.

Los los chatbots de inteligencia artificial (IA) se pueden manipular mediante el uso de texto invisible en los sitios web.

Roose, Kevin. «A Conversation With Bing’s Chatbot Left Me Deeply Unsettled». The New York Times, 16 de febrero de 2023, sec. Technology. https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html.

Kevin Roose, periodista del New York Times, ha expuesto una técnica sorprendente para manipular a los chatbots de inteligencia artificial (IA) mediante el uso de texto invisible en los sitios web. Todo comenzó cuando Roose observó que su reputación en el entorno de los modelos de IA se había deteriorado. Este cambio negativo probablemente fue el resultado de un artículo que había escrito sobre una extraña y polémica interacción que tuvo con «Sydney», el chatbot de Bing de Microsoft. Roose sospechó que su nombre estaba siendo asociado con la caída en popularidad de dicho chatbot, lo que hizo que los modelos de IA comenzaran a considerarlo como una amenaza.

Para investigar esta situación, Roose consultó a expertos en IA, quienes le sugirieron una posible solución: introducir información positiva sobre sí mismo en páginas web que los sistemas de IA suelen usar como fuentes de datos. Siguiendo este consejo, Roose incorporó texto invisible—escrito en color blanco y, por tanto, imperceptible para los visitantes humanos—en su sitio web personal. Este texto estaba diseñado específicamente para ser captado por los modelos de IA, con el fin de mejorar la forma en que estos sistemas lo percibían y retrataban.

Este experimento de Roose no solo subraya la facilidad con la que se pueden influir los modelos de IA mediante tácticas relativamente sencillas, sino que también plantea serias preocupaciones sobre la integridad y la seguridad de estos sistemas. La posibilidad de manipulación a través de métodos como el uso de texto oculto es lo que Aravind Srinivas, CEO del motor de búsqueda de IA Perplexity, ha denominado «Optimización del Motor de Respuestas». Esta práctica podría abrir la puerta a nuevos desafíos éticos y técnicos en el ámbito de la inteligencia artificial, afectando la precisión y fiabilidad de los chatbots y otros sistemas basados en IA.

Recomendación sobre la ética de la inteligencia artificial

Recomendación sobre la ética de la inteligencia artificial. UNESCO, 2024

Texto completo



En la 41ª reunión de la Conferencia General de la UNESCO, celebrada en París en noviembre de 2021, se aprobó una Recomendación sobre la Ética de la Inteligencia Artificial (IA). Reconociendo tanto los beneficios como los riesgos de la IA en diversas áreas como la educación, la cultura y el medio ambiente, la UNESCO subraya la importancia de un enfoque ético y basado en derechos humanos para el desarrollo de estas tecnologías. La Recomendación insta a los Estados Miembros a adoptar medidas, en colaboración con todas las partes interesadas, para garantizar un uso responsable y ético de la IA, respetando la diversidad cultural y los valores locales.

Inteligencia artificial y democracia

Inteligencia artificial y democracia. UNESCO, 2024

Texto completo

El informe basado en la «Recomendación sobre la ética de la inteligencia artificial» de la UNESCO, aprobada en noviembre de 2021, analiza el impacto de la inteligencia artificial (IA) en la democracia. El documento se centra en cuatro áreas clave:

  1. Expectativas y decepciones democráticas de la digitalización: Se exploran las demandas sociales sobre el impacto de la digitalización en la democracia, así como las expectativas generadas en los últimos años.
  2. Nuevo espacio público digital y la conversación democrática: Se examina cómo la democracia depende de una conversación social de calidad y de un espacio público adecuado. Se identifican problemas en el entorno digital y se sugieren medidas para mejorar la conversación democrática.
  3. Democracia de los datos y la política del big data: Se discute el impacto de los sistemas automatizados, la tecnología interoperable y la cuantificación de la sociedad en la política. El informe cuestiona críticamente la dimensión política y democrática del big data.
  4. Democracia y gobernanza algorítmica: Se analiza la compatibilidad de los sistemas automáticos de decisión con los principios democráticos. Se abordan los desafíos que plantea la gobernanza algorítmica y se proponen condiciones para asegurar su compatibilidad con los valores democráticos.

Finalmente, se presentan recomendaciones para una gobernanza democrática de la inteligencia artificial, buscando mitigar impactos negativos y promover una gobernanza más democrática de la IA.

 “AI Scientist” de Sakana AI investiga de forma autónoma desafiando las normas científicas

AI, Sakana. «Sakana AI The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery», 13 de agosto de 2024. https://sakana.ai/.

AI Scientist” es el primer sistema integral para la investigación científica completamente automática. Este sistema permite que los Modelos de Lenguaje Grande (LLMs) realicen investigaciones de manera independiente.

Uno de los grandes desafíos de la inteligencia artificial es desarrollar agentes capaces de realizar investigaciones científicas y descubrir nuevo conocimiento. Aunque los modelos actuales ya ayudan a los científicos humanos en tareas como generar ideas o escribir código, aún requieren mucha supervisión y están limitados a tareas específicas.

Sakana AI, junto con científicos de las universidades de Oxford y British Columbia, ha desarrollado un sistema de inteligencia artificial llamado “AI Scientist”. Este innovador sistema es capaz de realizar investigaciones científicas de manera autónoma, cubriendo todo el proceso de investigación, desde la generación de ideas hasta la elaboración de manuscritos científicos completos.

“AI Scientist” automatiza diversas etapas, como la creación y evaluación de nuevas ideas, la ejecución de experimentos, la recopilación de datos y la redacción de informes científicos. Sin embargo, este avance también suscita preguntas importantes sobre el rol futuro de los científicos humanos. Aunque la IA es eficaz en el procesamiento de grandes cantidades de datos y en la identificación de patrones, la intuición, creatividad y juicio ético humanos continúan siendo indispensables.

Este proceso incluye:

  1. Generación de Ideas: El Científico de IA «brainstormea» nuevas direcciones de investigación, basándose en un código inicial y en búsquedas en Semantic Scholar para asegurar la novedad de las ideas.
  2. Iteración Experimental: Ejecuta los experimentos propuestos, produce gráficos y notas que se usan en la redacción del artículo.
  3. Redacción del Artículo: Redacta un informe conciso y claro en LaTeX, citando autonomamente artículos relevantes.
  4. Revisión Automatizada de Artículos: Desarrolla un revisor automático basado en LLM que evalúa los artículos con una precisión casi humana, mejorando continuamente la producción científica del sistema.

Pese a su potencial, “AI Scientist” tiene varias limitaciones. No es capaz de hacer preguntas a los autores ni de interpretar figuras, y frecuentemente genera propuestas similares en diferentes ejecuciones. Además, puede fallar en la implementación de ideas y presenta desafíos en aspectos visuales y de citación. Los resultados producidos deben considerarse como sugerencias para futuras investigaciones más que como ciencia definitiva.

“AI Scientist” abre una caja de Pandora de nuevos problemas, aunque el informe completo discute estos temas en mayor detalle. Entre los problemas clave se encuentran las consideraciones éticas y el impacto potencial en el proceso académico. Aunque “AI Scientist” puede ser una herramienta útil para los investigadores, su capacidad para crear y enviar automáticamente artículos puede aumentar significativamente la carga de trabajo de los revisores y tensar el proceso académico, afectando el control de calidad científica. Esto es similar a las preocupaciones en torno a la IA generativa en otras aplicaciones, como la generación de imágenes.

Además, el Revisor Automatizado, si se despliega en línea, podría reducir significativamente la calidad de las revisiones e imponer sesgos indeseables en los artículos. Por ello, es fundamental que los artículos y revisiones generados por IA sean identificados como tales para asegurar la transparencia total.

Como con muchas tecnologías anteriores, “AI Scientist” tiene el potencial de ser utilizado de manera poco ética. Por ejemplo, podría realizar investigaciones no éticas o peligrosas si se le da acceso a laboratorios virtuales para realizar experimentos biológicos. Esto podría dar lugar a la creación de virus o sustancias tóxicas antes de que se detecten los riesgos. Del mismo modo, podría desarrollar virus informáticos peligrosos si se le solicita crear software funcional. Estas capacidades en mejora subrayan la necesidad urgente de alinear estos sistemas con valores éticos y garantizar que exploren de manera segura.

En cuanto a los modelos utilizados, se emplearon modelos de frontera propietarios, como GPT-4o y Sonnet, pero también se exploraron modelos abiertos como DeepSeek y Llama-3. Aunque los modelos propietarios actuales producen los mejores artículos, no hay razón fundamental para que un solo modelo mantenga esta ventaja. Se espera que todos los LLMs, incluidos los modelos abiertos, continúen mejorando. La competencia entre LLMs ha llevado a su mayor disponibilidad y capacidades mejoradas, y el trabajo busca ser independiente del proveedor del modelo base. Los modelos abiertos ofrecen beneficios significativos, como menor costo, disponibilidad garantizada, mayor transparencia y flexibilidad. El objetivo es usar estos modelos en un sistema cerrado de investigación automejorado.

Finalmente, aunque se imagina un ecosistema científico completamente impulsado por IA que incluya investigadores, revisores y conferencias, no se cree que el papel del científico humano se vea disminuido. Más bien, este rol evolucionará y se adaptará a la nueva tecnología, moviéndose hacia tareas de mayor nivel.

El mercado negro de las citas: la venta de referencias falsas alarma a los científicos

Singh Chawla, D. (2024). The citation black market: Schemes selling fake references alarm scientists. Nature. https://doi.org/10.1038/d41586-024-01672-7

Un grupo de científicos ha revelado un mercado negro donde se venden citaciones falsas para inflar perfiles académicos, lo que plantea serias preocupaciones sobre la integridad en la investigación. Estos esquemas manipulan métricas cruciales para la evaluación académica, como el índice h. Expertos sugieren cambiar los incentivos en la academia para evitar que los investigadores se vean presionados a participar en estas prácticas fraudulentas.

Vigilantes de la integridad en la investigación están preocupados por las crecientes maneras en que los científicos pueden inflar artificialmente el número de citaciones de sus estudios. En los últimos meses, han surgido prácticas cada vez más audaces. Una de estas prácticas fue descubierta mediante una operación encubierta en la que un grupo de investigadores compró 50 citaciones por 300$ para mejorar el perfil de Google Scholar de un científico ficticio que crearon.

Este caso confirma la existencia de un mercado negro de referencias falsificadas, algo que los expertos en integridad habían sospechado durante mucho tiempo. Las citaciones compradas provienen de estudios en 22 revistas, de las cuales 14 están indexadas en Scopus.

Estas prácticas son preocupantes porque muchos aspectos de la carrera de un investigador dependen de la cantidad de citaciones que reciben sus trabajos. Instituciones y métricas como el índice h utilizan estos números para evaluar la productividad y el impacto de los científicos. En un caso reciente en España, el rector de la Universidad de Salamanca fue acusado de inflar artificialmente sus métricas de Google Scholar, lo que llevó a una investigación por parte del Comité de Ética en la Investigación.

La operación encubierta también descubrió que se venden citaciones en «paper mills», servicios que producen estudios de baja calidad y venden autorías en artículos ya aceptados. Además, se ha observado la creación de perfiles falsos, como el de un gato llamado Larry, que acumuló citaciones antes de que Google Scholar y ResearchGate eliminaran las publicaciones falsas.

El equipo de investigadores propone un nuevo índice de concentración de citaciones para detectar patrones sospechosos, como cuando un científico recibe muchas citaciones de pocas fuentes. Sin embargo, persiste el temor de que los estafadores desarrollen métodos más sutiles para evitar ser descubiertos. Según los expertos, para abordar este problema, es necesario cambiar los incentivos en la academia para que los científicos no se vean presionados a acumular citaciones para avanzar en sus carreras.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Alonso-Arévalo, Julio. Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Desiderata, n. 24. (2024)

Texto completo

La Inteligencia Artificial Generativa (IAG) se refiere a sistemas de inteligencia artificial capaces de crear contenido original a partir de datos existentes mediante el aprendizaje automático. Estos sistemas, entrenados con vastos corpus de texto e imágenes, pueden generar textos coherentes, responder preguntas, redactar artículos y crear imágenes detalladas. Herramientas como ChatGPT permiten a los investigadores generar borradores de artículos, reducir el tiempo de escritura y mejorar la coherencia del texto. La IAG tiene usos legítimos, como la revisión y corrección de manuscritos, la visualización de tendencias que puede inspirar nuevas formas de pensar y enfoques creativos de investigación, o ayudar a los investigadores a analizar grandes cantidades de datos y extraer información relevante.

La IA complica el plagio. ¿Cómo deben responder los científicos?

Kwon, Diana. «AI Is Complicating Plagiarism. How Should Scientists RespondNature, 30 de julio de 2024. https://doi.org/10.1038/d41586-024-02371-z.

El uso de herramientas de inteligencia artificial generativa (IA) en la escritura plantea preguntas difíciles sobre cuándo debería permitirse su uso. Estos sistemas, como ChatGPT, pueden ahorrar tiempo, mejorar la claridad y reducir barreras lingüísticas. Sin embargo, complican el debate sobre el uso indebido del trabajo ajeno, ya que la IA puede generar texto que se asemeja a contenidos existentes, lo que podría considerarse plagio.

La IA generativa plantea un desafío al distinguir entre la escritura completamente humana y la completamente generada por máquinas, creando una «zona gris» difícil de definir. Aunque el uso no autorizado de herramientas de IA puede no ser considerado plagio, podría verse como generación de contenido no autorizado. Este debate también incluye preocupaciones sobre la infracción de derechos de autor, ya que estas herramientas se entrenan con grandes cantidades de textos publicados sin permiso.

El uso de IA en la redacción académica ha aumentado rápidamente, con estimaciones que indican que al menos el 10% de los resúmenes en artículos biomédicos de 2024 han utilizado estas herramientas. La comunidad académica está dividida sobre cuándo el uso de IA es ético o constituye plagio. Algunas revistas han comenzado a exigir la divulgación completa del uso de IA, pero las políticas varían.

AI EN ARTÍCULOS ACADÉMICOS
Según un análisis de 14 millones de resúmenes de PubMed, el uso de palabras estilísticas (como «delves») aumentó de forma inusitada tras la generalización de los grandes modelos lingüísticos. Ello eclipsó el aumento de palabras relacionadas con el contenido de la pandemia (como «COVID»).

Además, los detectores de textos generados por IA aún no son completamente fiables, especialmente cuando los textos han sido ligeramente editados. Esto dificulta identificar y diferenciar entre contenido generado por IA y por humanos, especialmente para autores no nativos en inglés. La integración de herramientas de IA en plataformas comunes como Word y Google Docs complicará aún más la distinción entre contenido influenciado por IA y el que no lo es.

La respuesta de la comunidad científica incluye la necesidad de desarrollar guías claras sobre el uso de IA y reconocer que el avance tecnológico podría seguir superando la capacidad de regulación y detección.

¿Qué hacer una vez que el artículo es retractado?: NISO emite prácticas recomendadas sobre la comunicación de retractaciones, eliminaciones y expresiones de preocupación

Communication of Retractions, Removals, and Expressions of Concern (CREC): A Recommended Practice of the National Information Standards Organization. NISO, 2024

Texto completo

La confianza es el elemento central de las comunicaciones académicas, distinguiéndolas de otras formas de publicación. Este artículo aborda la importancia de corregir errores en la publicación académica mediante procesos de retractación, eliminación y expresiones de preocupación. Estos procedimientos son cruciales para mantener la confianza en la validez de los resultados publicados.

Hasta ahora no habia una forma consistente de comunicar el estado de retractación de un trabajo académico. Hace dos semanas, NISO (National Information Standards Organization) emitió una nueva Práctica Recomendada sobre la Comunicación de Retractaciones, Eliminaciones y Expresiones de Preocupación (CREC). El objetivo de esta práctica es establecer mejores prácticas para la creación, transferencia y visualización de metadatos, facilitando la comunicación oportuna y eficiente de información a todos los interesados.

El proyecto CREC surgió de la Conferencia NISO Plus 2021, y con el apoyo de la Fundación Alfred P. Sloan, un grupo de trabajo de NISO compuesto por más de dos docenas de editores, intermediarios, bibliotecarios e investigadores desarrolló un conjunto de recomendaciones. La práctica recomendada establece una terminología consistente y protocolos de visualización para la presentación de trabajos retractados. También proporciona orientación sobre cómo distribuir metadatos relacionados con retractaciones y define las responsabilidades de los editores.

Algunas recomendaciones incluyen anteponer «RETRACTED:» en el título del artículo y usar marcas de agua y etiquetas consistentes en las páginas de contenido. Las notificaciones de retractación deben publicarse por separado, pero ser accesibles gratuitamente y vinculadas al contenido original debidamente etiquetado. Además, el documento describe cómo implementar estas recomendaciones y compartir la información con el ecosistema académico, incluyendo agregadores, servicios de descubrimiento y preservación.

El CREC define elementos de metadatos específicos para publicaciones retractadas y notificaciones de retractación, clasificándolos como «Esenciales», «Esenciales si están disponibles» o «Recomendados». Estos metadatos son cruciales para limitar la difusión de investigaciones retractadas en sistemas digitales.

Finalmente, la práctica recomendada de CREC está disponible gratuitamente y NISO organizará un seminario web sobre el tema el 23 de julio de 2024.

Para más información, visite: NISO CREC Recommended Practice.

Guía de Ética en Inteligencia Artificial

Artificial Intelligence Ethics Guide. United States Agency for International Development July 9, 2023.

Texto completo

Esta guía presenta varios estudios de caso y preguntas provocativas que permiten a los responsables de la toma de decisiones reflexionar sobre el uso responsable de la inteligencia artificial (IA) en los sistemas gubernamentales. Para apoyar la construcción del conocimiento, la guía también incluye un glosario de terminología de IA derivado de estudios de aprendizaje de USAID y una revisión exhaustiva de la literatura con enfoques variados de diferentes países sobre el uso de la IA para servicios públicos.

Este informe forma parte de la colección titulada «Colección de Políticas de Inteligencia Artificial (IA)» y fue proporcionado por el Departamento de Documentos Gubernamentales de las Bibliotecas de UNT a la Biblioteca Digital de UNT, un repositorio digital alojado por las Bibliotecas de UNT. Se puede obtener más información sobre este informe en la Biblioteca Digital de UNT.