Archivo de la etiqueta: Ética de la información

Inteligencia artificial y democracia

Inteligencia artificial y democracia. UNESCO, 2024

Texto completo

El informe basado en la «Recomendación sobre la ética de la inteligencia artificial» de la UNESCO, aprobada en noviembre de 2021, analiza el impacto de la inteligencia artificial (IA) en la democracia. El documento se centra en cuatro áreas clave:

  1. Expectativas y decepciones democráticas de la digitalización: Se exploran las demandas sociales sobre el impacto de la digitalización en la democracia, así como las expectativas generadas en los últimos años.
  2. Nuevo espacio público digital y la conversación democrática: Se examina cómo la democracia depende de una conversación social de calidad y de un espacio público adecuado. Se identifican problemas en el entorno digital y se sugieren medidas para mejorar la conversación democrática.
  3. Democracia de los datos y la política del big data: Se discute el impacto de los sistemas automatizados, la tecnología interoperable y la cuantificación de la sociedad en la política. El informe cuestiona críticamente la dimensión política y democrática del big data.
  4. Democracia y gobernanza algorítmica: Se analiza la compatibilidad de los sistemas automáticos de decisión con los principios democráticos. Se abordan los desafíos que plantea la gobernanza algorítmica y se proponen condiciones para asegurar su compatibilidad con los valores democráticos.

Finalmente, se presentan recomendaciones para una gobernanza democrática de la inteligencia artificial, buscando mitigar impactos negativos y promover una gobernanza más democrática de la IA.

 “AI Scientist” de Sakana AI investiga de forma autónoma desafiando las normas científicas

AI, Sakana. «Sakana AI The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery», 13 de agosto de 2024. https://sakana.ai/.

AI Scientist” es el primer sistema integral para la investigación científica completamente automática. Este sistema permite que los Modelos de Lenguaje Grande (LLMs) realicen investigaciones de manera independiente.

Uno de los grandes desafíos de la inteligencia artificial es desarrollar agentes capaces de realizar investigaciones científicas y descubrir nuevo conocimiento. Aunque los modelos actuales ya ayudan a los científicos humanos en tareas como generar ideas o escribir código, aún requieren mucha supervisión y están limitados a tareas específicas.

Sakana AI, junto con científicos de las universidades de Oxford y British Columbia, ha desarrollado un sistema de inteligencia artificial llamado “AI Scientist”. Este innovador sistema es capaz de realizar investigaciones científicas de manera autónoma, cubriendo todo el proceso de investigación, desde la generación de ideas hasta la elaboración de manuscritos científicos completos.

“AI Scientist” automatiza diversas etapas, como la creación y evaluación de nuevas ideas, la ejecución de experimentos, la recopilación de datos y la redacción de informes científicos. Sin embargo, este avance también suscita preguntas importantes sobre el rol futuro de los científicos humanos. Aunque la IA es eficaz en el procesamiento de grandes cantidades de datos y en la identificación de patrones, la intuición, creatividad y juicio ético humanos continúan siendo indispensables.

Este proceso incluye:

  1. Generación de Ideas: El Científico de IA «brainstormea» nuevas direcciones de investigación, basándose en un código inicial y en búsquedas en Semantic Scholar para asegurar la novedad de las ideas.
  2. Iteración Experimental: Ejecuta los experimentos propuestos, produce gráficos y notas que se usan en la redacción del artículo.
  3. Redacción del Artículo: Redacta un informe conciso y claro en LaTeX, citando autonomamente artículos relevantes.
  4. Revisión Automatizada de Artículos: Desarrolla un revisor automático basado en LLM que evalúa los artículos con una precisión casi humana, mejorando continuamente la producción científica del sistema.

Pese a su potencial, “AI Scientist” tiene varias limitaciones. No es capaz de hacer preguntas a los autores ni de interpretar figuras, y frecuentemente genera propuestas similares en diferentes ejecuciones. Además, puede fallar en la implementación de ideas y presenta desafíos en aspectos visuales y de citación. Los resultados producidos deben considerarse como sugerencias para futuras investigaciones más que como ciencia definitiva.

“AI Scientist” abre una caja de Pandora de nuevos problemas, aunque el informe completo discute estos temas en mayor detalle. Entre los problemas clave se encuentran las consideraciones éticas y el impacto potencial en el proceso académico. Aunque “AI Scientist” puede ser una herramienta útil para los investigadores, su capacidad para crear y enviar automáticamente artículos puede aumentar significativamente la carga de trabajo de los revisores y tensar el proceso académico, afectando el control de calidad científica. Esto es similar a las preocupaciones en torno a la IA generativa en otras aplicaciones, como la generación de imágenes.

Además, el Revisor Automatizado, si se despliega en línea, podría reducir significativamente la calidad de las revisiones e imponer sesgos indeseables en los artículos. Por ello, es fundamental que los artículos y revisiones generados por IA sean identificados como tales para asegurar la transparencia total.

Como con muchas tecnologías anteriores, “AI Scientist” tiene el potencial de ser utilizado de manera poco ética. Por ejemplo, podría realizar investigaciones no éticas o peligrosas si se le da acceso a laboratorios virtuales para realizar experimentos biológicos. Esto podría dar lugar a la creación de virus o sustancias tóxicas antes de que se detecten los riesgos. Del mismo modo, podría desarrollar virus informáticos peligrosos si se le solicita crear software funcional. Estas capacidades en mejora subrayan la necesidad urgente de alinear estos sistemas con valores éticos y garantizar que exploren de manera segura.

En cuanto a los modelos utilizados, se emplearon modelos de frontera propietarios, como GPT-4o y Sonnet, pero también se exploraron modelos abiertos como DeepSeek y Llama-3. Aunque los modelos propietarios actuales producen los mejores artículos, no hay razón fundamental para que un solo modelo mantenga esta ventaja. Se espera que todos los LLMs, incluidos los modelos abiertos, continúen mejorando. La competencia entre LLMs ha llevado a su mayor disponibilidad y capacidades mejoradas, y el trabajo busca ser independiente del proveedor del modelo base. Los modelos abiertos ofrecen beneficios significativos, como menor costo, disponibilidad garantizada, mayor transparencia y flexibilidad. El objetivo es usar estos modelos en un sistema cerrado de investigación automejorado.

Finalmente, aunque se imagina un ecosistema científico completamente impulsado por IA que incluya investigadores, revisores y conferencias, no se cree que el papel del científico humano se vea disminuido. Más bien, este rol evolucionará y se adaptará a la nueva tecnología, moviéndose hacia tareas de mayor nivel.

El mercado negro de las citas: la venta de referencias falsas alarma a los científicos

Singh Chawla, D. (2024). The citation black market: Schemes selling fake references alarm scientists. Nature. https://doi.org/10.1038/d41586-024-01672-7

Un grupo de científicos ha revelado un mercado negro donde se venden citaciones falsas para inflar perfiles académicos, lo que plantea serias preocupaciones sobre la integridad en la investigación. Estos esquemas manipulan métricas cruciales para la evaluación académica, como el índice h. Expertos sugieren cambiar los incentivos en la academia para evitar que los investigadores se vean presionados a participar en estas prácticas fraudulentas.

Vigilantes de la integridad en la investigación están preocupados por las crecientes maneras en que los científicos pueden inflar artificialmente el número de citaciones de sus estudios. En los últimos meses, han surgido prácticas cada vez más audaces. Una de estas prácticas fue descubierta mediante una operación encubierta en la que un grupo de investigadores compró 50 citaciones por 300$ para mejorar el perfil de Google Scholar de un científico ficticio que crearon.

Este caso confirma la existencia de un mercado negro de referencias falsificadas, algo que los expertos en integridad habían sospechado durante mucho tiempo. Las citaciones compradas provienen de estudios en 22 revistas, de las cuales 14 están indexadas en Scopus.

Estas prácticas son preocupantes porque muchos aspectos de la carrera de un investigador dependen de la cantidad de citaciones que reciben sus trabajos. Instituciones y métricas como el índice h utilizan estos números para evaluar la productividad y el impacto de los científicos. En un caso reciente en España, el rector de la Universidad de Salamanca fue acusado de inflar artificialmente sus métricas de Google Scholar, lo que llevó a una investigación por parte del Comité de Ética en la Investigación.

La operación encubierta también descubrió que se venden citaciones en «paper mills», servicios que producen estudios de baja calidad y venden autorías en artículos ya aceptados. Además, se ha observado la creación de perfiles falsos, como el de un gato llamado Larry, que acumuló citaciones antes de que Google Scholar y ResearchGate eliminaran las publicaciones falsas.

El equipo de investigadores propone un nuevo índice de concentración de citaciones para detectar patrones sospechosos, como cuando un científico recibe muchas citaciones de pocas fuentes. Sin embargo, persiste el temor de que los estafadores desarrollen métodos más sutiles para evitar ser descubiertos. Según los expertos, para abordar este problema, es necesario cambiar los incentivos en la academia para que los científicos no se vean presionados a acumular citaciones para avanzar en sus carreras.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Alonso-Arévalo, Julio. Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Desiderata, n. 24. (2024)

Texto completo

La Inteligencia Artificial Generativa (IAG) se refiere a sistemas de inteligencia artificial capaces de crear contenido original a partir de datos existentes mediante el aprendizaje automático. Estos sistemas, entrenados con vastos corpus de texto e imágenes, pueden generar textos coherentes, responder preguntas, redactar artículos y crear imágenes detalladas. Herramientas como ChatGPT permiten a los investigadores generar borradores de artículos, reducir el tiempo de escritura y mejorar la coherencia del texto. La IAG tiene usos legítimos, como la revisión y corrección de manuscritos, la visualización de tendencias que puede inspirar nuevas formas de pensar y enfoques creativos de investigación, o ayudar a los investigadores a analizar grandes cantidades de datos y extraer información relevante.

La IA complica el plagio. ¿Cómo deben responder los científicos?

Kwon, Diana. «AI Is Complicating Plagiarism. How Should Scientists RespondNature, 30 de julio de 2024. https://doi.org/10.1038/d41586-024-02371-z.

El uso de herramientas de inteligencia artificial generativa (IA) en la escritura plantea preguntas difíciles sobre cuándo debería permitirse su uso. Estos sistemas, como ChatGPT, pueden ahorrar tiempo, mejorar la claridad y reducir barreras lingüísticas. Sin embargo, complican el debate sobre el uso indebido del trabajo ajeno, ya que la IA puede generar texto que se asemeja a contenidos existentes, lo que podría considerarse plagio.

La IA generativa plantea un desafío al distinguir entre la escritura completamente humana y la completamente generada por máquinas, creando una «zona gris» difícil de definir. Aunque el uso no autorizado de herramientas de IA puede no ser considerado plagio, podría verse como generación de contenido no autorizado. Este debate también incluye preocupaciones sobre la infracción de derechos de autor, ya que estas herramientas se entrenan con grandes cantidades de textos publicados sin permiso.

El uso de IA en la redacción académica ha aumentado rápidamente, con estimaciones que indican que al menos el 10% de los resúmenes en artículos biomédicos de 2024 han utilizado estas herramientas. La comunidad académica está dividida sobre cuándo el uso de IA es ético o constituye plagio. Algunas revistas han comenzado a exigir la divulgación completa del uso de IA, pero las políticas varían.

AI EN ARTÍCULOS ACADÉMICOS
Según un análisis de 14 millones de resúmenes de PubMed, el uso de palabras estilísticas (como «delves») aumentó de forma inusitada tras la generalización de los grandes modelos lingüísticos. Ello eclipsó el aumento de palabras relacionadas con el contenido de la pandemia (como «COVID»).

Además, los detectores de textos generados por IA aún no son completamente fiables, especialmente cuando los textos han sido ligeramente editados. Esto dificulta identificar y diferenciar entre contenido generado por IA y por humanos, especialmente para autores no nativos en inglés. La integración de herramientas de IA en plataformas comunes como Word y Google Docs complicará aún más la distinción entre contenido influenciado por IA y el que no lo es.

La respuesta de la comunidad científica incluye la necesidad de desarrollar guías claras sobre el uso de IA y reconocer que el avance tecnológico podría seguir superando la capacidad de regulación y detección.

¿Qué hacer una vez que el artículo es retractado?: NISO emite prácticas recomendadas sobre la comunicación de retractaciones, eliminaciones y expresiones de preocupación

Communication of Retractions, Removals, and Expressions of Concern (CREC): A Recommended Practice of the National Information Standards Organization. NISO, 2024

Texto completo

La confianza es el elemento central de las comunicaciones académicas, distinguiéndolas de otras formas de publicación. Este artículo aborda la importancia de corregir errores en la publicación académica mediante procesos de retractación, eliminación y expresiones de preocupación. Estos procedimientos son cruciales para mantener la confianza en la validez de los resultados publicados.

Hasta ahora no habia una forma consistente de comunicar el estado de retractación de un trabajo académico. Hace dos semanas, NISO (National Information Standards Organization) emitió una nueva Práctica Recomendada sobre la Comunicación de Retractaciones, Eliminaciones y Expresiones de Preocupación (CREC). El objetivo de esta práctica es establecer mejores prácticas para la creación, transferencia y visualización de metadatos, facilitando la comunicación oportuna y eficiente de información a todos los interesados.

El proyecto CREC surgió de la Conferencia NISO Plus 2021, y con el apoyo de la Fundación Alfred P. Sloan, un grupo de trabajo de NISO compuesto por más de dos docenas de editores, intermediarios, bibliotecarios e investigadores desarrolló un conjunto de recomendaciones. La práctica recomendada establece una terminología consistente y protocolos de visualización para la presentación de trabajos retractados. También proporciona orientación sobre cómo distribuir metadatos relacionados con retractaciones y define las responsabilidades de los editores.

Algunas recomendaciones incluyen anteponer «RETRACTED:» en el título del artículo y usar marcas de agua y etiquetas consistentes en las páginas de contenido. Las notificaciones de retractación deben publicarse por separado, pero ser accesibles gratuitamente y vinculadas al contenido original debidamente etiquetado. Además, el documento describe cómo implementar estas recomendaciones y compartir la información con el ecosistema académico, incluyendo agregadores, servicios de descubrimiento y preservación.

El CREC define elementos de metadatos específicos para publicaciones retractadas y notificaciones de retractación, clasificándolos como «Esenciales», «Esenciales si están disponibles» o «Recomendados». Estos metadatos son cruciales para limitar la difusión de investigaciones retractadas en sistemas digitales.

Finalmente, la práctica recomendada de CREC está disponible gratuitamente y NISO organizará un seminario web sobre el tema el 23 de julio de 2024.

Para más información, visite: NISO CREC Recommended Practice.

Guía de Ética en Inteligencia Artificial

Artificial Intelligence Ethics Guide. United States Agency for International Development July 9, 2023.

Texto completo

Esta guía presenta varios estudios de caso y preguntas provocativas que permiten a los responsables de la toma de decisiones reflexionar sobre el uso responsable de la inteligencia artificial (IA) en los sistemas gubernamentales. Para apoyar la construcción del conocimiento, la guía también incluye un glosario de terminología de IA derivado de estudios de aprendizaje de USAID y una revisión exhaustiva de la literatura con enfoques variados de diferentes países sobre el uso de la IA para servicios públicos.

Este informe forma parte de la colección titulada «Colección de Políticas de Inteligencia Artificial (IA)» y fue proporcionado por el Departamento de Documentos Gubernamentales de las Bibliotecas de UNT a la Biblioteca Digital de UNT, un repositorio digital alojado por las Bibliotecas de UNT. Se puede obtener más información sobre este informe en la Biblioteca Digital de UNT.

Hacia una edición responsable: conclusiones de una consulta mundial a las partes interesadas

Chiarelli, A., Cox, E., Johnson, R., Waltman, L., Kaltenbrunner, W., Brasil, A., Reyes Elizondo, A., & Pinfield, S. (2024). «Towards Responsible Publishing»: Findings from a global stakeholder consultation. Zenodo. https://doi.org/10.5281/zenodo.11243942

Este informe detalla los resultados de una consulta global con la comunidad investigadora sobre la propuesta de “Towards Responsible Publishing” (TRP) («Hacia una Publicación Responsable»). La consulta, realizada por Research Consulting y el Centro de Estudios de Ciencia y Tecnología de la Universidad de Leiden (CWTS), involucró a más de 11,600 participantes de todo el mundo entre noviembre de 2023 y mayo de 2024. Los resultados muestran un amplio apoyo a los principios del TRP, como la publicación de preprints, la revisión por pares abierta y las licencias abiertas. Además, se destaca la necesidad de colaboración global para cambiar los mecanismos de reconocimiento y recompensa en la investigación y redirigir el gasto hacia prácticas más responsables.

Ética e integridad en la investigación – Crear una cultura de confianza y excelencia

European Commission, Directorate-General for Research and Innovation, Publications Office of the European Union, Ethics and integrity in research – Building a culture of trust and excellence, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/190203

La ética y la integridad de la investigación son requisitos previos para la excelencia investigadora y para mantener la confianza de la sociedad en la ciencia. Además, la investigación responsable debe reflexionar sobre las repercusiones sociales y el posible mal uso de los nuevos avances tecnológicos, como la inteligencia artificial, las nuevas técnicas genómicas, la biomedicina, la geoingeniería, la biología sintética y la neurotecnología. Esto requiere un proceso colectivo, amplio e integrador de reflexión y diálogo, basado en los valores en torno a los cuales queremos organizar la sociedad y en el papel que las tecnologías deben desempeñar en ella. La Unión Europea se ha comprometido a proteger y promover los derechos, valores y principios fundamentales, tanto en el ámbito nacional como en la cooperación internacional en materia de investigación e innovación. Los ocho proyectos financiados por Horizonte que figuran en el Results Pack de CORDIS sobre ética e integridad en la investigación ilustran cómo la UE fomenta el desarrollo de la formación, la educación y la capacitación, el diálogo con los socios mundiales y la mejora de los marcos, herramientas y procedimientos para garantizar que el progreso científico y tecnológico vaya de la mano de los valores que apreciamos.

Los complicados dilemas éticos de la colección de libros raros

Mancino, Francesca. «The Complicated Ethics of Rare-Book Collecting». The Atlantic (blog), 2 de mayo de 2024. https://www.theatlantic.com/books/archive/2024/05/rare-book-private-collection-ethics/678254/.

En 1939, Ernest Hemingway dejó una gran colección de sus pertenencias en un almacén detrás de Sloppy Joe’s, un bar en Key West. En 2021, la Universidad Estatal de Pensilvania adquirió muchos de estos artículos, pero algunos libros ingresaron al mercado de libros raros. Francesca Mancino y su padre, coleccionistas de libros modernistas raros, adquirieron algunos de estos libros, incluyendo títulos con notas personales y dedicaciones de Hemingway.

Mancino reflexiona sobre la ética de las colecciones privadas de libros raros. Aunque a menudo se argumenta que estos libros deberían estar en instituciones públicas para el acceso del público y los académicos, los coleccionistas privados pueden ofrecer acceso más rápido y menos burocrático. Por ejemplo, bibliotecas públicas pueden tener libros sin catalogar durante largos periodos debido a la falta de recursos.

La autora destaca cómo los coleccionistas privados a menudo donan o venden sus colecciones a instituciones públicas, lo que ha formado la base de muchas bibliotecas y museos importantes, como la Biblioteca y Museo Morgan y el Instituto de Investigación Getty. Ejemplos notables incluyen la colección de Walter O. Evans, que ahora se encuentra en la Biblioteca Beinecke de Libros y Manuscritos Raros de Yale, y la colección de Lisa Unger Baskin, que fue vendida a la Universidad de Duke.

Mancino argumenta que el coleccionismo privado no siempre significa que los libros raros estén ocultos del público. Muchos coleccionistas permiten el acceso a académicos y estudiantes, e incluso abren sus hogares para visitas. La preservación es una preocupación tanto para las colecciones privadas como para las públicas, y los coleccionistas privados a menudo ven su papel como custodios temporales en la cadena de propiedad.

Finalmente, Mancino sugiere que, en lugar de centrarse exclusivamente en la propiedad, se debería fomentar una responsabilidad cultural amplia para compartir libros y manuscritos únicos mediante exposiciones públicas, digitalización o visitas a domicilio con cita previa.