Adopción de la IA Generativa por investigadores de Biomedicina

Adoption of Generative AI by Academic Biomedical Researchers”. Ithaka S+R, 2024

Texto completo

El informe «Adopción de la IA Generativa por Investigadores Biomédicos Académicos» fue publicado por Ithaka S+R el 17 de octubre de 2024. Este estudio analiza cómo los investigadores en el campo biomédico están utilizando la IA generativa, así como las percepciones y barreras que enfrentan en su adopción.

Desde el lanzamiento de ChatGPT en noviembre de 2022, ha surgido un debate nacional sobre el papel de la IA generativa en diversos sectores del trabajo intelectual, aunque la atención se ha centrado principalmente en su impacto en la enseñanza. El ámbito de la investigación biomédica presenta casos prometedores de uso, pero también riesgos significativos asociados a esta tecnología.

Los hallazgos del informe revelan que la adopción de la IA generativa es mixta. Muchos investigadores han experimentado con su uso, pero este es limitado en alcance y frecuencia. Las principales barreras para su adopción incluyen preocupaciones sobre la precisión de los resultados y cuestiones éticas. Debido a la calidad actual de las salidas de la IA generativa y la falta de mejores prácticas, es posible que su adopción se estabilice.

Ithaka S+R realizó una encuesta a investigadores biomédicos académicos sobre sus actitudes y uso de la IA generativa en contextos de investigación, que se llevó a cabo entre el 20 de febrero y el 29 de marzo de 2024, con 770 participantes.

Aunque la mayoría de los investigadores biomédicos han utilizado la IA generativa en el pasado, pocos la usan actualmente y casi ninguno lo hace de manera regular. De los investigadores que han utilizado la IA generativa:

  • 6 de cada 10 han empleado esta tecnología en su investigación.
  • El 31% la ha utilizado para revisar o editar gramática.
  • El 25% la ha usado para extraer información de la literatura científica.
  • El 22% la ha aplicado en tareas administrativas.
  • El 22% la ha usado para escribir código.

Sin embargo, solo el 40% de los investigadores biomédicos la utiliza actualmente. Las principales barreras para la adopción son:

  • El 55% reportó que los resultados no son suficientemente precisos o confiables.
  • Menos de 1 de cada 10 investigadores la utiliza regularmente.
  • El 47% señaló que hay falta de claridad sobre las mejores prácticas para la integridad de la investigación y el uso de la IA generativa.
  • El 56% expresó un gran interés en productos de IA generativa específicos para biomedicina.
  • Solo el 14% había utilizado herramientas o modelos de lenguaje específicos para biomedicina existentes.

Este informe es una contribución importante a la comprensión de las implicaciones de la IA generativa, y se anticipa que se publicará un análisis cualitativo más profundo sobre su uso en la educación superior más adelante en el año.

Buenas Prácticas en Educación en Prisiones de la Unesco

Prison Education Case Studies. Unesco, 2025

Ver

El Instituto de la UNESCO para el Aprendizaje a lo Largo de Toda la Vida (UIL) ha lanzado una colección en línea de prácticas innovadoras en educación en prisiones, presentada en la Conferencia Internacional de Educación en Prisiones en Montreal (16-18 de octubre de 2024). La colección incluye 16 estudios de caso que destacan iniciativas exitosas en bibliotecas carcelarias, promoviendo el derecho al aprendizaje continuo para las personas encarceladas.

Actualmente, unos 11 millones de personas están privadas de libertad en todo el mundo, muchas sin acceso a la educación. Investigaciones muestran que la educación en prisiones reduce la reincidencia al dotar a los internos de habilidades que mejoran sus oportunidades de reintegración. Además, disminuye la violencia en las cárceles y apoya el desarrollo personal.

Los estudios de caso, que abarcan países como Chile e Indonesia, incluyen programas innovadores que enseñan competencias digitales, ecológicas y emprendedoras, así como el fomento de la alfabetización. La colección destaca el impacto de estos programas y testimonios personales que ilustran el poder transformador de la educación en prisiones.

Informe de IFLA sobre la conectividad a Internet y la Inclusión Digital Global

IFLA. «The New Offline Internet Consortium Report Outlines a New Gold Standard for Internet Connectivity». Accedido 18 de octubre de 2024.

Texto completo

El nuevo informe del Consorcio de Internet Offline de la Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA) propone un «nuevo estándar de oro para la conectividad a Internet». A diferencia de los enfoques convencionales que dividen a las personas en las que tienen o no acceso a Internet, el concepto de «Internet offline» plantea un enfoque intermedio. Este sugiere soluciones innovadoras de hardware, software, contenido local y habilidades digitales que permiten acceso significativo a contenido digital sin requerir una conexión permanente a Internet.

El informe resalta la necesidad de entender cómo incluso el acceso indirecto al web mundial puede ayudar a enfrentar problemas como la pobreza, la censura y la falta de infraestructura. Propone redefinir el acceso a la información, promover contenido local y explorar cómo integrar estrategias de Internet offline en políticas de inclusión digital. Esto busca lograr un acceso equitativo a la información a nivel global, abordando la exclusión digital y promoviendo un acceso universal.

¿Se deben citar los chatbots de Inteligencia Artificial en un trabajo de investigación?

Antunes Nogueira, L.; Rein, Jan Ove. «Guest Post – The Case For Not Citing Chatbots As Information Sources (Part I) and (Part II)». The Scholarly Kitchen, 20 de junio de 2024. https://scholarlykitchen.sspnet.org/2024/06/19/chatbots-to-cite-or-not-to-cite-part-1/

Este artículo invita a reflexionar sobre las implicaciones éticas y prácticas del uso de IA generativa en la producción académica y la necesidad de normas más claras para su uso y citación.

Se revisan las políticas de 17 editores y organizaciones académicas, encontrando un consenso general sobre que los chatbots no cumplen los requisitos para ser considerados autores, ya que no pueden asumir la responsabilidad por los textos generados. Sin embargo, no existe una postura clara sobre si deben ser citados como fuentes.

Algunos, como International Committee of Medical Journal Editors (ICMJE) y Elsevier, son tajantes en su recomendación de no citarlos, mientras que la American Psychological Association (APA) ha ofrecido directrices sobre cómo citar chatbots como herramientas, sin admitirlos como fuentes de información.

El problema radica en que los textos generados por chatbots, aunque coherentes, no son rastreables ni verificables, lo que lleva a muchos a cuestionar su validez como fuentes. El caso de la retracción de un artículo por el uso de citas incorrectas generadas por ChatGPT ejemplifica los riesgos involucrados.

Citar es una norma sociocultural y ética en la academia, y sus razones incluyen:

  • Atribuir crédito a las ideas ajenas.
  • Proveer evidencia para respaldar un argumento.
  • Situar el trabajo dentro de un debate académico.
  • Facilitar que otros verifiquen las fuentes de información.

El uso de chatbots introduce un nuevo desafío, ya que sus respuestas, aunque parecen coherentes, no representan fuentes verificables de información, sino productos generados probabilísticamente por algoritmos.

El debate sobre si los chatbots deben ser citados como fuentes se divide en dos posturas:

  1. Pro-citación: Se argumenta que si el contenido no es propio, debe citarse para evitar el plagio, lo que implicaría tratar al chatbot como una fuente.
  2. Anti-citación: Quienes se oponen a citarlos como fuentes destacan que los textos generados por IA no pueden ser rastreados ni verificados, lo que los hace inadecuados para ser tratados como fuentes. Sugieren que los chatbots deben considerarse como herramientas, similares a otras usadas en la investigación, y que su uso debe ser explicado en las secciones metodológicas del trabajo.

Los autores concluyen que la irrupción de los chatbots obliga a reconsiderar las prácticas de citación y a discernir entre herramientas de asistencia y fuentes de información verificables.

Se proponen varias razones para no citar chatbots. Primero, citar chatbots entraría en conflicto con las políticas académicas, ya que citar a estos sistemas podría legitimar a las empresas detrás de la tecnología como autores, lo que comprometería la responsabilidad intelectual. Además, citar chatbots podría contaminar el ecosistema informativo al difundir datos generados por IA, lo que erosionaría la calidad de los modelos de lenguaje y promovería la desinformación.

Otro punto relevante es que los chatbots no fueron diseñados como máquinas de verdad. Su funcionamiento se basa en cálculos probabilísticos de secuencias de palabras, no en la verificación de hechos. Por ello, los resultados que generan pueden incluir falsedades (hallucinations). Sin embargo, los chatbots podrían ser útiles en tareas de extracción de información, siempre que se basen en bases de datos confiables.

El texto también plantea que crear reglas que obliguen a citar a los chatbots sería impráctico y enviaría un mensaje erróneo, ya que las herramientas actuales no pueden detectar de manera confiable el uso de textos generados por IA. Además, legitimar la práctica de citar chatbots como fuentes podría llevar al mal uso de estas herramientas, lo que resultaría contraproducente para la academia. En lugar de ello, se propone una inversión en alfabetización en IA y un enfoque normativo flexible, basado en normas socioculturales que evolucionen con el tiempo y que establezcan prácticas adecuadas para el uso de estas herramientas.

En conclusión, se sugiere que las instituciones académicas deben adoptar una postura clara que desincentive la citación de chatbots como fuentes de información, y que promueva su uso adecuado como herramientas de apoyo en el proceso de investigación. Las instituciones académicas, junto con editoriales y revistas, tienen el poder de guiar la normalización de las prácticas sobre la divulgación del uso de IA, lo cual sería crucial para mantener la integridad del ecosistema informativo.

El libro de divulgación científica en Chile 2015-2020

«El libro de divulgación científica en Chile 2015-2020». s. f. Cerlalc (blog). Accedido 9 de octubre de 2024. https://cerlalc.org/publicaciones/el-libro-de-divulgacion-cientifica-en-chile-2015-2020/.

Este documento presenta un diagnóstico del estado y características de los libros de divulgación científica publicados en Chile en el periodo 2015-2020. Para ello, se realizó una aproximación a partir de la base de datos de la Agencia ISBN Chile. A partir de una serie de criterios de selección, se rastrearon un total de 338 libros de divulgación científica con ISBN chileno. Estos libros fueron caracterizados, entre otras variables, por la disciplina científica más fuertemente asociada, utilizando como referencia las categorías disciplinares de la OCDE. Posteriormente, se generó una muestra intencionada de 102 libros, buscando mantener la diversidad y proporcionalidad de las diferentes disciplinas. Esta muestra fue analizada cualitativamente considerando cuatro dimensiones de análisis: los recursos editoriales desplegados, las herramientas lingüísticas utilizadas, las estrategias de inclusión, los modelos de comunicación de la ciencia y elementos científicos dentro de los libros.

Seguridad de la información

Vega Briceño, E. «Seguridad de la información – 3Ciencias». s. f. Accedido 9 de octubre de 2024

Texto completo

La seguridad de la información es crucial en nuestra sociedad hiperconectada, donde la tecnología y la digitalización influyen en prácticamente todos los aspectos de la vida. Desde el trabajo y las compras en línea hasta la educación y el entretenimiento, dependemos de sistemas informáticos que almacenan y procesan grandes cantidades de información. Sin embargo, esta misma dependencia de la tecnología también nos expone a riesgos significativos si no se toman medidas adecuadas de seguridad.

La seguridad de la información abarca un conjunto de prácticas, procesos y metodologías diseñadas para proteger tanto los datos como los sistemas tecnológicos frente a diversas amenazas, como el acceso no autorizado, la divulgación, la modificación, la destrucción o el uso indebido de la información. Esto es particularmente importante dado que los ciberdelincuentes pueden causar daños económicos, reputacionales y legales a individuos y organizaciones.

Los riesgos son múltiples: desde el robo de identidad y fraude financiero hasta el espionaje industrial y la pérdida de información crítica. Por ejemplo, si un atacante accede a la base de datos de una empresa y obtiene información sensible como datos financieros o personales de los empleados o clientes, puede desatar graves consecuencias. Esto puede incluir la pérdida de millones de dólares, la quiebra de la empresa, sanciones legales y la pérdida de confianza por parte del público.

Por esta razón, la norma ISO/IEC 27001, una de las más reconocidas a nivel global, define la seguridad de la información como el conjunto de medidas destinadas a salvaguardar la confidencialidad, integridad y disponibilidad de la información. La confidencialidad implica que solo las personas autorizadas puedan acceder a la información, la integridad se refiere a la precisión y completitud de los datos, y la disponibilidad asegura que los sistemas y la información estén accesibles cuando se necesiten.

En el entorno actual, donde los ataques cibernéticos y las brechas de seguridad son más frecuentes que nunca, es vital que las organizaciones implementen políticas robustas de seguridad de la información. Esto incluye el uso de tecnologías avanzadas como el cifrado de datos, la autenticación multifactorial, las auditorías regulares de seguridad, la formación del personal sobre buenas prácticas y la creación de planes de contingencia ante incidentes de seguridad.

Además, el avance del Internet de las Cosas (IoT), la computación en la nube y la inteligencia artificial están añadiendo nuevas capas de complejidad a la seguridad de la información, lo que requiere un enfoque dinámico y adaptativo para proteger los datos en este panorama digital en constante evolución.

Características de los artículos científicos fabricados con Inteligencia Artificial en Google Scholar

Haider, J., Söderström, K. R., Ekström, B., & Rödl, M. (2024). GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-156

Descargar

El artículo analiza el creciente número de trabajos científicos cuestionables generados por inteligencia artificial (IA), como ChatGPT, que se están publicando en revistas académicas y repositorios. Estos trabajos, que imitan el estilo de la escritura científica, están siendo fácilmente localizados y listados por Google Scholar junto con investigaciones legítimas. El estudio se centró en un grupo de estos artículos y encontró que muchos tratan temas aplicados y a menudo controversiales, como el medio ambiente, la salud y la computación, áreas particularmente vulnerables a la desinformación. La preocupación radica en el aumento del potencial de manipulación malintencionada de la base de evidencia, especialmente en temas divisivos políticamente.

El estudio se centra en la producción y difusión de publicaciones cuestionables generadas con transformadores preentrenados (GPT) que son accesibles a través de Google Scholar, abordando varios aspectos clave: primero, se investiga dónde se publican o depositan estas publicaciones dudosas. Este análisis busca identificar los tipos de revistas y plataformas que albergan este contenido. En segundo lugar, se examinan las características principales de estas publicaciones en relación con las categorías temáticas predominantes, permitiendo una comprensión más profunda de los temas que son más susceptibles al uso indebido de la inteligencia artificial generativa. Además, se explora cómo se difunden estas publicaciones en la infraestructura de investigación para la comunicación académica, prestando atención a los canales y plataformas que facilitan su circulación. Esto incluye la identificación de dominios y repositorios donde se comparten estos trabajos. Finalmente, la investigación cuestiona el papel de la infraestructura de comunicación académica en la preservación de la confianza pública en la ciencia y la evidencia, considerando los desafíos que presenta el uso inapropiado de la inteligencia artificial generativa en este contexto. Este aspecto subraya la necesidad de una regulación más efectiva y la implementación de criterios de calidad en la publicación académica.

Para ello, se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar, utilizando una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT. Luego, se utilizó Google Search para determinar la extensión de las copias de estos artículos cuestionables en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no divulgado y potencialmente engañoso de GPT. La mayoría de estos trabajos (57%) abordaban temas relevantes para políticas públicas, como el medio ambiente, la salud y la computación, los cuales son susceptibles a operaciones de influencia. La mayoría de estos artículos estaban disponibles en varias copias en diferentes dominios (redes sociales, archivos y repositorios).

La mayoría de los artículos sospechosos de uso fraudulento de ChatGPT se encontraron en revistas no indexadas o como trabajos en proceso, aunque algunos también aparecieron en revistas establecidas, conferencias y repositorios. En total, se identificaron 139 artículos, de los cuales 19 estaban en revistas indexadas, 89 en revistas no indexadas, 19 eran trabajos estudiantiles y 12 eran documentos de trabajo. La mayoría de los artículos trataban temas de relevancia política, como la salud y el medio ambiente, y se encontraban principalmente en revistas no indexadas.

Existen dos riesgos principales derivados del uso cada vez más común de GPT para producir de manera masiva publicaciones científicas falsas. Primero, la abundancia de “estudios” fabricados que se infiltran en todas las áreas de la infraestructura de investigación amenaza con sobrecargar el sistema de comunicación académica y poner en peligro la integridad del registro científico. El segundo riesgo es que el contenido, aunque parezca científicamente convincente, haya sido creado de manera engañosa con herramientas de IA y esté optimizado para ser recuperado por motores de búsqueda académicos públicos, especialmente Google Scholar. Aunque esta posibilidad sea pequeña, su conocimiento podría socavar la confianza en el conocimiento científico y representar graves riesgos para la sociedad.

El estudio subraya que el problema de las publicaciones científicas fraudulentas generadas por GPT es solo la punta del iceberg, con implicaciones profundas para la confianza en la ciencia y para la sociedad en general.

Buenas prácticas diseñadas para ayudar a las bibliotecas a prestar un mejor servicio a las personas sin hogar

LEADERSHIP BRIEF: Effective Strategies and Models for Urban Libraries Addressing Homelessness. Urban Libraries Council (ULC), 2024

Texto completo

Urban Libraries Council (ULC), una organización sin fines de lucro que agrupa bibliotecas urbanas en América del Norte, ha lanzado un nuevo conjunto de mejores prácticas para ayudar a las bibliotecas a servir mejor a las personas que experimentan la falta de vivienda en sus comunidades. El informe, basado en las experiencias de líderes bibliotecarios de EE. UU. y Canadá, sugiere que las bibliotecas pueden apoyar tanto a los usuarios sin hogar como al personal mediante el desarrollo de asociaciones comunitarias, la capacitación del personal y el diseño intencional de espacios físicos.

Según Brooks Rainwater, presidente y CEO de ULC, las bibliotecas públicas están a la vanguardia en la atención de personas sin hogar, y al adoptar estas prácticas, pueden lograr un impacto duradero, asegurando que sean espacios seguros y de apoyo para todos.

Entre las bibliotecas miembros del ULC que destacan en el informe por sus estrategias efectivas se encuentran las bibliotecas públicas de Brooklyn, Calgary, Dallas, Denver, Los Ángeles, Salt Lake City, San Diego y Spokane, entre otras. Algunas de las recomendaciones incluyen:

  • Establecer asociaciones sólidas con agencias de servicios sociales y gobiernos locales para ampliar los recursos disponibles dentro de las bibliotecas, ofreciendo servicios esenciales como asistencia para la vivienda, atención de salud mental y formación laboral.
  • Preparar al personal bibliotecario mediante capacitaciones en técnicas de desescalada, atención informada por el trauma y manejo conductual. También se recomienda contratar personal especializado, como trabajadores sociales o coordinadores de participación comunitaria.
  • Diseñar entornos acogedores que promuevan un ambiente inclusivo y ofrecer áreas de apoyo designadas para que las personas sin hogar accedan fácilmente a los recursos.

Estas prácticas buscan reforzar el papel de las bibliotecas como refugios comunitarios seguros y accesibles para todos los usuarios.

Mujeres y migración con Zaida Franco. Planeta Biblioteca 2024/10/16

Migración con Zaida Franco.

Planeta Biblioteca 2024/10/16

ESCUCHAR

Descargar

Como investigadora en temas de migración, la profesora de la Universidad de Barcelona, Zaida Franco identificó los aspectos críticos que observó sobre la situación de los migrantes en España y Europa, haciendo énfasis en la necesidad de mejorar el acceso a la educación y la formación para aquellos que buscan desarrollarse profesionalmente en el extranjero. En su labor como educadora, destacó la importancia de crear más oportunidades para los migrantes en este ámbito. En su libro «Acariciando el cielo a través de mis sueños«, Zaida narró su experiencia personal, motivada por el deseo de contar su historia y transmitir un mensaje de esperanza a sus lectores. Además, investigó y escribió sobre mujeres luchadoras, conectando esas historias con su propia experiencia como mujer migrante. Finalmente, Zaida habló de su amor por las bibliotecas, definiéndolas como espacios esenciales que influyeron en su vida desde una edad temprana. Expresó su intención de continuar trabajando en proyectos literarios y académicos, con un enfoque en temas de migración y, posiblemente, nuevas áreas que exploraría en el futuro.

cOAlición S anuncia la publicación de un estudio independiente sobre el impacto del Plan S

Castro, Pablo de, Ulrich Herb, Laura Rothfritz, W. Benedikt Schmal, y Joachim Schöpfel. «Galvanising the Open Access Community: A Study on the Impact of Plan S». Zenodo, 15 de octubre de 2024. https://doi.org/10.5281/zenodo.13738479.

Texto completo

Se presenta un estudio independiente encargado por cOAlition S para evaluar el impacto del Plan S cinco años después de su lanzamiento. El estudio, realizado por scidecode science consulting, es el primero en analizar el efecto de Plan S en el ámbito de la comunicación académica, en el que se combina un análisis cuantitativo con percepciones cualitativas de actores clave del ecosistema editorial académico.

Puntos clave del estudio:

  • Plan S ha abierto nuevas vías para lograr un acceso abierto completo e inmediato, poniendo el tema en la agenda de los responsables de políticas y llevando a los editores a negociar con las instituciones.
  • Se destaca el impacto de la estrategia de retención de derechos, la cual ha sido adoptada por diversas instituciones en sus propias políticas.
  • El estudio también resalta el impulso que Plan S ha dado al modelo de Diamond Open Access y su contribución a generar conciencia sobre las inequidades en los modelos de publicación basados en cargos por artículo.

Aunque el estudio señala que aún es pronto para evaluar completamente el impacto cuantitativo de Plan S, recomienda revisar el progreso en 5-10 años. No obstante, se observa un avance significativo hacia el acceso abierto desde el anuncio de Plan S. Por lo tanto, se recomienda que cOAlition S continúe más allá de 2025 y se subraya la necesidad de colaboración entre todos los actores para una transición más sostenible, asequible y equitativa en la publicación académica.