He aprendido a amar mis libros

«He aprendido a amar mis libros. Hoy en día, a veces me sorprendo moviéndolos por mi biblioteca. ¿Por qué? Porque hay un orden secreto. No se puede poner los libros al azar. El otro día coloqué a Cervantes al lado de Tolstoi. Y pensé: si Don Quijote está cerca de Anna Karenina, seguramente ésta hará todo lo posible para salvarla.»

ETTORE SCOLA
En una entrevista de Antonio Gnoli en «La Repubblica» (2013)

Grupos de música de Valladolid. Viviendo en la era pop 2024/10/18

Grupos de música de Valladolid.

Viviendo en la era pop 2024/10/18

ESCUCHAR

Con motivo de la emisión de la película documental Generaciones en un escenario (40 años de música en Valladolid), dirigida por el músico de la banda Cañoneros, Miguel Saeta, durante las III Jornadas Inspirados por la MusSa, se llevará a cabo un especial dedicado a los grupos históricos de pop rock vallisoletano. La proyección de los documentales Salamanca Rock (1989) y Generaciones en los Escenarios, 40 años de música en Valladolid (2023) tendrá lugar el 22 de octubre a las 18:00 en el Salón de Actos del DA2. En este repaso, incluimos canciones de grupos como Nadie, Greta y los Garbo, Celtas Cortos, Imperativo Legal, Paraíso Perdido, Los Automáticos, Los Reflejos, Disidentes, Objetivo Perdido, Garbanzos Torraos y Analgésicos.

Bibliotecario de IA: la revolución de la IA crea demanda de un nuevo trabajo en auge

Case, Tony. «AI Revolution Creates Demand for Hot New Job: AI Librarian». WorkLife (blog), 15 de octubre de 2024. https://www.worklife.news/technology/ai-revolution-creates-demand-for-hot-new-job-ai-librarian/.

A medida que la IA transforma el mundo empresarial, incluido el ámbito de recursos humanos, está surgiendo un nuevo rol que conecta la experiencia humana con el aprendizaje automático: el bibliotecario de IA. Este puesto, aún poco conocido, se ha vuelto uno de los más demandados en el contexto del auge de la IA generativa, según un informe de Korn Ferry, que describe las habilidades necesarias para recopilar, organizar y analizar datos como el «sistema nervioso central de la IA».

Las empresas están en una lucha por atraer talento para trabajar con inteligencia artificial (IA), pero el foco no está solo en programadores, científicos de datos e ingenieros, sino también en bibliotecarios y corredores de seguros. A medida que las aplicaciones basadas en IA se expanden, crece la necesidad de profesionales con la capacidad de crear valor empresarial a partir de esta tecnología. Según Vinay Menon, líder global de la práctica de IA en Korn Ferry, las habilidades de recopilación, organización y análisis de datos que poseen bibliotecarios son consideradas el «sistema nervioso central de la IA».

La creciente demanda de bibliotecarios de IA resalta cómo la evolución tecnológica está creando roles que combinan habilidades tradicionales como la gestión de información con las exigencias modernas en entornos impulsados por datos. Jaycee Schwarz, especialista en adquisición de talento en la empresa Prizeout, explica que a medida que los sistemas de IA generan datos cada vez más complejos, no es suficiente con construir y desplegar tales sistemas; las empresas necesitan expertos que puedan curar y traducir esos datos en información útil.

Paul Farnsworth, director de tecnología en Dice, señala que, dado el escaso talento en IA, los responsables de contratación están buscando profesionales como bibliotecarios que tengan experiencia con datos y que puedan adquirir las habilidades necesarias en IA.

John Gikopoulos, jefe global de IA y automatización en Infosys Consulting, describe la evolución de la IA en tres actos: el primero, ayudar a las organizaciones a ser más eficientes; el segundo, automatizar la recolección de datos; y el tercero, «humanizar» la IA. Gikopoulos enfatiza que las empresas deben cambiar su forma de pensar sobre la IA y reeducarse en cómo interactúan con el mundo.

Dougal Martin, bibliotecario de IA en Deel, una empresa de nómina y soporte de recursos humanos, destaca que se requiere empatía, amor por la información y la capacidad de organizar datos complejos para entender las necesidades de los usuarios. Aunque el trabajo depende en gran medida de la tecnología, enfatiza la importancia del aporte humano, ya que la infraestructura del contenido debe ser generada por humanos para garantizar precisión y fiabilidad, especialmente en áreas como recursos humanos, donde están en juego cuestiones de cumplimiento y legales.

La ética también es fundamental en este proceso de reeducación, ya que numerosos ejemplos de sesgos inconscientes en la IA han demostrado la necesidad de construir equipos diversos e inclusivos. Afsheen Afshar, ex director de ciencia de datos en JPMorgan Chase, resalta la importancia de la cultura y el trabajo en equipo para crear valor a partir de la IA. Afshar advierte que la falta de alineación de incentivos y el compromiso pueden ser obstáculos para el aprovechamiento del potencial de la IA.

Los bibliotecarios de IA y los sistemas robustos de gestión del conocimiento son revolucionarios para los profesionales de recursos humanos, ya que ofrecen acceso rápido a información actualizada sobre cuestiones complejas, como leyes laborales internacionales y regulaciones de nómina. Martin advierte que la gestión de una gran cantidad de información conlleva desafíos únicos, como el riesgo de malentendidos en la traducción entre diferentes lenguas, lo que subraya la necesidad de supervisión humana en sistemas impulsados por IA.

A medida que las empresas navegan por la revolución de la IA, es probable que roles como el de bibliotecario de IA se vuelvan cada vez más esenciales, garantizando que el vasto potencial de la IA se base en información confiable. Colaborar con estos expertos en conocimiento puede llevar a una toma de decisiones más informada, mejor cumplimiento y, en última instancia, una gestión del talento más efectiva.

  • Un actuario de seguros es un profesional que utiliza métodos matemáticos, estadísticos y financieros para evaluar riesgos y determinar primas de seguros, reservas y otros aspectos financieros relacionados con las pólizas de seguros.

Adopción de la IA Generativa por investigadores de Biomedicina

Adoption of Generative AI by Academic Biomedical Researchers”. Ithaka S+R, 2024

Texto completo

El informe «Adopción de la IA Generativa por Investigadores Biomédicos Académicos» fue publicado por Ithaka S+R el 17 de octubre de 2024. Este estudio analiza cómo los investigadores en el campo biomédico están utilizando la IA generativa, así como las percepciones y barreras que enfrentan en su adopción.

Desde el lanzamiento de ChatGPT en noviembre de 2022, ha surgido un debate nacional sobre el papel de la IA generativa en diversos sectores del trabajo intelectual, aunque la atención se ha centrado principalmente en su impacto en la enseñanza. El ámbito de la investigación biomédica presenta casos prometedores de uso, pero también riesgos significativos asociados a esta tecnología.

Los hallazgos del informe revelan que la adopción de la IA generativa es mixta. Muchos investigadores han experimentado con su uso, pero este es limitado en alcance y frecuencia. Las principales barreras para su adopción incluyen preocupaciones sobre la precisión de los resultados y cuestiones éticas. Debido a la calidad actual de las salidas de la IA generativa y la falta de mejores prácticas, es posible que su adopción se estabilice.

Ithaka S+R realizó una encuesta a investigadores biomédicos académicos sobre sus actitudes y uso de la IA generativa en contextos de investigación, que se llevó a cabo entre el 20 de febrero y el 29 de marzo de 2024, con 770 participantes.

Aunque la mayoría de los investigadores biomédicos han utilizado la IA generativa en el pasado, pocos la usan actualmente y casi ninguno lo hace de manera regular. De los investigadores que han utilizado la IA generativa:

  • 6 de cada 10 han empleado esta tecnología en su investigación.
  • El 31% la ha utilizado para revisar o editar gramática.
  • El 25% la ha usado para extraer información de la literatura científica.
  • El 22% la ha aplicado en tareas administrativas.
  • El 22% la ha usado para escribir código.

Sin embargo, solo el 40% de los investigadores biomédicos la utiliza actualmente. Las principales barreras para la adopción son:

  • El 55% reportó que los resultados no son suficientemente precisos o confiables.
  • Menos de 1 de cada 10 investigadores la utiliza regularmente.
  • El 47% señaló que hay falta de claridad sobre las mejores prácticas para la integridad de la investigación y el uso de la IA generativa.
  • El 56% expresó un gran interés en productos de IA generativa específicos para biomedicina.
  • Solo el 14% había utilizado herramientas o modelos de lenguaje específicos para biomedicina existentes.

Este informe es una contribución importante a la comprensión de las implicaciones de la IA generativa, y se anticipa que se publicará un análisis cualitativo más profundo sobre su uso en la educación superior más adelante en el año.

Buenas Prácticas en Educación en Prisiones de la Unesco

Prison Education Case Studies. Unesco, 2025

Ver

El Instituto de la UNESCO para el Aprendizaje a lo Largo de Toda la Vida (UIL) ha lanzado una colección en línea de prácticas innovadoras en educación en prisiones, presentada en la Conferencia Internacional de Educación en Prisiones en Montreal (16-18 de octubre de 2024). La colección incluye 16 estudios de caso que destacan iniciativas exitosas en bibliotecas carcelarias, promoviendo el derecho al aprendizaje continuo para las personas encarceladas.

Actualmente, unos 11 millones de personas están privadas de libertad en todo el mundo, muchas sin acceso a la educación. Investigaciones muestran que la educación en prisiones reduce la reincidencia al dotar a los internos de habilidades que mejoran sus oportunidades de reintegración. Además, disminuye la violencia en las cárceles y apoya el desarrollo personal.

Los estudios de caso, que abarcan países como Chile e Indonesia, incluyen programas innovadores que enseñan competencias digitales, ecológicas y emprendedoras, así como el fomento de la alfabetización. La colección destaca el impacto de estos programas y testimonios personales que ilustran el poder transformador de la educación en prisiones.

Informe de IFLA sobre la conectividad a Internet y la Inclusión Digital Global

IFLA. «The New Offline Internet Consortium Report Outlines a New Gold Standard for Internet Connectivity». Accedido 18 de octubre de 2024.

Texto completo

El nuevo informe del Consorcio de Internet Offline de la Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA) propone un «nuevo estándar de oro para la conectividad a Internet». A diferencia de los enfoques convencionales que dividen a las personas en las que tienen o no acceso a Internet, el concepto de «Internet offline» plantea un enfoque intermedio. Este sugiere soluciones innovadoras de hardware, software, contenido local y habilidades digitales que permiten acceso significativo a contenido digital sin requerir una conexión permanente a Internet.

El informe resalta la necesidad de entender cómo incluso el acceso indirecto al web mundial puede ayudar a enfrentar problemas como la pobreza, la censura y la falta de infraestructura. Propone redefinir el acceso a la información, promover contenido local y explorar cómo integrar estrategias de Internet offline en políticas de inclusión digital. Esto busca lograr un acceso equitativo a la información a nivel global, abordando la exclusión digital y promoviendo un acceso universal.

¿Se deben citar los chatbots de Inteligencia Artificial en un trabajo de investigación?

Antunes Nogueira, L.; Rein, Jan Ove. «Guest Post – The Case For Not Citing Chatbots As Information Sources (Part I) and (Part II)». The Scholarly Kitchen, 20 de junio de 2024. https://scholarlykitchen.sspnet.org/2024/06/19/chatbots-to-cite-or-not-to-cite-part-1/

Este artículo invita a reflexionar sobre las implicaciones éticas y prácticas del uso de IA generativa en la producción académica y la necesidad de normas más claras para su uso y citación.

Se revisan las políticas de 17 editores y organizaciones académicas, encontrando un consenso general sobre que los chatbots no cumplen los requisitos para ser considerados autores, ya que no pueden asumir la responsabilidad por los textos generados. Sin embargo, no existe una postura clara sobre si deben ser citados como fuentes.

Algunos, como International Committee of Medical Journal Editors (ICMJE) y Elsevier, son tajantes en su recomendación de no citarlos, mientras que la American Psychological Association (APA) ha ofrecido directrices sobre cómo citar chatbots como herramientas, sin admitirlos como fuentes de información.

El problema radica en que los textos generados por chatbots, aunque coherentes, no son rastreables ni verificables, lo que lleva a muchos a cuestionar su validez como fuentes. El caso de la retracción de un artículo por el uso de citas incorrectas generadas por ChatGPT ejemplifica los riesgos involucrados.

Citar es una norma sociocultural y ética en la academia, y sus razones incluyen:

  • Atribuir crédito a las ideas ajenas.
  • Proveer evidencia para respaldar un argumento.
  • Situar el trabajo dentro de un debate académico.
  • Facilitar que otros verifiquen las fuentes de información.

El uso de chatbots introduce un nuevo desafío, ya que sus respuestas, aunque parecen coherentes, no representan fuentes verificables de información, sino productos generados probabilísticamente por algoritmos.

El debate sobre si los chatbots deben ser citados como fuentes se divide en dos posturas:

  1. Pro-citación: Se argumenta que si el contenido no es propio, debe citarse para evitar el plagio, lo que implicaría tratar al chatbot como una fuente.
  2. Anti-citación: Quienes se oponen a citarlos como fuentes destacan que los textos generados por IA no pueden ser rastreados ni verificados, lo que los hace inadecuados para ser tratados como fuentes. Sugieren que los chatbots deben considerarse como herramientas, similares a otras usadas en la investigación, y que su uso debe ser explicado en las secciones metodológicas del trabajo.

Los autores concluyen que la irrupción de los chatbots obliga a reconsiderar las prácticas de citación y a discernir entre herramientas de asistencia y fuentes de información verificables.

Se proponen varias razones para no citar chatbots. Primero, citar chatbots entraría en conflicto con las políticas académicas, ya que citar a estos sistemas podría legitimar a las empresas detrás de la tecnología como autores, lo que comprometería la responsabilidad intelectual. Además, citar chatbots podría contaminar el ecosistema informativo al difundir datos generados por IA, lo que erosionaría la calidad de los modelos de lenguaje y promovería la desinformación.

Otro punto relevante es que los chatbots no fueron diseñados como máquinas de verdad. Su funcionamiento se basa en cálculos probabilísticos de secuencias de palabras, no en la verificación de hechos. Por ello, los resultados que generan pueden incluir falsedades (hallucinations). Sin embargo, los chatbots podrían ser útiles en tareas de extracción de información, siempre que se basen en bases de datos confiables.

El texto también plantea que crear reglas que obliguen a citar a los chatbots sería impráctico y enviaría un mensaje erróneo, ya que las herramientas actuales no pueden detectar de manera confiable el uso de textos generados por IA. Además, legitimar la práctica de citar chatbots como fuentes podría llevar al mal uso de estas herramientas, lo que resultaría contraproducente para la academia. En lugar de ello, se propone una inversión en alfabetización en IA y un enfoque normativo flexible, basado en normas socioculturales que evolucionen con el tiempo y que establezcan prácticas adecuadas para el uso de estas herramientas.

En conclusión, se sugiere que las instituciones académicas deben adoptar una postura clara que desincentive la citación de chatbots como fuentes de información, y que promueva su uso adecuado como herramientas de apoyo en el proceso de investigación. Las instituciones académicas, junto con editoriales y revistas, tienen el poder de guiar la normalización de las prácticas sobre la divulgación del uso de IA, lo cual sería crucial para mantener la integridad del ecosistema informativo.

El libro de divulgación científica en Chile 2015-2020

«El libro de divulgación científica en Chile 2015-2020». s. f. Cerlalc (blog). Accedido 9 de octubre de 2024. https://cerlalc.org/publicaciones/el-libro-de-divulgacion-cientifica-en-chile-2015-2020/.

Este documento presenta un diagnóstico del estado y características de los libros de divulgación científica publicados en Chile en el periodo 2015-2020. Para ello, se realizó una aproximación a partir de la base de datos de la Agencia ISBN Chile. A partir de una serie de criterios de selección, se rastrearon un total de 338 libros de divulgación científica con ISBN chileno. Estos libros fueron caracterizados, entre otras variables, por la disciplina científica más fuertemente asociada, utilizando como referencia las categorías disciplinares de la OCDE. Posteriormente, se generó una muestra intencionada de 102 libros, buscando mantener la diversidad y proporcionalidad de las diferentes disciplinas. Esta muestra fue analizada cualitativamente considerando cuatro dimensiones de análisis: los recursos editoriales desplegados, las herramientas lingüísticas utilizadas, las estrategias de inclusión, los modelos de comunicación de la ciencia y elementos científicos dentro de los libros.

Seguridad de la información

Vega Briceño, E. «Seguridad de la información – 3Ciencias». s. f. Accedido 9 de octubre de 2024

Texto completo

La seguridad de la información es crucial en nuestra sociedad hiperconectada, donde la tecnología y la digitalización influyen en prácticamente todos los aspectos de la vida. Desde el trabajo y las compras en línea hasta la educación y el entretenimiento, dependemos de sistemas informáticos que almacenan y procesan grandes cantidades de información. Sin embargo, esta misma dependencia de la tecnología también nos expone a riesgos significativos si no se toman medidas adecuadas de seguridad.

La seguridad de la información abarca un conjunto de prácticas, procesos y metodologías diseñadas para proteger tanto los datos como los sistemas tecnológicos frente a diversas amenazas, como el acceso no autorizado, la divulgación, la modificación, la destrucción o el uso indebido de la información. Esto es particularmente importante dado que los ciberdelincuentes pueden causar daños económicos, reputacionales y legales a individuos y organizaciones.

Los riesgos son múltiples: desde el robo de identidad y fraude financiero hasta el espionaje industrial y la pérdida de información crítica. Por ejemplo, si un atacante accede a la base de datos de una empresa y obtiene información sensible como datos financieros o personales de los empleados o clientes, puede desatar graves consecuencias. Esto puede incluir la pérdida de millones de dólares, la quiebra de la empresa, sanciones legales y la pérdida de confianza por parte del público.

Por esta razón, la norma ISO/IEC 27001, una de las más reconocidas a nivel global, define la seguridad de la información como el conjunto de medidas destinadas a salvaguardar la confidencialidad, integridad y disponibilidad de la información. La confidencialidad implica que solo las personas autorizadas puedan acceder a la información, la integridad se refiere a la precisión y completitud de los datos, y la disponibilidad asegura que los sistemas y la información estén accesibles cuando se necesiten.

En el entorno actual, donde los ataques cibernéticos y las brechas de seguridad son más frecuentes que nunca, es vital que las organizaciones implementen políticas robustas de seguridad de la información. Esto incluye el uso de tecnologías avanzadas como el cifrado de datos, la autenticación multifactorial, las auditorías regulares de seguridad, la formación del personal sobre buenas prácticas y la creación de planes de contingencia ante incidentes de seguridad.

Además, el avance del Internet de las Cosas (IoT), la computación en la nube y la inteligencia artificial están añadiendo nuevas capas de complejidad a la seguridad de la información, lo que requiere un enfoque dinámico y adaptativo para proteger los datos en este panorama digital en constante evolución.

Características de los artículos científicos fabricados con Inteligencia Artificial en Google Scholar

Haider, J., Söderström, K. R., Ekström, B., & Rödl, M. (2024). GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-156

Descargar

El artículo analiza el creciente número de trabajos científicos cuestionables generados por inteligencia artificial (IA), como ChatGPT, que se están publicando en revistas académicas y repositorios. Estos trabajos, que imitan el estilo de la escritura científica, están siendo fácilmente localizados y listados por Google Scholar junto con investigaciones legítimas. El estudio se centró en un grupo de estos artículos y encontró que muchos tratan temas aplicados y a menudo controversiales, como el medio ambiente, la salud y la computación, áreas particularmente vulnerables a la desinformación. La preocupación radica en el aumento del potencial de manipulación malintencionada de la base de evidencia, especialmente en temas divisivos políticamente.

El estudio se centra en la producción y difusión de publicaciones cuestionables generadas con transformadores preentrenados (GPT) que son accesibles a través de Google Scholar, abordando varios aspectos clave: primero, se investiga dónde se publican o depositan estas publicaciones dudosas. Este análisis busca identificar los tipos de revistas y plataformas que albergan este contenido. En segundo lugar, se examinan las características principales de estas publicaciones en relación con las categorías temáticas predominantes, permitiendo una comprensión más profunda de los temas que son más susceptibles al uso indebido de la inteligencia artificial generativa. Además, se explora cómo se difunden estas publicaciones en la infraestructura de investigación para la comunicación académica, prestando atención a los canales y plataformas que facilitan su circulación. Esto incluye la identificación de dominios y repositorios donde se comparten estos trabajos. Finalmente, la investigación cuestiona el papel de la infraestructura de comunicación académica en la preservación de la confianza pública en la ciencia y la evidencia, considerando los desafíos que presenta el uso inapropiado de la inteligencia artificial generativa en este contexto. Este aspecto subraya la necesidad de una regulación más efectiva y la implementación de criterios de calidad en la publicación académica.

Para ello, se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar, utilizando una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT. Luego, se utilizó Google Search para determinar la extensión de las copias de estos artículos cuestionables en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no divulgado y potencialmente engañoso de GPT. La mayoría de estos trabajos (57%) abordaban temas relevantes para políticas públicas, como el medio ambiente, la salud y la computación, los cuales son susceptibles a operaciones de influencia. La mayoría de estos artículos estaban disponibles en varias copias en diferentes dominios (redes sociales, archivos y repositorios).

La mayoría de los artículos sospechosos de uso fraudulento de ChatGPT se encontraron en revistas no indexadas o como trabajos en proceso, aunque algunos también aparecieron en revistas establecidas, conferencias y repositorios. En total, se identificaron 139 artículos, de los cuales 19 estaban en revistas indexadas, 89 en revistas no indexadas, 19 eran trabajos estudiantiles y 12 eran documentos de trabajo. La mayoría de los artículos trataban temas de relevancia política, como la salud y el medio ambiente, y se encontraban principalmente en revistas no indexadas.

Existen dos riesgos principales derivados del uso cada vez más común de GPT para producir de manera masiva publicaciones científicas falsas. Primero, la abundancia de “estudios” fabricados que se infiltran en todas las áreas de la infraestructura de investigación amenaza con sobrecargar el sistema de comunicación académica y poner en peligro la integridad del registro científico. El segundo riesgo es que el contenido, aunque parezca científicamente convincente, haya sido creado de manera engañosa con herramientas de IA y esté optimizado para ser recuperado por motores de búsqueda académicos públicos, especialmente Google Scholar. Aunque esta posibilidad sea pequeña, su conocimiento podría socavar la confianza en el conocimiento científico y representar graves riesgos para la sociedad.

El estudio subraya que el problema de las publicaciones científicas fraudulentas generadas por GPT es solo la punta del iceberg, con implicaciones profundas para la confianza en la ciencia y para la sociedad en general.