Archivo de la etiqueta: Inteligencia artificial

Los errores de la IA son muy diferentes a los errores humanos

Schneier, Bruce, y Nathan E. Sanders. «AI Mistakes Are Very Different Than Human Mistakes: We Need New Security Systems Designed to Deal with Their Weirdness.» IEEE Spectrum. Última modificación el 13 de enero de 2025. https://spectrum.ieee.org/ai-mistakes-schneier.

Los errores humanos son comunes y predecibles, pero los errores de la inteligencia artificial (IA), como los cometidos por modelos de lenguaje grande (LLMs), son diferentes y a menudo extraños. Mientras los errores humanos se concentran en áreas específicas del conocimiento y suelen estar acompañados de un reconocimiento de ignorancia, los errores de la IA son aleatorios y distribuidos por todo el espacio del conocimiento, con una confianza inquebrantable incluso en respuestas incorrectas.

La necesidad de crear nuevos sistemas de seguridad que aborden estos errores únicos de la IA es esencial. Se sugieren dos líneas de investigación: hacer que los LLMs cometan errores más parecidos a los humanos y desarrollar sistemas para corregir errores específicos de la IA.

Algunos métodos, como el aprendizaje por refuerzo con retroalimentación humana, han demostrado eficacia en alinear los LLMs con los objetivos humanos, pero se requieren enfoques adicionales para manejar su «extrañeza». Por ejemplo, hacer que los modelos verifiquen sus respuestas varias veces puede ayudar a reducir errores, algo que no funciona bien con humanos pero sí con máquinas.

Entender dónde divergen los errores de la IA de los humanos sigue siendo un desafío. Algunas peculiaridades de los LLMs, como la sensibilidad a los cambios en las preguntas o la tendencia a repetir información común, se parecen a los comportamientos humanos, lo que sugiere que la IA puede ser más humana de lo que parece.

En última instancia, se deben limitar las aplicaciones de toma de decisiones de la IA a ámbitos que se ajusten a sus habilidades, teniendo en cuenta las posibles consecuencias de sus errores.

El acceso abierto como alternativa a las licencias restrictivas sobre el uso de la investigación para entrenar sistema de IA

Waibel, Günter, y Dave Hansen. «AI Deals Underscore the Importance of Open AccessInside Higher Ed, 7 de enero de 2025. https://www.insidehighered.com/opinion/views/2025/01/07/ai-deals-underscore-importance-open-access-opinion

Günter Waibel y Dave Hansen abordan la preocupación creciente en la comunidad académica sobre los lucrativos acuerdos entre editoriales y empresas de inteligencia artificial (IA) para el uso de publicaciones académicas como datos de entrenamiento. Argumentan que la respuesta adecuada no es recurrir a licencias más restrictivas, sino abogar por el acceso abierto, una práctica que beneficiaría tanto a los académicos como al público en general.

Explican que muchos autores académicos, al publicar sus obras, transfieren los derechos de autor a las editoriales, lo que permite a estas controlar legalmente el contenido y negociar con empresas de IA sin necesidad de consultar a los creadores originales. Esto ha generado críticas y dudas sobre la equidad de estas prácticas, especialmente considerando las grandes sumas de dinero involucradas.

Waibel y Hansen subrayan que, aunque puede ser tentador para los autores recurrir a la publicación detrás de un muro de pago para proteger sus obras de ser utilizadas por la IA, esta estrategia es contraproducente. En realidad, refuerza el monopolio de las editoriales sobre el contenido académico, permitiendo que sigan explotando el trabajo de los académicos para beneficio comercial.

En contraste, proponen que el acceso abierto no solo democratiza el acceso al conocimiento, sino que también permite un uso más ético y productivo de las tecnologías de IA en la investigación. Al eliminar las barreras económicas para acceder a la literatura académica, se crea un corpus accesible para la investigación computacional, impulsando nuevas metodologías y avances científicos.

Además, señalan que el uso justo (fair use) es un principio fundamental que permite tanto a las empresas de IA como a los investigadores académicos utilizar el contenido de manera transformadora para promover el progreso de la ciencia y la cultura. Limitar este uso solo para las empresas desfavorecidas podría erosionar los derechos de uso justo para todos, incluidos los académicos.

Finalmente, Waibel y Hansen hacen un llamado a la comunidad académica para que adopte el acceso abierto como un medio para maximizar el impacto público de la investigación. Argumentan que esto no solo es beneficioso para los académicos, que tendrían acceso pleno a las herramientas y metodologías más avanzadas, sino que también fortalece el bien público al ampliar el alcance del conocimiento generado en las universidades.

Uso y percepción de herramientas de inteligencia artificial (IA) entre los estadounidenses

The University of South Carolina AI INDEX. University of South Carolina, 2025

Texto completo

Este estudio refleja cómo la IA está cambiando la percepción pública y su integración en diversas áreas, desde el contenido digital hasta las campañas políticas.

Un equipo de investigación del College of Information and Communications de la Universidad de Carolina del Sur realizó una encuesta nacional sobre el uso y la percepción de herramientas de IA en diciembre de 2024, con más de 1,000 participantes adultos. Los principales hallazgos incluyen un creciente interés público en la IA, con ChatGPT liderando, aunque enfrentando competencia de Gemini y Copilot. El 35% de la población usa IA para crear contenido, principalmente en sectores técnicos, mientras que las preocupaciones por la seguridad laboral han disminuido. Sin embargo, persisten temores sobre la desinformación y la necesidad de una mayor supervisión ética.

  • Interés creciente en la IA: La discusión pública sobre la IA ha aumentado, con el interés en herramientas como ChatGPT alcanzando niveles comparables a eventos políticos importantes. Sin embargo, el conocimiento sobre estas herramientas es variado: el 57% del público está familiarizado en algún grado, y solo un tercio las conoce bien, principalmente personas jóvenes, con formación y con ingresos altos.
  • Cambio en la popularidad de herramientas de IA: Aunque ChatGPT sigue siendo la herramienta de IA líder, alternativas como Gemini y Copilot han ganado terreno, superando colectivamente a ChatGPT en uso.
  • Adopción en creación de contenido: El 35% de la población usa herramientas de IA para crear contenido de comunicación, especialmente en sectores técnicos, de negocios y comunicaciones. La adopción es menor en industrias como la manufactura, agricultura y transporte.
  • Disminución de preocupaciones laborales: Las preocupaciones sobre la pérdida de empleo debido a la IA han disminuido un 10% desde junio de 2024.
  • Sentimientos mixtos sobre el impacto de la IA: Aunque se reconoce el aumento de la productividad impulsada por la IA, persisten preocupaciones sobre su impacto futuro.
  • Baja conciencia sobre desafíos éticos: Solo un tercio del público está consciente de los problemas éticos relacionados con la IA, aunque los profesionales de la comunicación piden una mayor supervisión gubernamental.
  • Impacto en el periodismo: Se espera que la IA mejore la calidad del periodismo, aunque esta creencia no es ampliamente compartida.
  • Miedo a la desinformación: Prevalecen las preocupaciones sobre el papel de la IA en la amplificación de la desinformación, especialmente durante las elecciones de 2024.
  • Influencia en campañas políticas: Las herramientas de IA han tenido un papel notable en las campañas presidenciales de EE.UU., utilizadas regularmente por el 25% de los encuestados para comprender cuestiones políticas.
  • Tendencias en redes sociales: Después de las elecciones, la actividad en redes sociales ha disminuido, con YouTube superando a Facebook como principal plataforma para el consumo de noticias.

Luces y sombras de la IA en la educación superior: didáctica para el pensamiento crítico

Manuel Area Moreira, «Luces y sombras de la IA en la educación superior: Didáctica para el pensamiento crítico», 2024, https://riull.ull.es/xmlui/handle/915/40470.

Texto completo

El propósito de Luces y sombras de la IA en la educación superior: Didáctica para el pensamiento crítico es ofrecer una reflexión pedagógica sobre cómo la tecnología, en especial la inteligencia artificial (IA), influye en las creencias y prácticas de la docencia universitaria. Además, el autor propone un modelo didáctico para organizar las tareas de aprendizaje que fomenten el desarrollo del pensamiento crítico y autónomo en los estudiantes universitarios.

El modelo didáctico se estructura en seis dimensiones o competencias específicas de aprendizaje con la IA: Interrogación, Comparación, Diálogo crítico, Verificación, Reelaboración personal y Reflexión. Estas competencias buscan promover habilidades de pensamiento independiente y análisis en los estudiantes. El autor también incluye testimonios de alumnado y profesorado novel que han implementado este modelo en sus prácticas de enseñanza-aprendizaje.

El proceso de creación del libro fue profundamente interactivo, con el autor utilizando herramientas de IA generativa como ChatGPT, Copilot y Gemini para colaborar en la elaboración del contenido. El diálogo con estas máquinas permitió al autor ajustar, modificar y reelaborar el texto hasta lograr el producto final, mostrando la potencial simbiosis entre el humano y la máquina en la creación de conocimiento.

El índice del libro está compuesto por tres capítulos y diez apartados:

  1. Capítulo I: Enseñar con máquinas digitales. Un largo viaje
    1.1. La búsqueda de la máquina inteligente que enseña
    1.2. La docencia universitaria con tecnologías: del libro impreso a la IA
  2. Capítulo II: La IA en la educación superior. Promesas y temores
    2.1. Superar la tecnofilia y tecnofobia ante la inteligencia artificial
    2.2. Las luces de la IA para la docencia y el aprendizaje en la educación superior
    2.3. La IA también genera sombras: plagios, alucinaciones, sesgos y otras disfunciones
  3. Capítulo III: Didáctica universitaria con la IA. Formar para el pensamiento crítico
    3.1. Las metas educativas. ¿Qué competencias debe adquirir el alumnado sobre la IA?
    3.2. Estrategias de integración y uso docente de la IA en la enseñanza
    3.3. Un modelo didáctico para el aprendizaje crítico de los estudiantes con la IA
    3.4. La evaluación de las tareas realizadas con IA
    3.5. Un caso docente real: ejemplos de una asignatura y testimonios de alumnado sobre la experiencia en distintos títulos

La IA está descifrando textos antiguos y podría reescribir la historia

Jo Marchant, «How AI is Unlocking Ancient Texts — and Could Rewrite HistoryNature (October 18, 2023). https://www.nature.com/articles/d41586-024-04161-z.

La inteligencia artificial (IA) está revolucionando el estudio de textos antiguos, permitiendo a los investigadores acceder a información que ha permanecido inaccesible durante siglos. Desde pergaminos carbonizados por la erupción del Vesubio hasta tabletas de escritura cuneiforme desmoronadas, los avances en redes neuronales están proporcionando a los estudiosos datos valiosos que podrían redefinir nuestra comprensión de la historia antigua.

En octubre de 2023, Federica Nicolardi, papirologista de la Universidad de Nápoles, recibió un correo electrónico con una imagen que transformaría su investigación. Mostraba un fragmento de un pergamino quemado durante la erupción del Vesubio en el año 79 d.C., que hasta entonces había sido ilegible. Este descubrimiento fue posible gracias al proyecto Vesuvius Challenge, que utiliza técnicas avanzadas de IA para revelar el contenido de estos textos carbonizados. Con el uso de redes neuronales, los investigadores han logrado leer líneas completas de textos griegos que habían estado inaccesibles durante 2,000 años.

El proyecto del Vesubio es solo un ejemplo de cómo las redes neuronales están redefiniendo el estudio de textos antiguos. Estas tecnologías se están utilizando para descifrar lenguas clásicas como el griego y el latín, así como lenguajes menos conocidos como el Script de Hueso de Oráculo de China. Los modelos de redes neuronales están ayudando a interpretar archivos demasiado vastos para que los humanos los lean, completando caracteres faltantes y descifrando lenguas raras y perdidas.

La colaboración entre historiadores antiguos y científicos informáticos ha dado lugar a modelos como Pythia e Ithaca, que pueden sugerir palabras o caracteres faltantes en inscripciones griegas. Estas herramientas no solo aceleran tareas tediosas, sino que también permiten realizar conexiones que antes eran imposibles para los especialistas humanos. Por ejemplo, Ithaca ha demostrado ser capaz de restaurar textos antiguos con una precisión del 62%, superando el 25% de los expertos humanos y elevando esa precisión al 72% cuando los expertos utilizan las sugerencias de IA.

En Corea del Sur, los investigadores están utilizando redes neuronales para abordar uno de los archivos históricos más grandes del mundo: los registros detallados de los reyes coreanos, que datan desde el siglo XIV hasta el XX. Estos registros están escritos en Hanja, un sistema de escritura basado en caracteres chinos antiguos. Las técnicas de IA están acelerando la traducción de estos textos a un ritmo que de otro modo llevaría décadas.

El éxito en la lectura de los pergaminos de Herculano es solo el comienzo. Los investigadores están explorando la posibilidad de utilizar estas técnicas en otros textos inaccesibles, como los manuscritos egipcios antiguos y los papiros de Petra, Jordania. Sin embargo, este flujo de nuevos datos plantea desafíos éticos y metodológicos. ¿Cómo se garantiza la precisión y la reproducibilidad en el análisis de estos textos? ¿Quién debería tener acceso a estos datos?

Los expertos enfatizan la necesidad de trabajar en equipos multidisciplinarios que incluyan a especialistas en humanidades y ciencias computacionales. Además, proponen que todos los datos, incluidos los textos sin procesar y los algoritmos utilizados, se hagan de código abierto para garantizar la transparencia y la confianza en los resultados.

La IA está proporcionando a los papirologistas y otros especialistas en estudios antiguos herramientas sin precedentes para acceder a textos históricos. Esta tecnología no solo está haciendo su trabajo más importante que nunca, sino que también está planteando nuevas preguntas y posibilidades para la investigación histórica. A medida que los algoritmos de IA continúan evolucionando, el potencial para descubrir y entender textos antiguos nunca antes leídos se está convirtiendo en una realidad emocionante para el campo de las humanidades.

Este resumen amplía el artículo original, proporcionando un panorama detallado de cómo la IA está revolucionando la forma en que los investigadores abordan los textos antiguos, destacando los proyectos clave, los avances tecnológicos, los desafíos éticos y las colaboraciones interdisciplinarias necesarias para aprovechar al máximo estas innovaciones.

Lo que los estudiantes universitarios necesitan saber y realmente saben sobre la IA generativa

Rismanchian, Sina, Eesha Tur Razia Babar, y Shayan Doroudi. «GenAI-101: What Undergraduate Students Need to Know and Actually Know About Generative AIEdWorkingPapers, enero de 2025. https://edworkingpapers.com/ai25-1119

Este estudio aborda la comprensión y percepción que tienen los estudiantes universitarios sobre las tecnologías de inteligencia artificial generativa, con un enfoque particular en los chatbots como ChatGPT, lanzado por OpenAI en noviembre de 2022. Desde su introducción, estos modelos han encontrado diversas aplicaciones en la educación, incluyendo tutorías, asistencia en la redacción, formación de profesores y evaluación de ensayos. A pesar de su uso generalizado entre estudiantes de secundaria y universidad en Estados Unidos, hay poca investigación sobre cuánto saben realmente estos estudiantes sobre estas tecnologías y cómo las perciben.

Para llenar este vacío, los autores desarrollaron un marco novedoso de alfabetización en inteligencia artificial generativa (GenAI), centrándose en lo que los estudiantes saben sobre la IA generativa y cómo perciben las capacidades de los chatbots de IA. Diseñaron una encuesta de alfabetización en GenAI para medir el conocimiento y las percepciones de los estudiantes, recolectando datos de 568 estudiantes universitarios.

Los resultados del estudio muestran que aproximadamente el 60% de los estudiantes utiliza regularmente chatbots de IA para tareas académicas. Sin embargo, a menudo sobreestiman las capacidades de estas herramientas. El estudio encontró que un mayor conocimiento sobre cómo funciona la IA generativa se correlaciona con una estimación más precisa de sus capacidades en tareas del mundo real.

Principales resultados:

  • Uso de chatbots de IA: Aproximadamente el 60% de los estudiantes encuestados utilizan regularmente chatbots de IA para tareas académicas.
  • Percepción de capacidades: Muchos estudiantes tienden a sobreestimar las capacidades de estas herramientas, atribuyéndoles habilidades más allá de sus funcionalidades reales.
  • Conocimiento y precisión: Se encontró una correlación positiva entre el conocimiento sobre cómo funciona la IA generativa y una estimación más precisa de sus capacidades en tareas del mundo real.

Las conclusiones destacan la necesidad de mejorar la alfabetización en IA generativa para asegurar que los estudiantes usen estas herramientas de manera efectiva y responsable. El artículo subraya la importancia de desarrollar estrategias y políticas educativas que preparen a los estudiantes para un compromiso crítico e informado con las tecnologías de IA.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.

El impacto de la inteligencia artificial generativa en la investigación

Ding, Liangping, Cornelia Lawson, y Philip Shapira. «Rise of Generative Artificial Intelligence in Science.» arXiv, 5 de enero de 2025. https://doi.org/10.48550/arXiv.2412.20960

La IA generativa está redefiniendo el panorama de la investigación científica, mostrando patrones únicos en términos de colaboración y especialización en comparación con otras tecnologías de IA. Esto subraya la importancia creciente de la IA generativa como una herramienta clave en diversas disciplinas científicas.

Se explora el impacto de la inteligencia artificial generativa (IA generativa o GenAI) en la investigación científica. Este estudio empírico, utilizando datos de OpenAlex, analiza el crecimiento, la difusión en diversos campos de estudio y la distribución geográfica de las publicaciones sobre GenAI entre 2017 y 2023.

Hallazgos:

  • Crecimiento Rápido: La IA generativa ha experimentado un crecimiento acelerado, expandiéndose desde la informática hacia otros dominios científicos. Este auge se refleja en el aumento de publicaciones científicas que emplean GenAI.
  • Difusión y Campos de Estudio: La investigación en GenAI no se limita solo al campo de la computación, sino que se ha extendido a múltiples disciplinas científicas, mostrando un patrón de difusión amplia.
  • Distribución Geográfica: Los investigadores estadounidenses han contribuido con cerca del 40% de las publicaciones globales sobre GenAI, seguidos por China. Otros países con economías avanzadas pequeñas y medianas también muestran un alto nivel de uso de GenAI en sus investigaciones.
  • Tamaño de los Equipos y Colaboraciones Internacionales: A diferencia de otras tecnologías de IA, los grupos de investigación en GenAI tienden a ser ligeramente más pequeños. Sin embargo, las colaboraciones internacionales en el ámbito de GenAI mantienen niveles comparables a otras áreas de IA, a pesar de las tensiones geopolíticas recientes.

Uso de la Inteligencia Artificial y el Aprendizaje Automático en la British Library

Ridge, Mia. «AI (and Machine Learning, etc) with British Library CollectionsBritish Library Digital Scholarship Blog, December 2024. https://blogs.bl.uk/digital-scholarship/2024/12/ai-and-machine-learning-etc-with-british-library-collections.html

British Library está utilizando IA y AA para mejorar la accesibilidad, la organización y el análisis de sus colecciones, facilitando la investigación en el campo del patrimonio cultural digital. A través de una combinación de proyectos internos y colaboraciones externas, la biblioteca no solo está mejorando sus propias colecciones, sino también contribuyendo al debate sobre el uso ético y responsable de estas tecnologías en la preservación y difusión del conocimiento cultural.

La inteligencia artificial (IA) y el aprendizaje automático (AA) están transformando el campo de la investigación y el acceso a colecciones culturales y académicas. En la British Library, estas tecnologías se utilizan para enriquecer las colecciones, mejorando su accesibilidad y usabilidad en la investigación computacional. La biblioteca ha llevado a cabo una serie de proyectos internos y colaboraciones externas, además de capacitar a su personal para implementar IA y AA de manera ética y responsable.

La British Library ha sido un socio clave en el proyecto FRAIM de la Universidad de Sheffield (2024), centrado en la implementación responsable de la IA. Esto se refleja en su Estrategia de IA y Guía Ética, que subraya la importancia de utilizar estas tecnologías de manera que respeten la privacidad, la equidad y la transparencia. Además, la biblioteca ha promovido el debate sobre IA, fomentando la alfabetización en IA y datos para ayudar a los usuarios a comprender cómo se crean los modelos de aprendizaje automático y los conjuntos de datos.

Uno de los principales usos de la IA en la biblioteca es la transcripción de textos, un proceso fundamental para hacer que los libros y manuscritos digitalizados sean más accesibles para la búsqueda y el análisis. Herramientas como Transkribus y eScriptorium se han utilizado para transcribir texto manuscrito y impreso en una variedad de alfabetos y escrituras, lo que facilita el acceso a obras históricas y lingüísticas. Ejemplos de proyectos destacados incluyen el uso de Transkribus para el reconocimiento de texto manuscrito árabe y la automatización de la transcripción de libros bengalíes antiguos.

Además de estos proyectos internos, la British Library ha colaborado con otras instituciones para explorar el uso de IA y AA en el análisis de grandes volúmenes de datos. Un proyecto significativo fue Living with Machines (2018-2023), en colaboración con el Alan Turing Institute, que utilizó IA y ciencia de datos para analizar periódicos, libros y mapas históricos y comprender el impacto de la Revolución Industrial en las personas comunes. Este proyecto empleó diversas técnicas de IA, como la expansión léxica, la visión computacional y la clasificación de datos, y produjo más de 100 resultados en el repositorio de investigación de la biblioteca.

Internamente, la biblioteca también ha experimentado con IA en tareas específicas de catalogación y organización de colecciones. Un ejemplo de esto es el proyecto Languid: Language Identification Project (2020), en el que se utilizó IA para identificar y añadir códigos de idioma a más de 3 millones de registros de catálogo. Otro proyecto importante fue Flyswot (2021), que entrenó un modelo de aprendizaje automático para identificar imágenes de manuscritos digitalizados mal etiquetadas como «flysheets».

Además de los proyectos de investigación internos y las colaboraciones, la British Library ha puesto a disposición su Research Repository, que contiene conjuntos de datos útiles para entrenar modelos de IA. Entre estos recursos, destaca su colección de imágenes en Flickr Commons, que ha sido utilizada en proyectos como SherlockNet, que emplea redes neuronales convolucionales para etiquetar y describir automáticamente las imágenes de la colección.

Las pruebas demuestran que la herramienta de búsqueda ChatGPT es vulnerable a la manipulación y el engaño

Evershed, Nick. «ChatGPT Search Tool Vulnerable to Manipulation and Deception, Tests ShowThe Guardian, December 24, 2024. https://www.theguardian.com/technology/2024/dec/24/chatgpt-search-tool-vulnerable-to-manipulation-and-deception-tests-show

La herramienta de búsqueda de ChatGPT, impulsada por inteligencia artificial (IA), presenta vulnerabilidades que permiten manipular los resultados y devolver información errónea o incluso maliciosa, según una investigación realizada por The Guardian. La prueba reveló que el sistema es susceptible a la manipulación mediante el uso de contenido oculto en las páginas web, lo que podría alterar las respuestas de ChatGPT, un proceso conocido como «inyección de instrucciones» o «prompt injection». Esta técnica permite que terceros modifiquen el comportamiento de la IA, logrando, por ejemplo, que ChatGPT devuelva reseñas positivas de productos a pesar de que el sitio web contenga opiniones negativas.

En las pruebas realizadas, ChatGPT fue dirigido a páginas web falsas que imitaban las de productos, como una cámara, con el objetivo de analizar las respuestas generadas por la IA. Cuando las páginas contenían texto oculto con instrucciones para proporcionar una evaluación favorable, incluso cuando los comentarios reales eran negativos, la herramienta de IA generaba respuestas completamente positivas, manipulando así la percepción del producto. Además, en algunos casos, la inserción de texto oculto que no incluía instrucciones explícitas también modificaba las respuestas, favoreciendo una evaluación positiva mediante reseñas falsas.

La preocupación de los expertos en seguridad es significativa. Jacob Larsen, investigador de ciberseguridad, advirtió que si el sistema de búsqueda de ChatGPT se lanzara en su estado actual, existiría un «alto riesgo» de que se crearan sitios web diseñados específicamente para engañar a los usuarios y manipular los resultados de búsqueda. Sin embargo, también señaló que la funcionalidad de búsqueda es relativamente nueva y está disponible solo para usuarios premium, por lo que OpenAI probablemente esté trabajando en la corrección de estos problemas.