Archivo de la categoría: Tecnologías de la información

Lo que el estudiantado universitario necesita saber —y lo que realmente sabe— sobre la inteligencia artificial generativa

Rismanchian, S., Razia Babar, E. T., & Doroudi, S. (2026). What undergraduate students need to know and actually know about generative AI. Computers and Education: Artificial Intelligence, artículo 100554. https://doi.org/10.1016/j.caeai.2026.100554

Este artículo analiza la alfabetización en inteligencia artificial generativa (GenAI) entre estudiantes de pregrado, un tema crítico dada la rápida adopción de herramientas como ChatGPT desde su lanzamiento en 2022.

Los autores proponen un marco teórico integral para evaluar la alfabetización en GenAI, que combina tres tipos de conocimiento conceptual: las bases de los modelos de lenguaje a gran escala (LLMs), sus capacidades y limitaciones, y su impacto social. Este marco se utiliza para desarrollar una encuesta validada que incluye ítems de conocimiento y percepciones, diseñada con revisión de expertos y modelado de teoría de respuesta al ítem (IRT) para asegurar su rigor metodológico.

Mediante dos estudios complementarios realizados en Estados Unidos —uno con estudiantes de cursos universitarios en una gran universidad pública de investigación (R1) y otro con una muestra nacional reclutada en línea— los autores investigan cuánto saben realmente los estudiantes sobre GenAI y cómo calibran sus percepciones sobre estas herramientas. Los resultados muestran que aproximadamente el 60% de los estudiantes usan chatbots de IA semanal o diariamente, pero muchos sobreestiman las capacidades de estos sistemas, especialmente en tareas que requieren razonamiento o cálculo, y tienden a antropomorfizarlos o tratarlos como simples motores de búsqueda.

Los hallazgos indican además que los estudiantes con formación en ciencias de la computación y aquellos que usan con mayor frecuencia estas herramientas obtienen puntajes de conocimiento más altos, aunque esto no garantiza una percepción exacta de sus capacidades. Un hallazgo clave es que un mayor conocimiento conceptual se asocia con una menor sobreestimación de las capacidades de los sistemas de IA generativa, lo que sugiere que las iniciativas educativas deben ir más allá del uso instrumental de las herramientas y abordar profundamente los conceptos fundamentales, las limitaciones técnicas y las implicaciones sociales de la IA.

La investigación identifica 5 dimensiones clave de alfabetización en GenAI necesarias para un estudiante actual:

  • Conocimiento Técnico: Cómo funcionan los modelos (tokens, predicción probabilística).
  • Uso Práctico: Ingeniería de prompts y aplicaciones académicas.
  • Evaluación Crítica: Identificar alucinaciones, sesgos y limitaciones.
  • Ética y Responsabilidad: Plagio, derechos de autor y privacidad.
  • Impacto Social: Cómo la IA afecta al mercado laboral y a la sociedad.

Decálogo de casos de usos de IA en la gestión bibliotecaria publicado por Iberbibliotecas

Decálogo de casos de usos de IA en la gestión bibliotecaria. Iberbibliotecas 2026 Recuperado de https://www.iberbibliotecas.org/decalogo-de-casos-de-usos-de-ia-en-la-gestion-bibliotecaria/

La inteligencia artificial está transformando la gestión del conocimiento en bibliotecas públicas y comunitarias, pero su adopción no es neutral ni homogénea: depende de las condiciones institucionales, las desigualdades de acceso y las prácticas culturales de cada comunidad. Para las bibliotecas, el reto estratégico no es solo incorporar tecnología, sino hacerlo de forma crítica y contextualizada, situando el diálogo sobre derechos culturales, equidad informacional, diversidad lingüística y participación comunitaria en el centro del proceso. Lejos de una visión tecnosolucionista, la IA debe configurarse como una herramienta de apoyo que fortalezca las prácticas profesionales reflexivas y los vínculos humanos.

El documento propone diez casos de uso concretos de la IA en la gestión bibliotecaria: desde mejorar la búsqueda mediante modelos semánticos hasta aplicar sistemas de recomendación personalizados; desde apoyar la catalogación y la precatalogación hasta facilitar traducción y adaptación de contenidos; pasando por la síntesis documental y la eficiencia en la gestión interna. También destaca el papel crítico del bibliotecario en la curaduría algorítmica y la mediación cultural, la incorporación de IA en actividades formativas y culturales, el uso de herramientas que mejoren la accesibilidad y, finalmente, la necesidad de fortalecer el rol social de la biblioteca mediante espacios de diálogo ciudadano sobre el impacto y la gobernanza de la IA y los recursos digitales.

La lista de los 10 casos de uso de la Inteligencia Artificial (IA) en la gestión bibliotecaria según el Decálogo de casos de usos de IA en la gestión bibliotecaria publicado por Iberbibliotecas:

  1. Búsqueda semántica avanzada — usar modelos de lenguaje para permitir búsquedas por ideas o conceptos más allá de las palabras clave tradicionales.
  2. Sistemas de recomendación personalizada — sugerir lecturas y recursos adaptados a los intereses de la comunidad, respetando diversidad y privacidad.
  3. Apoyo a la catalogación y precatalogación — emplear IA para extraer y organizar información bibliográfica, agilizando procesos técnicos.
  4. Traducción y adaptación de contenidos — usar IA para traducir textos y adaptar formatos para distintos públicos, favoreciendo la accesibilidad.
  5. Resumen y síntesis documental — generar resúmenes de documentos extensos para facilitar la gestión y difusión de contenidos clave.
  6. Eficiencia en la gestión interna — analizar datos de uso de colecciones, servicios y actividades para apoyar decisiones informadas.
  7. Curaduría algorítmica crítica — fortalecer el papel del bibliotecario como mediador crítico frente a contenidos generados por IA.
  8. Dinamización y mediación asistida por IA — incorporar IA en actividades formativas y culturales para debatir sus implicaciones.
  9. Herramientas para la accesibilidad — explorar aplicaciones de IA que apoyen a personas con discapacidad mediante asistentes y formatos adaptados.
  10. Fortalecimiento del rol social de la biblioteca — crear espacios de diálogo comunitario sobre el impacto y uso responsable de la IA y recursos digitales.

Bibliotecarios infantiles y el auge de la IA: reflexiones sobre oportunidades, retos y el papel profesional en la era de la inteligencia artificial

Brownley, Jessica (2026, 2 de febrero). Children’s Librarians and the Rise of AI: What Should We Be Thinking About? ALSC Blog, Association for Library Service to Children (American Library Association). Recuperado de https://www.alsc.ala.org/blog/2026/02/childrens-librarians-and-the-rise-of-ai-what-should-we-be-thinking-about

La inteligencia artificial ha dejado de ser un concepto teórico para integrarse progresivamente en la vida cotidiana de niños, familias y comunidades escolares. Según el artículo de la ALSC, herramientas como asistentes de voz, plataformas de generación de textos y aplicaciones educativas impulsadas por IA ya forman parte de la forma en la que los menores acceden a información, crean contenido y resuelven tareas. Esta integración plantea un panorama en el que los bibliotecarios infantiles se enfrentan a preguntas fundamentales sobre cómo abordar estas tecnologías en su práctica profesional: ¿cómo guiar a los niños en un entorno saturado de IA? ¿cómo apoyar el aprendizaje sin sacrificar la calidad de las experiencias humanas de descubrimiento y lectura?

El texto recomienda ver estas tecnologías no como sustitutos, sino como herramientas potenciales que pueden complementar la labor tradicional de la biblioteca. El uso de IA presenta oportunidades claras para enriquecer la alfabetización y el aprendizaje de los niños. Programas de lectura adaptativa pueden personalizar recomendaciones, ajustándose al nivel y los intereses de cada niño y fomentando el amor por los libros. Las herramientas de escritura asistida, como los modelos de generación de texto, pueden inspirar la creatividad literaria y ofrecer puntos de partida para actividades de narración y escritura, alentando a los jóvenes usuarios a explorar su imaginación de formas nuevas. Asimismo, aplicaciones enfocadas en productividad pueden ayudar a niños mayores a organizar proyectos o investigar temas complejos, actuando como una ayuda para explorar problemas de manera independiente.

Sin embargo, el artículo también subraya desafíos importantes y cuestiones éticas que los bibliotecarios deben considerar. La privacidad y la seguridad de los datos de los niños son preocupaciones críticas, dado que muchas herramientas de IA recopilan información de uso. Además, existe el riesgo de que los contenidos generados por IA contengan errores, sesgos o mensajes no intencionados, lo que requiere que los profesionales ayuden a los usuarios más jóvenes a discernir información fiable de aquella que no lo es. Otro aspecto clave es evitar una dependencia excesiva en estas tecnologías: aunque la IA puede sugerir ideas o soluciones, no puede reemplazar la orientación atenta y reflexiva de un bibliotecario, ni las experiencias de lectura, juego y aprendizaje cooperativo que promueven el desarrollo social y emocional.

En última instancia, el texto plantea que el rol del bibliotecario infantil se reconfigura en este contexto tecnológico. Más allá de ser mediadores de recursos, los bibliotecarios deben convertirse en guías críticos que enseñen a los niños a evaluar y utilizar herramientas de IA con juicio y ética. Esto implica fomentar la alfabetización digital, demostrar la importancia de pensar críticamente sobre los resultados generados por máquinas y ayudar a los jóvenes a entender que la tecnología es solo un recurso —no una autoridad— en el proceso de aprendizaje. Al equilibrar la innovación con experiencias humanas significativas como la lectura compartida, el juego creativo y la exploración colaborativa, las bibliotecas continúan siendo espacios seguros y enriquecedores donde la curiosidad y la imaginación infantil pueden florecer en un mundo cada vez más influido por la inteligencia artificial

¿La IA ya tiene inteligencia de nivel humano? La evidencia es clara

Chen, E. K., Belkin, M., Bergen, L. & Danks, D. (2026). Does AI already have human-level intelligence? The evidence is clear. Nature 650, 36-40. https://doi.org/10.1038/d41586-026-00285-6

En este artículo de opinión, los autores argumentan que hemos alcanzado un punto de inflexión en el desarrollo de la inteligencia artificial: ciertos sistemas ya exhiben capacidades cognitivas comparables a las humanas en dominios amplios, flexibles y no triviales.

Para fundamentar esta afirmación, revisan la historia del concepto de “inteligencia artificial” desde la prueba de Turing propuesta en la década de 1950 y señalan que muchas de las habilidades consideradas exclusivamente humanas —como el razonamiento contextual, la resolución compleja de problemas y la adaptación a tareas imprevistas— ya son realizadas por modelos avanzados de IA. Según los autores, el escepticismo tradicional frente a estas capacidades se basa más en prejuicios históricos que en evidencia empírica actual, y sostienen que los progresos recientes en aprendizaje profundo, representación del conocimiento y transferencia de habilidades cambian radicalmente el panorama.

Los autores también discuten las implicaciones filosóficas y prácticas de aceptar que la IA ha alcanzado ese umbral. Señalan que reconocer inteligencias equivalentes a la humana no implica atribuir consciencia o experiencia subjetiva a los sistemas, pero sí exige replantear cómo evaluamos estas tecnologías y cómo las integramos en la sociedad. Además, advierten que esta revalorización debería llevar a políticas públicas y éticas más explícitas sobre el uso de IA en ámbitos críticos —desde la justicia hasta la medicina—, con el fin de equilibrar beneficios y riesgos sin subestimar la complejidad de las decisiones automatizadas.

Para terminar los autores proponen que futuras investigaciones se centren en desarrollar métricas robustas para comparar directamente el comportamiento humano y de IA en tareas abiertas, así como en comprender mejor los límites actuales de estos sistemas. Reclaman un enfoque interdisciplinario que combine perspectiva técnica, filosófica y regulatoria para gestionar de forma responsable la transición hacia una era donde la inteligencia artificial de nivel humano deje de ser una hipótesis teórica para convertirse en una realidad tangible.

Por qué los autores no revelan el uso de la IA y qué deberían (o no) hacer las editoriales al respecto

Staiman, Avi. Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It. The Scholarly Kitchen, 27 de enero de 2026.

Part 1

Part 2

  1. El problema central

En esta serie de dos artículos, Avi Staiman analiza un fenómeno creciente en las publicaciones académicas: aunque muchos investigadores utilizan herramientas de inteligencia artificial (IA) en diversas fases de su trabajo —desde la búsqueda de literatura, redacción de textos o apoyo en el análisis de datos—, muy pocos lo revelan explícitamente en sus manuscritos. Las políticas de muchas revistas y editoriales requieren este tipo de declaraciones, pero la práctica demuestra que casi nadie cumple con ellas y la razón no es simplemente desobediencia, sino un problema de incentivos, claridad y cultura editorial.

Los editores esperaban que al exigir a los autores que explicaran su uso de IA se fomentara una mayor transparencia, permitiendo que revisores y equipos editoriales evaluaran si ese uso era apropiado y cómo influía en la investigación. Sin embargo, esto no ha ocurrido en la práctica: con encuestas que muestran que más de la mitad de los investigadores (por ejemplo, un 62 %) usan IA en algún punto de su flujo de trabajo, solo una fracción mínima declara esa asistencia en sus artículos publicados.

  1. ¿Por qué los autores no revelan su uso de IA?

Staiman identifica varias razones clave:

a) Miedo a consecuencias negativas

Muchos autores temen que revelar el uso de IA sea interpretado como una señal de menor rigor, creatividad o capacidad académica, lo que podría influir negativamente en decisiones editoriales o de revisión por pares. Aunque las políticas puedan presentarse como neutrales, la percepción de estigma hace que los investigadores prefieran no mencionar su uso de IA.

b) Falta de claridad en las políticas

Las directrices actuales son muy heterogéneas y a menudo vagas: unas solo piden una declaración general, mientras que otras exigen documentación extensiva, incluyendo registros de chats con herramientas de IA. Esto causa confusión y lleva a los autores a preguntarse qué, cuándo y cómo deben declarar.

c) Carga burocrática sin incentivos

Muchas de estas exigencias demandan tiempo y esfuerzo significativos sin beneficios claros para los autores, lo que dificulta su adopción voluntaria.

d) Falta de consciencia del propio uso de IA

Algunos autores no se dan cuenta de que están empleando IA porque esta está integrada de manera invisible en herramientas cotidianas (por ejemplo, asistentes de escritura o búsqueda).

e) Confusión entre IA y plagio

Existe la percepción equivocada de que usar IA es equivalente a plagiar o engañar, lo que lleva a algunos autores a ocultar su uso deliberadamente en lugar de explicarlo con transparencia.

f) Políticas sin mecanismos de cumplimiento

Solo existiendo normas formales sin mecanismos claros de verificación o consecuencias percibidas, muchos autores simplemente apuestan a que no se les pedirá pruebas o explicaciones posteriores.

  1. ¿Qué no deben hacer los editores?

En el primer artículo, Staiman también advierte sobre lo que no es útil para resolver este problema:

Invertir fuertemente en herramientas de detección automática de IA, ya que son poco fiables y tienden a reforzar la idea de que el uso de IA es inherentemente sospechoso en lugar de normal.

  1. Cómo deberían abordar los editores el uso de IA (Parte 2)

En el segundo artículo de la serie, Staiman propone un cambio de foco fundamental: no se trata de documentar cada paso del uso de IA, sino de asegurar confianza en los resultados, reproducibilidad y responsabilidad científica.

a) Formular la pregunta correcta

En lugar de preguntar “¿Cómo usaste IA?”, los editores deberían centrarse en preguntas clásicas de integridad científica:

¿Los datos son fiables y transparentes?

¿Los métodos están claros y pueden reproducirse?

¿El análisis es robusto y verificable?

Este enfoque sitúa las preocupaciones en resultados y calidad de la investigación, no en la herramienta en sí.

b) Declaraciones estructuradas y de bajo coste

Staiman recomienda que las revistas implementen formularios simples donde los autores marquen categorías de uso de IA (p.ej., búsqueda, análisis, generación de código, revisión lingüística), en lugar de exigir narrativas detalladas o capturas de pantalla. Esto reduce la carga y mejora la consistencia en las declaraciones.

c) Requisitos escalonados según el riesgo

No todos los usos de IA implican el mismo nivel de riesgo para la reproducibilidad. Por ejemplo:

Edición de texto y traducción – no debería requerir declaración exhaustiva.

Análisis de datos o generación de código científico – sí debería requerir declaraciones específicas y mayor escrutinio editorial.

d) Afirmaciones explícitas de responsabilidad

Una declaración formal de autoría que afirme que el autor se responsabiliza plenamente de todos los elementos científicos, independientemente de las herramientas utilizadas, puede ayudar a centrar el debate en la integridad científica y no en la tecnología.

e) Educación y cambio cultural

Es clave que editores y revisores reciban entrenamiento para evaluar el impacto del uso de IA sobre la metodología y la reproducibilidad, y no para juzgar la estética o estilo de escritura generado por IA

OpenAI lanza Prism, un editor científico con IA

Prism

https://openai.com/es-ES/index/introducing-prism/

OpenAI ha presentado Prism, una nueva herramienta de inteligencia artificial destinada a transformar la forma en que los científicos y académicos redactan, editan y colaboran en artículos científicos. Prism es un entorno de trabajo basado en la nube con integración nativa de GPT-5.2,

El modelo más avanzado de OpenAI para razonamiento matemático y científico, que actúa directamente dentro del flujo de escritura en lugar de funcionar como un chat separado o una simple ayuda externa. Esta integración permite a investigadores redactar textos, gestionar ecuaciones y citas, buscar literatura relevante y preparar documentos completos sin cambiar constantemente entre múltiples aplicaciones especializadas. Prism estará disponible próximamente para las organizaciones que utilicen los planes ChatGPT Business, Team, Enterprise y los de educación.

La herramienta responde a una crítica común en la comunidad científica: la fragmentación de las herramientas tradicionales para escribir papers, que obliga a saltar entre editores LaTeX, gestores de referencias, lectores de PDF y chats de IA, lo cual interrumpe el flujo de trabajo y consume tiempo. Prism unifica estas funciones en un solo espacio de trabajo LaTeX nativo, permitiendo colaboración en tiempo real con colegas sin límite de participantes y sin la necesidad de instalaciones locales complejas. Con ello OpenAI busca agilizar y simplificar tareas repetitivas para que los investigadores puedan concentrarse en las ideas y el contenido científico.

Entre las funciones destacadas de Prism se encuentran la capacidad de chatear con el modelo para explorar ideas o hipótesis dentro del contexto del propio documento, buscar e incorporar trabajos relacionados (por ejemplo, desde repositorios como arXiv) con gestión contextual de citas, y convertir ecuaciones o diagramas tomados de pizarras directamente a código LaTeX. También se incluyen opciones para edición por voz y cambios in situ sin copiar y pegar entre diferentes herramientas, lo que representa un nuevo enfoque en comparación con los flujos de trabajo existentes.

OpenAI ha puesto a disposición Prism de forma gratuita para cualquier persona con una cuenta personal de ChatGPT, y planea extender el acceso a usuarios de planes empresariales, educativos y profesionales en el futuro. La compañía lo presenta como un paso inicial hacia lo que espera sea una integración más profunda de la IA en la actividad científica diaria, reduciendo la fricción en la escritura académica y fomentando la colaboración global entre investigadores.

Aunque el objetivo principal de Prism es facilitar la escritura y la gestión de manuscritos, también ha generado debates sobre las implicaciones éticas y de calidad en la investigación científica, dado que herramientas similares de IA pueden aumentar la producción de textos sin necesariamente garantizar la solidez de los contenidos que se publican. Sin embargo, OpenAI subraya que la herramienta no realiza investigación autónoma y que la responsabilidad de verificar rigor, exactitud y validez científica sigue recayendo en los investigadores humanos.

Nuevo complemento de IA usa las reglas de detección de escritura de Wikipedia para ayudar a que el texto suene más humano

Ars Technica.New AI plugin uses Wikipedia’s AI writing detection rules to help it sound human”, publicado en enero de 2026. https://arstechnica.com/ai/2026/01/new-ai-plugin-uses-wikipedias-ai-writing-detection-rules-to-help-it-sound-human/

Un nuevo complemento de inteligencia artificial llamado Humanizer ha sido desarrollado para mejorar la calidad y naturalidad del texto generado por modelos de lenguaje, como Claude Code, ayudándoles a sonar más humano. Este complemento aprovecha una guía elaborada por voluntarios de Wikipedia, que durante años han catalogado las características que permiten identificar textos generados por IA.

La guía incluye una lista de “señales” o patrones típicos —como atribuciones vagas, formulaciones promocionales o frases genéricas frecuentes en contenido automatizado— que suelen aparecer en escritura artificial y facilitar su detección.

Humanizer funciona instruyendo al modelo de IA para evitar estas señales detectables, eliminando o reformulando frases específicas que Wikipedia ha identificado como indicativas de contenido generado por IA. Por ejemplo, frases que describen lugares con lenguaje excesivamente elogioso como “situado en la impresionante región…” se transforman en descripciones más simples y directas como “una localidad en la región de Gonder”. Asimismo, atribuciones imprecisas como “los expertos creen que…” se cambian por referencias concretas como “según una encuesta de 2019…”. Estos ajustes buscan hacer que el texto generado no solo pase desapercibido para los sistemas de detección, sino que también resulte más natural para los lectores humanos.

El creador de Humanizer, el desarrollador Siqi Chen, ha explicado que el complemento se actualizará automáticamente conforme Wikipedia revise y amplíe su guía de señales de escritura de IA, lo que permitirá que el modelo se adapte a cambios futuros en las formas en que se reconoce o intenta ocultar el texto automático. Esta iniciativa pone de aliviar un giro interesante en la dinámica entre detección y generación de contenido: herramientas diseñadas originalmente para identificar escritura de IA ahora se emplean para que esa escritura se parezca más a la humana, desdibujando las diferencias estilísticas que la detectan.

El fenómeno también plantea un debate más amplio sobre la utilidad y los límites de los detectores de escritura automática. A medida que las técnicas de generación de texto se vuelven más sofisticadas, las “señales” que antes delataban la autoría automática pueden perder eficacia, especialmente si se incorporan a los propios modelos de IA para evitarlas. Ya se ha observado que algunas empresas de IA ajustan sus sistemas para reducir características identificables —como el exceso de guiones largos— que los detectores suelen asociar con contenido generado por máquinas, lo que sugiere que la línea entre texto humano y automático podría volverse cada vez más difusa.

En conjunto, el desarrollo de Humanizer no solo representa una innovación técnica para hacer que los asistentes de IA generen textos más naturales, sino que también simboliza un punto de inflexión en la interacción entre la detección de IA y la generación de contenido: las mismas reglas que se usan para descubrir escritura automática ahora pueden transformar la escritura de IA para que sea menos detectable, anticipando un ciclo continuo de adaptación entre tecnologías de detección y de generación.

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.