Archivo de la categoría: Tecnologías de la información

Kit de herramientas de IA para bibliotecas universitarias y de investigación

Association of Research Libraries and Coalition for Networked Information. ARL/CNI Futurescape Libraries AI Toolkit Can Help You Thrive in the AI Landscape.” ARL News, September 22, 2025.

Texto completo

Futurescape Libraries AI Toolkit busca preparar a las bibliotecas para un futuro en el que la inteligencia artificial será cada vez más determinante. Su valor no radica en predecir lo que ocurrirá, sino en estimular la capacidad de anticipación, la adaptación y la innovación institucional. Con ello, se pretende que las bibliotecas se conviertan en agentes activos del cambio, en lugar de limitarse a responder a las transformaciones una vez que estas ya se han producido.

El objetivo principal es que las bibliotecas de investigación dejen de adoptar un papel reactivo ante los desarrollos en IA y pasen a uno estratégico y de liderazgo, anticipando desafíos y transformaciones.

El toolkit incorpora los ARL/CNI AI Scenarios, junto con prioridades definidas y refinadas durante el foro “Strategic Implications” celebrado en diciembre de 2024. La estructura modular permite que equipos de liderato, personal bibliotecario y otros agentes externos exploren posibilidades futuras, prueben sus estrategias actuales, identifiquen oportunidades y vulnerabilidades, y preparen a la organización para cambios a largo plazo.

La herramienta se organiza en cinco módulos diseñados de manera flexible para que cada institución pueda adaptarlos según sus necesidades, recursos y nivel de preparación. El primero, Thinking About the Future, promueve una mentalidad abierta hacia el futuro y fomenta la reflexión inicial sobre la IA. El segundo, Surfacing Opportunities and Concerns, introduce conceptos de prospectiva como los impulsores de cambio, las señales y el escaneo del entorno, ayudando a identificar tendencias y tensiones externas que impactan a las bibliotecas. El tercer módulo, Scenario-Based Development and Evaluation of Options, invita a utilizar los escenarios de ARL/CNI como base para analizar la viabilidad de distintas estrategias, simulando cómo podrían funcionar bajo diferentes futuros posibles.

El cuarto módulo, Exploration of Strategic Options, ofrece herramientas para priorizar las estrategias, evaluar su impacto y decidir cuáles tienen más potencial de implementación a corto o medio plazo. Finalmente, el quinto módulo, From Workshop to Practice, se centra en traducir lo aprendido en los talleres en prácticas institucionales sostenidas, incorporando rutinas de vigilancia tecnológica, sistemas de alerta temprana y una cultura organizativa que mantenga la reflexión sobre el futuro como parte habitual de la gestión bibliotecaria. Además de estos módulos, se incluye una guía para facilitadores que orienta sobre cómo organizar talleres y adaptar las dinámicas a cada contexto.

Aprendizaje con IA: Una recopilación de artículos escritos por estudiantes

University of Leeds Libraries. “New Student-Led Open Education Resource Showcases Student Voices on AI.” Leeds University Libraries Blog, September 9, 2025.

PDF

EPUB

Los textos relatan experiencias reales de uso de inteligencia artificial generativa (GenAI) en el estudio, abarcando cómo dicha tecnología puede facilitar la comprensión, fomentar la creatividad y la confianza, así como apoyar un aprendizaje más personalizado y accesible

Un tema resaltado en las aportaciones de los estudiantes es la conciencia ética: muchos reflexionan sobre el uso responsable de la IA, los límites apropiados, las implicaciones de integridad académica, y cómo evitar depender demasiado de la tecnología sin comprensión crítica.

Los casos incluyen ejemplos de usos diversos: desde herramientas que ayudan a estructurar ideas o investigar, hasta aplicaciones que permiten adaptaciones para quienes tienen necesidades de aprendizaje distintas.

El recurso ha sido desarrollado como parte de la iniciativa University of Leeds Open Books, usando la plataforma Pressbooks. Está licenciado de forma abierta (“open license”) y está disponible libremente para que cualquiera lo lea, lo use y lo adapte. Además, se plantea como un “libro vivo”: se aceptan nuevas contribuciones hasta el 1 de noviembre de 2025, y todas las aportaciones pasan por un proceso de revisión por pares gestionado por el equipo editorial estudiantil.

El proyecto cuenta con el apoyo institucional de varias áreas de la universidad: la Escuela de Educación, las Bibliotecas, el Servicio de Educación Digital, Desarrollo Organizacional y Profesional, Curriculum Redefined, el Leeds Institute for Teaching Excellence (LITE), y la Knowledge Equity Network. También hay patrocinio de altos cargos universitarios implicados en educación y experiencia estudiantil, lo que indica un compromiso institucionalidad con la calidad educativa, la equidad y la innovación pedagógica.

El impacto de la tecnología y las redes sociales en el cerebro adolescente: riesgos, beneficios y recomendaciones

CBC News. “Teen Brains, Technology, and Social Media: Can They Impact Cognitive Skills?CBC, fecha de publicación, 2025. https://www.cbc.ca/news/canada/teen-brains-technology-aids-1.7604341

El artículo plantea la cuestión de si la exposición intensa de los adolescentes a la tecnología —incluyendo redes sociales, inteligencia artificial, aplicaciones educativas, dispositivos digitales— puede tener efectos tanto beneficiosos como perjudiciales en el desarrollo cognitivo. Se presentan preocupaciones entre educadores, psicólogos y padres en cuanto a la dependencia que los jóvenes podrían desarrollar con herramientas tecnológicas: por ejemplo, el uso constante de ayudas digitales puede afectar su capacidad de concentración, memoria de trabajo o fijación en tareas que requieren atención prolongada.

Por otro lado, se discuten aspectos positivos: la tecnología permite acceso rápido a información, debe facilitar la colaboración, interdisciplinariedad, creatividad, y el aprendizaje personalizado. Algunas herramientas, incluidas aplicaciones educativas o de IA, pueden ayudar a reforzar habilidades cognitivas específicas, como el reconocimiento visual, la resolución de problemas o incluso ciertas funciones ejecutivas —cuando se usan con criterio y estructura—.

El artículo también explora cómo el contexto educativo, el tipo de usos tecnológicos y los límites (horarios, supervisión, tipos de contenido) influyen en los efectos observados: no toda exposición es igual. Se menciona que los efectos negativos tienden a aparecer cuando hay un uso desregulado, multitarea excesiva, interrupciones constantes (notificaciones, mensajes) o cuando la tecnología sustituye completamente formas tradicionales de aprendizaje o interacción humana. Además, se integran testimonios de educadores que ven cambios en la capacidad de atención de sus estudiantes, dificultades para mantener la concentración sin distracciones digitales, o una tendencia a “saltar” rápidamente entre tareas.

Una parte importante del artículo está dedicada a recomendaciones para equilibrar estos riesgos con los beneficios: fomentar hábitos saludables de uso tecnológico, establecer tiempos sin pantallas, promover pausas, diseñar entornos de aprendizaje que reduzcan las distracciones digitales, entrenar tanto a alumnos como a docentes para que sean conscientes de cómo usar la tecnología de forma óptima, y no simplemente incorporar más dispositivos sin una estrategia crítica. También se sugiere investigación continua, análisis de datos longitudinales para ver efectos a largo plazo, comparación entre diferentes tipos de tecnología, y seguimiento de casos donde se hayan aplicado intervenciones educativas para mitigar efectos adversos.

Teoría de la muerte de Internet: gran parte de la web está dominada por bots y contenido generado automáticamente

Hindy, Joe. “What Is the Dead Internet Theory? Zombie Internet Might Be a More Accurate Term.” Mashable, September 6, 2025. https://mashable.com/article/what-is-dead-internet-theory

La Dead Internet Theory sostiene que desde 2016 gran parte de la web está dominada por bots y contenido generado automáticamente, manipulado por algoritmos. Sus defensores creen que se usan para influir en el consumo y en la opinión pública, incluso por parte de gobiernos.

Dead Internet Theory (Teoría del Internet Muerto) postula que gran parte del contenido y la actividad en la web ya no proviene de seres humanos auténticos, sino de bots, cuentas automatizadas, contenido generado por IA y mecanismos algorítmicos diseñados para maximizar la participación (likes, clics, compartidos), muchas veces sin intervención humana real.

Según esta perspectiva, no solo se crean publicaciones automatizadas, sino que también las cuentas que interactúan con ellas (comentando, reaccionando, compartiendo) pueden estar controladas por IA, lo que produce una retroalimentación artificial de contenido. Esto habría generado un ciclo donde los algoritmos, motores de búsqueda y plataformas sociales priorizan lo que atrae métricas, no lo que es auténtico o humano.

Un ejemplo citado en fuentes relacionadas es el fenómeno de «Shrimp Jesus» — imágenes generadas por IA que combinan iconografía religiosa con absurdos visuales, que terminan haciéndose virales en redes sociales. Estas tendencias ilustran cómo contenido sin una lógica humana clara puede ganar tracción por su capacidad de generar reacción, no necesariamente por su valor informativo o cultural.

También se discute la implicación política y social de esta teoría: no se trata solo de curiosidad o fenómenos virales, sino de una posible manipulación de la opinión pública, desinformación, propaganda, o de estructuras de monetización que se benefician más de la atención que de la verdad. En algunos estudios se estima que casi la mitad del tráfico de internet podría estar generado por bots u operaciones automatizadas, lo que refuerza los temores de que lo que percibimos como conversación humana puede estar mediado o construido por sistemas no humanos.

Al mismo tiempo, los expertos señalan que muchos elementos de la teoría son especulativos o conjeturales. Si bien hay evidencias de aumento en contenido generado por IA, mayor uso de bots, y prácticas de engagement fraudulento o artificial, no hay consenso de que la “internet esté muerta” en el sentido literal que algunos proponentes afirman. La teoría sirve más como un lente crítico: nos permite pensar en hasta qué punto la autenticidad humana todavía está presente en nuestras interacciones en línea, y cómo se están transformando las dinámicas de visibilidad, verdad y confianza en la red.

Las bibliotecas como guías en el uso ético y comunitario de la inteligencia artificial

Enis, Matt “AI Influencers: Libraries Guiding AI Use.Library Journal, March 20, 2024. https://www.libraryjournal.com/story/news/ai-influencers-libraries-guiding-ai-use

El artículo aborda el creciente impacto de la inteligencia artificial generativa y el papel que pueden tener las bibliotecas para moldear su uso ético y efectivo. Se cita el libro Generative AI and Libraries: Claiming Our Place in the Center of a Shared Future de Chris Rosser y Michael Hanegan, que compara la velocidad de adopción de tecnologías como ChatGPT con la del teléfono o internet, subrayando que la IA “llega para quedarse” y transformará profundamente la sociedad.

Los autores sostienen que las bibliotecas están en una posición privilegiada para intervenir: enseñar sobre la IA, desarrollar competencias necesarias en las comunidades, colaborar con organizaciones locales de ámbito laboral, compartir recursos entre distintas bibliotecas y establecer políticas comunes. Por ejemplo, mencionan que las bibliotecas públicas se verán involucradas en una de las mayores reconversiones laborales de la historia.

Otro tema destacado es la desigualdad de acceso y conocimiento. Dr. Michael Hughes advierte que quienes entienden y tienen acceso a versiones más potentes de las herramientas de IA obtendrán ventajas, agudizando las brechas existentes. Las bibliotecas tienen ya experiencia crítica con IA y la capacidad para guiar a estudiantes y usuarios en un uso responsable.

El artículo también describe ejemplos prácticos de acciones ya en marcha. En Austin (EE.UU.), por ejemplo, la biblioteca pública y las oficinas municipales han promovido políticas de IA y formación profesional para el personal con el fin de asesorar sobre uso ético. Asimismo, la Universidad de Carolina del Norte ha creado un AI Studio en su sistema de bibliotecas, espacio destinado a talleres, diálogo comunitario, cooperación entre facultades y democratización del acceso a herramientas.

Finalmente, se destaca el reto del ritmo acelerado de cambio tecnológico. Las bibliotecas deben mantenerse al día, no solo en cuanto a las herramientas, sino también en los debates sobre implicaciones éticas, equidad, riesgos y desinformación. Se sugiere que el aprendizaje continuo, la colaboración entre bibliotecas, y la creación de políticas institucionales y locales son vías esenciales para que las bibliotecas realmente influyan.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

La dependencia excesiva de la inteligencia artificial (IA) que podría estar erosionando habilidades humanas esenciales

Daws, Ryan. «AI Obsession Is Costing Us Our Human SkillsArtificial Intelligence News, 6 de agosto de 2025. https://www.artificialintelligence-news.com/news/ai-obsession-costing-us-our-human-skills/

Un número creciente de evidencias sugiere que la dependencia excesiva de la inteligencia artificial (IA) podría estar erosionando las habilidades humanas necesarias para usarla de manera efectiva.

Aunque la inversión en IA promete transformar sectores económicos, Daws destaca que sin una inversión paralela en el desarrollo de capacidades humanas como el razonamiento analítico y la creatividad, el potencial de la IA podría no materializarse plenamente. Investigaciones de Multiverse identifican trece habilidades clave que distinguen a los usuarios avanzados de IA, enfocadas en el pensamiento crítico y la reflexión, más allá de la simple interacción técnica con las herramientas.

La advertencia es que, sin cultivar activamente nuestras propias habilidades humanas, esta inversión multimillonaria en IA no solo rendirá por debajo de lo esperado, sino que podría fracasar por completo. Corremos el riesgo de crear un déficit de habilidades humanas que podría lastrar la productividad durante años.

No se trata solo de lo que le pides a la IA, sino de cómo analizas, cuestionas y refinás lo que te devuelve. Tomemos el razonamiento analítico. Es la habilidad humana de examinar un problema complejo y descomponerlo en partes que la IA pueda manejar, pero también la sabiduría para reconocer cuándo una tarea simplemente no es adecuada para una máquina. Se trata de ser el piloto, no solo el pasajero.

De manera similar, la creatividad nos impulsa a experimentar y encontrar formas genuinamente nuevas de usar estas herramientas, en lugar de pedir solo una versión ligeramente mejor de algo que ya existe.

También entran en juego rasgos personales. Habilidades como la determinación (la paciencia de seguir intentando cuando la IA produce resultados deficientes) y la adaptabilidad son necesarias. Cualquiera que haya usado estas herramientas sabe que el éxito a la primera es raro. Se requiere cierta resiliencia y curiosidad profunda para mirar más allá de la respuesta de la IA y verificarla con tu propio conocimiento.

Gary Eimerman, director de aprendizaje en Multiverse, enfatiza que los líderes empresariales deben reconocer que los desafíos actuales no son únicamente tecnológicos, sino también humanos. La falta de atención al desarrollo de habilidades cognitivas y culturales podría generar un déficit de competencias humanas que obstaculizaría la adopción efectiva de la IA y limitaría su impacto positivo en la productividad.

El artículo subraya la necesidad de equilibrar la inversión en IA con el fortalecimiento de las habilidades humanas fundamentales para garantizar una integración exitosa y sostenible de la inteligencia artificial en la sociedad y la economía.

Análisis del uso de Claude: patrones de adopción de la IA en EE. UU. y el mundo

Anthropic. “Anthropic Economic Index: Tracking AI’s Role in the US and Global Economy.” Anthropic Research, 15 de septiembre de 2025. https://www.anthropic.com/research/economic-index-geography

El informe de Anthropic presenta el Economic Index, una herramienta que analiza cómo se utiliza Claude, su modelo de inteligencia artificial, en distintos países y estados de Estados Unidos. El objetivo es ofrecer una visión clara de los patrones tempranos de adopción de la IA y su impacto económico, explorando tanto diferencias geográficas como la evolución en los tipos de tareas realizadas.

A nivel internacional, Estados Unidos lidera el uso total, seguido por India, Brasil, Japón y Corea del Sur. Sin embargo, al ajustar por población activa, países como Israel, Singapur, Australia y Nueva Zelanda muestran niveles de adopción proporcionalmente más altos. El índice revela una fuerte correlación entre el ingreso per cápita y el uso relativo de la IA, con los países de mayor desarrollo económico y conectividad digital a la cabeza.

Dentro de Estados Unidos, el mismo patrón se repite: los estados con mayor PIB per cápita presentan un uso más intensivo de la IA. El Distrito de Columbia lidera el índice estatal, destacando en tareas de edición y búsqueda de información, mientras que California se orienta más hacia la programación y Nueva York hacia las finanzas. Las economías locales influyen en el tipo de tareas: por ejemplo, en Hawái se observan más usos vinculados al turismo.

El estudio también muestra una transición hacia una mayor automatización. Entre diciembre de 2024 y mediados de 2025, las tareas automatizadas directivas crecieron del 27 % al 39 %, mientras que las de colaboración y apoyo (augmentación) disminuyeron. Esto sugiere que los usuarios confían cada vez más en que Claude ejecute tareas con menor supervisión.

Finalmente, se destacan diferencias entre el uso empresarial y el de consumidores. Los clientes de la API —principalmente empresas— priorizan la automatización y las tareas más costosas, como programación y matemáticas, mientras que los usuarios de Claude.ai mantienen un equilibrio mayor entre colaboración y automatización. En conjunto, el informe concluye que la adopción de la IA está marcada por la desigualdad económica, la especialización local y una creciente tendencia hacia la delegación de responsabilidades a los sistemas automatizados.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Libros creados por bots: los bibliotecarios se enfrentan al material generado por IA en sus colecciones

Saleh, Reema. “Books by Bots: Librarians Grapple with AI-Generated Material in Collections.” American Libraries Magazine, 2 de septiembre de 2025. https://americanlibrariesmagazine.org/2025/09/02/books-by-bots/

El artículo analiza cómo la proliferación de libros creados con inteligencia artificial (IA) está generando desafíos inéditos para las bibliotecas y quienes las gestionan.

No siempre resulta sencillo detectar qué títulos han sido elaborados por estas herramientas: la simple revisión de catálogos o fichas de proveedores no basta, de modo que muchas obras producidas por IA pasan inadvertidas, complicando su evaluación.

Se mencionan casos concretos, como un libro infantil —Rabbits: Children’s Animal Fact Book, de la editorial Bold Kids— que presenta señales de haber sido generado mediante IA. Ejemplos así impulsan a los bibliotecarios a examinar con mayor detenimiento metadatos, descripciones editoriales y otras huellas que puedan revelar una autoría no humana.

Sus páginas contenían frases extrañamente redactadas, algunas de las cuales incluían datos inventados sobre los conejos (como la afirmación de que se hacen su propia ropa). Cada página de texto mostraba la misma imagen prediseñada de un conejito comiendo una zanahoria. Fotos de archivo de conejos llenaban las páginas, con sus ojos y narices desapareciendo en la sangría del libro.

Además se sospecha que el título y otros de Bold Kids, que no tiene sitio web ni autores asociados con sus libros, fueron creados por inteligencia artificial (IA). Para colmo, el libro se imprimió bajo demanda, por lo que no se podía devolver. Peor aún, algunos libros generados por IA pueden contener desinformación potencialmente peligrosa. La Sociedad Micológica de Nueva York, por ejemplo, ha advertido contra la compra de guías escritas por IA para la recolección de setas silvestres. Al consultar los registros de derechos de autor de los libros, descubrió que contenían menciones a «texto generado por IA».

El texto subraya además la urgencia de contar con políticas y directrices claras para afrontar esta nueva realidad: desde definir en qué circunstancias se incorporarán a las colecciones libros creados con IA, hasta exigir transparencia sobre su origen y mantener estándares de calidad que resguarden la integridad de los fondos bibliográficos.

Finalmente, se recogen las distintas respuestas de la profesión. Algunos bibliotecarios están estableciendo criterios de adquisición específicos que distingan entre materiales de origen humano y automatizado; otros reclaman etiquetas o declaraciones de autoría explícitas. En todos los casos se pone en valor la vigilancia constante, necesaria para identificar contenidos dudosos y garantizar que las decisiones de selección mantengan el rigor, la relevancia y el servicio a la comunidad lectora.

Cómo identificar libros generados por IA:

  • Investiga quién es el autor y cuán “real” parece ser
  • Otra señal de alerta: un libro sin autor listado en absoluto.
  • Ten precaución con los libros autopublicados, de editoriales pequeñas o de plataformas como Amazon, que filtran menos contenido generado por IA que otros proveedores.
  • Considera si el libro está aprovechando la posibilidad de que un lector lo confunda con otro más popular
  • Si el libro se ha registrado en la Oficina de Derechos de Autor de EE. UU., es posible que su registro mencione la IA.