Archivo por meses: diciembre 2025

Me encanta la IA. ¿Por qué no le gusta a todo el mundo?

Smith, Noah. 2025. “I Love A.I. Why Doesn’t Everyone?Noahpinion, 1 de diciembre de 2025. https://www.noahpinion.blog/p/i-love-ai-why-doesnt-everyone

En su artículo, el autor describe su entusiasmo por la inteligencia artificial (IA) generativa, defendiendo que muchas de las críticas populares —a menudo emotivas o basadas en miedos— están fundamentadas en argumentos débiles o erróneos. Señala que aunque las tecnologías nuevas siempre traen riesgos y problemas (como la contaminación en la era industrial o el impacto social de la automatización), históricamente las sociedades han sabido adaptarse: lo mismo podría ocurrir con la IA.

Para el autor, usar IA hoy se parece a tener “un pequeño amigo robot”: un asistente que puede responder preguntas, ayudar a redactar textos, traducir, buscar información, resolver dudas cotidianas o tareas técnicas, o servir como herramienta de estudio, creatividad o investigación. Esa capacidad de poner al alcance de cualquiera —y con facilidad— prácticamente todo el conocimiento humano convierte a la IA en una de las tecnologías de propósito general más potentes jamás creadas.

Sí, admite que la IA comete errores: mezcla datos, inventa referencias, da respuestas equivocadas. Pero argumenta que esa falibilidad no la distingue fundamentalmente de cualquier herramienta de información: los humanos leen artículos, webs o libros que también a veces están equivocados o sesgados. Por eso —dice— lo importante es usar la IA con criterio, contrastar su output y no esperar que sea un oráculo infalible.

El artículo advierte también frente a ciertos debates críticos sobre la IA cuyos fundamentos considera exagerados, como los que destacan su consumo de agua o predicen impactos catastróficos inmediatos. En su opinión, esos temores a menudo sirven como “chivos expiatorios” influidos por la desconfianza general hacia lo nuevo, más que por evidencia concreta.

Finalmente, reflexiona sobre por qué muchas personas no comparten su entusiasmo. Entre las razones menciona inseguridades legítimas (riesgo de reemplazo laboral, cambios económicos, externalidades ambientales), pero también destaca un sesgo cultural: ante cada nueva tecnología disruptiva —como el automóvil, la electricidad o el internet— muchos reaccionan con miedo, cuando con el tiempo dichas tecnologías se normalizan y transforman la vida cotidiana. Cree que la IA puede seguir ese camino si aprendemos a gestionarla con responsabilidad

Ādisōke es un ambicioso proyecto conjunto entre Ottawa Public Library y Library and Archives Canada (LAC).

Library and Archives Canada; Ottawa Public Library. “Ādisōke: Ottawa’s new Central Library – Library and Archives Canada joint facility.” Última actualización 2025. https://adisoke.ca/

Ādisōke es un ambicioso proyecto conjunto entre Ottawa Public Library (OPL) y Library and Archives Canada (LAC). La idea es reunir bajo un mismo techo una biblioteca pública moderna y un archivo nacional, combinando colecciones, servicios comunitarios, espacios de estudio, eventos culturales y más servicios.

Ubicado en 555 Albert Street, en la zona de LeBreton Flats, es un edificio de cinco plantas y más de 20.100 metros cuadrados, con un diseño arquitectónico cuidado, sostenible y pensado para servir de punto de encuentro cultural, educativo y social.

El nombre “Ādisōke” significa “contar historias” en la lengua anishinābemowin de la Nación Algonquina —un guiño intencionado al papel de la biblioteca como custodio de historias, memorias y saberes colectivos

Hasta hace poco, se esperaba que la apertura de Ādisōke tuviera lugar en algún momento de 2026. En el transcurso de 2025 se han completado importantes hitos de la construcción: el techo de madera característico ya está terminado, y actualmente se trabaja en el interior —instalación de mobiliario, equipamiento y acabados. No obstante, según informes recientes citados por medios, el proyecto ya no se abrirá en 2026 como se planificó. Las obras presentan demoras atribuibles a contratistas, y aunque las autoridades indican que el proyecto no está en peligro, no han dado una nueva fecha concreta de apertura.

Cuando abra, Ādisōke será mucho más que una biblioteca tradicional: ofrecerá espacios modernos de lectura y estudio, laboratorios creativos con tecnologías avanzadas, salas para eventos, zonas para exposiciones culturales e históricas —incluyendo una destacada atención a las historias indígenas y canadienses—, y acceso compartido a las colecciones de OPL y LAC. Se espera que se convierta en un lugar de encuentro para la comunidad, con servicios bilingües (inglés/francés), actividades para todas las edades y una oferta amplia de recursos para investigación, cultura, aprendizaje y desarrollo personal.

Más allá de su tamaño y modernidad, Ādisōke representa un compromiso con la inclusión, la memoria colectiva y el reconocimiento de las culturas indígenas. El nombre y la participación de comunidades algonquinas en su diseño apuntan a un gesto simbólico y real de reconciliación cultural, respeto y apertura hacia la diversidad.

Además, este tipo de infraestructuras son consideradas “infraestructura social transformadora”: contribuyen a fortalecer el tejido comunitario, fomentar el acceso al conocimiento, la cultura y los servicios públicos de calidad —y pueden convertirse en un motor para la cohesión social y la participación ciudadana.

Silicon Valley crea imitaciones de Amazon y Gmail para entrenar agentes de inteligencia artificial.

Maya Perez “Tech Giants Build Synthetic Amazon, Gmail for AI Training.” New York Times, December 2, 2025. https://www.nytimes.com/2025/12/02/technology/artificial-intelligence-amazon-gmail.html

Texto completo

Últimamente, varias empresas tecnológicas y startups están construyendo versiones “sintéticas” de plataformas conocidas —como las que usan Amazon o Gmail— con el fin de utilizarlas como entornos seguros para entrenar inteligencias artificiales.

El modelo recrea catálogos, interfaces, funciones de compra o correo, y escenarios de navegación, lo cual permite que las IA practiquen acciones humanas (comprar, enviar un correo, organizar bandejas de entrada…) sin necesidad de usar datos reales y automatizados.

Este enfoque surge en parte por la escasez de datos apropiados para alimentar IA modernas: muchas webs ya bloquean rastreadores, y hay crecientes restricciones legales y éticas en torno a la recolección de datos reales, por lo que las “copias sintéticas” ofrecen un sustituto que evita esos obstáculos. Al operar en entornos ficticios, pero realistas, los agentes de IA pueden aprender estructuras complejas de interacción digital con menos riesgos de privacidad o bloqueo.

Las implicaciones potenciales son enormes: las IA entrenadas de este modo podrían automatizar tareas cotidianas —hacer compras, gestionar correos, planificar viajes, organizar agendas…— con mínima intervención humana. Esto abre la puerta a asistentes cada vez más independientes y versátiles, capaces de operar en interfaces web reales como un usuario normal.

No obstante, este cambio también plantea dudas importantes. Desde una visión social y ética, existe preocupación por la posible pérdida de empleos en sectores administrativos y comerciales. Además, hay riesgos inherentes a que las IA aprendan en entornos sintéticos: pueden reproducir sesgos, cometer errores cuando interactúan con sistemas reales, o generar efectos no deseados si su comportamiento no se controla adecuadamente.

En definitiva —y como describe el artículo de prensa—, la creación de mundos digitales sintéticos representa una transformación profunda en el modo en que se entrena la inteligencia artificial: un paso hacia entornos controlados, escalables y legales, con un gran potencial práctico… pero también con desafíos cruciales a nivel social, ético y técnico.

Publicación de datos sobre el patrimonio cultural en la era de la inteligencia artificial

Keller, Paul. Publishing Cultural Heritage Data in the Age of AI. Europeana Foundation y Open Future Foundation, diciembre de 2025.

Texto completo

Este informe, encargado por la Europeana Foundation y elaborado por Open Future, analiza cómo la inteligencia artificial está transformando el ecosistema de datos del patrimonio cultural.

El documento surge dentro de la Alignment Assembly on Culture for AI, un proceso participativo europeo que ha puesto de manifiesto una tensión central: por un lado, el sector del patrimonio cultural desea mantener el compromiso con el acceso abierto; por otro, el uso masivo de datos para entrenar modelos de IA crea nuevos riesgos, cargas económicas y dilemas éticos. El texto enmarca este problema en un contexto legal complejo, donde los mecanismos de protección como el copyright, los derechos de base de datos o los opt-out para minería de datos resultan, en la práctica, insuficientes para controlar el uso intensivo que hacen los desarrolladores de IA de los recursos digitales publicados por instituciones culturales.

El documento expone que la IA transforma radicalmente el tipo de acceso que enfrentan estas instituciones: de un uso tradicional centrado en la consulta humana a una demanda de acceso industrializado, donde bots y sistemas automáticos extraen colecciones completas para entrenar modelos. Frente a ello, el informe propone que las instituciones no pueden limitarse a cerrar sus recursos ni depender exclusivamente de restricciones legales, ya que ello comprometería su misión pública. En su lugar, plantea un marco de interés público basado en cinco principios: acceso abierto al conocimiento, equidad y no discriminación, confiabilidad y autoridad institucional, apoyo a la investigación y la innovación, y sostenibilidad económica. Estos valores sirven de guía para adaptar políticas de acceso a un entorno de IA que amplifica tanto las oportunidades como las amenazas.

A partir de ese marco, el informe desarrolla un modelo de acceso diferenciado que combina apertura y control según las necesidades y los costos asociados a cada modalidad de acceso. Propone mantener acceso totalmente abierto para la consulta de objetos individuales; establecer acceso controlado mediante API para usos programáticos y de sistemas de IA desplegados; y adoptar un régimen de acceso condicional para usos de gran escala, como la descarga masiva para entrenamiento. Este modelo permite que el acceso abierto siga siendo el principio dominante, a la vez que introduce mecanismos para que los grandes usuarios —especialmente actores comerciales con alta capacidad— contribuyan a la sostenibilidad económica del ecosistema cultural. El informe concluye invitando al sector a debatir y ajustar colectivamente este modelo, señalando que las decisiones que se tomen ahora serán fundamentales para garantizar un futuro responsable, sostenible y alineado con la misión pública del patrimonio cultural en la era de la IA.

Open AI activa el ‘Código Rojo’ mientras Google y Anthropic amenazan con destronar a ChatGPT

Hart, Robert. 2025. “OpenAI declares ‘code red’ as Google catches up in AI race.” The Verge, 2 de diciembre 2025

Ver noticia

La empresa OpenAI ha declarado internamente un “code red”, una señal de alarma para centrar todos sus esfuerzos en mejorar su producto estrella ChatGPT, tras constatar que la competencia —sobre todo Google y Anthropic— se acerca peligrosamente en el terreno de la inteligencia artificial.

Según un memorando interno difundido por la prensa, el director ejecutivo Sam Altman pidió al personal que priorizara mejoras en la velocidad, fiabilidad, personalización y capacidad de respuesta de ChatGPT. En consecuencia, se han suspendido temporalmente otras iniciativas en desarrollo: desde planes de publicidad y agentes de compras o salud, hasta un asistente personal llamado “Pulse”.

Además del cambio de prioridades, OpenAI ha ordenado convocatorias diarias de desarrollo y la redistribución de equipos internos hacia tareas centradas en ChatGPT, con el objetivo de acelerar su evolución.

Este giro estratégico refleja un momento crítico para OpenAI: tras años de liderazgo en IA, la compañía reconoce que su ventaja competitiva podría estar decayendo, lo que la obliga a redoblar esfuerzos para mantenerse en la vanguardia.

La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa


Alonso Arévalo, Julio. «La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa». Item: revista de biblioteconomia i documentació, 2025, vol. VOL 2025, n.º 79, doi:10.60940/itemn79id9900246. https://gredos.usal.es/handle/10366/168088

Texto en castellano

Texto en catalán


La inteligencia artificial (IA) está transformando profundamente el trabajo bibliotecario, desde la automatización de tareas repetitivas como la catalogación y la asistencia al usuario a través de chatbots, hasta las mejoras en la accesibilidad, las recomendaciones personalizadas y la conservación digital de documentos históricos. Estas herramientas permiten una gestión más eficiente y personalizada de los servicios, pero también plantean retos éticos relacionados con la privacidad, los sesgos, la transparencia y la desinformación. Por lo tanto, más allá de la implementación de la tecnología, las bibliotecas deben asumir un papel activo en la alfabetización en IA, promoviendo el pensamiento crítico, la formación continua y el uso responsable de estas herramientas. Se requieren nuevas habilidades, como la ingeniería rápida, la gestión de datos y la comunicación eficaz para explicar la IA a los usuarios. Marcos como el de la Asociación de Bibliotecas Universitarias y de Investigación (ACRL) proponen una educación integral que abarque tanto el funcionamiento técnico como las implicaciones éticas de la IA. En este contexto, se refuerza el papel del bibliotecario como mediador del conocimiento y garante de un uso ético y equitativo de la IA.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

Los chatbots de IA pueden ser engañados mediante peticiones dañinas redactadas en forma de poesía.

Euronews. 2025. “Poetry Can Trick AI Chatbots into Ignoring Safety Rules, New Research Shows.” Publicado el 1 de diciembre de 2025. https://www.euronews.com/next/2025/12/01/poetry-can-trick-ai-chatbots-into-ignoring-safety-rules-new-research-shows

Estudio

Investigadores de Icaro Lab, perteneciente a la firma ética de inteligencia artificial DexAI, descubrieron que los chatbots avanzados pueden ser engañados mediante peticiones redactadas en forma de poesía.

En su estudio, emplearon veinte poemas compuestos en inglés e italiano, cada uno de ellos ocultando al final una petición prohibida, como la generación de discurso de odio, pornografía infantil, instrucciones para el suicidio o métodos de fabricación de armas. Lo sorprendente fue que la forma poética —con su sintaxis irregular, metáforas y estructuras no convencionales— resultó capaz de confundir los sistemas de seguridad que suelen detectar estas solicitudes cuando están formuladas de manera directa.

Las pruebas se realizaron con veinticinco modelos de lenguaje de nueve grandes compañías tecnológicas. Los resultados fueron preocupantes: de media, el 62 % de las peticiones poéticas lograron que los modelos produjeran contenido inseguro. Algunos sistemas actuaron de forma mucho más robusta —por ejemplo, un modelo pequeño de OpenAI no cayó en ninguna trampa—, mientras que otros resultaron especialmente vulnerables y respondieron a todas las solicitudes disfrazadas de poema. La variedad de comportamientos demuestra que la vulnerabilidad no es uniforme y depende tanto del entrenamiento del modelo como del diseño de sus mecanismos de seguridad.

El estudio concluye que los filtros de seguridad actuales están optimizados para detectar amenazas explícitas, formuladas con lenguaje directo. Cuando las peticiones se camuflan en una escritura artística, las salvaguardas fallan, pues no identifican la intención dañina. Esto convierte a la poesía adversarial en una herramienta de evasión accesible para cualquier usuario, a diferencia de otras técnicas de jailbreak más complejas que requieren conocimientos especializados. Los autores advierten que esta debilidad supone un riesgo real para el uso seguro de la IA y subrayan la necesidad de desarrollar mecanismos capaces de interpretar no solo el contenido literal, sino la intención profunda de un texto, incluso cuando adopta formas creativas o ambiguas.

Factores clave que influyen en las citaciones de ChatGPT

SEJ STAFF, “New Data Reveals The Top 20 Factors Influencing ChatGPT CitationsSearch Engine Journal, 26 noviembre 2025.

Texto completo

El estudio pone de manifiesto que, para ser citado por ChatGPT, no basta con una buena optimización SEO tradicional centrada en palabras clave. Lo que más importa es la autoridad del dominio (backlinks y confianza), el volumen de tráfico, contenido profundo y actualizado, estructura clara, buen rendimiento técnico y presencia activa en comunidades en línea. Estos factores —combinados— aumentan significativamente las probabilidades de que una página sea usada como fuente por modelos de IA como ChatGPT.

Un reciente análisis de SE Ranking —reflejado en este artículo de Search Engine Journal— ha investigado qué factores influyen en la probabilidad de que una página web sea citada por ChatGPT. El estudio analizó 129.000 dominios únicos y más de 216.000 páginas en 20 sectores distintos.

El hallazgo más relevante es que la cantidad de dominios referidos de un sitio es el predictor más fuerte de citaciones: sitios con miles de dominios referidos tienden a ser citados mucho más que aquellos con pocos. Además, la confianza del dominio también muestra un patrón claro: puntajes altos de confianza se traducen en un número considerablemente mayor de citas.

En segundo lugar, el tráfico del dominio (sobre todo si es elevado) resulta relevante: los sitios con muchas visitas mensuales y buen tráfico en la página principal son más propensos a ser citados.

Pero no todo depende de backlinks y tráfico. El estudio también destaca la profundidad y estructura del contenido: artículos largos, bien estructurados con secciones claras, y con datos estadísticos o citas de expertos suelen recibir más citas. El contenido recientemente actualizado también tiene ventaja: las páginas revisadas en los últimos meses obtienen más citaciones que las desactualizadas.

Otro factor importante es la actividad social y presencia en plataformas comunitarias: dominios que aparecen con frecuencia en foros, redes o plataformas de discusión (como menciones en Reddit o Quora) muestran una correlación con un mayor número de citas.

Finalmente, se observan también efectos relacionados con el rendimiento técnico de la página —como tiempos de carga rápidos— y con la forma de construir la URL y el título: páginas con URLs y títulos que describen claramente el tema (en lugar de saturados en palabras clave) obtuvieron mejores resultados en términos de citaciones.

Las zonas con menor nivel educativo adoptan herramientas de escritura con IA más rápido de lo esperado

Edwards, Benj. 2025. “Researchers surprised to find less-educated areas adopting AI writing tools faster.” Ars Technica, March 3, 2025. https://arstechnica.com/ai/2025/03/researchers-surprised-to-find-less-educated-areas-adopting-ai-writing-tools-faster/

Un estudio reciente liderado por investigadores de la Stanford University ha detectado una tendencia inesperada: las áreas de Estados Unidos con menor nivel educativo están adoptando herramientas de escritura asistidas por inteligencia artificial (IA) con mayor rapidez que las zonas con niveles educativos más altos.

Analizando más de 300 millones de textos — que incluyen quejas de consumidores, comunicados corporativos, ofertas de empleo y documentos de organizaciones internacionales — los autores estiman que hasta un cuarto de las comunicaciones profesionales recientes han sido parcialmente generadas o asistidas por IA.

Aunque las zonas urbanas presentan una tasa general de adopción superior a las rurales, el dato más llamativo es que las regiones con menor proporción de población con estudios universitarios muestran un uso de IA algo mayor que las más educadas. Este patrón contradice las tendencias clásicas de difusión tecnológica, donde normalmente los grupos con mejor acceso a educación y recursos adoptan antes las nuevas tecnologías.

Los investigadores sugieren que, para muchos usuarios en estas comunidades, las herramientas de escritura con IA actúan como un “nivelador”: facilitan la redacción, la comunicación profesional o administrativa, reduciendo barreras ligadas a la forma. Esto implica que la IA puede ofrecer oportunidades de inclusión digital a quienes tienen menos formación formal.

Al mismo tiempo, el estudio advierte sobre los riesgos que conlleva este uso extendido: en sectores sensibles como quejas de consumidores, información pública o comunicación institucional, la integración masiva de IA podría generar textos más homogéneos, menos personales o incluso problemas de credibilidad, si los emisores no revisan adecuadamente los resultados automáticos. La automatización de la escritura plantea así tanto posibilidades como desafíos para la equidad comunicativa y el pluralismo de voces.