Archivo de la categoría: Tecnologías de la información

Tilly Norwood: la primera actriz creada por IA que provoca un terremoto en Hollywood

Kent, Jo Ling. 2025. There’s a new face in Hollywood, generated by AI.” CBS News, 7 diciembre 2025. https://www.cbsnews.com/news/theres-a-new-face-in-hollywood-generated-by-ai/

En el artículo se habla de Tilly Norwood, una “actriz” completamente generada por inteligencia artificial (IA), que ha causado gran revuelo en la industria del entretenimiento en Hollywood.

Tilly Norwood es el primer rostro creado por IA que aspira a entrar en el mundo del cine: no existe en la realidad, sino que fue diseñada por computadora por el estudio Particle6. Su creadora, Eline van der Velden — actriz y productora — afirma que invirtieron más de 2 000 iteraciones para generar a Tilly, intentando dotarla de rasgos universales con potencial global. Van der Velden ha declarado que su intención no era reemplazar actores reales, sino explorar nuevas posibilidades creativas: que Tilly sea “la próxima Scarlett Johansson del género IA”

La noticia provocó un fuerte rechazo en parte de la industria: miembros de la élite de Hollywood expresaron su alarma ante la idea de “actores sintéticos”. El presidente del sindicato de actores SAG-AFTRA, Sean Astin, afirmó que “actriz no le llamaría” a algo tan artificial, defendiendo que la IA puede servir de herramienta, pero no sustituir la actuación humana.

Por otro lado, algunos en la industria creen que la tecnología podría transformar la producción audiovisual, reduciendo costes y ofreciendo nuevas formas narrativas; mientras tanto, otros advierten sobre los riesgos éticos y laborales de depender del talento digital.

Guía de buenas prácticas para informar del uso de IA por parte de bibliotecarios y editores

COUNTER. Ready for Consultation: AI Metrics. Best Practice Guidance for Reporting AI Usage (Draft, 2025).

Texto completo

COUNTER propone nuevas directrices para medir el uso de herramientas de inteligencia artificial en plataformas editoriales, diferenciándolo claramente del uso humano. El objetivo es estandarizar estos informes y evitar que la actividad de IA distorsione los datos tradicionales de uso.

El borrador de COUNTER sobre las mejores prácticas para informar del uso de IA surge ante la necesidad de adaptar el Code of Practice (Release 5.1) a un entorno donde la inteligencia artificial generativa y agente opera de forma habitual en plataformas de editores y proveedores de información. El documento reconoce que las reglas anteriores fueron diseñadas en un contexto previo al uso extendido de herramientas como agentes autónomos y modelos generativos, por lo que se requiere un marco más preciso para distinguir entre actividad humana, actividad automatizada tradicional (bots y crawlers) y actividad de IA agente, que no puede clasificarse igual que la automatización previamente excluida de los informes.

El objetivo del borrador es establecer mecanismos claros y estandarizados para que las plataformas que ofrecen contenidos (textos, artículos, etc.) puedan reportar métricas sobre el uso de IA —ya sea directamente en su sitio, o a través de herramientas externas (como buscadores basados en IA o agregadores). COUNTER considera que estas directrices no sólo sirven a editores o bibliotecas, sino también que podrían ser útiles para herramientas independientes de IA

La publicación del borrador está abierta a comentarios de la comunidad: proveedores tecnológicos, editoriales, bibliotecas y consorcios están invitados a aportar feedback para mejorar las directrices antes de que se adopten de forma definitiva.

Enseñando alfabetización en IA a estudiantes de primaria

Potkalitsky, Nick. 2025. “The Digital Detective Club: Teaching AI Literacy to Young Students.” Educating AI (blog), noviembre. https://nickpotkalitsky.substack.com/p/the-digital-detective-club-teaching

Vivimos un cambio profundo en la forma en que se crean los textos. Por primera vez en la historia, nuestros hijos crecerán en un mundo en el que gran parte de lo que leen —ayudas para deberes, explicaciones, historias e incluso mensajes “personales”— podría estar generado por inteligencia artificial (IA) en lugar de haber sido escrito por humanos. Esta realidad plantea un desafío educativo crucial: ¿cómo enseñar a los estudiantes a interactuar críticamente con la información que consumen desde edades tempranas?

La mayoría de los programas de “alfabetización en IA” se enfocan en estudiantes mayores. Pero para cuando los alumnos llegan al bachillerato, ya han pasado años consumiendo contenidos generados por IA sin poseer herramientas para evaluarlos críticamente. Por ello se propone un plan de estudios dirigido a estudiantes de primaria (desde K hasta 5.º), que enseñe habilidades prácticas de “detección textual” para el mundo real en el que ya están inmersos.

Uno de los pilares del programa es la conciencia de la fuente. Los estudiantes aprenden a preguntarse no solo “¿es verdadero lo que leo?”, sino “¿de dónde viene?”, “¿quién lo escribió?” y “¿cómo puedo comprobarlo?”. De esta manera, desarrollan un hábito de verificación constante que los prepara para interactuar con contenidos digitales y automatizados de forma responsable.

Otro aspecto fundamental es el reconocimiento de la voz del texto. Los niños aprenden a diferenciar entre escritura humana y textos generados por IA, identificando rasgos como estilo, coherencia, singularidad o detalles personales que a menudo faltan en los textos automatizados. Esta habilidad les permite detectar cuándo un texto es genérico, neutro o artificial, y fomentar su pensamiento crítico.

El programa también enfatiza la valoración de la especificidad y lo concreto. Los alumnos comprenden que los textos valiosos, ya sean relatos, informes o explicaciones, incluyen detalles contextuales y matices propios. Por el contrario, los textos superficiales, impersonales o excesivamente generalizados pueden ser una señal de contenido automatizado o poco fiable. De esta forma, los estudiantes aprenden a apreciar la originalidad y a desarrollar criterios para discernir la calidad de la información.

Potkalitsky aclara que la intención no es asustar a los estudiantes ni alejarles de la IA, sino enseñarles a interactuar con ella de manera consciente, informada y responsable. La meta es que comprendan cuándo la IA puede ser útil y cuándo es necesaria la intervención humana para analizar, interpretar o tomar decisiones. Este enfoque contribuye a cultivar lo que el autor llama “conciencia situacional textual”: la capacidad de reconocer no solo qué leen los estudiantes, sino cómo, desde dónde, con qué intención y con qué propósito.

La alfabetización temprana en IA se vuelve especialmente relevante dado que muchos niños ya acceden a dispositivos, contenidos digitales y textos automatizados desde edades muy tempranas. Integrar estas competencias en la educación básica —en materias de lengua, lectura, ciudadanía digital y pensamiento crítico— permite preparar a los estudiantes para un entorno cada vez más mediado por la tecnología. Además, les proporciona herramientas para detectar desinformación, reconocer plagios, valorar la originalidad y mantener su propia voz creativa, habilidades fundamentales para desenvolverse con autonomía y responsabilidad en el mundo digital.

La propuesta busca transformar la manera en que los niños aprenden a leer, escribir y analizar información en la era de la inteligencia artificial. A través de ejercicios prácticos, análisis de textos y actividades lúdicas, los estudiantes desarrollan competencias críticas, creatividad y autonomía intelectual, preparándolos para enfrentar los desafíos educativos y sociales del siglo XXI.

Del SEO al GEO: cómo los contenidos de producto determinan la visibilidad en la búsqueda impulsada por IA

Lily AI. From SEO to GEO: The Role of Product Content in AI Search and Discovery. Lily AI, 2025.

Texto completo

la transformación profunda que está experimentando la búsqueda de productos en el comercio digital con la irrupción de los motores generativos de inteligencia artificial. Durante dos décadas, el SEO tradicional marcó las normas de visibilidad online, obligando tanto a usuarios como a minoristas a pensar en términos de palabras clave, enlaces y estructuras legibles para los algoritmos. Sin embargo, ese modelo se está desmoronando. Los motores de IA como Gemini, ChatGPT, Claude o Perplexity ya no se limitan a indexar páginas, sino que interpretan significados, contextos e intenciones. Este cambio está alterando de raíz el modo en que los consumidores descubren productos: más del 60% de las búsquedas terminan sin clic y se prevé un descenso del 50% del tráfico orgánico para 2028, al prevalecer las respuestas generadas directamente por IA. En este nuevo escenario, la cuestión clave no es si un producto “aparece”, sino si es correctamente comprendido por los sistemas generativos.

Se subraya además que los consumidores ya no buscan listados de enlaces, sino relevancia, precisión contextual y orientación personalizada. Las personas formulan peticiones en lenguaje natural, como “un vestido suave y fluido para unas vacaciones de verano”, y esperan que el sistema entienda matices de ocasión, clima, estilo o preferencia estética. Esto exige un nivel de comprensión semántica imposible de satisfacer con descripciones de producto pobres o centradas únicamente en palabras clave. Frente a ello surge el concepto de GEO (Generative Engine Optimization), entendido como la disciplina orientada a que los productos se representen adecuadamente en respuestas generadas por IA. Si el SEO decía a las máquinas “qué ver”, el GEO les enseña “qué significa” cada producto: qué es, para quién sirve, en qué contexto es adecuado y por qué debería recomendarse.

El documento sostiene que los catálogos ya no pueden ser inventarios estáticos, sino auténticas infraestructuras de datos. Los motores generativos funcionan relacionando atributos, imágenes, metadatos y descripciones para formar una representación coherente de cada artículo. Si faltan datos o contexto, la IA rellena los huecos de forma incorrecta, lo que compromete la relevancia. En cambio, un catálogo enriquecido —con taxonomías coherentes, atributos completos, descripciones en lenguaje natural y metadatos unificados— se convierte en un grafo de conocimiento vivo que facilita que la IA conecte productos con necesidades reales. El texto muestra cómo la falta de precisión puede provocar errores, como confundir un pintalabios rojo con tonos completamente distintos, mientras que un sistema de datos bien estructurado favorece recomendaciones fiables, personalizadas y consistentes.

Por último, el informe explica cómo los minoristas pueden prepararse para este nuevo entorno dominado por la IA. Propone acciones como enriquecer los datos de producto más allá de lo básico; optimizar descripciones para consultas naturales; unificar y automatizar los metadatos mediante esquemas y taxonomías; mantener la información constantemente actualizada; y adoptar nuevas métricas que midan la representación semántica en lugar del ranking tradicional. Según el documento, el éxito dependerá de comprender que el contenido de producto ya no es un elemento estático de merchandising, sino un lenguaje compartido entre consumidores, comerciantes, anunciantes y máquinas. Empresas como Lily AI ofrecen plataformas diseñadas para convertir catálogos en sistemas de información legibles por la IA, mejorando la precisión de las recomendaciones, la coherencia de los datos y, en última instancia, las ventas.

La biblioteca moderna: espacios enriquecidos con tecnología

The modern library: technology-enhanced library spaces — SCONUL (Society of College, National and University Libraries), 2025

Texto completo

Las bibliotecas universitarias están experimentando una transformación profunda motivada por los cambios en los modelos de aprendizaje, la digitalización de los contenidos y la necesidad de que estudiantes e investigadores desarrollen nuevas competencias. Los espacios tradicionales, concebidos para el estudio silencioso y la consulta de materiales impresos, están dando paso a entornos flexibles, dinámicos y tecnológicamente equipados.

El documento sobre bibliotecas modernas con espacios mejorados por tecnología presenta una colección de estudios de caso que muestran cómo distintas instituciones han reinterpretado la biblioteca como un centro de creación, colaboración e innovación, en lugar de un simple lugar para almacenar y consumir información.

En estos modelos renovados, el diseño físico se combina con tecnología avanzada para ofrecer servicios que antes se encontraban fuera del ámbito bibliotecario. La biblioteca incorpora laboratorios de medios, estudios de grabación, makerspaces con herramientas como impresoras 3D, realidad virtual, escáneres y software especializado para producción audiovisual o visualización de datos. Estos espacios permiten al estudiantado participar activamente en la creación de contenidos, desarrollar proyectos experimentales y adquirir destrezas necesarias para el mundo académico y profesional contemporáneo. No se trata únicamente de actualizar los equipos, sino de crear ecosistemas completos que favorezcan el aprendizaje activo, multidisciplinar y creativo.

La transformación también implica una reflexión estratégica: cada nuevo espacio debe responder a necesidades reales de la comunidad universitaria y estar alineado con la visión institucional. Las decisiones sobre equipamiento, diseño, personal especializado y modelos de gestión requieren planificación, evaluación continua y un entendimiento claro de cómo estos espacios complementan la docencia, la investigación y la vida estudiantil. El documento subraya que la biblioteca moderna es un agente de cambio dentro de la universidad y que su adaptación tecnológica debe integrarse con políticas de apoyo pedagógico, desarrollo de competencias digitales y colaboración interdepartamental.

Los casos analizados muestran que la modernización no supone abandonar la esencia de la biblioteca, sino ampliarla. La biblioteca sigue siendo un espacio acogedor que promueve el estudio, la cultura y el acceso al conocimiento, pero ahora incorpora nuevas dimensiones que la convierten en un entorno híbrido: físico y digital, individual y colaborativo, contemplativo y creativo. Este modelo representa un futuro en el que la biblioteca actúa como corazón intelectual y tecnológico de la institución, fomentando la innovación y ofreciendo oportunidades de aprendizaje que van más allá de los libros y las pantallas.

Me encanta la IA. ¿Por qué no le gusta a todo el mundo?

Smith, Noah. 2025. “I Love A.I. Why Doesn’t Everyone?Noahpinion, 1 de diciembre de 2025. https://www.noahpinion.blog/p/i-love-ai-why-doesnt-everyone

En su artículo, el autor describe su entusiasmo por la inteligencia artificial (IA) generativa, defendiendo que muchas de las críticas populares —a menudo emotivas o basadas en miedos— están fundamentadas en argumentos débiles o erróneos. Señala que aunque las tecnologías nuevas siempre traen riesgos y problemas (como la contaminación en la era industrial o el impacto social de la automatización), históricamente las sociedades han sabido adaptarse: lo mismo podría ocurrir con la IA.

Para el autor, usar IA hoy se parece a tener “un pequeño amigo robot”: un asistente que puede responder preguntas, ayudar a redactar textos, traducir, buscar información, resolver dudas cotidianas o tareas técnicas, o servir como herramienta de estudio, creatividad o investigación. Esa capacidad de poner al alcance de cualquiera —y con facilidad— prácticamente todo el conocimiento humano convierte a la IA en una de las tecnologías de propósito general más potentes jamás creadas.

Sí, admite que la IA comete errores: mezcla datos, inventa referencias, da respuestas equivocadas. Pero argumenta que esa falibilidad no la distingue fundamentalmente de cualquier herramienta de información: los humanos leen artículos, webs o libros que también a veces están equivocados o sesgados. Por eso —dice— lo importante es usar la IA con criterio, contrastar su output y no esperar que sea un oráculo infalible.

El artículo advierte también frente a ciertos debates críticos sobre la IA cuyos fundamentos considera exagerados, como los que destacan su consumo de agua o predicen impactos catastróficos inmediatos. En su opinión, esos temores a menudo sirven como “chivos expiatorios” influidos por la desconfianza general hacia lo nuevo, más que por evidencia concreta.

Finalmente, reflexiona sobre por qué muchas personas no comparten su entusiasmo. Entre las razones menciona inseguridades legítimas (riesgo de reemplazo laboral, cambios económicos, externalidades ambientales), pero también destaca un sesgo cultural: ante cada nueva tecnología disruptiva —como el automóvil, la electricidad o el internet— muchos reaccionan con miedo, cuando con el tiempo dichas tecnologías se normalizan y transforman la vida cotidiana. Cree que la IA puede seguir ese camino si aprendemos a gestionarla con responsabilidad

Open AI activa el ‘Código Rojo’ mientras Google y Anthropic amenazan con destronar a ChatGPT

Hart, Robert. 2025. “OpenAI declares ‘code red’ as Google catches up in AI race.” The Verge, 2 de diciembre 2025

Ver noticia

La empresa OpenAI ha declarado internamente un “code red”, una señal de alarma para centrar todos sus esfuerzos en mejorar su producto estrella ChatGPT, tras constatar que la competencia —sobre todo Google y Anthropic— se acerca peligrosamente en el terreno de la inteligencia artificial.

Según un memorando interno difundido por la prensa, el director ejecutivo Sam Altman pidió al personal que priorizara mejoras en la velocidad, fiabilidad, personalización y capacidad de respuesta de ChatGPT. En consecuencia, se han suspendido temporalmente otras iniciativas en desarrollo: desde planes de publicidad y agentes de compras o salud, hasta un asistente personal llamado “Pulse”.

Además del cambio de prioridades, OpenAI ha ordenado convocatorias diarias de desarrollo y la redistribución de equipos internos hacia tareas centradas en ChatGPT, con el objetivo de acelerar su evolución.

Este giro estratégico refleja un momento crítico para OpenAI: tras años de liderazgo en IA, la compañía reconoce que su ventaja competitiva podría estar decayendo, lo que la obliga a redoblar esfuerzos para mantenerse en la vanguardia.

La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa


Alonso Arévalo, Julio. «La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa». Item: revista de biblioteconomia i documentació, 2025, vol. VOL 2025, n.º 79, doi:10.60940/itemn79id9900246. https://gredos.usal.es/handle/10366/168088

Texto en castellano

Texto en catalán


La inteligencia artificial (IA) está transformando profundamente el trabajo bibliotecario, desde la automatización de tareas repetitivas como la catalogación y la asistencia al usuario a través de chatbots, hasta las mejoras en la accesibilidad, las recomendaciones personalizadas y la conservación digital de documentos históricos. Estas herramientas permiten una gestión más eficiente y personalizada de los servicios, pero también plantean retos éticos relacionados con la privacidad, los sesgos, la transparencia y la desinformación. Por lo tanto, más allá de la implementación de la tecnología, las bibliotecas deben asumir un papel activo en la alfabetización en IA, promoviendo el pensamiento crítico, la formación continua y el uso responsable de estas herramientas. Se requieren nuevas habilidades, como la ingeniería rápida, la gestión de datos y la comunicación eficaz para explicar la IA a los usuarios. Marcos como el de la Asociación de Bibliotecas Universitarias y de Investigación (ACRL) proponen una educación integral que abarque tanto el funcionamiento técnico como las implicaciones éticas de la IA. En este contexto, se refuerza el papel del bibliotecario como mediador del conocimiento y garante de un uso ético y equitativo de la IA.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

Los chatbots de IA pueden ser engañados mediante peticiones dañinas redactadas en forma de poesía.

Euronews. 2025. “Poetry Can Trick AI Chatbots into Ignoring Safety Rules, New Research Shows.” Publicado el 1 de diciembre de 2025. https://www.euronews.com/next/2025/12/01/poetry-can-trick-ai-chatbots-into-ignoring-safety-rules-new-research-shows

Estudio

Investigadores de Icaro Lab, perteneciente a la firma ética de inteligencia artificial DexAI, descubrieron que los chatbots avanzados pueden ser engañados mediante peticiones redactadas en forma de poesía.

En su estudio, emplearon veinte poemas compuestos en inglés e italiano, cada uno de ellos ocultando al final una petición prohibida, como la generación de discurso de odio, pornografía infantil, instrucciones para el suicidio o métodos de fabricación de armas. Lo sorprendente fue que la forma poética —con su sintaxis irregular, metáforas y estructuras no convencionales— resultó capaz de confundir los sistemas de seguridad que suelen detectar estas solicitudes cuando están formuladas de manera directa.

Las pruebas se realizaron con veinticinco modelos de lenguaje de nueve grandes compañías tecnológicas. Los resultados fueron preocupantes: de media, el 62 % de las peticiones poéticas lograron que los modelos produjeran contenido inseguro. Algunos sistemas actuaron de forma mucho más robusta —por ejemplo, un modelo pequeño de OpenAI no cayó en ninguna trampa—, mientras que otros resultaron especialmente vulnerables y respondieron a todas las solicitudes disfrazadas de poema. La variedad de comportamientos demuestra que la vulnerabilidad no es uniforme y depende tanto del entrenamiento del modelo como del diseño de sus mecanismos de seguridad.

El estudio concluye que los filtros de seguridad actuales están optimizados para detectar amenazas explícitas, formuladas con lenguaje directo. Cuando las peticiones se camuflan en una escritura artística, las salvaguardas fallan, pues no identifican la intención dañina. Esto convierte a la poesía adversarial en una herramienta de evasión accesible para cualquier usuario, a diferencia de otras técnicas de jailbreak más complejas que requieren conocimientos especializados. Los autores advierten que esta debilidad supone un riesgo real para el uso seguro de la IA y subrayan la necesidad de desarrollar mecanismos capaces de interpretar no solo el contenido literal, sino la intención profunda de un texto, incluso cuando adopta formas creativas o ambiguas.