Archivo de la etiqueta: Inteligencia artificial

Bibliotecas y búsquedas con IA: evaluando la fiabilidad de las respuestas

Fowler, Geoffrey A. “We Tested Which AI Gave the Best Answers Without Making Stuff Up — One Beat ChatGPT.” The Washington Post, August 27, 2025

En agosto de 2025, The Washington Post publicó un estudio en el que un grupo de bibliotecarios evaluó nueve herramientas de búsqueda basadas en inteligencia artificial para determinar cuáles ofrecían respuestas más precisas y fiables, evitando las conocidas “alucinaciones” o errores inventados por la IA. El objetivo era medir la exactitud de las respuestas, la fiabilidad de las fuentes y la capacidad de cada sistema para manejar información reciente, especializada o compleja.

El experimento consistió en 30 preguntas diseñadas para poner a prueba las fortalezas y debilidades de cada IA, incluyendo datos poco conocidos, eventos recientes, interpretación de imágenes y sesgos de los modelos. Se evaluaron herramientas como ChatGPT (versiones 4 y 5), Bing Copilot, Claude, Grok, Perplexity, Meta AI y las versiones de búsqueda de Google AI. Tres bibliotecarios analizaron cerca de 900 respuestas, valorando tanto la exactitud como la presencia de referencias confiables.

Los resultados mostraron que Google AI Mode fue, en general, la herramienta más fiable, especialmente en la resolución de preguntas sobre trivialidades o información reciente. Sin embargo, todas las IA evaluadas presentaron limitaciones: muchas generaron respuestas incorrectas con citas aparentemente verídicas, fallaron en preguntas especializadas o de difícil acceso, tuvieron problemas con información reciente y mostraron sesgos hacia ciertas disciplinas o perspectivas. La interpretación de imágenes también fue un reto para la mayoría de los sistemas.

A pesar de sus limitaciones, las IA demostraron ser útiles en ciertos contextos, como la síntesis de información dispersa o compleja. Los evaluadores subrayaron que, aunque estas herramientas pueden ahorrar tiempo, no deben reemplazar la verificación tradicional de fuentes. Recomiendan un uso crítico y complementario, tratando la IA como un apoyo para la investigación más que como fuente definitiva.

El estudio evidencia que ninguna IA es perfecta y que, aunque ofrecen ventajas en rapidez y síntesis, siguen siendo propensas a errores, omisiones y sesgos. Los bibliotecarios enfatizan la importancia de la verificación y el pensamiento crítico al usar estas herramientas, igual que se haría al consultar fuentes tradicionales en una biblioteca.

Resultados clave:

Herramienta más fiable: Google AI Mode fue la IA que ofreció respuestas más precisas y consistentes, especialmente en información reciente y trivialidades poco conocidas.

Alucinaciones y errores: Varias IA, incluida ChatGPT, generaron respuestas incorrectas con un tono de certeza, a veces citando fuentes que no respondían a la pregunta.

Limitaciones con información especializada: Ninguna IA respondió correctamente en todos los casos que requerían conocimientos de nicho o fuentes difíciles de acceder.

Problemas con información reciente: Las IA fallaron en eventos o datos muy recientes debido a sus límites en actualización de datos.

Interpretación visual limitada: Las preguntas sobre detalles de imágenes o contenido visual fueron problemáticas para la mayoría de las IA.

Sesgos inherentes: Las IA mostraron sesgos en temas de carreras académicas o áreas de conocimiento, favoreciendo disciplinas STEM sobre humanidades o sociales.

Utilidad relativa: Las IA pueden ahorrar tiempo y sintetizar información compleja, pero no sustituyen la verificación de fuentes tradicionales; deben usarse como complemento crítico en la investigación.

Guía para el uso de las inteligencias artificiales en el ámbito educativo

Guía para el uso de las inteligencias artificiales en el ámbito educativo. Euskadi: Departamento de Educación. Departamento de Educación y Elhuyar Licencia, 2025

Texto completo

La Guía para el uso de las inteligencias artificiales en el ámbito educativo, elaborada por el Departamento de Educación y Elhuyar, se presenta como un documento exhaustivo destinado a acompañar al profesorado en la integración ética, crítica y pedagógica de la inteligencia artificial (IA) en los centros educativos. Desde el inicio, la guía subraya la rápida expansión de estas tecnologías en todos los ámbitos de la vida —incluida la enseñanza— y advierte que su accesibilidad, facilidad de uso y normalización entre adolescentes exigen una reflexión profunda sobre sus implicaciones éticas, legales y pedagógicas. Aunque la IA ofrece potenciales beneficios, también plantea riesgos como el coste ambiental, la dependencia tecnológica de grandes corporaciones, la propagación de errores o creencias falsas y el uso indebido por parte del alumnado.

La guía también explica de manera clara cómo funcionan los sistemas de IA generativa: se entrenan con grandes volúmenes de datos —muchos de ellos con sesgos— y generan respuestas probabilísticas, no comprensiones reales. Por ello, pueden equivocarse, “alucinar”, reproducir estereotipos o generar contenidos incorrectos. Se presentan ejemplos prácticos sobre cómo controlar la creatividad del chatbot, cuándo utilizar modelos de razonamiento y en qué contextos las herramientas son más útiles (generación de ideas, resúmenes, reorganización de formatos) o menos adecuadas (datos sensibles, procesos de aprendizaje en los que es crucial la participación activa del alumnado). También se subraya que las IA funcionan peor en lenguas minorizadas como el euskera, aunque existen iniciativas locales para fortalecer su presencia.

Tilly Norwood: la primera actriz creada por IA que provoca un terremoto en Hollywood

Kent, Jo Ling. 2025. There’s a new face in Hollywood, generated by AI.” CBS News, 7 diciembre 2025. https://www.cbsnews.com/news/theres-a-new-face-in-hollywood-generated-by-ai/

En el artículo se habla de Tilly Norwood, una “actriz” completamente generada por inteligencia artificial (IA), que ha causado gran revuelo en la industria del entretenimiento en Hollywood.

Tilly Norwood es el primer rostro creado por IA que aspira a entrar en el mundo del cine: no existe en la realidad, sino que fue diseñada por computadora por el estudio Particle6. Su creadora, Eline van der Velden — actriz y productora — afirma que invirtieron más de 2 000 iteraciones para generar a Tilly, intentando dotarla de rasgos universales con potencial global. Van der Velden ha declarado que su intención no era reemplazar actores reales, sino explorar nuevas posibilidades creativas: que Tilly sea “la próxima Scarlett Johansson del género IA”

La noticia provocó un fuerte rechazo en parte de la industria: miembros de la élite de Hollywood expresaron su alarma ante la idea de “actores sintéticos”. El presidente del sindicato de actores SAG-AFTRA, Sean Astin, afirmó que “actriz no le llamaría” a algo tan artificial, defendiendo que la IA puede servir de herramienta, pero no sustituir la actuación humana.

Por otro lado, algunos en la industria creen que la tecnología podría transformar la producción audiovisual, reduciendo costes y ofreciendo nuevas formas narrativas; mientras tanto, otros advierten sobre los riesgos éticos y laborales de depender del talento digital.

Guía de buenas prácticas para informar del uso de IA por parte de bibliotecarios y editores

COUNTER. Ready for Consultation: AI Metrics. Best Practice Guidance for Reporting AI Usage (Draft, 2025).

Texto completo

COUNTER propone nuevas directrices para medir el uso de herramientas de inteligencia artificial en plataformas editoriales, diferenciándolo claramente del uso humano. El objetivo es estandarizar estos informes y evitar que la actividad de IA distorsione los datos tradicionales de uso.

El borrador de COUNTER sobre las mejores prácticas para informar del uso de IA surge ante la necesidad de adaptar el Code of Practice (Release 5.1) a un entorno donde la inteligencia artificial generativa y agente opera de forma habitual en plataformas de editores y proveedores de información. El documento reconoce que las reglas anteriores fueron diseñadas en un contexto previo al uso extendido de herramientas como agentes autónomos y modelos generativos, por lo que se requiere un marco más preciso para distinguir entre actividad humana, actividad automatizada tradicional (bots y crawlers) y actividad de IA agente, que no puede clasificarse igual que la automatización previamente excluida de los informes.

El objetivo del borrador es establecer mecanismos claros y estandarizados para que las plataformas que ofrecen contenidos (textos, artículos, etc.) puedan reportar métricas sobre el uso de IA —ya sea directamente en su sitio, o a través de herramientas externas (como buscadores basados en IA o agregadores). COUNTER considera que estas directrices no sólo sirven a editores o bibliotecas, sino también que podrían ser útiles para herramientas independientes de IA

La publicación del borrador está abierta a comentarios de la comunidad: proveedores tecnológicos, editoriales, bibliotecas y consorcios están invitados a aportar feedback para mejorar las directrices antes de que se adopten de forma definitiva.

Enseñando alfabetización en IA a estudiantes de primaria

Potkalitsky, Nick. 2025. “The Digital Detective Club: Teaching AI Literacy to Young Students.” Educating AI (blog), noviembre. https://nickpotkalitsky.substack.com/p/the-digital-detective-club-teaching

Vivimos un cambio profundo en la forma en que se crean los textos. Por primera vez en la historia, nuestros hijos crecerán en un mundo en el que gran parte de lo que leen —ayudas para deberes, explicaciones, historias e incluso mensajes “personales”— podría estar generado por inteligencia artificial (IA) en lugar de haber sido escrito por humanos. Esta realidad plantea un desafío educativo crucial: ¿cómo enseñar a los estudiantes a interactuar críticamente con la información que consumen desde edades tempranas?

La mayoría de los programas de “alfabetización en IA” se enfocan en estudiantes mayores. Pero para cuando los alumnos llegan al bachillerato, ya han pasado años consumiendo contenidos generados por IA sin poseer herramientas para evaluarlos críticamente. Por ello se propone un plan de estudios dirigido a estudiantes de primaria (desde K hasta 5.º), que enseñe habilidades prácticas de “detección textual” para el mundo real en el que ya están inmersos.

Uno de los pilares del programa es la conciencia de la fuente. Los estudiantes aprenden a preguntarse no solo “¿es verdadero lo que leo?”, sino “¿de dónde viene?”, “¿quién lo escribió?” y “¿cómo puedo comprobarlo?”. De esta manera, desarrollan un hábito de verificación constante que los prepara para interactuar con contenidos digitales y automatizados de forma responsable.

Otro aspecto fundamental es el reconocimiento de la voz del texto. Los niños aprenden a diferenciar entre escritura humana y textos generados por IA, identificando rasgos como estilo, coherencia, singularidad o detalles personales que a menudo faltan en los textos automatizados. Esta habilidad les permite detectar cuándo un texto es genérico, neutro o artificial, y fomentar su pensamiento crítico.

El programa también enfatiza la valoración de la especificidad y lo concreto. Los alumnos comprenden que los textos valiosos, ya sean relatos, informes o explicaciones, incluyen detalles contextuales y matices propios. Por el contrario, los textos superficiales, impersonales o excesivamente generalizados pueden ser una señal de contenido automatizado o poco fiable. De esta forma, los estudiantes aprenden a apreciar la originalidad y a desarrollar criterios para discernir la calidad de la información.

Potkalitsky aclara que la intención no es asustar a los estudiantes ni alejarles de la IA, sino enseñarles a interactuar con ella de manera consciente, informada y responsable. La meta es que comprendan cuándo la IA puede ser útil y cuándo es necesaria la intervención humana para analizar, interpretar o tomar decisiones. Este enfoque contribuye a cultivar lo que el autor llama “conciencia situacional textual”: la capacidad de reconocer no solo qué leen los estudiantes, sino cómo, desde dónde, con qué intención y con qué propósito.

La alfabetización temprana en IA se vuelve especialmente relevante dado que muchos niños ya acceden a dispositivos, contenidos digitales y textos automatizados desde edades muy tempranas. Integrar estas competencias en la educación básica —en materias de lengua, lectura, ciudadanía digital y pensamiento crítico— permite preparar a los estudiantes para un entorno cada vez más mediado por la tecnología. Además, les proporciona herramientas para detectar desinformación, reconocer plagios, valorar la originalidad y mantener su propia voz creativa, habilidades fundamentales para desenvolverse con autonomía y responsabilidad en el mundo digital.

La propuesta busca transformar la manera en que los niños aprenden a leer, escribir y analizar información en la era de la inteligencia artificial. A través de ejercicios prácticos, análisis de textos y actividades lúdicas, los estudiantes desarrollan competencias críticas, creatividad y autonomía intelectual, preparándolos para enfrentar los desafíos educativos y sociales del siglo XXI.

Del SEO al GEO: cómo los contenidos de producto determinan la visibilidad en la búsqueda impulsada por IA

Lily AI. From SEO to GEO: The Role of Product Content in AI Search and Discovery. Lily AI, 2025.

Texto completo

la transformación profunda que está experimentando la búsqueda de productos en el comercio digital con la irrupción de los motores generativos de inteligencia artificial. Durante dos décadas, el SEO tradicional marcó las normas de visibilidad online, obligando tanto a usuarios como a minoristas a pensar en términos de palabras clave, enlaces y estructuras legibles para los algoritmos. Sin embargo, ese modelo se está desmoronando. Los motores de IA como Gemini, ChatGPT, Claude o Perplexity ya no se limitan a indexar páginas, sino que interpretan significados, contextos e intenciones. Este cambio está alterando de raíz el modo en que los consumidores descubren productos: más del 60% de las búsquedas terminan sin clic y se prevé un descenso del 50% del tráfico orgánico para 2028, al prevalecer las respuestas generadas directamente por IA. En este nuevo escenario, la cuestión clave no es si un producto “aparece”, sino si es correctamente comprendido por los sistemas generativos.

Se subraya además que los consumidores ya no buscan listados de enlaces, sino relevancia, precisión contextual y orientación personalizada. Las personas formulan peticiones en lenguaje natural, como “un vestido suave y fluido para unas vacaciones de verano”, y esperan que el sistema entienda matices de ocasión, clima, estilo o preferencia estética. Esto exige un nivel de comprensión semántica imposible de satisfacer con descripciones de producto pobres o centradas únicamente en palabras clave. Frente a ello surge el concepto de GEO (Generative Engine Optimization), entendido como la disciplina orientada a que los productos se representen adecuadamente en respuestas generadas por IA. Si el SEO decía a las máquinas “qué ver”, el GEO les enseña “qué significa” cada producto: qué es, para quién sirve, en qué contexto es adecuado y por qué debería recomendarse.

El documento sostiene que los catálogos ya no pueden ser inventarios estáticos, sino auténticas infraestructuras de datos. Los motores generativos funcionan relacionando atributos, imágenes, metadatos y descripciones para formar una representación coherente de cada artículo. Si faltan datos o contexto, la IA rellena los huecos de forma incorrecta, lo que compromete la relevancia. En cambio, un catálogo enriquecido —con taxonomías coherentes, atributos completos, descripciones en lenguaje natural y metadatos unificados— se convierte en un grafo de conocimiento vivo que facilita que la IA conecte productos con necesidades reales. El texto muestra cómo la falta de precisión puede provocar errores, como confundir un pintalabios rojo con tonos completamente distintos, mientras que un sistema de datos bien estructurado favorece recomendaciones fiables, personalizadas y consistentes.

Por último, el informe explica cómo los minoristas pueden prepararse para este nuevo entorno dominado por la IA. Propone acciones como enriquecer los datos de producto más allá de lo básico; optimizar descripciones para consultas naturales; unificar y automatizar los metadatos mediante esquemas y taxonomías; mantener la información constantemente actualizada; y adoptar nuevas métricas que midan la representación semántica en lugar del ranking tradicional. Según el documento, el éxito dependerá de comprender que el contenido de producto ya no es un elemento estático de merchandising, sino un lenguaje compartido entre consumidores, comerciantes, anunciantes y máquinas. Empresas como Lily AI ofrecen plataformas diseñadas para convertir catálogos en sistemas de información legibles por la IA, mejorando la precisión de las recomendaciones, la coherencia de los datos y, en última instancia, las ventas.

Me encanta la IA. ¿Por qué no le gusta a todo el mundo?

Smith, Noah. 2025. “I Love A.I. Why Doesn’t Everyone?Noahpinion, 1 de diciembre de 2025. https://www.noahpinion.blog/p/i-love-ai-why-doesnt-everyone

En su artículo, el autor describe su entusiasmo por la inteligencia artificial (IA) generativa, defendiendo que muchas de las críticas populares —a menudo emotivas o basadas en miedos— están fundamentadas en argumentos débiles o erróneos. Señala que aunque las tecnologías nuevas siempre traen riesgos y problemas (como la contaminación en la era industrial o el impacto social de la automatización), históricamente las sociedades han sabido adaptarse: lo mismo podría ocurrir con la IA.

Para el autor, usar IA hoy se parece a tener “un pequeño amigo robot”: un asistente que puede responder preguntas, ayudar a redactar textos, traducir, buscar información, resolver dudas cotidianas o tareas técnicas, o servir como herramienta de estudio, creatividad o investigación. Esa capacidad de poner al alcance de cualquiera —y con facilidad— prácticamente todo el conocimiento humano convierte a la IA en una de las tecnologías de propósito general más potentes jamás creadas.

Sí, admite que la IA comete errores: mezcla datos, inventa referencias, da respuestas equivocadas. Pero argumenta que esa falibilidad no la distingue fundamentalmente de cualquier herramienta de información: los humanos leen artículos, webs o libros que también a veces están equivocados o sesgados. Por eso —dice— lo importante es usar la IA con criterio, contrastar su output y no esperar que sea un oráculo infalible.

El artículo advierte también frente a ciertos debates críticos sobre la IA cuyos fundamentos considera exagerados, como los que destacan su consumo de agua o predicen impactos catastróficos inmediatos. En su opinión, esos temores a menudo sirven como “chivos expiatorios” influidos por la desconfianza general hacia lo nuevo, más que por evidencia concreta.

Finalmente, reflexiona sobre por qué muchas personas no comparten su entusiasmo. Entre las razones menciona inseguridades legítimas (riesgo de reemplazo laboral, cambios económicos, externalidades ambientales), pero también destaca un sesgo cultural: ante cada nueva tecnología disruptiva —como el automóvil, la electricidad o el internet— muchos reaccionan con miedo, cuando con el tiempo dichas tecnologías se normalizan y transforman la vida cotidiana. Cree que la IA puede seguir ese camino si aprendemos a gestionarla con responsabilidad

Silicon Valley crea imitaciones de Amazon y Gmail para entrenar agentes de inteligencia artificial.

Maya Perez “Tech Giants Build Synthetic Amazon, Gmail for AI Training.” New York Times, December 2, 2025. https://www.nytimes.com/2025/12/02/technology/artificial-intelligence-amazon-gmail.html

Texto completo

Últimamente, varias empresas tecnológicas y startups están construyendo versiones “sintéticas” de plataformas conocidas —como las que usan Amazon o Gmail— con el fin de utilizarlas como entornos seguros para entrenar inteligencias artificiales.

El modelo recrea catálogos, interfaces, funciones de compra o correo, y escenarios de navegación, lo cual permite que las IA practiquen acciones humanas (comprar, enviar un correo, organizar bandejas de entrada…) sin necesidad de usar datos reales y automatizados.

Este enfoque surge en parte por la escasez de datos apropiados para alimentar IA modernas: muchas webs ya bloquean rastreadores, y hay crecientes restricciones legales y éticas en torno a la recolección de datos reales, por lo que las “copias sintéticas” ofrecen un sustituto que evita esos obstáculos. Al operar en entornos ficticios, pero realistas, los agentes de IA pueden aprender estructuras complejas de interacción digital con menos riesgos de privacidad o bloqueo.

Las implicaciones potenciales son enormes: las IA entrenadas de este modo podrían automatizar tareas cotidianas —hacer compras, gestionar correos, planificar viajes, organizar agendas…— con mínima intervención humana. Esto abre la puerta a asistentes cada vez más independientes y versátiles, capaces de operar en interfaces web reales como un usuario normal.

No obstante, este cambio también plantea dudas importantes. Desde una visión social y ética, existe preocupación por la posible pérdida de empleos en sectores administrativos y comerciales. Además, hay riesgos inherentes a que las IA aprendan en entornos sintéticos: pueden reproducir sesgos, cometer errores cuando interactúan con sistemas reales, o generar efectos no deseados si su comportamiento no se controla adecuadamente.

En definitiva —y como describe el artículo de prensa—, la creación de mundos digitales sintéticos representa una transformación profunda en el modo en que se entrena la inteligencia artificial: un paso hacia entornos controlados, escalables y legales, con un gran potencial práctico… pero también con desafíos cruciales a nivel social, ético y técnico.

Publicación de datos sobre el patrimonio cultural en la era de la inteligencia artificial

Keller, Paul. Publishing Cultural Heritage Data in the Age of AI. Europeana Foundation y Open Future Foundation, diciembre de 2025.

Texto completo

Este informe, encargado por la Europeana Foundation y elaborado por Open Future, analiza cómo la inteligencia artificial está transformando el ecosistema de datos del patrimonio cultural.

El documento surge dentro de la Alignment Assembly on Culture for AI, un proceso participativo europeo que ha puesto de manifiesto una tensión central: por un lado, el sector del patrimonio cultural desea mantener el compromiso con el acceso abierto; por otro, el uso masivo de datos para entrenar modelos de IA crea nuevos riesgos, cargas económicas y dilemas éticos. El texto enmarca este problema en un contexto legal complejo, donde los mecanismos de protección como el copyright, los derechos de base de datos o los opt-out para minería de datos resultan, en la práctica, insuficientes para controlar el uso intensivo que hacen los desarrolladores de IA de los recursos digitales publicados por instituciones culturales.

El documento expone que la IA transforma radicalmente el tipo de acceso que enfrentan estas instituciones: de un uso tradicional centrado en la consulta humana a una demanda de acceso industrializado, donde bots y sistemas automáticos extraen colecciones completas para entrenar modelos. Frente a ello, el informe propone que las instituciones no pueden limitarse a cerrar sus recursos ni depender exclusivamente de restricciones legales, ya que ello comprometería su misión pública. En su lugar, plantea un marco de interés público basado en cinco principios: acceso abierto al conocimiento, equidad y no discriminación, confiabilidad y autoridad institucional, apoyo a la investigación y la innovación, y sostenibilidad económica. Estos valores sirven de guía para adaptar políticas de acceso a un entorno de IA que amplifica tanto las oportunidades como las amenazas.

A partir de ese marco, el informe desarrolla un modelo de acceso diferenciado que combina apertura y control según las necesidades y los costos asociados a cada modalidad de acceso. Propone mantener acceso totalmente abierto para la consulta de objetos individuales; establecer acceso controlado mediante API para usos programáticos y de sistemas de IA desplegados; y adoptar un régimen de acceso condicional para usos de gran escala, como la descarga masiva para entrenamiento. Este modelo permite que el acceso abierto siga siendo el principio dominante, a la vez que introduce mecanismos para que los grandes usuarios —especialmente actores comerciales con alta capacidad— contribuyan a la sostenibilidad económica del ecosistema cultural. El informe concluye invitando al sector a debatir y ajustar colectivamente este modelo, señalando que las decisiones que se tomen ahora serán fundamentales para garantizar un futuro responsable, sostenible y alineado con la misión pública del patrimonio cultural en la era de la IA.

Open AI activa el ‘Código Rojo’ mientras Google y Anthropic amenazan con destronar a ChatGPT

Hart, Robert. 2025. “OpenAI declares ‘code red’ as Google catches up in AI race.” The Verge, 2 de diciembre 2025

Ver noticia

La empresa OpenAI ha declarado internamente un “code red”, una señal de alarma para centrar todos sus esfuerzos en mejorar su producto estrella ChatGPT, tras constatar que la competencia —sobre todo Google y Anthropic— se acerca peligrosamente en el terreno de la inteligencia artificial.

Según un memorando interno difundido por la prensa, el director ejecutivo Sam Altman pidió al personal que priorizara mejoras en la velocidad, fiabilidad, personalización y capacidad de respuesta de ChatGPT. En consecuencia, se han suspendido temporalmente otras iniciativas en desarrollo: desde planes de publicidad y agentes de compras o salud, hasta un asistente personal llamado “Pulse”.

Además del cambio de prioridades, OpenAI ha ordenado convocatorias diarias de desarrollo y la redistribución de equipos internos hacia tareas centradas en ChatGPT, con el objetivo de acelerar su evolución.

Este giro estratégico refleja un momento crítico para OpenAI: tras años de liderazgo en IA, la compañía reconoce que su ventaja competitiva podría estar decayendo, lo que la obliga a redoblar esfuerzos para mantenerse en la vanguardia.