Archivo de la etiqueta: Inteligencia artificial

Los chatbots de IA usan fuentes diferentes a las de Google Search y a menudo citan sitios web poco conocidos

Kemper, Jonathan. “AI Chatbots Use Different Sources Than Google Search and Often Cite Less-Known Websites.” The Decoder, 26 octubre 2025.

Texto completo

Se informa sobre una investigación llevada a cabo por la Ruhr University Bochum y el Max Planck Institute for Software Systems, que compara cómo los motores de búsqueda tradicionales —ejemplificados por Google Search— y los sistemas de búsqueda generativa de IA —como Gemini 2.5 Flash, GPT‑4o con herramienta de búsqueda y la interfaz “Search” de GPT-4o— seleccionan y referencian fuentes web en respuestas a consultas.

Se analizaron más de 4.600 consultas sobre temas diversos (política, productos, ciencia) y se observaron diferencias sustanciales en el origen, cantidad y visibilidad de los enlaces utilizados por cada sistema.

Una de las principales conclusiones es que los sistemas de IA dependen mucho más que la búsqueda tradicional de sitios menos establecidos o con menor visibilidad. Por ejemplo, aproximadamente el 53 % de los sitios citados por el sistema “AI Overview” no aparecían dentro de los diez primeros resultados orgánicos de Google, y cerca del 27 % no estaban siquiera en los primeros cien. En consecuencia, los usuarios que confían en chatbots pueden estar accediendo a contenido procedente de dominios más desconocidos o menos regulados que aquellos a los que normalmente llegarían mediante la búsqueda convencional.

Asimismo, la investigación señala que la cantidad de fuentes externas varía notablemente entre los sistemas. Mientras que algunos modelos de IA incorporan muchos enlaces (por ejemplo, “AI Overview” y Gemini utilizan más de ocho sitios por consulta, de media), otros como “GPT-Tool” emplean un promedio muy bajo, alrededor de 0,4 fuentes externas, apoyándose casi exclusivamente en su conocimiento interno. Esto implica que la profundidad y diversificación de la información pueden variar ampliamente según el sistema usado.

El estudio también analiza la cobertura temática y cómo varía según el tipo de consulta. En temas ambiguos o complejos, la búsqueda tradicional alcanzó una cobertura del 60 % de los subtemas esperados, frente al 51 % alcanzado por “AI Overview” y sólo 47 % por “GPT-Tool”. Esto da a entender que los chatbots de IA pueden ofrecer respuestas más rápidas o consolidadas, pero podrían estar omitiendo matices, perspectivas adicionales o más amplios marcos de análisis que los motores de búsqueda tradicionales tienden a cubrir.

En lo que respecta a temas de actualidad o noticias recientes, la búsqueda tradicional también mostró ventaja: en un test con 100 temas tendencia en septiembre 2025, Google alcanzó un 67 % de cobertura, “GPT-Search” un 72 % (ligeramente superior) pero “AI Overview” sólo un 3 %, y “GPT-Tool” un 51 %. Esto sugiere que no todos los sistemas de IA están optimizados para rastrear o indexar los últimos eventos tan eficazmente como los motores de búsqueda clásicos.

Finalmente, el artículo advierte que estos cambios en selección de fuentes y metodología de citación tienen implicaciones importantes para la credibilidad, verificación y equidad de la información que reciben los usuarios. Al recurrir con frecuencia a sitios menos conocidos, la transparencia sobre la autoridad, la calidad y el sesgo de esas fuentes puede disminuir. También plantea que las habituales reglas de evaluación de calidad de búsquedas deben adaptarse, pues los sistemas de búsqueda de IA operan bajo lógicas distintas y requieren criterios propios para valorar su fiabilidad.

En esencia, el artículo invita a usuarios, bibliotecarios, investigadores y profesionales de la información a tener conciencia de estas diferencias. No basta con asumir que una respuesta generada por un chatbot es equivalente a haber realizado una búsqueda exhaustiva: la procedencia y visibilidad de las fuentes pueden ser muy distintas, lo cual comporta riesgos y oportunidades diferentes respecto a la práctica informacional tradicional.

Open AI vs. Anthropic ¿Quién está ganando realmente la guerra de la IA?

El artículo examina de forma comparada las estrategias corporativas de OpenAI y Anthropic en el desarrollo, comercialización y posicionamiento de la inteligencia artificial. La tesis central es que, aunque OpenAI sigue captando la mayor atención mediática, es Anthropic quien podría estar cimentando un enfoque más sostenible a largo plazo.

La narrativa comienza señalando que OpenAI ha logrado una enorme difusión gracias a su producto de consumo dominante, ChatGPT, con cientos de millones de usuarios semanales y un modelo de negocio centrado en suscripciones individuales y alianzas con Microsoft. Sin embargo, ese éxito trae consigo costes elevados, enormes inversiones en infraestructura —centros de datos, chips de alto rendimiento— y una presión constante por mantener la visibilidad pública y lanzar nuevas funcionalidades.

En cambio, el texto destaca que Anthropic ha adoptado una vía más discreta pero enfocada al mercado empresarial: aproximadamente el 80 % de sus ingresos provienen de cuentas corporativas, con una fuerte presencia en clientes que buscan rendimiento fiable en tareas especializadas, como programación, redacción legal o análisis de datos. Los modelos de Anthropic, como la serie Claude, habrían alcanzado una cuota de mercado del 32 % en aplicaciones empresariales frente al 25 % de OpenAI, lo que sugiere un avance en un entorno más rentable por cliente.

Otro aspecto importante que se resalta es la diferencia en sus alianzas industriales: OpenAI tiene una integración profunda con Microsoft, lo que le da masa crítica, pero al mismo tiempo lo expone a desafíos de coste, monetización y dependencia de la demanda masiva. Anthropic, por su parte, trabaja con Amazon Web Services, Google Cloud y otros socios, lo que le permite diversificar su infraestructura y posicionarse como proveedor técnico para empresas, en lugar de únicamente tener visibilidad de marca de consumo.

El artículo subraya que el verdadero “ganador” no se definirá solo por quién tenga más usuarios o más ruido mediático, sino por cuál compañía logre convertir capacidades de IA en generación de ingresos predecibles y rentable para el negocio, con clientes que dependen de ella para tareas críticas. En ese sentido, la estrategia empresarial de Anthropic se presenta como más sólida —menos espectáculo, más foco— mientras que OpenAI opera con mayor exposición, mayor expectativa y también mayor vulnerabilidad a los ciclos de moda y costes de escala.

Cómo conclusión se invita a reflexionar sobre qué significa “ganar” en la carrera de la IA: si es dominar mercados de consumo, liderar en investigación, controlar la infraestructura, o construir un negocio durable que pueda escalar sin quebrar bajo el peso de las inversiones. En ese escenario, la estrategia de Anthropic podría tener ventaja en términos de sostenibilidad, aunque OpenAI mantiene una clara delantera en visibilidad y usuarios.

El uso de la IA en escuelas se vincula con efectos negativos en los estudiantes

Center for Democracy & Technology. “CDT Survey Research Finds Use of AI in K-12 Schools Connected to Negative Effects on Students.” October 8 2025.

Texto completo

Diapositivas

Una encuesta realizada por el Center for Democracy & Technology (CDT) revela que el empleo de herramientas de inteligencia artificial (IA) en escuelas de enseñanza primaria y secundaria (K-12) se ha normalizado, pero al mismo tiempo está asociado con una serie de efectos negativos en los estudiantes.

La investigación abarcó la experiencia de maestros, estudiantes y padres durante el curso 2024-2025 y muestra que el 85 % de los docentes y el 86 % de los estudiantes informaron haber usado herramientas de IA.

Entre los hallazgos más relevantes destaca que aproximadamente la mitad de los estudiantes dijeron sentirse menos conectados con sus maestros como consecuencia del uso de IA en el aula. Asimismo, un porcentaje significativo de estudiantes admitió haber usado chatbots o herramientas de IA para apoyo emocional, salud mental o incluso como forma de escape de la realidad; de hecho, uno de cada cinco manifestó que él o alguien que conoce había mantenido una relación romántica con una IA.

El estudio también pone de relieve que, mientras el despliegue de la IA en entornos escolares crece, la formación de los maestros, las políticas escolares y las salvaguardas de bienestar estudiantil no lo hacen al mismo ritmo. Solo el 11 % de los docentes declararon haber recibido formación específica sobre cómo responder ante un uso problemático de la IA por parte del alumnado. El informe advierte que el desequilibrio entre adopción tecnológica y preparación institucional puede potenciar riesgos como brechas en la conexión socioemocional entre alumno y profesor, debilitamiento de habilidades clave como el pensamiento crítico o la escritura, y una mayor vulnerabilidad ante el mal uso de herramientas de IA.

El documento de la CDT subraya que, si bien la adopción de IA en las aulas ofrece oportunidades —por ejemplo, para personalizar el aprendizaje o apoyar la enseñanza—, también conlleva desafíos considerables. Estos incluyen la posibilidad de que los estudiantes desarrollen vínculos más fuertes con máquinas que con sus educadores, que su sentido de pertenencia o interacción humana se debilite y que la institución educativa pierda parte de su función formativa y relacional. El informe concluye que, para que la IA contribuya realmente al aprendizaje sin comprometer el bienestar emocional y social de los estudiantes, es imprescindible que las escuelas acompañen su implementación con políticas claras, formación docente, supervisión ética y un enfoque centrado en el alumnado.

Resultados clave del estudio del Center for Democracy & Technology (CDT):

  1. Alta adopción de la IA en las aulas:
    El 85 % de los docentes y el 86 % de los estudiantes afirmaron haber utilizado herramientas de inteligencia artificial durante el curso 2024-2025. Esto demuestra una integración rápida y generalizada de la IA en el entorno educativo K-12.
  2. Impacto negativo en las relaciones humanas:
    Aproximadamente la mitad de los estudiantes manifestó sentirse menos conectado con sus maestros debido al uso de la IA en clase. La tecnología, aunque útil para ciertas tareas, parece estar debilitando los lazos interpersonales y la comunicación directa entre educadores y alumnos.
  3. Uso emocional y social de la IA:
    Un número considerable de estudiantes reconoció emplear chatbots y asistentes de IA como apoyo emocional o para gestionar su salud mental. De manera preocupante, uno de cada cinco estudiantes declaró que él o alguien que conoce había mantenido una relación romántica con una IA, lo que refleja una sustitución parcial de vínculos humanos por relaciones digitales.
  4. Déficit de formación docente:
    Solo el 11 % de los profesores indicó haber recibido formación específica sobre cómo manejar los problemas derivados del uso de IA en el aula. Esta falta de preparación dificulta que las escuelas puedan responder de manera efectiva a los retos éticos, psicológicos y pedagógicos asociados a la IA.
  5. Desequilibrio entre innovación y bienestar:
    El estudio advierte que la adopción tecnológica supera ampliamente la capacidad institucional para proteger el bienestar estudiantil. Esto puede conducir a una pérdida de habilidades esenciales —como el pensamiento crítico, la escritura o la interacción social— y aumentar la dependencia emocional hacia sistemas automatizados.
  6. Necesidad de políticas claras y enfoque humano:
    El CDT concluye que la IA solo podrá ser beneficiosa si se implementa dentro de un marco ético y pedagógico sólido. Es imprescindible acompañar su uso con programas de alfabetización digital, guías de protección emocional y políticas que prioricen el desarrollo humano por encima de la eficiencia tecnológica.

Competencias en IA para trabajadores de bibliotecas universitarias de ACRL

Association of College and Research Libraries. AI Competencies for Academic Library Workers. Approved by ACRL Board of Directors, October 2025. American Library Association, 2025

Texto completo

American Library Association (ALA) en 2025, establece un marco de competencias para que los profesionales de las bibliotecas universitarias comprendan, evalúen y apliquen la inteligencia artificial (IA) de manera crítica, ética y responsable. La propuesta no busca promover la adopción indiscriminada de la IA, sino desarrollar en los bibliotecarios una combinación equilibrada de conocimiento técnico, juicio ético y pensamiento reflexivo frente a las oportunidades y riesgos que estas tecnologías implican en la enseñanza, la investigación y los servicios de información.

El texto se estructura en dos grandes bloques. El primero se refiere a los mindsets o actitudes fundamentales que deben guiar el trabajo con IA, y el segundo desarrolla un conjunto de competencias distribuidas en cuatro áreas: consideraciones éticas, conocimiento y comprensión, análisis y evaluación, y uso y aplicación. En cuanto a las actitudes, el documento resalta la importancia de la curiosidad como motor para explorar el potencial de la IA; el escepticismo, necesario para mantener una visión crítica; el juicio, que permite decidir cuándo y cómo emplear estas herramientas; la responsabilidad, vinculada al impacto de su uso en la comunidad; y la colaboración, entendida como la disposición a integrar diversas perspectivas en la toma de decisiones. Estas actitudes no son rasgos fijos, sino disposiciones dinámicas que ayudan a los profesionales a adaptarse en un entorno tecnológico en constante evolución.

En el ámbito de las consideraciones éticas, el texto subraya que la relación entre bibliotecas e inteligencia artificial no puede entenderse solo desde lo técnico, sino también desde lo social y lo moral. Los profesionales deben garantizar un acceso equitativo a las herramientas de IA y promover una alfabetización digital que permita a todos los usuarios comprender su funcionamiento y sus límites. Se enfatiza la necesidad de proteger la privacidad, la autonomía y los derechos de autor, así como de evitar la reproducción de sesgos o desigualdades mediante el uso de datos y algoritmos. Además, se plantea que las bibliotecas deben priorizar la transparencia y la rendición de cuentas, asegurando que las herramientas empleadas sean fiables, explicables y respetuosas con la diversidad y el medio ambiente.

El apartado de conocimiento y comprensión detalla los saberes esenciales que deben adquirir los trabajadores de bibliotecas. Incluye la comprensión de conceptos como aprendizaje automático, modelos generativos, algoritmos predictivos o sistemas multimodales capaces de procesar texto, imagen, vídeo o sonido. También se destaca la importancia de entender cómo se entrenan estos modelos, qué tipos de datos utilizan y qué limitaciones presentan. La actualización constante es clave, dado que las tecnologías evolucionan con rapidez y las políticas sobre regulación, detección y atribución de contenido generado por IA cambian continuamente. En este sentido, se propone que los profesionales mantengan una formación continua basada en fuentes diversas y fiables.

En cuanto a análisis y evaluación, el marco plantea que los bibliotecarios deben ser capaces de analizar críticamente las herramientas de IA, comprendiendo cómo funcionan, qué objetivos persiguen y cuáles son sus implicaciones para los servicios de información. Esto incluye la evaluación de beneficios y riesgos, la identificación de sesgos y la valoración del impacto sobre la equidad, la privacidad o la calidad del acceso a la información. Se espera que los profesionales no actúen como simples usuarios, sino como mediadores críticos capaces de seleccionar y recomendar herramientas en función de su idoneidad técnica y ética, y de asesorar a las comunidades universitarias en su uso responsable.

Por último, la categoría de uso y aplicación se centra en la puesta en práctica de la IA en el entorno laboral de las bibliotecas. Se promueve un uso reflexivo y contextualizado, evitando asumir que la IA es siempre necesaria o beneficiosa. Las competencias incluyen la capacidad de aplicar herramientas de IA para optimizar procesos, mejorar la comunicación y la colaboración entre equipos o explorar nuevas formas de innovación en servicios bibliotecarios. También se destaca la importancia de desarrollar habilidades de prompting, es decir, de formulación precisa de instrucciones a sistemas generativos para obtener resultados más útiles y pertinentes. La adopción de estas herramientas debe guiarse por los valores de la profesión bibliotecaria, en particular el acceso equitativo, la transparencia y el respeto a los usuarios.

En conjunto, este marco de competencias ofrece una guía integral para que los trabajadores de bibliotecas académicas desarrollen una alfabetización en inteligencia artificial que no se limite al dominio técnico, sino que integre la reflexión ética y la responsabilidad social. El objetivo es que los profesionales no solo utilicen la IA, sino que contribuyan a moldear su implementación en el ámbito educativo y científico de manera coherente con los valores del servicio público, la equidad y el pensamiento crítico.

El pulso de la biblioteca: reflejando las voces de los bibliotecarios de todo el mundo.

Clarivate. «Pulse of the Library: Reflecting the Voices of Librarians Worldwide.» Clarivate Academia and Government Blog, September 29, 2023.

Texto completo

El Informe Pulse of the Library 2025 de Clarivate examina cómo las bibliotecas de todo el mundo están adaptándose a oportunidades y desafíos rápidos, como la adopción de la inteligencia artificial (IA), la ciencia abierta y las presiones geopolíticas.

El informe de 2025 se basa en más de 2.00 bibliotecarios de 109 países y regiones y proporciona recomendaciones prácticas para maximizar los beneficios de la IA en el sector bibliotecario.

Fundamentalmente se aprecia un aumento constante en la adopción de IA, con el 67% de las bibliotecas explorando o implementando tecnologías de IA, un aumento respecto al 63% en 2024. Aunque la mayoría sigue en etapas iniciales de evaluación, los primeros adoptantes son más optimistas a medida que avanzan en las fases de implementación.

Se destaca que las bibliotecas son más inclinadas a estar en fases moderadas o activas de implementación de IA cuando la alfabetización en IA forma parte de los programas de capacitación o incorporación formal, se asignan recursos y tiempo dedicados a los bibliotecarios, o los gerentes fomentan el desarrollo de IA. Las bibliotecas que invierten en la alfabetización en IA reportan mayor confianza y están mejor posicionadas para aprovechar la IA, aumentando la eficiencia y dejando más tiempo para tareas estratégicas y creativas.

En términos de cambios en 2025, el 33% de las bibliotecas están ahora en fases de implementación, tres veces más que en 2024, mientras que el 35% permanece en la fase de evaluación. El informe también encontró una relación estadísticamente significativa entre el enfoque en el desarrollo de la alfabetización en IA y el progreso en la implementación de la tecnología. Las bibliotecas están comenzando a ver a la IA no solo como una herramienta para la eficiencia, sino como un medio para abordar una gama más amplia de objetivos, como el apoyo al aprendizaje estudiantil y el descubrimiento de contenido, que siguen siendo los objetivos principales de la adopción de IA.

Las adopciones de IA varían regionalmente: Asia y Europa han avanzado en la implementación de IA, mientras que Estados Unidos está detrás, con menos optimismo sobre los beneficios de la IA. Las bibliotecas públicas han mostrado menor optimismo, con solo el 20% optimistas sobre los beneficios de la IA en los próximos cinco años, frente al 26% en 2024.

También se subraya que las bibliotecas siguen enfrentando desafíos importantes, especialmente las presiones presupuestarias. Muchos bibliotecarios en EE. UU. y Norteamérica esperan recortes en las colecciones debido a la presión geopolítica, con el 50% de los encuestados anticipando recortes. Además, los presupuestos reducidos afectan las estrategias de colecciones de ciencia abierta. A pesar de estos desafíos, las bibliotecas continúan adaptándose a las nuevas realidades tecnológicas y sociales, buscando maneras de mejorar su eficiencia y relevancia mediante la adopción de IA.

Tendencias clave del informe Pulse of the Library 2025:

Factores externos: Las presiones presupuestarias son el desafío principal para casi la mitad de las bibliotecas (47 %), y los recortes de financiamiento están afectando las estrategias de colecciones de acceso abierto (OA).

Adopción regional de IA: Asia y Europa lideran la implementación de inteligencia artificial, con entre 37 % y 40 % de bibliotecas en fases iniciales o avanzadas, frente al 14–16 % en 2024. En contraste, Estados Unidos muestra menor adopción y optimismo, con solo 7 % de bibliotecas confiadas en los beneficios de la IA.

Diferencias de percepción según roles: Los bibliotecarios senior priorizan la eficiencia operativa como principal objetivo del uso de IA y muestran mayor confianza en la terminología relacionada (43 %), frente a los bibliotecarios junior (36 %).

Misión central estable: Las misiones de las bibliotecas se mantienen similares a 2024, con un cambio notable en las bibliotecas académicas, donde el compromiso estudiantil se convierte en el foco principal (40 %).

Restricciones presupuestarias: Las presiones geopolíticas afectan los presupuestos y las colecciones; la mitad de las bibliotecas en EE. UU. y Norteamérica prevén recortes en sus colecciones.

Panorama de bibliotecas públicas: Solo 20 % son optimistas sobre los beneficios de la IA en cinco años (baja desde 26 % en 2024) y 54 % no tienen planes activos para adoptar IA.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos, independientemente del idioma o el territorio

European Broadcasting Union & British Broadcasting Corporation. (2025, octubre 16). News Integrity in AI Assistants. International study on AI assistants and news content

Texto completo

Toolkit

Se analiza el desempeño de los asistentes de inteligencia artificial al responder consultas sobre noticias en 14 idiomas y 18 países. Se evaluaron más de 3 000 respuestas generadas por plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity. Periodistas y expertos examinaron su exactitud, atribución de fuentes, diferenciación entre hechos y opiniones, y la calidad del contexto proporcionado.

Los resultados revelan un panorama preocupante: aproximadamente el 45 % de las respuestas contenían errores graves y el 81 % presentaba algún tipo de deficiencia. Los fallos más comunes fueron la atribución falsa o inexistente de fuentes (en torno al 31 %) y la inexactitud factual, incluyendo información obsoleta o inventada (cerca del 20 %).

El informe indica que el asistente de Google, Gemini, obtuvo el rendimiento más bajo, con problemas importantes en hasta el 72-76 % de sus respuestas. Además, se constató que estas deficiencias no dependen del idioma ni del país, sino que se reproducen de forma sistémica y generalizada en distintos entornos culturales y lingüísticos.

Los investigadores alertan de los riesgos que implica que los asistentes de IA se conviertan en una fuente de información de noticias para el público, ya que algunos usuarios ya los usan como sustituto de los motores de búsqueda tradicionales. Esta tendencia podría afectar la confianza pública, la calidad informativa y la participación democrática.

Finalmente se dan una serie de recomendaciones dirigidas a desarrolladores, medios y organismos reguladores: mejorar la transparencia en la citación de fuentes, distinguir claramente entre hechos y opiniones, actualizar los contenidos con mayor rapidez y establecer sistemas de monitoreo continuo sobre la calidad informativa de las respuestas generadas por la inteligencia artificial.

La inteligencia artificial potencia la importancia de las habilidades exclusivamente humanas

Spotlight on Skills in the Age of AI: The Impact of Emerging Technology on Skills, Training, and Talent. San Francisco: Autodesk, 2025. https://www.autodesk.com/design-make/research/state-of-design-and-mak

Se analiza cómo la inteligencia artificial está transformando las competencias laborales en los sectores de diseño, manufactura, arquitectura, ingeniería, construcción y medios.

Según el estudio, el 77 % de los líderes empresariales continuará invirtiendo en tecnologías emergentes en los próximos tres años, aunque la falta de habilidades adecuadas amenaza la capacidad de las empresas para aprovechar plenamente el potencial de la IA.

El 83 % cree que la inteligencia artificial elevará la importancia de las habilidades exclusivamente humanas y potenciará la creatividad humana, dando lugar a nuevas formas de valor económico. El documento subraya la creciente importancia de las soft skills —como la resolución de problemas, la comunicación, la adaptabilidad y el pensamiento crítico—, consideradas incluso más valiosas que las habilidades técnicas (hard skills). La brecha de competencias en IA se amplía, ya que los empleadores buscan expertos en análisis de datos, aprendizaje automático y automatización, mientras que la oferta de profesionales capacitados sigue siendo insuficiente.

El informe también destaca la convergencia entre sostenibilidad y tecnología: el 76 % de las organizaciones considera que la sostenibilidad será clave para su desarrollo futuro, y un 77 % opina que comprender las prácticas sostenibles será esencial para el éxito profesional. La IA se presenta como un facilitador para reducir emisiones, optimizar procesos y promover decisiones basadas en datos.

Finalmente, Autodesk enfatiza la necesidad de alianzas entre empresas y el ámbito educativo para formar a una fuerza laboral preparada para los desafíos del futuro. El aprendizaje continuo, la capacitación digital y el desarrollo de habilidades humanas serán determinantes en la próxima década.

Los modelos locales de IA ganan terreno frente a la nube: control, privacidad y autonomía digital

Bradbury, Danny. “Bring Your Own Brain? Why Local LLMs Are Taking Off.” The Register, 31 de agosto de 2025. https://www.theregister.com/2025/08/31/local_llm_opinion_column/

Una tendencia creciente consiste en ejecutar modelos de lenguaje extenso (LLM) directamente en dispositivos locales —ya sean ordenadores personales, servidores internos o dispositivos de borde— en lugar de depender exclusivamente de servicios en la nube.

Esta preferencia surge de una combinación de motivos: la preocupación por la privacidad y el uso de datos por parte de grandes empresas, el costo creciente de los servicios de IA basados en la nube, y los avances en hardware y software que hacen viable correr modelos locales.

Según el autor, ejecutar modelos localmente permite mayor control sobre los datos del usuario, evitando que terceros almacenen o analicen las consultas. Además, plantea que los proveedores de IA cloud podrían recurrir a monetizar el acceso mediante tarifas o uso de datos del usuario, lo que haría que depender completamente de la nube fuera menos sostenible.

El artículo también aborda los retos técnicos: los modelos locales suelen tener menor tamaño y rendimiento comparado con los más potentes de la nube, pero la técnica de “quantización” (reducir la precisión numérica de los pesos del modelo) permite sacrificar algo de exactitud a cambio de menores requisitos de memoria y computación. Asimismo, la comunidad de software libre ha desarrollado capas de abstracción como Ollama para facilitar la instalación y uso de modelos locales sin necesidad de conocimientos técnicos profundos.

En cuanto a usos prácticos, el autor sugiere que los LLM locales son especialmente adecuados para entornos donde la privacidad y el control sobre los datos son prioritarios (por ejemplo, bufetes, empresas con información sensible), o para usuarios individuales que desean experimentar sin costo escalado. Sin embargo, advierte que para tareas generales o de alta complejidad empresarial, los modelos locales aún no pueden competir con los modelos en la nube más grandes y sofisticados. T

Relación entre el uso de la inteligencia artificial (IA) y la evolución de Wikipedia

Reeves, Neal, Wenjie Yin, y Elena Simperl. “Exploring the Impact of ChatGPT on Wikipedia Engagement.” Collective Intelligence, 2025. https://doi.org/10.1177/26339137251372599

Se analiza cómo la aparición de ChatGPT ha influido en los patrones de uso y contribución en Wikipedia. Los autores investigan si el lanzamiento de esta herramienta ha alterado el comportamiento de los usuarios en cuanto a consultar, minar información o editar artículos de la enciclopedia libre.

Se examina de manera exhaustiva cómo la irrupción de la inteligencia artificial generativa —especialmente ChatGPT— ha influido en los patrones de interacción de los usuarios con Wikipedia. Su objetivo principal es determinar si el uso masivo de modelos conversacionales está desplazando el papel tradicional de la enciclopedia libre como fuente de conocimiento o, por el contrario, si ambos sistemas pueden coexistir de manera complementaria.

Los investigadores realizaron un análisis longitudinal entre 2021 y 2024, abarcando doce ediciones lingüísticas de Wikipedia. Eligieron la mitad de ellas en países donde ChatGPT está ampliamente disponible y la otra mitad en regiones donde el acceso es limitado o nulo. Este enfoque permitió comparar cómo varían el tráfico, las consultas y la actividad editorial dependiendo de la presencia o ausencia de la inteligencia artificial conversacional. Contra lo que muchos expertos predecían, los resultados no muestran un descenso generalizado en el uso de Wikipedia: en la mayoría de las ediciones analizadas, el número de visitas e incluso las contribuciones editoriales se mantuvieron estables o crecieron moderadamente.

El estudio sugiere que, lejos de sustituir a Wikipedia, ChatGPT ha reconfigurado la forma en que los usuarios se relacionan con el conocimiento digital. Muchos de ellos utilizan la inteligencia artificial para obtener respuestas rápidas o resúmenes, pero recurren a Wikipedia para verificar información, explorar en mayor profundidad los temas o consultar las fuentes originales. De este modo, se produce una relación de complementariedad más que de competencia directa. La IA actúa como una interfaz de acceso rápido al conocimiento, mientras que Wikipedia conserva su papel como repositorio abierto, verificable y colaborativo.

No obstante, los autores advierten que esta coexistencia plantea desafíos serios. Uno de los principales es el fenómeno de la toma masiva de datos (data scraping), mediante el cual las empresas que entrenan modelos de IA extraen grandes cantidades de texto de Wikipedia sin atribución explícita. Este proceso no solo genera tensiones éticas sobre la propiedad intelectual y la autoría colectiva, sino que también puede perjudicar la sostenibilidad técnica del proyecto, al incrementar la carga sobre los servidores y reducir el tráfico directo hacia la enciclopedia. Si los usuarios reciben respuestas inmediatas sin necesidad de visitar la fuente original, la comunidad editorial de Wikipedia puede perder visibilidad, participación y, en última instancia, relevancia.

El estudio también aborda el riesgo de que la inteligencia artificial difunda información derivada de Wikipedia sin el mismo rigor editorial ni el sistema de verificación comunitaria que caracteriza al proyecto. Los modelos de lenguaje no siempre reproducen el contexto o las referencias adecuadas, lo que puede conducir a distorsiones o errores. Ante esta situación, los autores abogan por establecer un nuevo marco de cooperación entre las plataformas de IA y la Fundación Wikimedia, basado en principios de transparencia, atribución y uso responsable de los datos.

Como propuesta práctica, el equipo investigador menciona la posibilidad de que los modelos de inteligencia artificial utilicen bases de datos estructuradas como Wikidata, en lugar de copiar texto plano de los artículos. Este tipo de integración permitiría a los sistemas de IA acceder a información verificable y actualizada, respetando al mismo tiempo la integridad del contenido original y reduciendo la dependencia de métodos de extracción masiva. Además, abriría la puerta a una sinergia más constructiva, en la que la inteligencia artificial contribuya a mejorar la accesibilidad y la difusión del conocimiento sin socavar las bases colaborativas sobre las que se asienta Wikipedia.

Los jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico

Liu, Yi-Ling. “Young People in China Are Embracing AI Therapy.” Rest of World, October 6, 2025. https://restofworld.org/2025/young-people-in-china-are-embracing-ai-therapy/

En los últimos años, un número creciente de jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico. Esta tendencia responde a múltiples factores: la escasez de terapeutas profesionales, los elevados costes de las consultas presenciales y el estigma social que todavía rodea a los problemas de salud mental


384 / 5.000

Casi el 80% de los hospitales generales de China carecen de servicio de psiquiatría. Conseguir citas es difícil, costoso y, en su mayoría, se paga directamente del paciente, sobre todo en las zonas rurales.

Frente a esta realidad, las aplicaciones basadas en IA ofrecen una alternativa inmediata, económica y discreta. Los chatbots terapéuticos permiten conversar en cualquier momento del día, sin cita previa y sin exponerse al juicio de otros, lo que los convierte en una opción atractiva para una generación habituada a interactuar digitalmente y a buscar soluciones rápidas a través del teléfono móvil.

Las plataformas más populares, como DeepSeek, Doubao de ByteDance, PsychSnail o Good Mood AI Companion, ofrecen funciones que van más allá del simple diálogo. Incorporan cuestionarios psicológicos, seguimiento del estado de ánimo, recomendaciones personalizadas y, en algunos casos, protocolos de emergencia que detectan palabras clave relacionadas con crisis emocionales o ideaciones suicidas. Estas herramientas se presentan como un recurso híbrido entre la autoayuda digital y la terapia guiada, con una capacidad de respuesta que, en muchos casos, supera la disponibilidad de los servicios públicos.

Entre los principales beneficios que los usuarios mencionan se encuentran la accesibilidad, el bajo coste y la sensación de anonimato. Hablar con una máquina resulta menos intimidante que hacerlo con una persona, especialmente en una cultura donde la expresión abierta de las emociones todavía se percibe como signo de debilidad. Además, algunos modelos permiten personalizar la voz o el estilo del “terapeuta virtual”, adaptándolo a figuras o tonos que el usuario percibe como reconfortantes. Sin embargo, esta flexibilidad conlleva riesgos, como la dependencia emocional hacia el chatbot o la validación irreflexiva de pensamientos negativos. Los modelos de lenguaje tienden a confirmar o empatizar con todo lo que el usuario expresa, incluso cuando esas emociones deberían ser confrontadas o encauzadas de otro modo.

El artículo de Rest of World también advierte sobre las limitaciones técnicas y éticas de estas plataformas. Aunque el gobierno chino ha desarrollado un marco regulatorio para los algoritmos generativos —que exige su registro y evaluación de seguridad—, no existen aún normas específicas para los chatbots terapéuticos. Esto deja un vacío legal en temas tan sensibles como la privacidad de los datos, la protección de usuarios vulnerables o la calidad de las intervenciones. En situaciones de crisis graves, la respuesta automatizada puede ser insuficiente o incluso peligrosa si no se conecta al usuario con asistencia humana inmediata.

Aun con estas advertencias, los testimonios recogidos en el reportaje muestran que la IA está desempeñando un papel importante en la democratización del acceso al cuidado psicológico en China. Para muchas personas jóvenes, hablar con un chatbot ha sido el primer paso hacia la comprensión y expresión de sus emociones, o incluso una manera de sentirse escuchadas en un contexto social y económico cada vez más competitivo y exigente. Sin embargo, el desafío futuro radica en encontrar un equilibrio entre la innovación tecnológica y la responsabilidad ética: aprovechar el potencial de la inteligencia artificial sin sustituir la presencia humana donde esta es insustituible.