Desarrollos en los mercados de inteligencia artificial: nuevos indicadores

OECD. 2025. Developments in Artificial Intelligence Markets: New Indicators Based on Model Characteristics, Prices and Providers. OECD Artificial Intelligence Papers, no. 37. París: OECD Publishing. Publicado el 17 de junio de 2025. https://doi.org/10.1787/9302bf46-en.

El tercer informe presenta indicadores nuevos para analizar los mercados de IA a partir de características de modelos, precios y proveedores. Utiliza una extensa base de datos sobre modelos generativos, incluyendo su rendimiento, coste, origen (empresas desarrolladoras), infraestructuras de nube y aplicaciones derivadas. Se detecta una tendencia hacia la baja de los precios ajustados por calidad, un aumento de la variedad de modelos disponibles y una expansión del número de actores en el mercado, lo que sugiere un dinamismo saludable. Sin embargo, también se identifican riesgos que podrían frenar el crecimiento del sector, como cuellos de botella relacionados con datos, capacidad computacional y escasez de talento especializado. Estas limitaciones podrían derivar en una concentración excesiva del mercado y obstaculizar el acceso abierto y competitivo a los beneficios de la IA.

Modelos de IA confiables mediante tecnologías que mejoran la privacidad (PETs)

OECD. 2025. Sharing Trustworthy AI Models with Privacy‑Enhancing Technologies. OECD Artificial Intelligence Papers, no. 38. París: OECD Publishing. https://doi.org/10.1787/a266160b-en.

El documento aborda el papel de las tecnologías que mejoran la privacidad (Privacy-Enhancing Technologies, PETs) en el desarrollo de modelos de IA confiables. Clasifica los usos de estas tecnologías en dos grandes grupos: por un lado, aquellas que permiten mejorar el rendimiento de los modelos sin exponer los datos, como el federated learning, los entornos de ejecución confiables (TEEs) o la computación multipartita segura (SMPC); por otro, tecnologías que posibilitan la creación y compartición confidencial de modelos, como la privacidad diferencial y el cifrado homomórfico. Estas herramientas son fundamentales para proteger la privacidad y la propiedad intelectual, y para fomentar la colaboración en entornos sensibles. El informe señala que, si bien estas tecnologías tienen un gran potencial, no son soluciones mágicas: su utilidad requiere combinaciones cuidadosas y equilibradas, y todavía presentan desafíos en términos de eficiencia y facilidad de uso. Por ello, se recomienda que los gobiernos impulsen su adopción mediante marcos regulatorios flexibles, apoyo a la I+D y espacios de prueba como los regulatory sandboxes.

El uso de tecnologías como trusted execution environments (TEEs), federated learning, y secure multi-party computation para procesar y ensayar datos sin comprometer su confidencialidad. El uso de datos sintéticos y differential privacy ayuda a reducir la dependencia de datos reales. Para colaborar o compartir modelos sin revelar información protegida, se combinan herramientas como MPC, federated learning, HE, TEE y differential privacy. Estas herramientas permiten crear y utilizar modelos manteniendo su confidencialidad y la de sus datos subyacentes.

Aunque prometedoras, las PETs enfrentan retos técnicos —como complejidad, eficiencia, usabilidad y equilibrio entre utilidad y privacidad— y barreras regulatorias o institucionales que dificultan su adopción amplia.

El informe sugiere que los gobiernos fomenten el uso de PETs mediante:

  • Orientaciones y guías reguladoras
  • Regulatory sandboxes para innovación controlada
  • Apoyo a I +D +i
  • Desafíos o concursos para estimular el desarrollo
  • Compras públicas estratégicas
  • Desarrollo de habilidades y competencias institucionales

Efectos de la IA generativa en la productividad, la innovación y el emprendimiento

Calvino, Flavio; Jelmer Reijerink; y Lea Samek. 2025. The effects of generative AI on productivity, innovation and entrepreneurship. OECD Artificial Intelligence Papers, No. 39. OECD Publishing. https://doi.org/10.1787/b21df222‑en

Este primer informe examina cómo la inteligencia artificial generativa afecta la productividad y transforma el panorama de la innovación y el emprendimiento. Destaca el potencial de la IA para automatizar tareas, amplificar capacidades humanas y modificar las operaciones empresariales. También señala su papel en la estimulación de la creatividad, la aceleración del I+D y la reducción de barreras de entrada para nuevos actores económicos. Sin embargo, el estudio advierte que la eficacia de la IA depende en gran medida del nivel de experiencia del usuario y del tipo de tarea realizada. La colaboración entre humanos y sistemas de IA emerge como una clave para maximizar beneficios. Además, se identifican vacíos importantes en la investigación actual, especialmente en lo referente a los efectos a largo plazo de la IA en los negocios y a la comprensión limitada de sus restricciones por parte de los trabajadores. El informe llama a profundizar en estos aspectos para orientar un uso ético y efectivo de estas tecnologías.

1. Automatización, aumento de habilidades y transformación empresarial

  • La IA generativa puede automatizar tareas rutinarias—como redacción, traducción y resúmenes—, con mejoras en eficiencia de hasta un 40 % y calidad entre un 18–40 % .
  • En la traducción y síntesis de textos complejos —por ejemplo, fallos judiciales—, los modelos actuales igualan o superan sistemas especializados .
  • En programación, herramientas como GitHub Copilot permiten desarrollar código un 55 % más rápido .

2. Colaboración humano‑IA como factor clave

  • La sinergia entre humanos y IA es fundamental: el usuario y el contexto determinan el éxito, y no es un sustituto sino un complemento ft.com.
  • Esta colaboración es particularmente efectiva para tareas con alta carga cognitiva, liberando tiempo para tareas estratégicas .

3. Estímulo a la creatividad e innovación

  • En generación de ideas, la IA puede potenciar creatividad, especialmente para personas sin experiencia, aunque puede generar resultados menos diversos o más homogéneos arxiv.org+1arxiv.org+1.
  • En entornos de I+D, la IA acelera la definición de problemas, diseño experimental y fases iniciales del desarrollo de productos y servicios oecd.org.
  • Para grupos de innovación, estudios revelan que herramientas con IA mejoran la originalidad, claridad y calidad de las ideas oecd.org+1arxiv.org+1.

4. Rendimiento económico y mercados de capital

  • El lanzamiento de ChatGPT se asoció con un rendimiento diario superior en acciones de empresas con alta exposición a IA generativa (≈ 0.45 %) oecd.org.
  • Cuando Italia bloqueó ChatGPT temporalmente, las empresas expuestas sufrieron una caída del 9 % en cotización .

5. Vacíos en investigación y recomendaciones

  • Existen lagunas: pocos estudios sobre efectos a largo plazo, comprensión y confianza de los trabajadores, y la evolución del mercado laboral .
  • Se destaca la necesidad de nuevos estudios longitudinales y microeconómicos que examinen la productividad y capacidad de absorción de las empresas arxiv.org.
  • Los autores enfatizan la importancia del capital humano, la formación continua, el rol del pensamiento crítico y políticas que apoyen el despliegue responsable de la IA .

¿Cuánto texto pueden generar las diferentes herramientas de Inteligencia Artificial?

Los modelos de inteligencia artificial basados en lenguaje natural, como ChatGPT, no trabajan directamente con palabras o caracteres completos, sino con tokens, que son unidades básicas de texto. Esta estrategia permite a los modelos manejar y procesar el lenguaje de manera más eficiente y granular. Un token puede corresponder a una palabra completa, una parte de una palabra (como un prefijo o sufijo), un signo de puntuación o incluso espacios. Por ejemplo, la palabra «inteligencia» podría dividirse en varios tokens si el modelo utiliza un método de tokenización subpalabra (como Byte Pair Encoding o WordPiece).

¿Por qué usar tokens?

La tokenización ayuda a los modelos a lidiar con la variedad infinita de combinaciones en el lenguaje natural, permitiendo que puedan aprender patrones y predecir la siguiente unidad con mayor precisión. Según OpenAI, la tokenización es crucial para que los modelos de lenguaje puedan generar texto coherente y fluido, ya que cada token representa un fragmento manejable para los algoritmos de predicción estadística y aprendizaje profundo.

Límite de tokens y generación de texto

La capacidad para generar texto en modelos como GPT está limitada por un máximo de tokens por interacción o llamada al modelo. Esto significa que la suma de los tokens de entrada (el texto que proporcionas) y de salida (el texto generado) no puede superar ese límite. Por ejemplo, el modelo GPT-3.5 tiene un límite de aproximadamente 4,096 tokens por solicitud, mientras que modelos más recientes pueden manejar hasta 8,000 tokens o incluso más, dependiendo de la versión y configuración

Este límite es importante porque afecta la longitud y la complejidad del texto que el modelo puede procesar y generar de manera coherente. Si se excede el límite, el texto de entrada o el de salida deben ser truncados o segmentados, lo que puede afectar la continuidad y calidad del contenido generado.

¿Qué es un token en detalle?

Los tokens no coinciden necesariamente con palabras, especialmente en idiomas con palabras compuestas o con conjugaciones complejas. Por ejemplo, la palabra inglesa «unhappiness» puede dividirse en tokens como «un», «happi», «ness». De forma similar, en español, las terminaciones verbales o sufijos se tratan como tokens separados para que el modelo aprenda mejor las reglas gramaticales y las relaciones semánticas.

Según la explicación de Jurafsky y Martin en su libro Speech and Language Processing, la tokenización es un paso fundamental en el procesamiento del lenguaje natural (PLN) y puede ser tan simple como dividir por espacios o tan complejo como aplicar modelos de segmentación que respeten la morfología del idioma.

Por ejemplo, la frase:

«Hola, ¿cómo estás?»

Podría dividirse en tokens como:

«Hola»

«,»

«¿»

«cómo»

«estás»

«?»

Cada uno de estos es un token para el modelo.

Herramienta / ModeloLímite tokens (entrada + salida)Aproximación de palabras generadas en una sola respuesta
GitHub Copilot~2048 tokens~1000-1500 palabras (para código y texto combinados)
ChatGPT (GPT-3.5)4096 tokens~1500-3000 palabras
ChatGPT (GPT-4)8192 tokens~3000-6000 palabras
Claude (Anthropic)~9000 tokens~3500-6500 palabras
Gemini (Google DeepMind)8192 – 32768 tokensDesde ~3000 hasta ~12,000-25,000 palabras (según versión)
Perplexity AIDepende del modelo que useVaría según modelo (ej., GPT-4: hasta ~6000 palabras)

Aproximación de cantidad de texto generado según límite de tokens

Alfabetización en IA y la importancia de las bibliotecas públicas

Feeney, Drew. “AI Literacy & the Criticality of Public Libraries.” Information Literacy Website, Infolit.org.uk. Publicado en 2025. https://infolit.org.uk/ai-literacy-the-criticality-of-public-libraries/

El auge de herramientas generativas de IA ha generado incertidumbre y preguntas profundas: ¿cómo funciona realmente la IA?, ¿es ético su uso?, y ¿qué impacto tendrá en nuestra vida diaria? Estas preguntas reflejan una nueva era informativa que exige habilidades críticas renovadas

Las bibliotecas públicas, que desde hace décadas han sido pilares de la alfabetización digital comunitaria, se encuentran en una posición privilegiada para asumir también esta misión en la era de la IA. No solo deben ayudar a la gente a acceder a estas tecnologías, sino también a comprenderlas críticamente. Feeney se pregunta: ¿cómo apoyar a los usuarios con poca competencia digital para que se alfabeticen en IA y participen activamente en un entorno cada vez más automatizado?

El artículo cita un informe de la Good Things Foundation que sugiere que la alfabetización digital y mediática es requisito previo para la alfabetización en IA. Esto revela la importancia de que las bibliotecas fortalezcan sus programas tradicionales de alfabetización digital, ya que solo con una base sólida estas nuevas competencias podrán arraigar eficazmente en las comunidades más vulnerables

Feeney concluye que las bibliotecas deben continuar promoviendo activamente la alfabetización digital, mediática e informacional si quieren ser eficaces espacios de aprendizaje en torno a la IA. Su rol como espacios comunitarios confiables y accesibles las convierte en agentes esenciales para reducir la brecha digital y garantizar que nadie quede rezagado en esta transición tecnológica.

Rai Anciola y la alquimia del sonido en Oda Estudio. Viviendo en la era pop 2025/06/20

Rai Anciola y la alquimia del sonido en Oda Estudio.

Viviendo en la era pop 2025/06/20

ESCUCHAR

Descargar

Raimundo Martín Luengo —o Rai Anciola, como firma su proyecto musical más reciente— es un artista inquieto y profundamente versátil. A lo largo de su trayectoria ha dado forma a un abanico de propuestas que abarcan desde el pop electrónico hasta el reggae, sin dejar de explorar sonidos de raíz hispanoamericana e hindú.

Además de creador, Rai es también productor musical. Desde su Oda Estudio, ofrece servicios de grabación y locales de ensayo, poniendo su talento, experiencia y sensibilidad al servicio de otros músicos. Lo hace con un gran sentido de la profesionalidad, cuidando cada detalle para que cada proyecto encuentre su mejor expresión sonora.

Hoy, en Viviendo en la Era Pop, nos adentramos con él en algunas de las grabaciones realizadas en Oda Estudio para artistas tan variados como Iroko, Natalia Palencia, Stress, CO Pal, Silver Route Blues Band, Aaron Salazar y el propio Rai Anciola. Una sesión para descubrir el pulso creativo de un espacio donde la música fluye sin etiquetas ni fronteras.

La alfabetización en inteligencia artificial: el nuevo reto de las bibliotecas del futuro

LibLime. “AI Literacy in the Future of Libraries: Adapting to a New Information Landscape.” LibLime Blog, 17 de marzo de 2025.

Texto completo

Las bibliotecas están en un momento crucial ante la evolución digital: la inteligencia artificial (IA) está transformando cómo se crea, accede y evalúa la información, y por ello estas instituciones deben ampliar su rol tradicional hacia la educación en alfabetización digital centrada en IA

Se identifica una «brecha emergente en la alfabetización en IA»: aunque un 75 % de estadounidenses ha oído hablar de herramientas como ChatGPT, solo un 18 % las utiliza, concentrándose principalmente en grupos con mayor nivel educativo y económico, lo que resalta la necesidad de intervención.

La alfabetización en IA va más allá de la mera búsqueda de información: incorpora habilidades para entender las capacidades y limitaciones de la IA, reconocer contenido generado por IA, evaluarlo críticamente y abordar sus implicaciones éticas.

Expertos como Miguel Figueroa señalan que las bibliotecas deben enseñar a las personas a desenvolverse en un ecosistema informativo en el que «actores no humanos» (IA) influyen significativamente.

Varias bibliotecas ya implementan programas orientados a esta alfabetización. La Universidad de Michigan ha integrado la IA en sus planes de alfabetización informacional mediante un marco específico para ello . Por otro lado, la Biblioteca Pública de San Francisco ha lanzado “AI Labs”, espacios donde las personas pueden experimentar con herramientas de IA con el acompañamiento de profesionales capacitados.

No obstante, persisten desafíos: la falta de fondos, la escasa preparación técnica del personal y la rapidez con que cambia la tecnología dificultan estos esfuerzos. Según una encuesta de 2023, aunque el 82 % de los bibliotecarios reconoce la importancia de la alfabetización en IA, solo el 24 % se siente lo suficientemente preparado para impartirla. Además, deben abordarse cuestiones éticas complejas. Como advierte Safiya Noble, es crucial enseñar a reconocer y combatir los sesgos tecnológicos, evitando que estos refuercen injusticias sociales

El futuro de las bibliotecas podría estar en una relación complementaria con la IA: automatizar tareas rutinarias facilitaría que los profesionales se concentren en servicios de valor añadido, como investigación avanzada o educación en IA . La Biblioteca Pública de Nueva York ya está probando esta estrategia con un asistente de referencia basado en IA que deriva las preguntas complejas a los bibliotecarios humanos.

Finalmente, se destaca la necesidad de formar al personal bibliotecario. La Asociación Americana de Bibliotecas está actualizando sus estándares de acreditación para incluir competencias en IA, y ya existen iniciativas como la Library Futures Institute que ofrecen formación especializada. La creación de puestos específicos, como el de “bibliotecario de tecnologías emergentes” en la Universidad de Berkeley, refleja esta tendencia

El estado de la alfabetización en datos e IA en 2025: avances, retos y estrategias

Ampliar

DataCamp Team. 2025. “Introducing the State of Data & AI Literacy Report 2025.” DataCamp Blog, 9 de abril de 2025.

Texto completo

En su tercera edición, el informe State of Data & AI Literacy Report 2025 analiza la preparación de las organizaciones frente al auge de la inteligencia artificial. Se basa en una encuesta a más de 500 líderes empresariales de EE. UU. y Reino Unido, además de incluir aportes de empresas como Colgate, BP, Rolls‑Royce y JPMorgan Chase

Un hallazgo destacado es que el alfabetismo en IA está creciendo rápidamente: el 69 % de los líderes lo considera esencial, frente al 86 % que otorga esa misma importancia a la alfabetización en datos, y representa un aumento de 7 puntos respecto al año anterior. La IA ya no es una novedad: el 91 % informa que al menos alguien en su organización la utiliza, el 82 % hace uso semanal y el 39 % la usa a diario

Las empresas están convirtiendo iniciativas aisladas en programas estructurados de formación. El 46 % ofrece un programa maduro de alfabetización de datos, subiendo desde el 35 %, y el 43 % cuenta con formación avanzada en IA, casi el doble del 25 % del año anterior. No obstante, persisten obstáculos como limitaciones presupuestarias, resistencia interna, escaso apoyo ejecutivo y dificultades para medir el retorno de inversión

El informe también presenta cinco recomendaciones clave basadas en las prácticas de organizaciones exitosas:

  1. Vincular la formación con objetivos de negocio, como reducir tiempos de informe o mejorar procesos.
  2. Abordarlo como una iniciativa de gestión del cambio, con embajadores internos y narrativas inspiradoras.
  3. Priorizar aprendizaje práctico, basado en tareas reales.
  4. Integrar datos e IA como un continuo en el plan de formación.
  5. Personalizar a gran escala, adaptando contenidos por roles dentro de la organización

Por último, el informe subraya que la alfabetización en datos y en IA no solo es una ventaja competitiva, sino también una salvaguarda social frente a desafíos como la desinformación, los sesgos algorítmicos y el riesgo de automatización laboral. Por ejemplo, el 73 % de los líderes lo considera esencial para combatir la desinformación, y el 75 % apoya la formación ética en IA para evitar sesgos .

“Google ya no necesita tu clic”: lo que debes saber sobre el nuevo modelo de búsqueda con AI Overviews

Schwartz, Barry. 2025. “Google Explains the Great Decoupling.” Search Engine Roundtable, June 18, 2025. https://www.seroundtable.com/google-explains-the-great-decoupling-39609.html

“The Great Decoupling” exige un replanteamiento de las estrategias digitales. La optimización para buscadores ya no debe centrarse exclusivamente en atraer visitas, sino en generar contenido que añada verdadero valor, capaz de motivar una acción más allá de una simple lectura. En este nuevo ecosistema, la calidad del tráfico podría volverse más importante que su cantidad.

Desde la implementación de las nuevas funciones de inteligencia artificial en su motor de búsqueda, Google ha introducido un fenómeno conocido como “The Great Decoupling”, que describe la creciente disociación entre el número de impresiones (es decir, cuántas veces aparece una página web en los resultados de búsqueda) y el número de clics (cuando un usuario realmente visita ese sitio). En particular, con la llegada de los AI Overviews —resúmenes generados por inteligencia artificial que Google muestra directamente en la parte superior de la página de resultados— los editores y expertos en SEO han notado un aumento significativo de impresiones, pero una caída considerable en la tasa de clics (CTR).

Este fenómeno fue abordado recientemente en el evento Google Search Central Live celebrado en Varsovia en 2025, donde Martin Splitt, desarrollador defensor de Google, explicó que cuando el contenido de una web es incorporado dentro de un AI Overview, esa página tiende a recibir muchas más impresiones, pero menos clics, ya que el usuario recibe la información que busca directamente en la respuesta automatizada. Sin embargo, Splitt defendió que los clics que sí se generan suelen tener una calidad mucho mayor, ya que provienen de usuarios con una intención más clara, lo que puede traducirse en un mejor desempeño comercial o mayor conversión.

Datos recientes del sector, como los de la plataforma Ahrefs, confirman esta tendencia. La correlación entre impresiones y clics ha pasado de ser positiva a negativa: si antes más impresiones significaban más clics, ahora significan menos. La razón principal es que muchos usuarios obtienen una respuesta suficiente con el resumen generado por IA y no sienten la necesidad de visitar el sitio original. Esto ha generado preocupación entre editores, creadores de contenido y sitios cuya monetización depende en gran medida del volumen de tráfico.

A pesar de las críticas, Google parece estar avanzando hacia un modelo donde los AI Overviews formen parte central de la experiencia de búsqueda. Se ha señalado que el modo por defecto del buscador podría convertirse pronto en un “AI Mode”, lo que consolidaría esta forma de presentar la información. Si bien esto representa un desafío para el SEO tradicional, también abre oportunidades para quienes logren generar contenido más profundo, valioso o enfocado en la conversión.

Impulsando la Alfabetización digital en IA. El caso de la Biblioteca de la Universidad de León.

Barrionuevo, Leticia, y Luis Ignacio Martínez Casado. 2025. “Impulsando la alfabetización digital en IA. El caso de la Biblioteca de la Universidad de León.” Boletín de la Asociación Andaluza de Bibliotecarios, n.º 129 (enero-junio): 37–49. https://aab.es/wp-content/uploads/2025/06/129-BAAB-037-050.pdf

Se presenta una iniciativa pionera para fomentar la comprensión crítica y el uso ético de la inteligencia artificial (IA) desde el ámbito bibliotecario universitario. Frente al auge de herramientas como ChatGPT y las preocupaciones derivadas —como el plagio, la pérdida de habilidades críticas o la superficialidad en el aprendizaje—, la Biblioteca de la Universidad de León impulsa un programa de alfabetización digital con una visión integradora.

El artículo arranca con un análisis del contexto general: la IA ha generado tanto entusiasmo como recelo en el entorno educativo. Las autoras repasan la evolución del uso de tecnologías de IA en bibliotecas, desde los primeros sistemas expertos hasta las actuales herramientas conversacionales y de aprendizaje automático. Apoyándose en estudios recientes, destacan que la incorporación de la IA requiere no solo conocimiento técnico, sino también una atención especial a los aspectos éticos, la privacidad y el impacto social.

Uno de los ejes del programa es Contec, un espacio dentro de la Biblioteca General concebido como contenedor de Tecnología Educativa y Conocimiento. Este entorno de aprendizaje activo y colaborativo fue diseñado para fomentar el encuentro entre estudiantes, docentes y bibliotecarios, y es la sede principal de los talleres y cursos ofrecidos sobre inteligencia artificial.

El programa de alfabetización se organiza en tres líneas:

  1. Estudiantes: sesiones centradas en el uso práctico de herramientas de IA, evaluación crítica de resultados, ética, sesgos, y creación de prompts eficaces.
  2. Docentes e investigadores: cursos orientados a la aplicación de la IA en la docencia, la investigación y la innovación educativa.
  3. Bibliotecarios: formación sobre herramientas como ChatGPT, con el objetivo de fortalecer el papel del profesional de la información en este nuevo entorno tecnológico.

Los autores destacan que, aunque la alfabetización de estudiantes aún no ha comenzado (inicio previsto en noviembre de 2025), la experiencia con el profesorado ha sido muy positiva. Se ha producido un cambio de actitud hacia la IA, de la desconfianza inicial a una disposición favorable para integrarla en los procesos educativos.

El artículo concluye que, a pesar de los desafíos (como la dependencia excesiva de la tecnología o la necesidad de formación continua del personal), el proyecto de alfabetización en IA de la Biblioteca de la Universidad de León es un ejemplo prometedor de cómo los servicios bibliotecarios pueden liderar la capacitación crítica y ética en el uso de tecnologías disruptivas.