Archivo de la etiqueta: Inteligencia artificial

Los ataques de gobierno de EE.UU. a la ciencia y la investigación son «un gran regalo para China» en materia de inteligencia artificial

Hern, Alex. «US Attacks on Science and Research ‘a Great Gift to China’ on Artificial Intelligence, Former OpenAI Board Member Says.» The Guardian, June 9, 2025. https://www.theguardian.com/technology/2025/jun/09/us-attacks-on-science-and-research-a-great-gift-to-china-on-artificial-intelligence-former-openai-board-member-says.

Helen Toner, exmiembro del consejo de administración de OpenAI y actual directora de estrategia del Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown, ha advertido que las actuales políticas de Estados Unidos en relación con la ciencia, la investigación y el talento extranjero están debilitando seriamente su liderazgo global en inteligencia artificial.

En una entrevista con The Guardian, Toner afirmó que los ataques políticos a la comunidad científica, junto con las restricciones a la entrada de estudiantes e investigadores internacionales, representan un “gran regalo para China”, que sigue avanzando en su propia carrera tecnológica.

Toner sostiene que gran parte del talento en investigación en Estados Unidos proviene del extranjero, especialmente de países como China. Las medidas restrictivas del gobierno estadounidense —como el endurecimiento de visados, los controles de exportación de chips avanzados y los recortes a la financiación pública— podrían provocar una fuga de cerebros y una desventaja competitiva en áreas estratégicas. Mientras tanto, China continúa desarrollando tecnologías punteras, como los modelos de lenguaje de gran escala, a pesar de los esfuerzos estadounidenses por frenarla mediante sanciones.

La exconsejera de OpenAI también se refirió a los efectos sociales de la inteligencia artificial, advirtiendo sobre un riesgo gradual de «desempoderamiento» colectivo. Según Toner, podríamos estar delegando funciones cada vez más críticas —en el gobierno, en las empresas y en la vida diaria— a sistemas algorítmicos, sin mecanismos adecuados de supervisión o responsabilidad. Aunque todavía hay incertidumbre sobre los plazos, los expertos coinciden en que muchas tareas profesionales, especialmente las realizadas por empleados jóvenes o en formación, ya están siendo desplazadas por herramientas de IA.

Sin embargo, Toner no niega el enorme potencial positivo de estas tecnologías. Mencionó, por ejemplo, los avances en medicina, donde la IA podría acelerar el descubrimiento de medicamentos, o en el transporte, con vehículos autónomos como los desarrollados por Waymo, que podrían reducir significativamente las muertes por accidentes de tráfico. El desafío, según ella, es garantizar un desarrollo ético y responsable, que combine innovación con regulaciones efectivas.

La figura de Helen Toner ha cobrado notoriedad en el ámbito tecnológico y mediático tras su papel clave en la crisis institucional de OpenAI en 2023, cuando el entonces CEO Sam Altman fue destituido y luego reincorporado. Su participación en este episodio ha despertado tanto el interés periodístico como cinematográfico: el director Luca Guadagnino está preparando una película sobre estos acontecimientos, en la que una actriz reconocida interpretará a Toner. En 2024, la revista Time la incluyó entre las 100 personas más influyentes del mundo en el campo de la inteligencia artificial.

CC Signals: licencia Creative Commons con la que los autores puedan determinar los uso de lA para sus contenidos

Creative Commons. 2025. “Introducing CC Signals: A New Social Contract for the Age of AI.Creative Commons, 25 de junio de 2025. https://creativecommons.org/ai-and-the-commons/cc-signals/

En un momento en el que la IA está transformando radicalmente la creación, el acceso y la difusión del conocimiento, CC Signals representa una apuesta ética y colaborativa por una inteligencia artificial al servicio de todos, basada en principios de apertura, respeto y responsabilidad compartida.

Creative Commons ha presentado CC Signals, una iniciativa pionera que propone un nuevo «contrato social» para la era de la inteligencia artificial. Este marco surge como respuesta a la creciente preocupación por el uso masivo e indiscriminado de datos por parte de los modelos de IA. En lugar de aceptar una dicotomía entre un entorno de extracción sin restricciones o uno cerrado por muros de pago, CC Signals apuesta por una tercera vía: un ecosistema abierto y basado en la reciprocidad, en el que los creadores y titulares de contenido puedan expresar claramente sus preferencias sobre cómo debe usarse su información por parte de sistemas automatizados.

El objetivo principal de CC Signals es permitir que los datos sean utilizados en procesos de entrenamiento de IA de manera ética y transparente, reconociendo los intereses de quienes aportan contenido. Para ello, introduce un sistema de «señales» legibles tanto por humanos como por máquinas, que indican el nivel de apertura o condiciones de reutilización que cada creador desea establecer. Estas señales no son legalmente vinculantes, pero sí actúan como una guía de buenas prácticas, similar a como las licencias Creative Commons revolucionaron el panorama del derecho de autor hace dos décadas.

Uno de los principios clave del proyecto es fomentar un ciclo de «dar, tomar y volver a dar»: quienes utilizan datos para entrenar modelos deben contribuir también al bien común, ya sea compartiendo sus resultados, reconociendo el origen de los datos o respetando las preferencias expresadas. Si bien una señal individual puede pasar desapercibida, el uso generalizado de CC Signals por parte de comunidades de práctica, instituciones culturales o desarrolladores de IA puede establecer una norma ética reconocida globalmente.

La iniciativa se encuentra actualmente en fase de desarrollo beta y se ha abierto a la participación pública a través de GitHub. Se prevé que una versión alpha esté disponible en noviembre de 2025. Durante los meses de julio y agosto, Creative Commons organizará una serie de encuentros virtuales para debatir el marco propuesto y recoger aportaciones. Estos espacios permitirán a creadores, tecnólogos, académicos y activistas colaborar en la construcción colectiva de esta nueva herramienta de gobernanza digital.

El uso de herramientas de inteligencia artificial generativa (IA Gen) en la redacción de textos académicos

Hosseini, Mohammad, Bert Gordijn, Gregory Kaebnick y Kristi Holmes. 2025. “Disclosing Generative AI Use for Writing Assistance Should Be Voluntary.Research Ethics, junio de 2025. https://doi.org/10.1177/17470161251345499

El artículo defiende una postura equilibrada que respeta el derecho de los autores a apoyarse en herramientas tecnológicas sin ser estigmatizados, al tiempo que reconoce la importancia de la transparencia en determinados casos. La IA generativa se ha convertido en una herramienta más dentro del ecosistema de la escritura científica, y su uso no debería ser tratado de forma excepcional si no aporta una contribución sustancial al contenido o al razonamiento del manuscrito. Este enfoque voluntario evita riesgos de discriminación y promueve un entorno editorial más justo y realista en la era de la inteligencia artificial.

Durante los últimos años, especialmente desde la irrupción de modelos como ChatGPT, ha aumentado considerablemente el número de investigadores que emplean estas herramientas para mejorar o redactar sus manuscritos. Frente a esta realidad, surgieron propuestas para exigir que los autores declarasen explícitamente el uso de IA en sus textos. Esta obligación pretendía evitar que los lectores atribuyeran erróneamente a los autores humanos contenidos generados por máquinas, facilitar el trabajo de los revisores y asegurar el cumplimiento de las políticas editoriales.

Sin embargo, los autores del artículo, tras una evaluación crítica de la evolución y el uso actual de estas tecnologías, han modificado su postura y ahora proponen que la declaración del uso de IA sea voluntaria. Este cambio de posición se basa en tres argumentos principales.

  • Primero, consideran que el aporte de las herramientas generativas a los textos académicos es, en la mayoría de los casos, superficial y poco distinguible, por lo que no alcanza el umbral que justifique su reconocimiento formal.
  • Segundo, destacan que actualmente es casi imposible determinar con precisión qué fragmentos fueron generados por IA, ya que muchas herramientas actúan como asistentes que sugieren frases o corrigen estilo, funciones similares a las de los correctores ortográficos avanzados.
  • Tercero, y no menos importante, señalan que exigir la declaración obligatoria podría perjudicar especialmente a autores cuya lengua materna no es el inglés, ya que estos investigadores suelen apoyarse en herramientas de IA para mejorar la calidad lingüística de sus manuscritos. Obligarles a declarar este uso podría introducir sesgos y discriminación en el proceso de revisión por pares.

A partir de estos argumentos, los autores sugieren una alternativa: permitir que la declaración del uso de IA sea voluntaria, mediante un sistema opcional —como un checkbox— dentro de la plataforma de envío del manuscrito. Este aviso no debería aparecer en el artículo publicado, sino solo ser visible para los editores, con el fin de garantizar transparencia sin afectar la percepción del texto por parte de los evaluadores o lectores. La declaración voluntaria sería especialmente útil en disciplinas donde el estilo literario y la autoría personal del texto son fundamentales, o cuando los propios autores consideren que su uso de IA merece ser conocido por razones éticas o contextuales.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética

OdiseIA, PwC, Google, Microsoft, IBM, & Telefónica. (2022, 17 de febrero). Guía de buenas prácticas para el uso de la Inteligencia Artificial ética [Guía práctica]. Observatorio del Impacto Social y Ético de la IA (OdiseIA) & PwC España.

Texto completo

La guía nace como una respuesta práctica y colaborativa a la necesidad de aplicar la inteligencia artificial (IA) de forma ética y responsable en el ámbito empresarial. El documento es fruto de la iniciativa GuIA, impulsada por OdiseIA y PwC junto con cinco grandes empresas tecnológicas.

Su objetivo principal es ofrecer pautas concretas y operativas para ayudar a las organizaciones a integrar principios éticos en el diseño, desarrollo y uso de sistemas de IA, en un contexto cada vez más regulado y exigente.

Uno de los ejes centrales del documento es que no basta con declarar intenciones éticas: es imprescindible traducir principios como la equidad, la transparencia, la privacidad o la rendición de cuentas en procesos organizativos y soluciones técnicas reales. Para ello, la guía se apoya en un análisis comparado de 27 marcos internacionales y más de 30 principios éticos, que han sido sintetizados y adaptados al contexto empresarial español mediante un enfoque multidisciplinar que combina la visión legal, tecnológica y de negocio.

La estructura de la guía gira en torno a tres grandes ámbitos de actuación. El primero es la gobernanza organizativa, que promueve la creación de comités de IA, la definición de roles y responsabilidades, la evaluación de riesgos y el seguimiento con indicadores claros. El segundo son los controles técnicos y metodológicos, centrados en el diseño de modelos explicables, justos y seguros, con revisiones periódicas que detecten posibles sesgos o fallos. El tercer ámbito se refiere a las garantías externas, que incluyen auditorías, certificaciones y mecanismos de verificación independientes para reforzar la confianza de terceros.

Además, la guía subraya que la implementación ética de la IA no solo es un imperativo moral, sino también una ventaja competitiva. Las organizaciones que adopten estos principios con antelación estarán mejor preparadas para cumplir con futuras regulaciones, como el Reglamento Europeo de Inteligencia Artificial (AI Act). Asimismo, generarán mayor confianza entre usuarios, empleados, inversores y la sociedad en general.

En definitiva, esta guía ofrece un marco útil para convertir los principios éticos en acciones concretas dentro de las empresas. Propone un camino realista y adaptado al contexto actual, en el que la inteligencia artificial debe ser una herramienta al servicio de las personas y no una fuente de riesgos sociales o legales.

El uso de la inteligencia artificial (IA) en el trabajo se ha casi duplicado en los dos últimos años

Pendell, Ryan. “AI Use at Work Has Nearly Doubled in Two Years.” Gallup, June 16, 2025. https://www.gallup.com/workplace/691643/work-nearly-doubled-two-years.aspx

El uso de IA en el entorno laboral se ha acelerado notablemente, especialmente entre empleados de oficina y mandos intermedios. No obstante, sigue habiendo un déficit significativo en estrategias organizacionales claras y en percepción del valor de estas herramientas —lo que indica oportunidades para mejorar la implementación y formación en el uso de IA.

En un artículo publicado el 16 de junio de 2025, Gallup revela que el uso de la inteligencia artificial (IA) en el trabajo en EE. UU. se ha casi duplicado en los dos últimos años.

Cifras clave:

  • El porcentaje de empleados que usa IA al menos unas veces al año aumentó del 21 % al 40 %.
  • El uso frecuente (varias veces por semana o más) también casi se duplicó, pasando del 11 % al 19 %.
  • El uso diario de IA se duplicó en el último año, de un 4 % a un 8 %.

El incremento se observa principalmente en trabajos de oficina. El 27 % de estos empleados utiliza IA con frecuencia, 12 puntos más que en 2024. Las industrias con mayor adopción son tecnología (50 %), servicios profesionales (34 %) y finanzas (32 %), mientras que en producción y atención al cliente el uso se mantiene entre 9 % y 11 %.

Los líderes (managers de managers) utilizan IA con más frecuencia: el 33 % lo hace varias veces por semana, comparado con el 16 % entre los empleados individuales.

Pese a este aumento, solo el 15 % de los empleados cree que su trabajo correrá peligro por la automatización o la IA en los próximos cinco años — cifra sin cambios desde 2023. Este temor es ligeramente mayor en tecnología, comercio minorista y finanzas.

Aunque muchas organizaciones están integrando IA —el 44 % de los empleados lo señala—, solo el 22 % cuenta con una estrategia clara y el 30 % dispone de políticas u orientaciones formales. Esto revela una brecha importante entre adopción e implementación regulada.

Por último, solo el 16 % de los usuarios piensa que las herramientas de IA que les brinda su empresa son útiles. Sin embargo, quienes las utilizan para interactuar con clientes reportan efectos positivos en un 68 % de los casos, frente a solo un 13 % entre los que no las usan.

La inteligencia artificial (IA) está influyendo en nuestro vocabulario

Cambridge University Press & Assessment. 2025. “Cambridge Dictionary Tracks New AI Words.” Cambridge University Press & Assessment Newsroom, 24 de junio de 2025. https://www.cambridge.org/news-and-insights/cambridge-dictionary-tracks-new-ai-words

El 24 de junio de 2025, Cambridge Dictionary publicó una nota destacando cómo la inteligencia artificial (IA) está influyendo en nuestro vocabulario. El equipo de lexicógrafos de Cambridge ha estado monitoreando de cerca los términos emergentes relacionados con la IA, seleccionando aquellos que reflejan tendencias lingüísticas recientes

Entre los nuevos términos rastreados se encuentran expresiones como “slop”, utilizado para referirse a contenido de baja calidad generado por IA; “AI washing”, que describe prácticas corporativas que pretenden parecer impulsadas por IA sin serlo realmente; y “decel”, una abreviatura que alude a la desaceleración en el desarrollo o adopción de tecnologías de IA. Estas inclusiones reflejan la rápida aparición de vocablos vinculados a debates sobre la calidad, autenticidad y progreso tecnológico en IA.

La entrada de “slop” es particularmente notable: Cambridge Dictionary ha actualizado su definición para incluir esta acepción asociada a la IA—contenido pobre o irrelevante producido por algoritmos—lo cual evidencia una creciente preocupación pública por el exceso y baja calidad de determinados resultados generados automáticamente .

Este seguimiento sistemático forma parte de una estrategia continua: Cambridge Dictionary registra y evalúa semanalmente nuevos términos relacionados con IA (“newly emerging words”), muchos de los cuales luego se incorporan a su base de datos principal. Así, lexicógrafos aseguran que el diccionario responda con agilidad a los cambios en el uso del inglés, especialmente en contextos tecnológicos de rápida evolución.

Con más de 170.000 definiciones y millones de visitas anuales, Cambridge Dictionary refuerza así su papel como referencia global para aprendizajes de idioma, incorporando sistemáticamente vocabulario contemporáneo de la era digital .

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.

El dilema energético de la IA: ¿pueden las GPU seguir el ritmo de la creciente demanda?

Sanjana B. (2025, junio). AI’s energy dilemma: Can GPUs keep up with the rising demand? BusinessLine

Ver completo

En un contexto donde el desarrollo de modelos de inteligencia artificial (IA) crece a un ritmo vertiginoso, el artículo de BusinessLine analiza el desafío energético que esto representa, centrándose en el uso intensivo de GPUs. Las unidades de procesamiento gráfico, que han sido forzadas a evolucionar para dar soporte a estos modelos complejos, operan normalmente entre 300 y 700 W cada una, generando enormes cantidades de calor y exigiendo mayores recursos para su refrigeración .

Se señala que los centros de datos dedicados al entrenamiento de IA ya demandan niveles de energía comparables a países pequeños, con la posibilidad de superar pronto a naciones como Japón si no se implementan mejoras sustanciales. Esta situación ha llevado a que responsables técnicos, incluidos altos directivos como el CEO de OpenAI, advirtieran que las GPUs están alcanzando temperaturas críticas, lo que incrementa el riesgo de fallos y eleva los costes operacionales

Frente a este panorama, el texto propone varias líneas de respuesta: por un lado, mejorar la eficiencia técnica mediante optimizaciones de software, como la poda de modelos o la cuantización, y el desarrollo de nuevos algoritmos y chips más eficientes; por otro, introducir mejoras en los sistemas de refrigeración, desde soluciones líquidas en centros muy exigidos hasta la adopción de IA directamente en dispositivos (on‑device AI), lo que reduce considerablemente la energía consumida por la transmisión de datos al ‘cloud’ .

A su vez, expertos advierten sobre los costes ambientales adicionales: la fabricación de GPUs involucra extracción de materiales escasos y procesos contaminantes, mientras que la energía —aún dependiente en gran parte de combustibles fósiles— aumenta la huella de carbono de estos centros de datos . Innovaciones como hardware neuromórfico podrían ofrecer eficiencia energética a gran escala, aunque aún no están maduras para el entorno comercial

Por último, el artículo resalta la necesidad de abordar el problema desde una perspectiva sistémica. No basta con aumentar el número de GPUs, pues sin infraestructuras eléctricas robustas y energía limpia la expansión de la IA será insostenible. Países como Singapur o Irlanda ya han limitado la construcción de nuevos centros de datos, y se espera que las regulaciones evolucionen para incluir métricas de eficiencia y emisiones.

Tendencias y pautas de la investigación sobre inteligencia artificial en las bibliotecas

Autor(es). 2025. “Trends and Patterns of Artificial Intelligence Research in Libraries.” Journal of Library & Information Science 44 (2). https://doi.org/10.1177/21582440251327528

El artículo examina de forma exhaustiva las tendencias actuales en la investigación sobre inteligencia artificial (IA) aplicada a bibliotecas, mediante un análisis bibliométrico de la producción científica en este campo. A partir de una amplia base de datos extraída principalmente de Scopus, los autores estudian la evolución del número de publicaciones, las principales áreas temáticas abordadas, las fuentes académicas predominantes y la distribución geográfica de las contribuciones. Se constata un crecimiento sostenido en la investigación sobre IA en bibliotecas, con un aumento pronunciado a partir del año 2020, influido en parte por el impacto de la pandemia de COVID-19, que impulsó la digitalización y la automatización de servicios bibliotecarios.

Entre los temas más estudiados destacan el uso de algoritmos para personalizar la experiencia del usuario, la implementación de sistemas de recomendación y descubrimiento de información, la minería de datos para la mejora de servicios, y el desarrollo de chatbots que ofrecen atención automatizada. Tecnologías como el aprendizaje automático (machine learning), el procesamiento del lenguaje natural (PLN) y el deep learning se perfilan como herramientas clave en el avance de estos servicios. El estudio también resalta la contribución de la IA a la catalogación automática, la generación de metadatos, y la gestión predictiva de colecciones y recursos digitales.

A nivel geográfico, China, Estados Unidos e India lideran la producción científica sobre IA en bibliotecas, aunque también se observa una creciente participación de investigadores de países del Sudeste Asiático, África y América Latina. Las publicaciones se concentran principalmente en revistas como Library Hi Tech, Journal of Academic Librarianship, Library & Information Science Research y otras relacionadas con la informática aplicada a las ciencias de la información. Además, el análisis de redes de coautoría revela una creciente colaboración internacional e interdisciplinaria entre profesionales de la biblioteconomía, la ciencia de datos y la ingeniería informática.

En cuanto a los métodos utilizados, el artículo emplea herramientas como VOSviewer y Biblioshiny para visualizar redes de co-citación, coautoría y tendencias temáticas. Entre los términos emergentes más relevantes en los últimos años se identifican “chatbots”, “deep learning”, “big data” y “open-source software”. Esto evidencia el avance tecnológico del sector, pero también pone sobre la mesa nuevos desafíos éticos y técnicos. En este sentido, los autores advierten sobre la necesidad de prestar especial atención a cuestiones como la privacidad de los datos, la transparencia algorítmica y el riesgo de sesgos en la toma de decisiones automatizadas.

Finalmente, el estudio concluye que, si bien la IA ofrece oportunidades únicas para transformar los servicios bibliotecarios, su integración debe ser cuidadosa y acompañarse de políticas claras, programas de formación continua para el personal bibliotecario y marcos éticos que garanticen una implementación responsable. Asimismo, se sugiere que futuras investigaciones profundicen en la evaluación del impacto real de estas tecnologías en el acceso a la información y en la equidad digital.

Desarrollos en los mercados de inteligencia artificial: nuevos indicadores

OECD. 2025. Developments in Artificial Intelligence Markets: New Indicators Based on Model Characteristics, Prices and Providers. OECD Artificial Intelligence Papers, no. 37. París: OECD Publishing. Publicado el 17 de junio de 2025. https://doi.org/10.1787/9302bf46-en.

El tercer informe presenta indicadores nuevos para analizar los mercados de IA a partir de características de modelos, precios y proveedores. Utiliza una extensa base de datos sobre modelos generativos, incluyendo su rendimiento, coste, origen (empresas desarrolladoras), infraestructuras de nube y aplicaciones derivadas. Se detecta una tendencia hacia la baja de los precios ajustados por calidad, un aumento de la variedad de modelos disponibles y una expansión del número de actores en el mercado, lo que sugiere un dinamismo saludable. Sin embargo, también se identifican riesgos que podrían frenar el crecimiento del sector, como cuellos de botella relacionados con datos, capacidad computacional y escasez de talento especializado. Estas limitaciones podrían derivar en una concentración excesiva del mercado y obstaculizar el acceso abierto y competitivo a los beneficios de la IA.