Cómo se está incorporando la IA generativa en las empresas

MIT Sloan Management Review y Databricks. The Great Acceleration: CIO Perspectives on Generative AI. Informe MIT SMR–Databricks, 2023.

Texto completo

Se analiza cómo los directores de sistemas de información (CIO) perciben y están incorporando la inteligencia artificial generativa (GenAI) en sus organizaciones. El estudio se basa en una encuesta global a líderes tecnológicos y ejecutivos senior, y sitúa a la IA generativa como un punto de inflexión comparable a anteriores grandes olas tecnológicas, por su velocidad de adopción y su potencial para transformar procesos, modelos de negocio y la toma de decisiones estratégicas.

Uno de los hallazgos centrales del informe es que los CIO consideran la IA generativa no solo como una herramienta de eficiencia, sino como un acelerador estratégico capaz de redefinir la ventaja competitiva. A diferencia de tecnologías previas, la GenAI está siendo explorada simultáneamente en múltiples áreas —desde desarrollo de software, análisis de datos y atención al cliente hasta creación de contenidos y soporte a la toma de decisiones—, lo que obliga a los responsables de TI a adoptar una visión transversal y a colaborar estrechamente con otras áreas del negocio.

El estudio también subraya que el principal reto no es tecnológico, sino organizativo y cultural. Los CIO identifican barreras como la falta de talento especializado, la necesidad de datos de alta calidad, los riesgos asociados a la gobernanza, la seguridad y la ética, y la dificultad de escalar pilotos exitosos a toda la organización. En este contexto, el informe destaca la importancia de establecer marcos sólidos de gobernanza de datos y de IA, así como de invertir en capacitación interna para que empleados y directivos comprendan y utilicen la GenAI de forma responsable y eficaz.

Finalmente, The Great Acceleration concluye que la IA generativa está redefiniendo el rol del CIO, que pasa de ser un gestor de infraestructuras a un líder estratégico del cambio digital. Los CIO más avanzados son aquellos que actúan como traductores entre tecnología y negocio, impulsan la experimentación controlada y alinean la adopción de la GenAI con los valores, la misión y los objetivos a largo plazo de la organización. En este sentido, el informe presenta la inteligencia artificial generativa como una oportunidad decisiva, pero también como una responsabilidad clave para el liderazgo tecnológico contemporáneo.

El desafío de la desinformación: reconstruir la confianza en el mundo de la posverdad

Evidence for Democracy. “The Misinformation Challenge: Rebuilding Trust in a Post-Truth World.Evidence for Democracy (E4D), 19 de enero de 2026.

Texto completo

La investigación aborda la creciente amenaza que representan la desinformación y la información errónea (“misinformation”) para la democracia en Canadá. Partiendo de la evaluación oficial de la Comisionada de Interferencia Extranjera, que identifica la desinformación como el mayor riesgo existencial para la democracia canadiense contemporánea, el informe profundiza en las causas, manifestaciones y efectos de este fenómeno en el contexto político y social del país.

El estudio señala que la desinformación está siendo impulsada por una combinación de factores tecnológicos y sociales: el auge de tecnologías emergentes como la inteligencia artificial, un ecosistema digital poco regulado dominado por grandes plataformas, y agentes hostiles tanto internos como externos que explotan estos espacios para difundir narrativas falsas. Estas dinámicas no solo alimentan la polarización política y socavan la confianza en instituciones públicas, sino que también tienen consecuencias concretas para comunidades vulnerables, incluidas amenazas de violencia, discriminación y exclusión social.

Además, el informe destaca que las respuestas legislativas y políticas del gobierno canadiense han sido fragmentadas y lentas frente al rápido crecimiento de estas nuevas formas de desinformación, con intentos de regulación amplia enfrentando desafíos constitucionales y resistencia política. Frente a este panorama, la investigación propone un enfoque multifacético: medidas regulatorias claras sobre contenido generado por IA, mayor transparencia algorítmica en plataformas digitales, la creación de un organismo federal de supervisión y una inversión sostenida en alfabetización mediática digital para reforzar la resiliencia ciudadana y reconstruir la confianza pública en procesos democráticos e instituciones.

En síntesis, el informe de E4D destaca que la desinformación no es un problema superficial de “noticias falsas”, sino un fenómeno profundo que erosiona la confianza pública, distorsiona el diálogo cívico y pone en riesgo la integridad de la democracia, requiriendo respuestas coordinadas que combinen regulación, educación pública y rendición de cuentas de las plataformas tecnológicas.

Clarivate presenta Alma Specto: IA aplicada a las bibliotecas para sacar el máximo partido a las colecciones

Clarivate. “Clarivate empowers libraries to unlock the value of their collections with Alma Specto.Clarivate News, 20 de enero de 2026. https://clarivate.com/news/clarivate-empowers-libraries-to-unlock-the-value-of-their-collections-with-alma-specto/

Alma Specto es una plataforma avanzada para la gestión de colecciones digitales creada por Ex Libris (parte de Clarivate) y diseñada especialmente para bibliotecas y archivos. Su objetivo principal es proporcionar una solución integral que cubre todo el ciclo de vida de los recursos digitales, desde la catalogación y gestión hasta la preservación a largo plazo y el acceso a los usuarios finales

Clarivate Plc, proveedor global de soluciones de inteligencia y tecnología, ha presentado Alma Specto, una nueva plataforma impulsada por inteligencia artificial (IA) diseñada para ayudar a las bibliotecas a gestionar, enriquecer y mostrar sus colecciones digitales de forma más eficaz. Ante el crecimiento exponencial de los recursos digitales, muchas bibliotecas enfrentan retos como catalogación manual, metadatos incompletos y dificultades para que sus activos sean descubiertos por usuarios e investigadores. Alma Specto busca superar estas barreras mediante herramientas que automatizan y mejoran la calidad de los metadatos, incluyendo archivos de imagen y materiales no textuales con poca o ninguna descripción.

El desarrollo de esta plataforma se ha realizado en colaboración con bibliotecas reconocidas como las de la Universidad de Viena, la Universidad Bocconi y la Universidad de Maine, integrando las necesidades reales del sector en su diseño. Entre las funciones clave figuran el Asistente de Metadatos Digitales impulsado por IA, que extrae entidades y agrupa ítems similares para etiquetado masivo; la enriquecimiento automático de metadatos, que mejora la accesibilidad y el descubrimiento de colecciones; y un constructor de exposiciones que permite a las bibliotecas presentar sus recursos en formatos atractivos y accesibles para públicos diversos.

Alma Specto también ofrece un flujo de trabajo integrado desde la ingestión y catalogación hasta la exhibición y experiencias personalizadas de descubrimiento para usuarios expertos y público general. Para clientes de Alma Digital, la transición es sencilla, ya que no se requiere migración de datos, solo una actualización de sistema. Se espera que los primeros usuarios activos comiencen a implementar la plataforma en el primer trimestre de 2026, con funcionalidades adicionales como preservación de contenido digital previstas para la primera mitad del año.

Anthropic y Teach For All lanzan una iniciativa global de capacitación en IA para educadores

Anthropic. “Anthropic and Teach For All launch global AI training initiative for educators.” Anthropic News, 21 de enero de 2026. https://www.anthropic.com/news/anthropic-teach-for-all

Anthropic, la compañía de inteligencia artificial detrás del asistente Claude, se ha asociado con Teach For All, una red global de organizaciones educativas, para poner en marcha una iniciativa de formación en IA destinada a docentes de todo el mundo. Esta colaboración, denominada AI Literacy & Creator Collective (LCC), pretende dotar de herramientas de inteligencia artificial y competencias prácticas a más de 100 000 profesores y exalumnos de la red, que abarca 63 países y más de 1,5 millones de estudiantes en escuelas con recursos limitados.

A diferencia de otros programas en los que los educadores son simples usuarios de tecnología, esta iniciativa sitúa a los docentes como co-creadores activos en el diseño y la adaptación de la IA a contextos educativos reales. Anthropic proporcionará acceso a Claude y otros recursos, y los profesionales de la educación ofrecerán retroalimentación directa para influir en la evolución del producto. Según la CEO de Teach For All, Wendy Kopp, es fundamental que los propios docentes ayuden a definir cómo se utiliza y diseña la IA para avanzar hacia resultados educativos más equitativos.

El programa está estructurado en tres componentes principales. El primero es la AI Fluency Learning Series, una serie de sesiones en directo sobre competencias IA y aplicaciones en el aula; el segundo es Claude Connect, un espacio continuo donde más de 1 000 docentes de más de 60 países comparten casos de uso, ideas y experiencias; y el tercero es Claude Lab, un entorno de laboratorio donde docentes con acceso a Claude Pro pueden experimentar, recibir asesoría mensual de Anthropic y participar directamente en la hoja de ruta del producto.

Ya hay ejemplos prácticos del impacto inicial de esta colaboración: docentes en Liberia han creado currículos interactivos de educación climática con herramientas generadas por IA, profesores en Bangladesh han desarrollado una app gamificada para reforzar habilidades matemáticas de alumnos de secundaria, y educadores en Argentina están diseñando espacios digitales interactivos alineados con sus programas escolares. Además, esta alianza se suma a otras iniciativas educativas de Anthropic, como pilotos nacionales de IA en Islandia y programas colaborativos en Ruanda y Estados Unidos, con el objetivo de garantizar que comunidades de todos los contextos puedan beneficiarse del potencial de la inteligencia artificial en la educación.

OpenAI confirma que su primer dispositivo con ChatGPT llegará en 2026

Mehrotra, Pranob. 2026. OpenAI Executive Confirms First ChatGPT-Powered Device Is Coming Your Way in 2026.” Digital Trends, 20 de enero de 2026. https://www.digitaltrends.com/computing/openai-executive-confirms-first-chatgpt-powered-device-is-coming-your-way-in-2026

La empresa presentará su primer dispositivo físico potenciado por ChatGPT en 2026, marcando su entrada en el mercado de hardware además del software de inteligencia artificial. El dispositivo estaría diseñado para ofrecer acceso manos libres a ChatGPT, utilizando inteligencia artificial contextual para interactuar con el usuario de forma continua y simplificada.

El CEO Sam Altman ya había sugerido que el dispositivo sería algo diferente a un smartphone tradicional, describiéndolo como un gadget elegante y orientado a asistencia contextual inteligente. Un prototipo filtrado con el nombre en clave Sweetpea —un dispositivo portátil de audio que se coloca detrás de la oreja— es uno de los posibles productos que OpenAI tiene en desarrollo.

OpenAI adquirió la empresa de diseño del exjefe de diseño de Apple, Jony Ive, lo que aceleró las expectativas de que la compañía entre en el mundo del hardware. Los rumores y filtraciones apuntan a un dispositivo portátil, posiblemente con interacción manos libres y sin pantalla tradicional, pensado para ofrecer acceso continuo a ChatGPT de forma contextual a las necesidades del usuario. Aunque OpenAI no ha confirmado oficialmente el formato ni el nombre definitivo del producto, se cree que esta iniciativa marca un paso estratégico importante en la expansión de la empresa más allá del software hacia el hardware con IA integrada.

Miles de citas invisibles se infiltran en artículos y generan métricas falsas

Joelving, Frederik. “How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch, 9 de octubre de 2023. https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

El artículo de Retraction Watch expone un fenómeno descubierto en 2022 por el científico informático Guillaume Cabanac: ciertos trabajos científicos acumulaban un número inusualmente alto de citas en poco tiempo a pesar de haber sido descargados muy pocas veces, una discrepancia que no cuadraba con el impacto real del artículo.

Tras una investigación, Cabanac y sus colegas identificaron la causa en los metadatos enviados a Crossref, donde se incluían referencias que no aparecían ni en el PDF ni en la versión HTML del artículo, sino únicamente en los archivos técnicos que utilizan las bases de datos para indexar publicaciones.

El buscador marcó este artículo en particular —que ya ha sido retractado— por contener las llamadas frases manipuladas, giros extraños en términos establecidos que probablemente fueron introducidos por software de traducción o por personas que buscaban evadir los detectores de plagio.

Cabanac notó algo extraño: el estudio había sido citado 107 veces según el «donut de Altmetrics», un indicador del impacto potencial de un artículo, pero solo se había descargado 62 veces.

Además, según Google Académico, este artículo solo había sido citado una vez. “Había una clara discrepancia entre los recuentos de Google Académico y los de Altmetrics/Dimensions”, afirma Cabanac. Esta diferencia es especialmente significativa, ya que “sabemos que Google Académico suele sobreestimar el número de citas”, añade.

Este tipo de “citas invisibles” —citas añadidas en los metadatos pero no visibles para los lectores— acaba siendo procesado por servicios de métricas como Altmetrics o Dimensions, inflando artificialmente los contadores de citas y otras métricas de impacto académico. El artículo señala que esta manipulación perjudica la integridad de los sistemas de evaluación científica, pues métricas como el número de citas o índices derivadas de ellas se emplean a menudo para medir el rendimiento de investigadores y asignar financiación, lo que podría dar una imagen errónea del impacto real de ciertos autores o publicaciones.

Además, el reporte aclara que estas falsas referencias parecían proceder especialmente de ciertas revistas producidas por un editor específico, y que ni siquiera está claro si se trata de una manipulación deliberada o un fallo técnico de procesos de envío de metadatos. La situación pone de relieve la necesidad de mejorar los mecanismos de control de calidad en la producción de metadatos académicos y de desarrollar herramientas que comparen sistemáticamente las referencias visibles en el texto con las incluidas en los registros técnicos, para evitar que tales citaciones ocultas distorsionen las métricas científicas.

Un investigador “infla” su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas

Joelving, Frederik. “How to Juice Your Google Scholar H-Index, Preprint by Preprint.” Retraction Watch, December 8, 2025. https://retractionwatch.com/2025/12/08/how-to-juice-your-google-scholar-h-index-preprint-by-preprint/

Un investigador logró inflar artificialmente su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas, aprovechando que la plataforma indexa documentos sin revisión por pares.

Un investigador asociado a la Universidad de Zhejiang, Muhammad Zain Yousaf, logró un aumento extraordinario en su índice h de Google Scholar en un corto período de tiempo mediante una estrategia que aprovechó preprints cargados de autocitas. Según la investigación, Yousaf subió diez documentos a un servidor de preprints (TechRxiv) en solo dos días, y la mayoría de las referencias dentro de estos documentos eran trabajos propios, en muchos casos con el autor repitiéndose en una proporción muy alta de la bibliografía. Esto provocó que su índice h, una medida de productividad y impacto científico que combina publicaciones y citaciones, se disparara a niveles comparables a los de académicos sénior, aunque la calidad real de los documentos era cuestionada por expertos que los describieron como incoherentes o de baja calidad técnica.

La situación generó sospechas de manipulación de métricas académicas, ya que Google Scholar indexa automáticamente citas incluso de fuentes sin revisión por pares, lo que permite que documentos no evaluados formalmente influyan en el cómputo de indicadores bibliométricos. Investigadores que analizaron el caso descubrieron que, al excluir autocitas y fuentes sin revisión formal (como preprints y actas de conferencias), el índice h real de Yousaf se reducía a la mitad o más, lo que pone en evidencia la fragilidad del sistema para medir el impacto científico auténtico frente a maniobras de este tipo.

El informe también pone énfasis en que esta no es una anomalía única: otros casos documentados muestran que Google Scholar puede ser sencillo de manipular debido a la forma en que indexa contenido en línea, lo que plantea preocupaciones sobre su uso generalizado para evaluaciones académicas, contrataciones y financiación. Expertos citados en el artículo señalan que, mientras continúe la presión sobre investigadores para obtener altas métricas de citación, seguirán apareciendo tácticas similares que explotan lagunas en los sistemas de evaluación automatizados.

Acelerar la adopción de IA en Europa

McKinsey & Company, Accelerating Europe’s AI adoption: The role of sovereign AI (19 de diciembre de 2025), McKinsey Insights.

Texto completo

El informe de McKinsey sobre la adopción de inteligencia artificial en Europa parte de una constatación central: la IA representa una oportunidad única para revitalizar la productividad y el crecimiento económico de la región, que ha sufrido un estancamiento en los últimos años en comparación con potencias como Estados Unidos y China. Europa enfrenta un crecimiento débil de la productividad laboral —factor clave del PIB per cápita y de los estándares de vida— en parte debido a una adopción más lenta de innovaciones tecnológicas, incluida la IA. La organización argumenta que la adopción acelerada de la IA puede reconfigurar la trayectoria económica europea, siempre que se combinen esfuerzos públicos y privados con urgencia, escala y coordinación estratégica para superar barreras actuales como la falta de confianza, los riesgos de seguridad y la dependencia de proveedores extranjeros.

Un concepto clave que McKinsey desarrolla es el de “IA soberana”, entendido como la capacidad de una región o país para desarrollar y controlar tecnologías de IA críticas, con independencia operacional y técnica dentro de sus propios contextos económicos y sociales. Esta soberanía tecnológica no significa aislamiento, sino la creación de un ecosistema de IA europeo que pueda competir en las capas más valiosas del stack tecnológico —aplicaciones, modelos y herramientas— donde reside la mayor parte del valor económico y productivo. Mejorar estas capacidades ayudaría a Europa a aplicar IA de forma más profunda y segura en sectores estratégicos como salud, manufactura, energía y administración pública, reduciendo al mismo tiempo la dependencia de plataformas no europeas.

Para desbloquear este potencial, el informe subraya la necesidad de concentrar inversiones y esfuerzos en áreas específicas donde Europa ya posee fortalezas —por ejemplo, investigación avanzada, calidad de datos y experiencia sectorial— y que pueden generar productos escalables de IA con impacto económico directo. McKinsey destaca que las aplicaciones que mejor aprovechan datos industriales y especializados —como mantenimiento predictivo en fábricas o diagnóstico médico asistido por IA— pueden aumentar la productividad y ofrecer ventajas competitivas claras. Al mismo tiempo, se reconoce que Europa todavía depende en gran medida de proveedores extranjeros en capas como centros de datos y hardware, lo que refuerza la urgencia de construir una infraestructura de IA más fuerte y localizada.

Además, McKinsey analiza diferentes escenarios para medir el impacto económico de adoptar una IA soberana entre 2025 y 2030, señalando que un enfoque estratégico podría generar hasta 480 000 millones de € anuales en valor económico para Europa —incluyendo beneficios por productividad y por retención de valor creado por empresas europeas del ecosistema de IA— frente a escenarios de crecimiento externo o de oportunidad perdida. Ello requiere que tanto el sector privado como los gobiernos establezcan políticas e inversiones claras —como fondos soberanos de IA, mercados únicos de servicios de IA, infraestructura energética y estrategias conjuntas de talento— para transformar el potencial de la IA en desarrollo sostenible, independencia tecnológica y ventaja competitiva global.

En síntesis, el artículo propone que Europa se encuentra en un momento decisivo: puede aprovechar sus fortalezas históricas en innovación, estándares éticos y sectores industriales robustos para liderar un “AI-first” económico y social, si logra combinar soberanía tecnológica con apertura estratégica y cooperación transfronteriza. Esta doble apuesta —por la independencia en tecnología crítica y por la integración con mercados globales— es vista como la ruta más factible para asegurar el crecimiento económico, la competitividad a largo plazo y la resiliencia frente a riesgos externos en la era de la inteligencia artificial.

La inteligencia artificial entra en lo cotidiano.

Funcas – III Encuesta sobre Inteligencia Artificial: El uso frecuente de ChatGPT en España sube del 4 % al 28 % entre 2023 y 2025, 12 de enero de 2026.

Texto completo

Cuatro de cada diez personas menores de 45 años utilizan a diario alguna herramienta de inteligencia artificial, lo que evidencia una adopción intensa entre los grupos más jóvenes, aunque este avance convive con una brecha significativa de uso, ya que el 21 % de la población reconoce no haber utilizado nunca una aplicación de IA. Pese a ello, existe un amplio consenso social sobre la necesidad de reforzar la formación en este ámbito

El uso de ChatGPT y tecnologías de inteligencia artificial (IA) entre la población española ha experimentado una expansión notable en los últimos años, consolidándose como una herramienta cotidiana para cada vez más personas. Según la  III Encuesta Funcas sobre Inteligencia Artificial, el porcentaje de españoles que utiliza ChatGPT con frecuencia pasó del 4 % en 2023 al 14 % en 2024, y alcanzó el 28 % en 2025, lo que representa una duplicación anual en la adopción del servicio tras su lanzamiento comercial y masificación en distintos ámbitos sociales y profesionales. Esta trayectoria refleja no solo un crecimiento sostenido, sino una consolidación de la IA generativa como parte de las rutinas digitales de los ciudadanos, algo que hasta hace pocos años se consideraba emergente.

El perfil de uso presenta características demográficas interesantes: la brecha de género observada en años anteriores —donde los hombres mostraban mayores porcentajes de uso frecuente— prácticamente ha desaparecido en 2025, con cifras equivalentes para hombres (27 %) y mujeres (28 %). El crecimiento se ha dado en todos los grupos de edad, si bien es especialmente elevado entre los más jóvenes: cuatro de cada diez personas menores de 45 años utilizan alguna herramienta de IA a diario. Asimismo, el aumento en la adopción no se limita únicamente a ChatGPT, aunque otras aplicaciones como Gemini (11 %) y Copilot (6 %) muestran una presencia menor en comparación; herramientas como Perplexity, Grok o Claude, por su parte, tienen una adopción prácticamente residual.

A pesar de esta popularización, una parte significativa de la población aún no utiliza herramientas de inteligencia artificial, lo que indica que la penetración social de estas tecnologías, aunque acelerada, no es uniforme. Un 21 % de los encuestados nunca ha usado ninguna aplicación de IA, y casi un tercio solo ha probado una herramienta. Además, el uso de suscripciones de pago sigue siendo reducido: apenas un 12 % de quienes han usado IA dispone actualmente de una suscripción activa, lo que sugiere que la mayor parte del uso se realiza a través de versiones gratuitas de las plataformas o con acceso limitado a funciones avanzadas.

Los encuestados también expresan opiniones claras sobre el futuro de la educación y la IA. El 80 % considera que en la Educación Secundaria Obligatoria (ESO) debe dedicarse más tiempo a la formación en inteligencia artificial, incluso si ello implica reorganizar horarios o contenidos de otras asignaturas. La percepción general es que la alfabetización en IA será una competencia esencial para las generaciones futuras. En términos de expectativas globales, la valoración del impacto de la IA en la vida personal y profesional en cinco años se mantiene mayoritariamente positiva (45 % de los encuestados), superando tanto a quienes esperan impactos negativos (25 %) como a quienes consideran que los efectos serán limitados o nulos (31 %).

En conjunto, estos resultados dibujan un panorama de difusión creciente y aceptación social de herramientas de IA en España, aunque con desafíos pendientes en términos de inclusión digital, formación y valoración crítica de los efectos de estas tecnologías en la vida cotidiana y en el futuro educativo y laboral.

Tendencias tecnológicas para 2026

PCMag. “CES gave us a glimpse of the future — watch for these tech trends in 2026.” UK PCMag (edición del CES 2026).

Texto completo

La feria CES 2026, celebrada en Las Vegas del 6 al 9 de enero, volvió a consolidarse como el gran escaparate global de la tecnología emergente, ofreciendo una clara visión de las tendencias que dominarán este año y, en muchos casos, redefinirán cómo interactuamos con la tecnología en nuestra vida cotidiana y profesional. Aunque la cobertura específica de PCMag no pudo abrirse directamente, múltiples informes de análisis de tendencias muestran que la inteligencia artificial (IA) fue el hilo conductor principal de la edición de este año, impulsando innovaciones que van desde wearables cognitivos hasta robots físicamente interactivos y asistentes personales integrados en dispositivos de uso diario. La IA dejó de ser una promesa futurista para convertirse en un componente esencial de hardware y software con aplicaciones prácticas que van más allá del entretenimiento o la simple automatización, moviéndose hacia experiencias personalizadas, asistentes contextuales y herramientas de productividad avanzadas.

Uno de los vectores más comentados fue la integración de la IA en dispositivos portátiles y asistentes personales, con wearables que funcionan como una especie de “segundo cerebro”: desde anillos inteligentes que gestionan recordatorios y transcripciones hasta clips y pendants que capturan y analizan datos de interacción humana. Esta tendencia sugiere un salto desde los wearables convencionales hacia dispositivos que comprenden mejor el contexto y actúan de forma proactiva para ayudar al usuario en múltiples aspectos de su día. Paralelamente, se presentaron avances en robots domésticos y humanoides, aunque muchos todavía enfrentan desafíos prácticos para uso cotidiano, reflejando que la transición de prototipo a producto práctico aún está en curso.

En el terreno de las pantallas y los dispositivos móviles, las tecnologías de pantalla plegable evolucionaron significativamente, con prototipos de pantallas sin pliegues visibles (“creaseless”) que podrían marcar la próxima generación de dispositivos móviles. Este tipo de innovación, además de los formatos tri-fold o rollables que algunos fabricantes exhibieron, apunta a una nueva era en la interacción visual y móvil, donde los límites entre teléfono, tableta y ordenador se difuminan. Las tendencias del CES también incluyeron la expansión de dispositivos de realidad aumentada (AR) y gafas inteligentes que ofrecen experiencias inmersivas sin depender de un teléfono tradicional, representando un enfoque hacia tecnologías más ubicuas y menos invasivas.

No menos importantes fueron los avances en domótica y robótica aplicada al hogar, como robots que utilizan LiDAR para navegación precisa en jardines o interiores, así como electrodomésticos y sistemas conectados capaces de anticipar necesidades y automatizar tareas. Además, la feria mostró pantallas y televisores con tecnologías avanzadas como RGB MiniLED y MicroLED, así como dispositivos centrados en la salud y el bienestar, con wearables que monitorizan biomarcadores y ofrecen análisis detallados de la salud. En conjunto, estas innovaciones señalan la dirección de un año tecnológico donde la IA, las pantallas avanzadas, la robótica práctica y los dispositivos wearables convergerán para transformar profundamente tanto el ámbito personal como el profesional.