Archivo de la etiqueta: Inteligencia artificial

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.

El impacto de los AI Overviews de Google en el SEO: análisis del estudio Semrush 2025

Semrush AI Overviews Study: What 2025 SEO Data Tells Us About Google’s Search Shift. Semrush, Julio 2025

Texto completo

Google ha introducido los llamados AI Overviews, resúmenes generados por IA que aparecen directamente en los resultados de búsqueda. Estos tienen un impacto disruptivo, equiparándose a los featured snippets en importancia

Los AI Overviews, resúmenes generados por inteligencia artificial que Google ha incorporado en sus resultados de búsqueda. Estos elementos ya ocupan un rol importante y están modificando de manera profunda las estrategias de posicionamiento.

Los datos muestran que en marzo de 2025 el 13,14 % de las consultas en escritorio en EE. UU. activaron un AI Overview, casi el doble que en enero del mismo año. La mayoría de estas consultas fueron de carácter informacional (88,1 %), aunque también se detectó un ligero incremento en consultas comerciales y de navegación. Las áreas más afectadas incluyen ciencia, salud, sociedad y gobierno, mientras que sectores como noticias y deportes casi no presentan AI Overviews, reflejando la cautela de Google en temas sensibles o de actualidad.

En cuanto al comportamiento de los usuarios, los AI Overviews están vinculados a un aumento de las búsquedas sin clics (zero-click). Sin embargo, al comparar las mismas palabras clave antes y después de aparecer con AI Overview, la tasa de zero-click disminuyó levemente de 38,1 % a 36,2 %. Esto sugiere que, aunque más usuarios encuentran la respuesta sin salir de Google, algunos siguen interactuando con los enlaces destacados dentro del propio resumen generado por IA.

El estudio también señala que los AI Overviews se muestran sobre todo en consultas largas, de baja competencia y bajo coste por clic (CPC). Además, tienden a superponerse a funciones ya existentes del SERP sin reemplazarlas, y suelen dar relevancia a contenidos de plataformas como Reddit, Quora y YouTube, lo que indica una preferencia de Google por fuentes diversificadas y con información estructurada.

Las recomendaciones para las marcas son claras: crear contenido informacional autoritativo y con perspectiva única, reforzar los formatos visuales e interactivos (como vídeos o herramientas), e identificar palabras clave comerciales que aún no activan AI Overviews para aprovechar oportunidades de posicionamiento tradicional. Asimismo, se recomienda el uso de herramientas de monitorización como el Semrush AI Toolkit para medir la visibilidad en estos nuevos entornos y ajustar las estrategias de SEO.

En definitiva, el SEO en 2025 ya no se limita a aparecer en las primeras posiciones de búsqueda, sino a ganar presencia en los resultados generados por IA. El contenido de calidad, adaptado a este nuevo ecosistema híbrido entre buscador tradicional y motor de respuestas, será determinante para mantener la visibilidad digital.

Detectores de IA acusan falsamente a la Constitución de EE. UU. de ser escrita por inteligencia artificial

Edwards, Benj. «Why AI Detectors Think the US Constitution Was Written by AIArs Technica, 12 de julio de 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/

Si introduces el documento legal más importante de Estados Unidos, la Constitución de los Estados Unidos, en una herramienta diseñada para detectar texto escrito por modelos de IA como ChatGPT, te dirá que el documento fue escrito casi con toda seguridad por una IA.

Por muy tentador que resulte confiar en las herramientas de IA para detectar textos generados por IA, las pruebas hasta ahora han demostrado que no son fiables. Debido a los falsos positivos, no se puede confiar en los detectores de escritura de IA como GPTZero, ZeroGPT y Text Classifier de OpenAI para detectar textos compuestos por grandes modelos de lenguaje (LLM) como ChatGPT.

En el estudio se analiza cómo los detectores de escritura con inteligencia artificial (IA) clasifican erróneamente documentos históricos, como la Constitución de los Estados Unidos, como si fueran generados por IA. Este fenómeno se debe a que los modelos de IA entrenados en grandes volúmenes de texto, incluidos documentos históricos, pueden identificar patrones en el lenguaje que coinciden con los estilos de escritura de la IA. Como resultado, estos detectores generan falsos positivos al identificar textos auténticos como generados por IA.

En cuanto a los detectores específicos que han mostrado estas limitaciones, el artículo de Ars Technica menciona que herramientas como GPTZero han sido criticadas por su falta de precisión, calificándolas de «mayoría de las veces engañosas».

El artículo destaca que este problema subraya las limitaciones de los detectores de IA actuales, que a menudo carecen de la capacidad para contextualizar el origen y la autenticidad de un texto. La incapacidad de estos sistemas para distinguir entre textos históricos genuinos y aquellos generados por IA plantea preocupaciones sobre su fiabilidad en aplicaciones prácticas. Además, se señala que la dependencia excesiva de estos detectores podría llevar a conclusiones erróneas y decisiones injustas en entornos educativos y profesionales.

Edwards concluye que, aunque los detectores de IA pueden ser herramientas útiles, su implementación debe ser cuidadosa y acompañada de una evaluación crítica para evitar malentendidos y garantizar su eficacia en la identificación precisa de contenido generado por IA.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

Google Gemini 2.5: la IA de imágenes recibe una actualización revolucionaria

Zeff, Maxwell. “Google Gemini’s AI Image Model Gets a ‘Bananas’ Upgrade.” TechCrunch, 26 de agosto de 2025. https://techcrunch.com/2025/08/26/google-geminis-ai-image-model-gets-a-bananas-upgrade/

Gemini 2.5 Flash Image, proporciona a los usuarios un control más preciso sobre la edición de fotos mediante solicitudes en lenguaje natural, superando limitaciones comunes en herramientas rivales

La principal ventaja de esta mejora es su capacidad para realizar ediciones más precisas en imágenes, manteniendo la coherencia de rostros, animales y otros detalles, algo que otras herramientas suelen dificultar. Por ejemplo, al solicitar el cambio de color de una camisa en una foto, Gemini 2.5 Flash Image puede realizar la modificación sin distorsionar el rostro o el fondo.

Esta herramienta ya ha generado interés en plataformas como LMArena, donde usuarios la evaluaron bajo el seudónimo «nano-banana». Google ha confirmado que esta es la capacidad nativa de imágenes dentro de su modelo insignia Gemini 2.5 Flash. La compañía afirma que el modelo es de vanguardia en varios puntos de referencia.

La actualización está disponible desde el 26 de agosto para todos los usuarios de la aplicación Gemini, así como para desarrolladores a través de la API de Gemini, Google AI Studio y las plataformas Vertex AI. Nicole Brichtova, líder de producto en modelos de generación visual de Google DeepMind, destacó que esta actualización mejora la calidad visual y la capacidad del modelo para seguir instrucciones, permitiendo ediciones más fluidas y resultados utilizables para diversos fines.

Con esta mejora, Google busca competir con herramientas populares de generación de imágenes, como las de OpenAI, y atraer a usuarios de ChatGPT, que actualmente cuenta con más de 700 millones de usuarios semanales. En comparación, Gemini tenía 450 millones de usuarios mensuales, lo que sugiere una menor tasa de usuarios semanales.

Cómo detener a los agentes de IA que se descontrolan

BBC News. “How to Stop AI Agents Going Rogue.” BBC, 26 de agosto de 2025. https://www.bbc.com/news/articles/cq87e0dwj25o

Se analizan los riesgos de los agentes de inteligencia artificial autónomos, que pueden actuar por sí mismos y causar problemas si acceden a información sensible. Un ejemplo hipotético mostró cómo un agente llamado “Claude” podría intentar extorsionar a alguien tras obtener datos confidenciales.

Un problema específico destacado es la “polución de memoria” (memory poisoning), donde un atacante manipula la base de conocimiento del agente, alterando su forma de tomar decisiones. Además, se identificó el riesgo de uso indebido de herramientas (tool misuse), donde se induce al agente a ejecutar acciones inapropiadas o peligrosas.

Otra vulnerabilidad significativa es que el agente puede tener dificultades para distinguir entre el texto que debe procesar y las instrucciones que debe ejecutar. Se demostró cómo instrucciones maliciosas pueden estar ocultas en formatos como documentos de Word, imágenes o bases de datos, activándose cuando el agente los procesa.

También se identificó el problema de los agentes “zombies” —modelos obsoletos que continúan ejecutándose dentro de una organización— representando una amenaza por su acceso persistente a sistemas críticos. Al igual que ocurre con los empleados que dejan una empresa, se recomienda implementar un protocolo de desactivación completo que asegure que el agente finalice su actividad y pierda acceso a cualquier recurso o sistema.

Entre las medidas preventivas propuestas, destaca la idea de emplear una capa de protección basada en IA, destinada a supervisar y filtrar toda la información que entra y sale del agente. También se plantea el uso de un “guardián” o “bodyguard” para el agente, un sistema que supervise las decisiones del agente y se asegure de que no tome acciones contrarias a los objetivos u obligaciones de la organización

Finalmente, se subraya la necesidad de proteger no solo al agente en sí, sino al negocio o sistema subyacente frente a posibles manipulaciones. Según expertos, la reflexión debe centrarse en cómo resguardar la lógica de negocio y minimizar el impacto de comportamientos maliciosos o inesperados de los agentes.

¿Cómo se adaptan a la IA los estudiantes y profesores de todo el mundo?

Aguilar, Stephen J., Benjamin Nye, William Swartout, Andrea Macias, Yuqing Xing, and Rosie Le Xiu. 2025. “How Students and Teachers Worldwide Are Adapting to AI.” EdArXiv. August 25. doi:10.35542/osf.io/wr6n3_v2

El informe analiza cómo estudiantes y docentes de distintas partes del mundo están adaptándose al uso de la inteligencia artificial generativa (GenAI) en educación. Desde la irrupción de herramientas como ChatGPT, Claude o Copilot, la enseñanza y el aprendizaje han experimentado transformaciones significativas. Los autores exploran tanto las oportunidades que estas tecnologías ofrecen para el apoyo académico como los riesgos que plantean para la integridad educativa y el pensamiento crítico.

El primer estudio se centra en más de 1.000 estudiantes universitarios de Estados Unidos y examina cómo buscan ayuda a través de GenAI. Se diferencian dos patrones: la búsqueda instrumental, orientada a comprender y aprender, y la búsqueda ejecutiva, enfocada en obtener respuestas rápidas con el mínimo esfuerzo. Los resultados muestran que la confianza en la propia competencia académica y en la búsqueda en internet reduce la dependencia de la IA, mientras que la confianza en el contenido generado por ella incrementa el uso ejecutivo. La actitud de los profesores es clave: cuando animan a usar la IA de forma reflexiva, los estudiantes tienden a hacerlo con fines de aprendizaje.

El segundo estudio presenta la herramienta ABE (AI for Brainstorming and Editing), diseñada para fomentar la reflexión y la revisión en el proceso de escritura. A diferencia de sistemas que generan textos completos, ABE guía a los estudiantes mediante actividades estructuradas —como fortalecer tesis, considerar contraargumentos o mejorar conclusiones—, lo que promueve la escritura como un proceso de pensamiento crítico. Los participantes valoraron especialmente la posibilidad de recibir retroalimentación personalizada y de ampliar perspectivas.

El tercer estudio recoge las percepciones de más de 1.500 docentes de cinco países (Estados Unidos, India, Qatar, Colombia y Filipinas). Aunque muchos reconocen el potencial de la IA para automatizar tareas y personalizar el aprendizaje, persisten preocupaciones sobre plagio, pérdida de creatividad y falta de apoyo institucional. El uso frecuente de estas herramientas sigue siendo limitado, lo que revela una brecha entre el conocimiento de la IA y su aplicación práctica en el aula.

En conjunto, el informe subraya la necesidad de una integración intencional y ética de la IA en la educación. Recomienda alentar un uso instrumental que potencie el aprendizaje, diseñar herramientas con andamiajes pedagógicos, ofrecer formación específica para los docentes y abordar la equidad en el acceso y uso de estas tecnologías.

IA generativa y bibliotecas: aplicaciones y ética

Monográfico de Library Tends sobre IA generativa y bibliotecas

Library Trends, Vol. 73 (3), “Generative AI and Libraries: Applications and Ethics, Part I”

Parte 1

Library Trends, Vol. 73 (4), “Generative AI and Libraries: Applications and Ethics, Part II”

Parte 2

La aparición de ChatGPT a finales de 2022 despertó un gran interés tanto en el público general como en los profesionales de la información hacia la inteligencia artificial generativa. Desde entonces, los especialistas en bibliotecas y otros entornos informativos se han enfrentado a preguntas cruciales sobre cómo esta tecnología, en constante evolución, transformará la creación y el consumo de información, y con ello los servicios bibliotecarios que abarcan desde la referencia y la enseñanza hasta la catalogación y la gestión de metadatos. Al mismo tiempo, los bibliotecarios han tenido que lidiar con dilemas éticos relacionados con el uso de una herramienta capaz —y a menudo propensa— a generar información inexacta o sesgada, así como con debates sobre autoría, derechos de autor, prácticas laborales dañinas y costos medioambientales asociados a estas tecnologías.

En conjunto, los autores ofrecen una mirada amplia sobre cómo la IA generativa está afectando al campo de la bibliotecología y las ciencias de la información, plantean interrogantes esenciales sobre sus implicaciones éticas y sugieren cómo los bibliotecarios pueden liderar la aplicación crítica —o incluso el rechazo— de estas herramientas. Los artículos aquí reunidos combinan investigación original, reflexiones conceptuales y especulación sobre futuros posibles y deseables. Mientras algunos autores destacan las oportunidades que abre la IA generativa, otros adoptan una postura pragmática ante lo que consideran inevitable, y algunos defienden un rechazo más firme a un futuro marcado por la IA. Independientemente del nivel de conocimiento previo o la postura del lector, estos volúmenes ofrecen abundante material para la reflexión.

Temas clave que cubren los artículos:

  • Representaciones discursivas de la IA por parte del personal bibliotecario
  • Narrativas en educación y la necesidad de promover la alfabetización crítica en IA
  • IA generativa en acceso abierto y nuevos paradigmas económicos
  • Implicaciones de la IA en la ciencia abierta y recomendaciones para la práctica bibliotecaria
  • Aplicaciones concretas de IA en la comunicación académica (ScienceON)
  • Automatización de codificación cualitativa mediante IA
  • Percepciones de editores de revistas frente al uso de IA en la publicación
  • Mejora del proceso de búsqueda de información usando modelos como Kuhlthau
  • Colaboración entre IA y humanos para modelado de metadatos
  • Reproducción de privilegios informativos y consideraciones pedagógicas
  • Uso de IA para analizar literatura científica (Consensus)
  • Evaluación ética del uso de Claude AI para revisiones bibliográficas

There’s An AI For That: directorio en línea de herramientas de IA

There’s an AI for That

«There’s An AI For That» es un directorio en línea de herramientas de IA, diseñado para ayudarte a encontrar soluciones de inteligencia artificial según tareas o necesidades específicas, en lugar de hacerlo por nombre de producto. Se utiliza gratuitamente por millones de personas cada mes y es una referencia clave en el ecosistema de AI tools

There’s An AI For That (TAAFT) es un directorio en línea que reúne miles de herramientas de inteligencia artificial organizadas por tareas concretas. Su objetivo es ayudar a las personas a encontrar soluciones de IA de forma práctica y rápida, no por el nombre del producto, sino en función de lo que se quiere lograr. La plataforma se ha convertido en una de las más visitadas en el ecosistema de la inteligencia artificial, con millones de usuarios al mes.

Una de sus principales fortalezas es su enorme base de datos, que incluye más de 6.000 herramientas activas (y algunas fuentes mencionan que ya se acerca a las 30.000). Estas abarcan todo tipo de necesidades: desde la creación de contenido, la edición de imágenes o vídeos, la generación de código, hasta aplicaciones para investigación, educación o marketing. Además, el sitio se actualiza con frecuencia para incorporar las novedades más recientes del sector.

El directorio se diferencia por permitir buscar herramientas por tareas específicas. Así, en lugar de escribir el nombre de un software concreto, los usuarios pueden indicar lo que desean hacer (por ejemplo, “crear presentaciones”, “resumir textos”, “generar imágenes” o “analizar datos”). Los resultados se pueden filtrar por categorías, sectores, tipo de uso (gratuito, freemium o de pago) y por popularidad o valoración de la comunidad.

La plataforma también fomenta la participación de los usuarios, quienes pueden dejar reseñas y puntuaciones que ayudan a otros a elegir la mejor opción. Asimismo, ofrece contenido curado como listas de tendencias, lo más buscado o lo más guardado por la comunidad. De esta manera, se convierte no solo en un buscador, sino en un espacio donde se comparte conocimiento práctico sobre la utilidad real de cada herramienta.

Otro de sus atractivos es su newsletter, que se ha posicionado como uno de los boletines de IA más grandes y con mayor crecimiento en el mundo, con más de medio millón de suscriptores. Además, el portal cuenta con un Job Impact Index, un recurso que analiza el impacto de la inteligencia artificial en más de 4.000 profesiones, y una línea de tiempo con la evolución de nuevas herramientas y capacidades de IA.

En cuanto a su origen, fue creado por Andrei Nedelcu, un desarrollador independiente de Bucarest, en diciembre de 2022. En apenas una semana logró más de 100.000 visitas, y hoy en día concentra varios millones de visitas mensuales, lo que refleja su éxito y utilidad para profesionales de distintos campos.

¿Dónde trabajan los robots?

Melo, M.F. “Porcentaje de ingresos procedentes de robots industriales y de servicios en todo el mundo.” Statista.. Accedido el 27 de agosto de 2025.

Texto completo

Para 2025, se espera que la robótica genere ingresos significativos en distintos sectores, destacando especialmente el campo de la medicina, que representa aproximadamente el 27 % de los ingresos totales. Los robots en medicina no solo se utilizan en cirugía, sino que también tienen aplicaciones en desinfección, rehabilitación y transporte de suministros, mostrando cómo la tecnología robótica está ampliando sus funciones dentro de hospitales y centros de salud. Este crecimiento refleja tanto la inversión en innovación como la necesidad de optimizar la atención al paciente y la eficiencia operativa.

En el ámbito doméstico, los robots de servicio han experimentado un aumento considerable, con una expectativa de generar casi el 20 % de los ingresos de la robótica en 2025. Esta cifra incluye principalmente robots aspiradores, aunque también contribuyen robots cortacésped y otros dispositivos automatizados para el hogar. En el sector servicios, otras aplicaciones, como robots camareros o baristas, todavía representan un porcentaje menor, alrededor del 10 %, pero su coste por unidad es elevado, y su presencia señala la tendencia hacia una integración más avanzada de la robótica en la vida cotidiana y en la industria de la hostelería.

Otros sectores de aplicación mantienen porcentajes más modestos, generalmente de un solo dígito, pero muestran un panorama diversificado de la robótica. Esto incluye la industria del entretenimiento, las industrias eléctrica y electrónica, así como aplicaciones en la automoción, logística, agricultura y química. A medida que la tecnología avanza y los costos disminuyen, es probable que la adopción de robots en estos campos continúe aumentando, contribuyendo a un ecosistema robótico más amplio y multifacético.