Funcas – III Encuesta sobre Inteligencia Artificial: El uso frecuente de ChatGPT en España sube del 4 % al 28 % entre 2023 y 2025, 12 de enero de 2026.
Cuatro de cada diez personas menores de 45 años utilizan a diario alguna herramienta de inteligencia artificial, lo que evidencia una adopción intensa entre los grupos más jóvenes, aunque este avance convive con una brecha significativa de uso, ya que el 21 % de la población reconoce no haber utilizado nunca una aplicación de IA. Pese a ello, existe un amplio consenso social sobre la necesidad de reforzar la formación en este ámbito
El uso de ChatGPT y tecnologías de inteligencia artificial (IA) entre la población española ha experimentado una expansión notable en los últimos años, consolidándose como una herramienta cotidiana para cada vez más personas. Según la III Encuesta Funcas sobre Inteligencia Artificial, el porcentaje de españoles que utiliza ChatGPT con frecuencia pasó del 4 % en 2023 al 14 % en 2024, y alcanzó el 28 % en 2025, lo que representa una duplicación anual en la adopción del servicio tras su lanzamiento comercial y masificación en distintos ámbitos sociales y profesionales. Esta trayectoria refleja no solo un crecimiento sostenido, sino una consolidación de la IA generativa como parte de las rutinas digitales de los ciudadanos, algo que hasta hace pocos años se consideraba emergente.
El perfil de uso presenta características demográficas interesantes: la brecha de género observada en años anteriores —donde los hombres mostraban mayores porcentajes de uso frecuente— prácticamente ha desaparecido en 2025, con cifras equivalentes para hombres (27 %) y mujeres (28 %). El crecimiento se ha dado en todos los grupos de edad, si bien es especialmente elevado entre los más jóvenes: cuatro de cada diez personas menores de 45 años utilizan alguna herramienta de IA a diario. Asimismo, el aumento en la adopción no se limita únicamente a ChatGPT, aunque otras aplicaciones como Gemini (11 %) y Copilot (6 %) muestran una presencia menor en comparación; herramientas como Perplexity, Grok o Claude, por su parte, tienen una adopción prácticamente residual.
A pesar de esta popularización, una parte significativa de la población aún no utiliza herramientas de inteligencia artificial, lo que indica que la penetración social de estas tecnologías, aunque acelerada, no es uniforme. Un 21 % de los encuestados nunca ha usado ninguna aplicación de IA, y casi un tercio solo ha probado una herramienta. Además, el uso de suscripciones de pago sigue siendo reducido: apenas un 12 % de quienes han usado IA dispone actualmente de una suscripción activa, lo que sugiere que la mayor parte del uso se realiza a través de versiones gratuitas de las plataformas o con acceso limitado a funciones avanzadas.
Los encuestados también expresan opiniones claras sobre el futuro de la educación y la IA. El 80 % considera que en la Educación Secundaria Obligatoria (ESO) debe dedicarse más tiempo a la formación en inteligencia artificial, incluso si ello implica reorganizar horarios o contenidos de otras asignaturas. La percepción general es que la alfabetización en IA será una competencia esencial para las generaciones futuras. En términos de expectativas globales, la valoración del impacto de la IA en la vida personal y profesional en cinco años se mantiene mayoritariamente positiva (45 % de los encuestados), superando tanto a quienes esperan impactos negativos (25 %) como a quienes consideran que los efectos serán limitados o nulos (31 %).
En conjunto, estos resultados dibujan un panorama de difusión creciente y aceptación social de herramientas de IA en España, aunque con desafíos pendientes en términos de inclusión digital, formación y valoración crítica de los efectos de estas tecnologías en la vida cotidiana y en el futuro educativo y laboral.
En el contexto del Foro Económico Mundial que se celebra en Davos (Suiza) en enero de 2026, OpenAI ha centrado parte de su intervención en destacar un fenómeno que califica como capability overhang o “desfase de capacidades”, que consiste en la creciente brecha entre el potencial real de las tecnologías de inteligencia artificial —como ChatGPT— y el uso efectivo que hacen de ellas la mayoría de las personas, las organizaciones y los gobiernos.
Según la propia empresa, aunque los sistemas avanzados de IA duplican su capacidad para abordar tareas más complejas aproximadamente cada siete meses, la mayoría de usuarios actuales solo aprovecha una pequeña fracción de ese potencial. Este desfase, sostienen los responsables de OpenAI, limita tanto la productividad individual como el impacto económico global que estas herramientas pueden generar si se adoptan y utilizan a mayor escala.
La advertencia de OpenAI va acompañada de un llamado a cerrar esa brecha entre capacidades y adopción para liberar plenamente los beneficios de la inteligencia artificial. La organización argumenta que el mayor valor de la IA no estará en su avance técnico per se, sino en cómo se integra en procesos laborales, empresariales y sociales cotidianos, especialmente en sectores como empresas, educación y gobiernos. Cerrar esa brecha, según los ejecutivos de OpenAI, podría permitir que países y organizaciones menos avanzados en adopción tecnológica no queden aún más rezagados, y que los beneficios de la IA —en términos de crecimiento económico, oportunidades productivas y competitividad— se distribuyan de manera más amplia.
Este mensaje de OpenAI en Davos se suma a otras discusiones sobre la inteligencia artificial en el foro, donde líderes tecnológicos y económicos han debatido sobre el papel transformador de la IA en la economía global, su comparación con revoluciones industriales anteriores y los riesgos asociados a su adopción desigual. La noción de superar el capability overhang se plantea no solo como un reto tecnológico, sino como una cuestión de política pública, educación y estrategia empresarial para asegurar que la rápida evolución de la IA se traduzca en beneficios tangibles para una base amplia de usuarios y no solo para quienes están a la vanguardia del desarrollo tecnológico
La adopción de la inteligencia artificial generativa (IA generativa) está creciendo en todo el mundo, aunque de forma muy desigual entre países y regiones. Según datos recientes de informes sobre difusión de IA, técnicas como ChatGPT, Gemini o Claude han sido usadas por un mayor porcentaje de la población en algunas naciones avanzadas, especialmente en Oriente Medio y Asia, mientras que en muchas partes de América Latina, África y el sur de Asia el ritmo de adopción es más lento. Países como los Emiratos Árabes Unidos y Singapur sobresalen con tasas de uso superior al 60 % de la población, lo que indica una fuerte integración de estas herramientas en actividades diarias y profesionales.
Una dimensión clave que destaca el artículo es la brecha creciente entre países con alto nivel de digitalización y otros con infraestructuras tecnológicas más limitadas. En regiones como América del Sur y Central, más de la mitad de los países encuestados registraron tasas de adopción por debajo del 20 %, lo que refleja obstáculos como altos costes, carencias de competencias técnicas y menor presencia de empresas tecnológicas locales. Asimismo, países de Asia oriental como Corea del Sur mostraron importantes incrementos en tasa de uso en el último año, impulsados por su adopción en el ámbito laboral y educativo, así como por la presencia de grandes empresas tecnológicas que fomentan su integración.
El artículo también aborda cómo modelos alternativos y de código abierto están ganando terreno en mercados donde los servicios occidentales tienen acceso restringido o no son asequibles. Por ejemplo, en naciones como China, Rusia, Cuba o Bélarús, herramientas de IA locales o no bloqueadas han logrado una cuota significativa de uso, lo que sugiere que la disponibilidad y accesibilidad de estas tecnologías influye tanto como la sofisticación técnica en su adopción generalizada.
En conjunto, la adopción de la IA generativa refleja tanto tendencias tecnológicas globales como desigualdades estructurales. Mientras que países con inversiones tempranas en infraestructura digital, políticas favorables y formación técnica lideran el uso de estas tecnologías, otras naciones enfrentan retos significativos para cerrar la brecha, como la falta de acceso, habilidades digitales insuficientes o mercados tecnológicos menos desarrollados. El artículo de Rest of World contextualiza estos datos dentro de un panorama global donde la IA generativa está marcando diferencias crecientes entre regiones con mayor y menor capacidad de integración digital.
El objetivo del informe es explorar cómo las organizaciones del ámbito de la publicación académica están adoptando y respondiendo a la inteligencia artificial (IA). La encuesta, realizada entre el 1 y el 12 de diciembre de 2025 entre 563 profesionales de distintas organizaciones, revela que la IA ya está muy presente en los flujos de trabajo de la publicación académica, aplicándose principalmente en tareas relacionadas con la creación y resumen de contenidos, revisión de integridad y detección de plagio, así como en herramientas de accesibilidad y descubrimiento de contenidos.
A pesar de esta adopción generalizada, el informe subraya que la preparación institucional para gestionar el impacto de la IA sigue rezagada respecto al uso tecnológico. La mayoría de las organizaciones se encuentran en un estado de preparación parcial, con políticas, capacidades y conocimientos aún en desarrollo, lo que refleja que el entusiasmo por la IA va acompañado de incertidumbre y retos organizativos. Entre los principales obstáculos se encuentran preocupaciones éticas y legales, problemas de privacidad y seguridad de datos, y una insuficiente capacidad especializada dentro de los equipos.
Las respuestas a la encuesta muestran que la adopción de IA ya está en marcha en las organizaciones de publicación académica, y la gran mayoría reporta al menos un caso de uso activo. Las aplicaciones más comunes se centran en los flujos de trabajo relacionados con el contenido, particularmente la creación o resumen de contenido (48%) y la verificación de plagio o integridad de la investigación (43%). Estos usos reflejan áreas donde la IA puede ofrecer ganancias inmediatas de eficiencia y ampliar el soporte a los procesos editoriales existentes sin alterar fundamentalmente la autoridad en la toma de decisiones.
Las herramientas de accesibilidad y traducción (34%) y el descubrimiento de contenido (34%) también son muy relevantes, subrayando el papel creciente de la IA en mejorar el alcance, la usabilidad y la encontrabilidad del contenido académico.
Más allá de las funciones editoriales principales, las organizaciones aplican cada vez más la IA a actividades empresariales y operativas. Más de una cuarta parte de los encuestados informa que utiliza IA para marketing o interacción con clientes (27%) y para análisis de datos o previsiones (27%), lo que indica una mayor comodidad con los conocimientos generados por IA para informar estrategias y alcance de la audiencia. La asistencia en la revisión por pares o la asignación de revisores (22%) y la generación o etiquetado de metadatos (18%) aparecen como aplicaciones emergentes, pero aún no universales, lo que sugiere tanto oportunidad como cautela en áreas que interfieren más directamente con el juicio académico y el control de calidad.
De acuerdo con los datos mostrados, las categorías con mayor peso son:
Creación o resumen de contenido: Es la aplicación más destacada con un 48%.
Controles de plagio o integridad: Ocupa el segundo lugar con un 43%.
Descubrimiento de contenido: Representa un 34%.
Herramientas de accesibilidad o traducción: Empata con el descubrimiento de contenido con un 34%.
Marketing o compromiso del cliente: 27%.
Análisis de datos o pronósticos: 27%.
Asistencia en revisión por pares o emparejamiento de revisores: 22%.
Generación de metadatos o etiquetado: 18%.
Licencia de contenido a terceros: 13%.
Personalización o inteligencia predictiva: 13%.
Finalmente, la imagen indica que un 14% corresponde a otros usos y un 12% de los consultados no utiliza IA actualmente.
Actitudes hacia la IA
Las respuestas indican que la mayoría de las organizaciones abordan la IA con interés medido, más que con entusiasmo incondicional. La mayoría (51%) describe su postura como exploración cautelosa de oportunidades, lo que sugiere experimentación activa junto con consideración cuidadosa de riesgos, gobernanza y adecuación. Al mismo tiempo, más de un tercio de los encuestados muestra una postura fuertemente positiva hacia la IA: 19% adopta activamente e invierte en IA y 16% se identifica como adoptante entusiasta y proactivo — juntos indican un impulso significativo hacia una integración más profunda.
Solo una pequeña minoría permanece al margen o en contra. Solo el 6% reporta una postura neutral de esperar y ver, otro 6% se declara escéptico o resistente, y solo 2% evita activamente las herramientas de IA. En conjunto, estos resultados sugieren que, aunque la cautela sigue siendo dominante, la resistencia a la IA en la publicación académica es limitada y la trayectoria general apunta hacia una adopción más amplia con el tiempo.
Preparación ante la IA
Las respuestas sugieren que la mayoría de las organizaciones se sienten parcialmente preparadas para enfrentar el impacto de la IA en el próximo año. Casi la mitad (45%) reporta estar moderadamente preparada, mientras otro 27% se siente solo ligeramente preparada, lo que indica que muchas organizaciones todavía están construyendo habilidades, políticas y confianza interna. Un porcentaje menor se siente altamente preparado: 16% se describe como muy preparado y solo 3% como completamente preparado, lo que subraya lo rara que sigue siendo la sensación de preparación total. Al mismo tiempo, 9% reporta no estar preparado en absoluto, destacando la necesidad de orientación, buenas prácticas compartidas y desarrollo de capacidades en toda la comunidad.
El sondeo también identifica oportunidades importantes asociadas con la IA, entre ellas la eficiencia de los flujos de trabajo —que puede liberar tiempo para tareas de mayor valor añadido—, el fortalecimiento de la revisión por pares mediante herramientas de apoyo o asignación de revisores, y el uso de IA para reforzar la integridad y calidad de la investigación a través de la detección de plagio o de prácticas poco éticas. Asimismo, la IA se percibe como una herramienta valiosa para mejorar la descubribilidad del contenido científico y para apoyar a autores de distintas lenguas mediante traducción y servicios lingüísticos.
Barreras para la adopción de IA
Los encuestados identificaron preocupaciones legales/éticas, privacidad/seguridad y falta de experiencia/capacidad como las principales barreras para la adopción de IA.
A pesar de los altos niveles de adopción e interés en IA, las organizaciones de publicación académica todavía albergan serias preocupaciones sobre su uso en el sector. Las preocupaciones éticas o legales (63%) y los problemas de privacidad o seguridad de los datos (61%) encabezan la lista, reflejando cautela generalizada respecto a cumplimiento, propiedad intelectual y uso responsable — preocupaciones especialmente agudas en la publicación académica. La preparación organizacional también emerge como un desafío significativo, con la mitad de los encuestados (50%) citando la falta de experiencia o capacidad del personal, lo que subraya que las capacidades humanas e institucionales a menudo quedan detrás del interés tecnológico.
Consideraciones prácticas y financieras forman un segundo nivel de barreras. Restricciones presupuestarias (28%), calidad o disponibilidad de datos (25%) y un ROI o caso de negocio poco claros (25%) sugieren que muchas organizaciones todavía evalúan costos frente a beneficios inciertos. Los problemas culturales y de herramientas —como la resistencia al cambio (23%) y la falta de herramientas adecuadas (19%)— son menos dominantes pero todavía significativos. Casi todas las organizaciones reportan algún tipo de fricción al adoptar IA.
No obstante, las preocupaciones sobre los riesgos son profundas y existenciales. Muchos encuestados expresan inquietudes sobre la posibilidad de que la IA degrade la calidad y la integridad de la literatura académica, dificultando la detección de contenidos generados por IA sin rigor científico, y erosionando la confianza en el proceso de revisión por pares tradicional. También existe ansiedad sobre la falta de transparencia en el uso de IA y la autenticidad de las contribuciones cuando las herramientas automatizadas participan en la producción o evaluación de trabajos. En conjunto, estas respuestas reflejan una comunidad editorial que navega entre la oportunidad de mejorar procesos y la necesidad de proteger los valores fundamentales de la comunicación científica.
El infirme visualiza los principales usos que las personas están dando a la inteligencia artificial generativa en 2025, según un análisis de miles de publicaciones en foros recogido por Harvard Business Review y presentado por Marc Zao-Sanders. La IA generativa experimenta un giro hacia usos más centrados en las personas.
Las tareas tradicionales como generar ideas o búsquedas específicas han sido desplazadas por usos más personales y orientados al bienestar, destacando que la primera posición la ocupa “Therapy & Companionship” (terapia y compañía). Esto indica que muchas personas están recurriendo a la IA no solo como herramienta productiva, sino como apoyo emocional o interlocución constante.
En los nuevos rankings aparecen casos de uso inéditos como “Organize Life” (organizar la vida) y “Find Purpose” (encontrar propósito), posicionándose en segundo y tercer lugar, respectivamente. Estas categorías reflejan que la IA se está integrando en aspectos cotidianos y existenciales de la vida de las personas, ayudando en planificación, reflexión y toma de decisiones personales.
Además, otros usos como “Enhance Learning” (mejorar el aprendizaje) han subido posiciones, lo que sugiere una mayor adopción de la IA para profundizar en comprensión y educación. Usos técnicos como generar código también siguen presentes, aunque más abajo, y categorías lúdicas o creativas como fun & nonsense (diversión y tonterías) siguen teniendo relevancia.
En conjunto, estas tendencias reflejan una evolución desde aplicaciones centradas en tareas específicas o de productividad hacia aplicaciones de bienestar, auto-gestión y apoyo emocional, lo que tiene implicaciones tanto para educadores como para diseñadores de tecnología y políticas públicas.
COUNTER propone nuevas directrices para medir el uso de herramientas de inteligencia artificial en plataformas editoriales, diferenciándolo claramente del uso humano. El objetivo es estandarizar estos informes y evitar que la actividad de IA distorsione los datos tradicionales de uso.
El borrador de COUNTER sobre las mejores prácticas para informar del uso de IA surge ante la necesidad de adaptar el Code of Practice (Release 5.1) a un entorno donde la inteligencia artificial generativa y agente opera de forma habitual en plataformas de editores y proveedores de información. El documento reconoce que las reglas anteriores fueron diseñadas en un contexto previo al uso extendido de herramientas como agentes autónomos y modelos generativos, por lo que se requiere un marco más preciso para distinguir entre actividad humana, actividad automatizada tradicional (bots y crawlers) y actividad de IA agente, que no puede clasificarse igual que la automatización previamente excluida de los informes.
El objetivo del borrador es establecer mecanismos claros y estandarizados para que las plataformas que ofrecen contenidos (textos, artículos, etc.) puedan reportar métricas sobre el uso de IA —ya sea directamente en su sitio, o a través de herramientas externas (como buscadores basados en IA o agregadores). COUNTER considera que estas directrices no sólo sirven a editores o bibliotecas, sino también que podrían ser útiles para herramientas independientes de IA
La publicación del borrador está abierta a comentarios de la comunidad: proveedores tecnológicos, editoriales, bibliotecas y consorcios están invitados a aportar feedback para mejorar las directrices antes de que se adopten de forma definitiva.
Un reciente estudio del Pew Research Center revela que el 84 % de los adultos en Estados Unidos declara usar YouTube, lo que lo mantiene como la plataforma social más extendida. Aun cuando otras redes como TikTok, Instagram, WhatsApp o Reddit muestran tasas de crecimiento, ninguna alcanza el nivel de penetración de YouTube entre la población adulta.
El informe, basado en una encuesta realizada a algo más de 5 000 adultos entre febrero y junio de 2025, documenta también que Facebook sigue en segundo lugar con 71 % de usuarios, y que plataformas como Instagram superan el 50 % de adopción. Sin embargo, el uso de estas alternativas varía considerablemente según la edad, el género y el nivel educativo, mientras que YouTube mantiene una presencia notable en casi todos los segmentos demográficos.
Además, los datos muestran diferencias en la frecuencia de uso: alrededor del 48 % de los adultos utilizan YouTube a diario, lo que indica que no sólo es una plataforma ampliamente adoptada, sino que sigue siendo parte activa de la rutina digital de gran parte de la población. Esto refuerza la relevancia de YouTube como espacio principal no solo de entretenimiento, sino también de información, comunicación y consumo cultural.
El uso de TikTok entre los adultos estadounidenses ha aumentado hasta el 37 %, lo que supone un ligero incremento con respecto al año pasado y casi el doble del 21 % registrado en 2021. Aproximadamente el 24 % de los usuarios de TikTok visitan la plataforma a diario. La mitad de los adultos estadounidenses utilizan ahora Instagram, igualando los niveles de 2024, pero aumentando desde el 40 % en 2021. La plataforma es especialmente popular entre los usuarios más jóvenes.
El informe encuestó a 5022 estadounidenses y descubrió que el 84 % usa YouTube y el 71 % usa Facebook. Instagram alcanzó el 50 % de adopción, lo que la convierte en la única otra plataforma usada por al menos la mitad de los adultos estadounidenses.
El uso de la inteligencia artificial (IA) en el ámbito laboral ha aumentado significativamente en los últimos dos años. La proporción de empleados que usan IA al menos ocasionalmente ha pasado del 21 % al 40 %, mientras que el uso frecuente y diario también se ha duplicado, lo que indica una integración creciente de estas herramientas en las tareas cotidianas de trabajo.
Este incremento se concentra especialmente en trabajadores de oficina y líderes, donde el uso frecuente alcanza el 27 % y 33 % respectivamente, mostrando que los roles con mayor responsabilidad tienden a adoptar antes estas tecnologías.
A pesar de la mayor adopción, muchas organizaciones carecen de estrategias claras para integrar la IA de manera efectiva. Solo una minoría de empleados reporta que su empresa ha comunicado un plan sólido o establecido políticas formales sobre el uso de IA, lo que limita el potencial de estas herramientas. Esta falta de estructura también se refleja en la percepción de utilidad: apenas el 16 % de los usuarios considera que las herramientas de IA proporcionadas por su empresa son realmente útiles para su trabajo.
Los beneficios percibidos son claros a nivel individual y organizativo: muchos empleados reportan mejoras en productividad y eficiencia, y los líderes observan ventajas en la eficiencia operativa. Sin embargo, la comodidad y confianza para trabajar con IA sigue siendo limitada. Solo un pequeño porcentaje se siente muy cómodo usando estas herramientas, mientras que alrededor de un tercio se siente muy incómodo, indicando la necesidad de formación y comunicación más efectiva sobre su uso.
Por último, las preocupaciones sobre la pérdida de empleo por automatización se mantienen moderadas. Solo un 15 % de los empleados considera que es muy o bastante probable que la IA elimine su trabajo en los próximos cinco años, mostrando que, aunque la adopción crece, los temores sobre la sustitución laboral no se han incrementado de manera significativa.
Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.
Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.
En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.
El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.
La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.
Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.
OpenAI, en colaboración con el National Bureau of Economic Research (NBER), publicó un estudio reciente que revela cómo la gente está usando ChatGPT, descubriendo que la mayor parte del uso no es profesional sino personal. Aproximadamente el 80 % de todas las interacciones con ChatGPT se agrupan en tres grandes categorías: guía práctica (como tutorías, consejos sobre cómo hacer las cosas o generación de ideas creativas), búsqueda de información, y escritura (redacción, edición, traducción entre otros).
En cuanto al uso profesional, el informe muestra que la escritura constituye el tipo de uso laboral más común — alrededor del 40 % de los mensajes relacionados con trabajo — mientras que la programación representa solo un 4.2 %. Además, ha habido un cambio notable: en junio de 2024 casi la mitad de los mensajes (47 %) estaban relacionados con el trabajo, pero para mediados de 2025 este porcentaje había caído a cerca del 27 %, lo que refleja un aumento de las interacciones de índole personal, que subieron al 73 % de los mensajes.
Otro hallazgo interesante tiene que ver con los usos emocionales o sociales: aunque representan una pequeña parte del total, algunas personas usan ChatGPT como especie de apoyo emocional o compañía. Solo alrededor del 2 % de los mensajes son para eso; unas 0.4 % implican reflexiones personales o conversaciones sobre relaciones.
También se aprecia un cambio demográfico en los usuarios. Los más jóvenes (18-25 años) son quienes más utilizan ChatGPT para fines personales. En cuanto al género, se observa un cierre de la brecha: en 2022, la gran mayoría de los usuarios frecuentes tenían nombres identificados como masculinos (~80 %), pero para junio de 2025 ese porcentaje ha bajado hasta el 48 %, acercándose a la paridad con los supuestos usuarios con nombres “femeninos”.