Archivo de la etiqueta: Inteligencia artificial

Las bibliotecas están abriendo las obras digitalizadas de dominio público para entrenar los modelos de IA

Libraries Open Their Archives to Train AI Chatbots With Books Spanning Centuries of Human Knowledge.” Milwaukee Independent, November 8, 2025. https://www.milwaukeeindependent.com/newswire/libraries-open-archives-train-ai-chatbots-books-spanning-centuries-human-knowledge/

Varias bibliotecas y universidades están abriendo sus archivos históricos para entrenar chatbots de inteligencia artificial con libros que abarcan siglos de conocimiento humano.

Esta iniciativa responde a la necesidad de proporcionar datos más ricos y culturalmente diversos a los modelos de IA, que tradicionalmente han aprendido sobre la base de contenido generado en internet, como publicaciones en redes sociales y Wikipedia, y que muchas veces carece de profundidad histórica o lingüística. Como parte de esta tendencia, la Universidad de Harvard liberó una colección de casi un millón de libros publicados desde el siglo XV en adelante, en más de 250 idiomas, que ahora están disponibles para investigadores y desarrolladores de IA.

El propósito de abrir estos archivos es ofrecer una alternativa de datos de entrenamiento que sea legal y menos polémica que el uso de textos con derechos de autor sin permiso, un tema que ha generado múltiples demandas contra grandes empresas tecnológicas por el uso no autorizado de obras protegidas. Expertos citados en el artículo explican que el dominio público constituye un recurso “prudente” para construir conjuntos de datos sin conflictos legales, al tiempo que aporta una riqueza de información cultural, histórica y lingüística que las fuentes digitales modernas no siempre proporcionan. Además, iniciativas como la “Institutional Books 1.0” —el conjunto de datos publicado por Harvard que contiene cientos de millones de páginas escaneadas de obras históricas— están siendo compartidas en plataformas abiertas como Hugging Face para ampliar su accesibilidad.

Este enfoque colaborativo entre bibliotecas, universidades y empresas de tecnología también está siendo respaldado financieramente por grandes actores como Microsoft y OpenAI, que han financiado proyectos de digitalización y preparación de archivos para uso en IA. La Biblioteca Pública de Boston, por ejemplo, ha puesto énfasis en que cualquier material digitalizado en el marco de estas colaboraciones debe permanecer accesible al público, contribuyendo así a la misión tradicional de las bibliotecas de servir a sus comunidades. A pesar de las ventajas, los especialistas advierten sobre posibles desafíos, como la presencia de contenido desactualizado o incluso dañino en textos antiguos, que exige decisiones informadas sobre cómo utilizar estos datos de manera responsable para entrenar sistemas de inteligencia artificial sin reproducir prejuicios históricos o errores científicos.

Formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido

Gault, Matthew. Poems Can Trick AI Into Helping You Make a Nuclear Weapon.” Wired, November 28, 2025. https://www.wired.com/story/poems-can-trick-ai-into-helping-you-make-a-nuclear-weapon/

Un estudio reciente de Icaro Lab ha descubierto una brecha importante en los sistemas de seguridad de los grandes modelos de lenguaje (LLMs): formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido, como instrucciones sobre cómo fabricar armas nucleares o malware, que normalmente rechazarían si la petición fuese directa. La técnica, denominada “poetic jailbreak”, logra evadir las barreras de seguridad tradicionales al enmascarar la intención dañina en versos con metáforas, sintaxis fragmentada y secuencias de palabras inesperadas que confunden los mecanismos de clasificación y filtrado de las IA. Estas solicitudes diseñadas para reconocer y bloquear solicitudes dañinas basadas en palabras clave u otros patrones, resultan sorprendentemente frágiles ante variaciones estilísticas del lenguaje, como las que presenta la poesía.

Los investigadores probaron su método en 25 modelos de chatbot de diferentes proveedores importantes, incluidos sistemas de OpenAI, Meta y Anthropic, y encontraron que la poesía logró tasas significativas de “jailbreak” —es decir, de respuesta a solicitudes peligrosas— con un promedio de alrededor del 62% en poemas elaborados a mano y alrededor del 43% en conversiones automáticas de prosa a verso. En algunos casos con modelos de vanguardia, las tasas de éxito alcanzaron hasta el 90%, lo que demuestra que incluso peticiones sofisticados pueden fracasar cuando se enfrentan a formas creativas de lenguaje que alteran las rutas de procesamiento interno del modelo sin cambiar el contenido semántico básico de la pregunta.

En términos técnicos, los autores explican que los elementos poéticos —como la elección de palabras de baja probabilidad y las estructuras inusuales— pueden desplazar las representaciones internas de los prompts fuera de las regiones del espacio semántico que las herramientas de seguridad escanean habitualmente. Para los humanos, un verso enmascarado y una pregunta directa pueden tener el mismo significado, pero para las IA y sus sistemas de protección automatizados, la poesía puede alterar cómo se interpreta y evalúa una petición, evitando que se active una alarma o un “shutdown” ante contenidos sensibles. Este hallazgo subraya limitaciones fundamentales en los métodos actuales de alineación y evaluación de seguridad de los modelos, y plantea interrogantes urgentes sobre cómo reforzar las defensas contra ataques lingüísticos creativos que explotan este tipo de vulnerabilidades.

Del buscar al responder: el enfoque CARE y el nuevo papel del bibliotecario universitario ante la IA generativa

Lo, Leo S. The CARE Approach for Academic Librarians: From Search First to Answer First with Generative AI. The Journal of Academic Librarianship 52, no. 1 (enero 2026): 103186. https://doi.org/10.1016/j.acalib.2025.103186

En el entorno académico actual, estudiantes y profesores cada vez más inician sus investigaciones solicitando explicaciones a sistemas de inteligencia artificial en lugar de comenzar con la búsqueda tradicional en los recursos de la biblioteca. Las herramientas de IA y los motores de búsqueda avanzados proporcionan respuestas desarrolladas incluso antes de que el usuario vea una lista de fuentes académicas. Este fenómeno transforma el punto de partida de la indagación académica y plantea nuevos desafíos para las prácticas de la bibliotecología.

Dado este cambio hacia un enfoque de “respuesta primero”, el autor sostiene que los bibliotecarios también deben evolucionar su mentalidad y estrategias de intervención. En lugar de simplemente ofrecer acceso a recursos, los bibliotecarios necesitan reconocer las respuestas generadas por IA como textos que demandan interpretación y análisis crítico. Para ello, se propone la creación de una tipografía de respuestas que ayude a identificar la función que cumplen estas respuestas automatizadas.

Finalmente, el artículo propone el enfoque CARE —por sus siglas en inglés: Classify, Assess, Review, Enhance (Clasificar, Evaluar, Revisar, Mejorar)— como un marco metodológico para interactuar críticamente con las respuestas de IA en colaboración con los usuarios. Este enfoque sitúa a los bibliotecarios como guías que ayudan a sus comunidades académicas a leer, cuestionar y ampliar las respuestas generadas por IA manteniendo el juicio humano y la evidencia científica en el centro de la investigación.

Casi todo lo que has oído sobre IA y recortes de empleo es incorrecto: aquí está el porqué 

McKendrick, Joe. 2025. “Nearly Everything You’ve Heard About AI and Job Cuts Is Wrong — Here’s Why.” ZDNet, 23 de septiembre de 2025. https://www.zdnet.com/article/nearly-everything-youve-heard-about-ai-and-job-cuts-is-wrong-heres-why/

El artículo cuestiona de forma crítica uno de los relatos más extendidos sobre la inteligencia artificial en el ámbito laboral: la idea de que la IA provocará recortes masivos de empleo, especialmente entre los trabajadores de cuello blanco.

Según Joe McKendrick, las predicciones que anuncian la desaparición del 50 % de los puestos de trabajo debido a la IA están enormemente exageradas y carecen de una base realista. El problema central no es la tecnología en sí, sino el modo en que se está gestionando su adopción. En este sentido, el texto subraya que el mayor reto actual de la IA es un déficit de liderazgo capaz de moderar expectativas, disipar temores y establecer marcos claros de uso responsable.

Apoyándose en las reflexiones de Tom Davenport, una de las figuras más influyentes en el ámbito de la analítica de datos y la IA, el artículo sostiene que la transformación real impulsada por la inteligencia artificial será mucho más lenta de lo que suele afirmarse. A pesar del flujo constante de nuevos modelos y de los anuncios sobre una supuesta inminencia de la inteligencia artificial general, muchas organizaciones siguen sin saber cómo obtener un valor medible de estas tecnologías. El motivo principal es que la verdadera transformación no se logra simplemente incorporando nuevas herramientas, sino que exige una reingeniería profunda de los procesos, proyectos a escala organizativa y años de esfuerzo sostenido.

Desde esta perspectiva, la IA se asemeja a anteriores olas tecnológicas: por sí sola no genera valor económico si no va acompañada de cambios estructurales en la forma de trabajar. El artículo desacredita la creencia de que bastaría con introducir sistemas generativos y redactar buenos “prompts” para lograr mejoras significativas. Davenport desmonta también el mito de que la IA eliminará masivamente los empleos de entrada, señalando una contradicción clave: si las empresas prescinden de los puestos junior, ¿cómo formarán a los profesionales experimentados del futuro? Según su experiencia, esta pregunta lleva más de una década sin una respuesta convincente por parte de las organizaciones.

El texto advierte además de los riesgos de que los consejos de administración y los altos directivos adopten una visión simplista según la cual la IA permitirá reducir drásticamente las plantillas. No solo considera irrealista ese escenario, sino también contraproducente. Promover la idea de que la adopción exitosa de la IA llevará al despido de los empleados desincentiva la implicación del personal y genera un clima de miedo que dificulta la innovación. En lugar de ello, el artículo defiende que la IA puede —y probablemente deberá— crear nuevos roles y ocupaciones, aunque todavía no sepamos con claridad cuáles serán.

Uno de los conceptos clave introducidos es el de vibe coding, entendido como una nueva forma de desarrollo ciudadano facilitada por la IA. Según Davenport, la inteligencia artificial convierte a prácticamente cualquier persona en un “desarrollador ciudadano”, capaz de crear aplicaciones, páginas web o herramientas funcionales sin conocimientos técnicos avanzados. Este fenómeno abre enormes oportunidades para la creatividad y la productividad, pero también implica riesgos si no se gestiona adecuadamente.

Por ello, el artículo insiste en la necesidad de establecer límites y sistemas de gobernanza claros. No todas las tareas son adecuadas para este tipo de desarrollo asistido por IA. Davenport propone un esquema de “semáforo”: actividades prohibidas (rojo), tareas que pueden realizarse con fuertes controles (amarillo) y usos plenamente aceptables (verde). Sin este tipo de criterios, el entusiasmo por la IA puede derivar en problemas graves, especialmente en sistemas críticos como los financieros o de recursos humanos.

Finalmente, el texto subraya la urgencia de contar con un liderazgo unificado en materia de tecnología y datos. La proliferación de cargos directivos relacionados con la IA —CIO, CTO, CDO, CAIO— ha generado fragmentación y falta de coordinación. Davenport aboga por una figura única, con visión estratégica y capacidad de interlocución con la alta dirección, que sea capaz de guiar la adopción de la IA sin caer en la exageración ni en el miedo.

Los bibliotecarios están desbordados por acusaciones de ocultar libros de referencias inexistentes que realmente fueron inventadas por alucinaciones de la IA

Novak, Matt. 2025. “Librarians Are Tired of Being Accused of Hiding Secret Books That Were Made Up by AI.Gizmodo, 11 de diciembre de 2025. https://gizmodo.com/librarians-arent-hiding-secret-books-from-you-that-only-ai-knows-about-2000698176

Todo el mundo sabe que los chatbots con IA como ChatGPT, Grok y Gemini suelen inventarse fuentes. Pero para las personas encargadas de ayudar al público a encontrar libros y artículos de revistas, las referencias falsas de la IA están pasando factura. Según una nueva publicación de Scientific American, los bibliotecarios parecen absolutamente agotados por las solicitudes de títulos que no existen.

Una problemática creciente en bibliotecas y centros de información provocada por la expansión del uso de chatbots de inteligencia artificial como ChatGPT, Grok o Gemini: la generación de títulos de libros, artículos y citas que en realidad no existen. Estas herramientas, debido a sus frecuentes “alucinaciones” (es decir, respuestas plausibles pero inventadas), han llevado a que muchos usuarios crean que dichos títulos son reales y se dirijan a los bibliotecarios con solicitudes para encontrarlos. Esta situación está causando frustración entre los profesionales de la información, quienes deben invertir tiempo y esfuerzo en demostrar que tales obras no existen en ningún catálogo o archivo conocido.

Según testimonios recopilados, como el de Sarah Falls del Library of Virginia, alrededor del 15% de las consultas de referencia recibidas por correo electrónico provienen directamente de sugerencias generadas por IA, muchas de las cuales incluyen títulos inventados o citas erróneas. Lo que agrava la situación no es solo la frecuencia de estas consultas, sino también el hecho de que parte del público confía más en la respuesta de la IA que en la experiencia de un bibliotecario profesional, lo cual ha generado situaciones tensas en las que usuarios insisten en la existencia de un libro pese a la demostración de que este nunca fue publicado.

Asimismo, el artículo señala que esta tendencia plantea un desafío más amplio para la comunidad académica y científica, ya que diluir la calidad de las referencias podría erosionar la confianza en el sistema de investigación y en la fiabilidad de las fuentes. Mientras que los modelos de IA pueden ser útiles para sintetizar o resumir información, su falta de capacidad para verificar hechos contra bases de datos reales implica que las instituciones y los investigadores deben adoptar prácticas de verificación más estrictas y educar a los usuarios sobre las limitaciones de estas tecnologías. Esto incluye pedir a quienes hagan consultas que indiquen si la referencia proviene de una IA y animarles a validar independientemente cualquier cita recibida.

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como persona del año

Reuters. 2025. “Architects of AI’ Named Time’s Person of the Year 2025.” December 11, 2025. https://time.com/7339685/person-of-the-year-2025-ai-architects/

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como Persona del Año, un reconocimiento no a una figura individual, sino a todo un grupo de líderes que han diseñado y transformado el ecosistema global de la IA.

Esta elección simboliza el momento histórico en que la inteligencia artificial pasó de ser un avance tecnológico a convertirse en una fuerza determinante en la vida cotidiana, en la economía y en el funcionamiento de las instituciones.

El artículo subraya que 2025 marcó un punto de inflexión: la IA dejó de ser una herramienta de nicho y se convirtió en un componente esencial para millones de personas. Modelos como ChatGPT y sistemas de IA aplicados en salud, educación o industria demostraron su capacidad para resolver problemas complejos y acelerar procesos. La labor de estos arquitectos permitió que la tecnología avanzara a una velocidad sin precedentes y ampliara su alcance a prácticamente todos los sectores. Esta selección reconoce a quienes han impulsado el desarrollo, la adopción y la expansión global de la IA, transformando industrias y la vida cotidiana. Entre ellos están Jensen Huang, Sam Altman, Elon Musk, Mark Zuckerberg, Lisa Su, Demis Hassabis, Dario Amodei y Fei-Fei Li.

Jensen Huang es CEO de Nvidia, la empresa que fabrica los chips que alimentan la mayoría de los sistemas de IA modernos. Su liderazgo ha llevado a Nvidia a convertirse en uno de los pilares de la infraestructura de la inteligencia artificial. Sam Altman, como CEO de OpenAI, es una de las figuras más visibles detrás de modelos de lenguaje como ChatGPT, que han popularizado la IA en todo el mundo. Elon Musk, fundador de xAI y de empresas como Tesla y SpaceX, ha invertido fuertemente en tecnologías de IA y ha influido en el debate público sobre su futuro.

Mark Zuckerberg, al frente de Meta, ha integrado capacidades de IA en redes sociales y aplicaciones de gran uso global. Lisa Su, CEO de AMD, dirige una de las principales empresas de semiconductores que compiten en la producción de hardware para IA. Demis Hassabis, líder de Google DeepMind, es conocido por avances en investigación de IA, y Dario Amodei, CEO de Anthropic, destaca por su trabajo en modelos de lenguaje y seguridad. Finalmente, Fei-Fei Li, investigadora académica y cofundadora de World Labs, aporta una perspectiva de investigación fundamental en el campo de la visión por computadora y la IA responsable.

Sin embargo, el reconocimiento también refleja los desafíos que acompañan este auge. El desarrollo acelerado de la IA ha despertado preocupaciones sobre privacidad, desinformación, desplazamiento laboral y sesgos algorítmicos. La figura de los “Arquitectos de la IA” representa tanto el enorme potencial transformador de estas tecnologías como la responsabilidad ética que implica dirigir su futuro.

En conjunto, TIME destaca que estas personas —ingenieros, investigadores y líderes tecnológicos— están moldeando la era actual y sentando las bases del mundo que viene. Su influencia es tan profunda que, para bien o para mal, el rumbo de la sociedad global en los próximos años estará estrechamente vinculado a las decisiones que tomen sobre cómo diseñar, regular y aplicar la inteligencia artificial.

RSL 1.0: el nuevo estándar que permite a los editores controlar el uso de su contenido por la IA

Roth, Emma. “RSL 1.0 Has Arrived, Allowing Publishers to Ask AI Companies to Pay to Scrape Content.” The Verge, 10 de diciembre de 2025 https://rslstandard.org/

Really Simple Licensing 1.0 (RSL 1.0) es un nuevo estándar de licencias abierto que se ha lanzado oficialmente para la era de la inteligencia artificial. Su objetivo principal es permitir que los editores de contenido web establezcan reglas claras sobre cómo y si las empresas de IA pueden utilizar su material, incluyendo posibles mecanismos de compensación económica.

Este estándar fue desarrollado por el RSL Collective con el respaldo de grandes nombres del sector como Yahoo, Ziff Davis y O’Reilly Media, y amplia el tradicional archivo robots.txt añadiendo un conjunto más detallado de permisos que las máquinas pueden leer y aplicar. Gracias a él, los editores pueden, por ejemplo, bloquear el uso de su contenido en funciones de búsqueda potenciadas por IA (como el “AI Mode” de Google) sin dejar de aparecer en los resultados de búsqueda tradicionales.

RSL 1.0 ha sido respaldado por más de 1 500 medios y plataformas, incluidas Reddit, Quora, WikiHow, Stack Overflow y The Guardian, y también cuenta con el apoyo de proveedores de infraestructura web como Cloudflare, Akamai y Fastly, lo que facilita la aplicación práctica de estas reglas frente a rastreadores o bots que no cumplan con las condiciones establecidas.

Además, la especificación incluye un modelo de “contribución” desarrollado junto con Creative Commons, pensado para permitir que organizaciones sin ánimo de lucro y otros creadores exijan aportaciones a los sistemas de IA que se beneficien de su trabajo, sin cerrar el acceso a contenidos útiles o de libre uso.

Este lanzamiento llega en un contexto en el que compañías como Google están siendo investigadas por el uso de contenido de editores en funciones de IA sin ofrecer opciones claras de exclusión o compensación, y RSL 1.0 pretende aportar transparencia y un marco legal para resolver estas tensiones en la relación entre creadores de contenido y proveedores de IA.

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.

Redes sociales estables, IA en ascenso: así es el ecosistema digital adolescente en 2025

Teens, Social Media and AI Chatbots 2025. Publicado el 9 de diciembre de 2025.
https://www.pewresearch.org/internet/2025/12/09/teens-social-media-and-ai-chatbots-2025/

Aunque las redes sociales siguen siendo un elemento central en la vida de los adolescentes —con patrones de uso que muestran estabilidad año tras año— la aparición de los chatbots de IA marca un cambio significativo: lo que era un uso casual o experimental ahora se consolida como parte habitual de su día a día.

El estudio se basa en una encuesta online realizada a 1.458 adolescentes estadounidenses de entre 13 y 17 años, entre el 25 de septiembre y el 9 de octubre de 2025, ponderada para ser representativa según edad, género, raza/etnicidad, nivel de ingresos del hogar, etc

La mayoría de los adolescentes encuestados continúa usando plataformas como YouTube, TikTok, Instagram y Snapchat. En concreto, casi 9 de cada 10 declaran haber usado YouTube alguna vez; seis de cada 10 o más usan TikTok e Instagram; alrededor del 55 % usan Snapchat. Por el contrario, otras plataformas como Facebook (≈ 31 %) o WhatsApp (≈ 24 %) tienen menor penetración; redes como Reddit o X (antes Twitter) son aún menos utilizadas.

En cuanto a frecuencia, muchos adolescentes usan estas redes con regularidad. Por ejemplo, YouTube es usada a diario por alrededor de tres cuartas partes de los adolescentes; TikTok e Instagram también tienen un uso diario elevado (≈ 61 % y 55 %, respectivamente). Además, aproximadamente 1 de cada 5 adolescentes dice estar “casi constantemente” conectado en TikTok o YouTube. Aunque esas cifras han variado poco en relación con años recientes, el uso casi constante de TikTok ha subido algo desde 2022.

El estudio revela que los chatbots de inteligencia artificial (IA) han adquirido un papel destacado en la vida online de los adolescentes. En total, alrededor del 64 % de los adolescentes encuestados informa haber utilizado algún chatbot de IA. De ese grupo, cerca de 3 de cada 10 dice usarlos a diario

El uso diario varía según edad, origen étnico y nivel de ingresos. Por ejemplo, entre los de 15-17 años el 31 % usa chatbots todos los días, comparado con el 24 % de los de 13-14 años. En cuanto a etnicidad, un tercio de adolescentes negros (35 %) e hispanos (33 %) informa uso diario, frente a un 22 % entre adolescentes blancos. Y al dividirse por nivel de ingresos: un 66 % de los adolescentes en hogares con ingresos elevados (≥ 75.000 USD) usan chatbots, frente a un 56 % de quienes viven en hogares con ingresos inferiores a 30.000 USD.

En cuanto a qué chatbots usan, el más popular es ChatGPT (con un 59 % de adopción), más del doble que el siguiente más popular: Gemini (23 %), seguido por Meta AI (20 %). Otros como Copilot, Character.ai o Claude tienen menor uso.

Este fenómeno plantea nuevas preguntas sobre la salud digital de los jóvenes: la integración de la IA en espacios de relación, información y ocio sucede al mismo tiempo que ciertos colectivos (por edad, origen o nivel socioeconómico) muestran diferencias en su uso, lo cual podría contribuir a desigualdades digitales.

La IA ahorra a los trabajadores menos de una hora al día.

AI Saves Workers Less Than an Hour Each Day, New OpenAI Report Shows.” CNET. 2025 https://www.cnet.com/tech/services-and-software/ai-saves-workers-less-than-an-hour-each-day-new-openai-report-shows/

Informe

Un reciente informe de OpenAI revela que las herramientas de inteligencia artificial (IA) ya están generando un ahorro de tiempo real en el entorno laboral. Según la encuesta realizada a 9.000 empleados de cerca de 100 empresas, quienes usan las soluciones de IA han declarado que logran ahorrar entre 40 y 60 minutos por día en sus tareas profesionales.

El informe OpenAI’s 2025 ‘The State of Enterprise AI’ report ofrece una visión detallada de cómo las empresas están utilizando las herramientas de IA en la práctica. Basándose en datos de uso anónimos de más de un millón de clientes empresariales, junto con una encuesta realizada a 9000 trabajadores de casi 100 organizaciones, el informe presenta un panorama de la creciente adopción e integración de la IA en el lugar de trabajo.

Este ahorro no se limita a un tipo de trabajo: los sectores donde más se nota la ganancia de tiempo incluyen ciencia de datos, ingeniería, comunicaciones y contabilidad. Para muchos de estos trabajadores, el uso de IA no solo agiliza tareas rutinarias, sino que aumenta la velocidad o la calidad del resultado. De hecho, el 75 % de los encuestados afirmó que la IA ha mejorado su rendimiento en uno u otro de esos aspectos.

Además, el informe sugiere que la IA no solo optimiza lo ya existente, sino que amplía lo que los trabajadores pueden hacer: muchas personas informan que ahora son capaces de desempeñar tareas que antes les resultaban inaccesibles. En algunos perfiles —especialmente los más intensivos en uso de IA— el ahorro de tiempo puede traducirse en más de 10 horas semanales.

Por último, los datos muestran una adopción acelerada de la IA en las empresas: el uso de herramientas como ChatGPT Enterprise creció exponencialmente, y muchos equipos están integrándolas de forma estructural en sus flujos de trabajo, lo que sugiere que la IA está pasando de ser una novedad o experimento a ser parte permanente del entorno laboral moderno.