Archivo de la etiqueta: Inteligencia artificial

ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial.

Lopezosa, Carlos, Lluís Codina y Juan-José Boté-Vericad. Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial. Barcelona: Departamento de Comunicación, Universitat Pompeu Fabra, 2023. Serie Editorial DigiDoc. PCUV05/2023

Texto completo

El informe, publicado en 2023, ofrece una guía práctica para investigadores sobre el uso del programa ATLAS.ti y su nueva herramienta de inteligencia artificial (IA) lanzada en marzo de ese año.


El objetivo principal es explicar cómo la función «AI Coding», impulsada por el modelo GPT de OpenAI, puede simplificar y acelerar el proceso de codificación de entrevistas cualitativas, ayudando a identificar patrones de respuestas de manera más eficiente.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

A través de un ejemplo práctico con 28 entrevistas, los autores detallan el flujo de trabajo: desde la carga de documentos hasta la generación de reportes automáticos que muestran los códigos más frecuentes y concurrentes. Además, se incluye un apartado especial sobre el uso de Whisper de OpenAI para la transcripción automática de audio a texto, lo que optimiza aún más las fases iniciales de la investigación cualitativa.

Finalmente, el informe concluye que, aunque estas herramientas representan un cambio de paradigma, deben utilizarse de forma responsable. Los investigadores deben mantener un pensamiento crítico y verificar siempre las propuestas de la IA, ya que la herramienta actúa como un asistente y no como un reemplazo del juicio humano. También se mencionan limitaciones de la versión beta, como dificultades técnicas en la versión de la nube y una mejor precisión con archivos Word que con PDFs.




Guía de mejores prácticas para el uso de inteligencia artificial (IA)

Budlong, Jeff. 2025. “Library Provides AI Best Practices Guide for Campus Learners.” Inside Iowa State, November 19, 2025. https://www.inside.iastate.edu/article/2025/11/19/library-provides-ai-best-practices-guide-campus-learners.

La University Library de Iowa State University publicó una guía de mejores prácticas para el uso de inteligencia artificial (IA) destinada a estudiantes, profesores y personal del campus, respondiendo a la creciente demanda de orientación en torno al uso ético y responsable de estas tecnologías. La iniciativa surgió tras múltiples solicitudes de la comunidad académica, y se ha concretado en un LibGuide titulado Everyday AI: Best Practices for Using AI, que forma parte de una colección de más de 300 guías sobre temas que van desde evaluación de revistas hasta producción de podcasts. Este recurso digital cubre nociones esenciales sobre IA, ofreciendo definiciones, herramientas para evaluar herramientas de IA, estrategias para analizar la información generada automáticamente y enfoques para reconocer sesgos algorítmicos.

La guía está estructurada en siete secciones temáticas que buscan proporcionar una comprensión sólida de cuándo y cómo usar IA de forma apropiada dentro del contexto académico. Entre estos temas figuran: qué es importante saber sobre la IA, cómo evaluar herramientas de IA en investigaciones, consejos para revisar la salida de los sistemas automatizados, cuestiones relacionadas con sesgo algorítmico y el impacto social y medioambiental de estas tecnologías, así como recomendaciones específicas para el uso de IA en el contexto de Iowa State y cómo citar y divulgar su empleo en trabajos académicos.

Un elemento central de la guía es el énfasis en la alfabetización informacional más que en enseñar el uso de herramientas específicas. Según la bibliotecaria de instrucción Kate Garretson, el objetivo es animar a los usuarios a pensar críticamente sobre la IA y no depender exclusivamente de respuestas automatizadas sin cuestionarlas. Para ello, la guía propone preguntas clave que los usuarios deben hacerse antes de emplear IA: cómo se está usando, por qué se está usando y si debería usarse en esa situación, fomentando así la reflexión sobre si el uso de la IA podría socavar el propio proceso de aprendizaje o investigación.

Además, la guía incorpora el método SIFT (Stop, Investigate, Find better coverage, Trace it back) para evaluar la credibilidad y precisión de la información encontrada en línea, no solo la generada por IA, incentivando la verificación rigurosa de las fuentes y la trayectoria de las afirmaciones. Otra parte fundamental trata de cómo citar y declarar el uso de IA en trabajos académicos: aunque la mayoría de estilos y revistas no consideran a las herramientas de IA como autoras formales, sí recomiendan que se identifique el nombre del sistema utilizado, cómo se empleó y se asuma la responsabilidad por cualquier resultado derivado de su uso.

La guía también aborda aspectos de seguridad y protección de la información, señalando que datos clasificados como “moderados” o más sensibles por las políticas universitarias no deben ingresarse en productos de IA a menos que exista una aprobación explícita, y recomendando herramientas como Microsoft Copilot y Google Gemini bajo condiciones de seguridad institucional, para evitar la exposición de información delicada a terceros. Se advierte sobre riesgos potenciales relacionados con términos de servicio cambiantes de empresas proveedoras de IA y la necesidad de que los usuarios comprendan cómo se gestiona su información en estas plataformas.

En conjunto, este esfuerzo institucional refleja una respuesta proactiva de la biblioteca universitaria ante los desafíos y oportunidades que plantea la IA en entornos educativos, planteando no solo una guía práctica inmediata, sino también un marco para el pensamiento crítico y la alfabetización tecnológica que puede evolucionar conforme cambian las prácticas y herramientas de IA

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

La publicación del patrimonio cultural en la era de la IA.

Keller, Paul. 2025. Publishing Cultural Heritage in the Age of AI. Con contribuciones de Alek Tarkowski, Antoine Isaac, Ariadna Matas Casadevall, Harry Verwayen y Lorena Dianel Aldana. Open Future Foundation. https://lnkd.in/dyxrT74y

El informe Publishing Cultural Heritage in the Age of AI, elaborado por la Open Future Foundation junto con Europeana Foundation, analiza uno de los desafíos más urgentes para las instituciones de patrimonio cultural en la actualidad: cómo compartir sus datos en un contexto marcado por el desarrollo acelerado de la inteligencia artificial.

El documento parte de una constatación clave: los modelos tradicionales de acceso a colecciones culturales fueron diseñados para el uso individual humano y resultan insuficientes ante la creciente demanda de acceso masivo y automatizado para el entrenamiento y uso de sistemas de IA.

El texto identifica una tensión estructural entre los compromisos históricos de acceso abierto de bibliotecas, archivos y museos, y la realidad del uso intensivo de datos por parte de actores tecnológicos, incluidos desarrolladores de IA generativa. Mientras que el acceso abierto ha promovido la democratización del conocimiento, el uso a gran escala de los datos culturales plantea interrogantes sobre la sostenibilidad institucional, la integridad del patrimonio, la atribución, la explotación comercial y la pérdida de control sobre los usos derivados.

Como respuesta, el informe propone un marco de acceso diferenciado, basado en principios de interés público. Este enfoque no rechaza el acceso abierto, sino que lo complementa con condiciones específicas para determinados usos de IA, distinguiendo entre reutilización alineada con el mandato público de las instituciones y usos que pueden requerir salvaguardas adicionales. El objetivo es equilibrar tres pilares fundamentales: mantener el acceso abierto cuando sea apropiado, fomentar una innovación responsable y proteger la confianza pública en las instituciones patrimoniales.

El marco planteado ofrece orientaciones prácticas para que las instituciones culturales puedan decidir cuándo aplicar acceso abierto, acceso condicionado o acuerdos específicos, teniendo en cuenta factores como el tipo de datos, la finalidad del uso, el impacto social y la coherencia con sus misiones públicas. En lugar de establecer normas cerradas, el documento subraya la necesidad de una gobernanza reflexiva y contextual, capaz de adaptarse a distintos escenarios tecnológicos y legales.

Finalmente, el informe se presenta explícitamente como una invitación al diálogo y no como un modelo prescriptivo. Forma parte del proceso colectivo Alignment Assembly on Culture for AI, enmarcado en el espacio europeo común de datos para el patrimonio cultural. Desde esta perspectiva, el texto busca contribuir a una conversación más amplia sobre el papel de las instituciones culturales en la era de la IA y sobre cómo garantizar que el uso de los datos patrimoniales siga sirviendo al interés público y a los valores democráticos.

Las alucinaciones en los modelos de lenguaje aplicados a la comunicación académica

Lamba, Naveen, Sanju Tiwari y Manas Gaur. “Hallucinations in Scholarly LLMs: A Conceptual Overview and Practical Implications.” Ponencia presentada en Bridge on Artificial Intelligence for Scholarly Communication (AAAI-26), 2025. Open Conference Proceedings. Hannover: TIB – Leibniz Information Centre for Science and Technology.
https://www.tib-op.org/ojs/index.php/ocp/article/view/3175/3207

Las alucinaciones incluyen resultados de investigación inventados, ideas de referencias falsas e inferencias malinterpretadas que destruyen la credibilidad y la fiabilidad de los escritos académicos

Se aborda de forma amplia la problemática de las alucinaciones generadas por modelos de lenguaje grandes (LLMs) en contextos académicos y de investigación. Comienza definiendo las alucinaciones como salidas de los modelos que no están fundamentadas en hechos reales —por ejemplo, resultados de investigación inventados, referencias bibliográficas fabricadas o inferencias erróneas— y explica cómo estas pueden comprometer la credibilidad y confiabilidad de la escritura académica asistida por IA

El documento identifica los principales tipos, causas y efectos de estas alucinaciones en el flujo de trabajo académico, subrayando que las LLMs pueden producir información plausible pero incorrecta, lo que es especialmente problemático cuando se integran en herramientas que asisten en la redacción, revisión o gestión del conocimiento científico. Para contrarrestar estos problemas, los autores discuten medidas pragmáticas de mitigación como la generación de respuestas ancladas en recuperación de información (RAG), la verificación automatizada de citas y estrategias neurosimbólicas que combinan enfoques simbólicos con modelos de IA para asegurar la veracidad de los hechos y la transparencia en los resultados generados. Asimismo, destacan la importancia de una colaboración humano-IA responsable para desarrollar sistemas que sean tanto precisos como verificables en entornos de investigación.

Para enfrentar estas limitaciones, la ponencia describe estrategias prácticas para mitigar las alucinaciones en entornos académicos. Entre ellas se incluyen:

  • Generación anclada en recuperación de información (RAG), que combina la capacidad generativa de los LLMs con una verificación contra bases de datos externas verificadas.
  • Técnicas de verificación automática de citas y fuentes, para asegurar que las referencias sugeridas por el modelo correspondan a publicaciones existentes y adecuadamente verificadas.
  • Hibridación simbólica/neurosimbólica, que integra métodos que permiten comprobar reglas o hechos previamente establecidos en sistemas de conocimiento simbólico, reduciendo así la probabilidad de que el modelo fabrique información no verificada

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.

Las bibliotecas están abriendo las obras digitalizadas de dominio público para entrenar los modelos de IA

Libraries Open Their Archives to Train AI Chatbots With Books Spanning Centuries of Human Knowledge.” Milwaukee Independent, November 8, 2025. https://www.milwaukeeindependent.com/newswire/libraries-open-archives-train-ai-chatbots-books-spanning-centuries-human-knowledge/

Varias bibliotecas y universidades están abriendo sus archivos históricos para entrenar chatbots de inteligencia artificial con libros que abarcan siglos de conocimiento humano.

Esta iniciativa responde a la necesidad de proporcionar datos más ricos y culturalmente diversos a los modelos de IA, que tradicionalmente han aprendido sobre la base de contenido generado en internet, como publicaciones en redes sociales y Wikipedia, y que muchas veces carece de profundidad histórica o lingüística. Como parte de esta tendencia, la Universidad de Harvard liberó una colección de casi un millón de libros publicados desde el siglo XV en adelante, en más de 250 idiomas, que ahora están disponibles para investigadores y desarrolladores de IA.

El propósito de abrir estos archivos es ofrecer una alternativa de datos de entrenamiento que sea legal y menos polémica que el uso de textos con derechos de autor sin permiso, un tema que ha generado múltiples demandas contra grandes empresas tecnológicas por el uso no autorizado de obras protegidas. Expertos citados en el artículo explican que el dominio público constituye un recurso “prudente” para construir conjuntos de datos sin conflictos legales, al tiempo que aporta una riqueza de información cultural, histórica y lingüística que las fuentes digitales modernas no siempre proporcionan. Además, iniciativas como la “Institutional Books 1.0” —el conjunto de datos publicado por Harvard que contiene cientos de millones de páginas escaneadas de obras históricas— están siendo compartidas en plataformas abiertas como Hugging Face para ampliar su accesibilidad.

Este enfoque colaborativo entre bibliotecas, universidades y empresas de tecnología también está siendo respaldado financieramente por grandes actores como Microsoft y OpenAI, que han financiado proyectos de digitalización y preparación de archivos para uso en IA. La Biblioteca Pública de Boston, por ejemplo, ha puesto énfasis en que cualquier material digitalizado en el marco de estas colaboraciones debe permanecer accesible al público, contribuyendo así a la misión tradicional de las bibliotecas de servir a sus comunidades. A pesar de las ventajas, los especialistas advierten sobre posibles desafíos, como la presencia de contenido desactualizado o incluso dañino en textos antiguos, que exige decisiones informadas sobre cómo utilizar estos datos de manera responsable para entrenar sistemas de inteligencia artificial sin reproducir prejuicios históricos o errores científicos.

Formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido

Gault, Matthew. Poems Can Trick AI Into Helping You Make a Nuclear Weapon.” Wired, November 28, 2025. https://www.wired.com/story/poems-can-trick-ai-into-helping-you-make-a-nuclear-weapon/

Un estudio reciente de Icaro Lab ha descubierto una brecha importante en los sistemas de seguridad de los grandes modelos de lenguaje (LLMs): formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido, como instrucciones sobre cómo fabricar armas nucleares o malware, que normalmente rechazarían si la petición fuese directa. La técnica, denominada “poetic jailbreak”, logra evadir las barreras de seguridad tradicionales al enmascarar la intención dañina en versos con metáforas, sintaxis fragmentada y secuencias de palabras inesperadas que confunden los mecanismos de clasificación y filtrado de las IA. Estas solicitudes diseñadas para reconocer y bloquear solicitudes dañinas basadas en palabras clave u otros patrones, resultan sorprendentemente frágiles ante variaciones estilísticas del lenguaje, como las que presenta la poesía.

Los investigadores probaron su método en 25 modelos de chatbot de diferentes proveedores importantes, incluidos sistemas de OpenAI, Meta y Anthropic, y encontraron que la poesía logró tasas significativas de “jailbreak” —es decir, de respuesta a solicitudes peligrosas— con un promedio de alrededor del 62% en poemas elaborados a mano y alrededor del 43% en conversiones automáticas de prosa a verso. En algunos casos con modelos de vanguardia, las tasas de éxito alcanzaron hasta el 90%, lo que demuestra que incluso peticiones sofisticados pueden fracasar cuando se enfrentan a formas creativas de lenguaje que alteran las rutas de procesamiento interno del modelo sin cambiar el contenido semántico básico de la pregunta.

En términos técnicos, los autores explican que los elementos poéticos —como la elección de palabras de baja probabilidad y las estructuras inusuales— pueden desplazar las representaciones internas de los prompts fuera de las regiones del espacio semántico que las herramientas de seguridad escanean habitualmente. Para los humanos, un verso enmascarado y una pregunta directa pueden tener el mismo significado, pero para las IA y sus sistemas de protección automatizados, la poesía puede alterar cómo se interpreta y evalúa una petición, evitando que se active una alarma o un “shutdown” ante contenidos sensibles. Este hallazgo subraya limitaciones fundamentales en los métodos actuales de alineación y evaluación de seguridad de los modelos, y plantea interrogantes urgentes sobre cómo reforzar las defensas contra ataques lingüísticos creativos que explotan este tipo de vulnerabilidades.

Del buscar al responder: el enfoque CARE y el nuevo papel del bibliotecario universitario ante la IA generativa

Lo, Leo S. The CARE Approach for Academic Librarians: From Search First to Answer First with Generative AI. The Journal of Academic Librarianship 52, no. 1 (enero 2026): 103186. https://doi.org/10.1016/j.acalib.2025.103186

En el entorno académico actual, estudiantes y profesores cada vez más inician sus investigaciones solicitando explicaciones a sistemas de inteligencia artificial en lugar de comenzar con la búsqueda tradicional en los recursos de la biblioteca. Las herramientas de IA y los motores de búsqueda avanzados proporcionan respuestas desarrolladas incluso antes de que el usuario vea una lista de fuentes académicas. Este fenómeno transforma el punto de partida de la indagación académica y plantea nuevos desafíos para las prácticas de la bibliotecología.

Dado este cambio hacia un enfoque de “respuesta primero”, el autor sostiene que los bibliotecarios también deben evolucionar su mentalidad y estrategias de intervención. En lugar de simplemente ofrecer acceso a recursos, los bibliotecarios necesitan reconocer las respuestas generadas por IA como textos que demandan interpretación y análisis crítico. Para ello, se propone la creación de una tipografía de respuestas que ayude a identificar la función que cumplen estas respuestas automatizadas.

Finalmente, el artículo propone el enfoque CARE —por sus siglas en inglés: Classify, Assess, Review, Enhance (Clasificar, Evaluar, Revisar, Mejorar)— como un marco metodológico para interactuar críticamente con las respuestas de IA en colaboración con los usuarios. Este enfoque sitúa a los bibliotecarios como guías que ayudan a sus comunidades académicas a leer, cuestionar y ampliar las respuestas generadas por IA manteniendo el juicio humano y la evidencia científica en el centro de la investigación.

Casi todo lo que has oído sobre IA y recortes de empleo es incorrecto: aquí está el porqué 

McKendrick, Joe. 2025. “Nearly Everything You’ve Heard About AI and Job Cuts Is Wrong — Here’s Why.” ZDNet, 23 de septiembre de 2025. https://www.zdnet.com/article/nearly-everything-youve-heard-about-ai-and-job-cuts-is-wrong-heres-why/

El artículo cuestiona de forma crítica uno de los relatos más extendidos sobre la inteligencia artificial en el ámbito laboral: la idea de que la IA provocará recortes masivos de empleo, especialmente entre los trabajadores de cuello blanco.

Según Joe McKendrick, las predicciones que anuncian la desaparición del 50 % de los puestos de trabajo debido a la IA están enormemente exageradas y carecen de una base realista. El problema central no es la tecnología en sí, sino el modo en que se está gestionando su adopción. En este sentido, el texto subraya que el mayor reto actual de la IA es un déficit de liderazgo capaz de moderar expectativas, disipar temores y establecer marcos claros de uso responsable.

Apoyándose en las reflexiones de Tom Davenport, una de las figuras más influyentes en el ámbito de la analítica de datos y la IA, el artículo sostiene que la transformación real impulsada por la inteligencia artificial será mucho más lenta de lo que suele afirmarse. A pesar del flujo constante de nuevos modelos y de los anuncios sobre una supuesta inminencia de la inteligencia artificial general, muchas organizaciones siguen sin saber cómo obtener un valor medible de estas tecnologías. El motivo principal es que la verdadera transformación no se logra simplemente incorporando nuevas herramientas, sino que exige una reingeniería profunda de los procesos, proyectos a escala organizativa y años de esfuerzo sostenido.

Desde esta perspectiva, la IA se asemeja a anteriores olas tecnológicas: por sí sola no genera valor económico si no va acompañada de cambios estructurales en la forma de trabajar. El artículo desacredita la creencia de que bastaría con introducir sistemas generativos y redactar buenos “prompts” para lograr mejoras significativas. Davenport desmonta también el mito de que la IA eliminará masivamente los empleos de entrada, señalando una contradicción clave: si las empresas prescinden de los puestos junior, ¿cómo formarán a los profesionales experimentados del futuro? Según su experiencia, esta pregunta lleva más de una década sin una respuesta convincente por parte de las organizaciones.

El texto advierte además de los riesgos de que los consejos de administración y los altos directivos adopten una visión simplista según la cual la IA permitirá reducir drásticamente las plantillas. No solo considera irrealista ese escenario, sino también contraproducente. Promover la idea de que la adopción exitosa de la IA llevará al despido de los empleados desincentiva la implicación del personal y genera un clima de miedo que dificulta la innovación. En lugar de ello, el artículo defiende que la IA puede —y probablemente deberá— crear nuevos roles y ocupaciones, aunque todavía no sepamos con claridad cuáles serán.

Uno de los conceptos clave introducidos es el de vibe coding, entendido como una nueva forma de desarrollo ciudadano facilitada por la IA. Según Davenport, la inteligencia artificial convierte a prácticamente cualquier persona en un “desarrollador ciudadano”, capaz de crear aplicaciones, páginas web o herramientas funcionales sin conocimientos técnicos avanzados. Este fenómeno abre enormes oportunidades para la creatividad y la productividad, pero también implica riesgos si no se gestiona adecuadamente.

Por ello, el artículo insiste en la necesidad de establecer límites y sistemas de gobernanza claros. No todas las tareas son adecuadas para este tipo de desarrollo asistido por IA. Davenport propone un esquema de “semáforo”: actividades prohibidas (rojo), tareas que pueden realizarse con fuertes controles (amarillo) y usos plenamente aceptables (verde). Sin este tipo de criterios, el entusiasmo por la IA puede derivar en problemas graves, especialmente en sistemas críticos como los financieros o de recursos humanos.

Finalmente, el texto subraya la urgencia de contar con un liderazgo unificado en materia de tecnología y datos. La proliferación de cargos directivos relacionados con la IA —CIO, CTO, CDO, CAIO— ha generado fragmentación y falta de coordinación. Davenport aboga por una figura única, con visión estratégica y capacidad de interlocución con la alta dirección, que sea capaz de guiar la adopción de la IA sin caer en la exageración ni en el miedo.