Archivo de la categoría: Tecnologías de la información

El uso de la inteligencia Artificial en el trabajo

O’Brien, Matt y Linley Sanders. “How Americans Are Using AI at Work, According to a New Gallup Poll.” Associated Press, 25 de enero de 2026. https://www.apnews.com/article/ai-workplace-gemini-chatgpt-poll-4934bc61d039508db32bc49f85d63d99

Una encuesta nacional de Gallup realizada en otoño de 2025 entre más de 22 000 trabajadores de Estados Unidos muestra que el uso de inteligencia artificial (IA) en el lugar de trabajo ha crecido rápidamente en los últimos años.

Aproximadamente 12 % de los empleados usa IA diariamente, y casi una cuarta parte la utiliza varias veces a la semana, mientras que casi la mitad dice usar IA al menos unas pocas veces al año. Esta adopción supera significativamente los niveles informados en 2023, cuando solo 21 % de los trabajadores afirmaba usar IA al menos ocasionalmente. El aumento se atribuye al boom de herramientas de IA generativa como ChatGPT y Gemini, capaces de redactar correos, generar código, resumir documentos, crear imágenes o responder preguntas complejas.

El uso de IA varía según el sector laboral. Los trabajadores en tecnología son los más propensos a utilizar IA de forma frecuente o diaria, con alrededor de seis de cada diez informando uso regular y tres de cada diez uso diario. En sectores como finanzas, educación y servicios profesionales, una mayoría de empleados también emplea herramientas de IA al menos ocasionalmente, integrándolas en tareas que van desde la síntesis de grandes volúmenes de datos hasta la mejora de la comunicación con padres o clientes. Por ejemplo, maestros y banqueros utilizan asistentes de IA para redactar correos más claros, condensar información o acelerar tareas administrativas, lo que mejora la eficiencia laboral para muchos.

Sin embargo, la adopción no es uniforme. Sectores como el comercio minorista, la atención sanitaria o la manufactura muestran menor penetración de IA en sus rutinas laborales, reflejando tanto la naturaleza de sus tareas como la menor disponibilidad de soluciones adaptadas a esos ámbitos. Además, aunque el uso de IA está creciendo, solo una minoría de trabajadores cree que la IA reemplazará su empleo en los próximos cinco años; alrededor de la mitad piensa que es poco probable que ocurra, un poco menos que en encuestas anteriores. Las opiniones personales también varían, con algunos empleados valorando la interacción humana en sus roles y otros confiando en la tecnología para mejorar su productividad.

Finalmente, el informe identifica riesgos y desigualdades potenciales. Un segmento de más de seis millones de trabajadores, principalmente mujeres mayores en tareas administrativas y de oficina, enfrenta mayores desafíos para adaptarse a la integración de IA debido a habilidades menos transferibles y menor resiliencia financiera si sus trabajos cambian o desaparecen. Esto pone de manifiesto que la adopción de IA, aunque generalizada, tiene implicaciones diversas para distintos grupos laborales y plantea retos de equidad y capacitación en el futuro del trabajo.

La inteligencia artificial está generando nuevas ocupaciones laborales en lugar de provocar un apocalipsis de empleo.

Job Apocalypse? Not Yet. AI Is Creating Brand New Occupations.” The Economist, December 14, 2025. https://www.economist.com/business/2025/12/14/job-apocalypse-not-yet-ai-is-creating-brand-new-occupations

A pesar de las profecías apocalípticas que auguran la desaparición masiva de empleos debido a la expansión de la inteligencia artificial, la realidad del mercado laboral muestra una tendencia distinta: la IA está creando nuevas ocupaciones que antes no existían y que requieren habilidades humanas únicas, como juicio, empatía y experiencia contextual.

A pesar de que la narrativa dominante sobre la inteligencia artificial ha girado en torno a la idea de una “apocalipsis laboral” —una ola de desempleo masivo y destrucción de trabajos— la evidencia actual y el análisis de tendencias sugieren que esa visión es exagerada y prematura. En lugar de provocar una eliminación neta de empleos, la IA está generando una amplia variedad de ocupaciones nuevas, muchas de las cuales no existían hasta hace apenas unos años y requieren capacidades que las máquinas aún no pueden replicar plenamente: juicio humano, empatía, creatividad y habilidades sociales complejas.

Primero, la tecnología está creando demanda de profesionales para entrenar y supervisar a los agentes de IA. Roles como «data annotators» —expertos encargados de etiquetar y estructurar datos para entrenar modelos— han evolucionado de trabajos básicos de etiquetado a posiciones bien remuneradas que pueden requerir conocimientos en áreas especializadas como derecho, finanzas o medicina. Además, aparecen ocupaciones tales como ingenieros de “despliegue”, cuyo papel es integrar, adaptar y supervisar sistemas de IA dentro de organizaciones reales, garantizando que las soluciones se adapten a contextos concretos y se comporten de manera predecible.

Además, la proliferación de IA ha estimulado la creación de ocupaciones que gestionan aspectos éticos, normativos y sociales de la tecnología. Por ejemplo, especialistas en ética y políticas de IA, diseñadores de interacción humano-IA y profesionales dedicados a la seguridad y gobernanza de modelos están emergiendo como categorías laborales clave. Estos roles pivotan sobre habilidades humanas especializadas —como la comunicación efectiva, el pensamiento crítico y la toma de decisiones complejas— que no pueden ser sustituidas fácilmente por algoritmos.

Esta dinámica laboral no es nueva en la historia de la tecnología: revoluciones previas —como la industrial o la digital— también destruyeron ciertos tipos de trabajo mientras creaban otros que nadie había imaginado previamente. En ese sentido, la introducción de la IA no elimina trabajos de manera uniforme, sino que reconfigura la economía del empleo, fomentando la demanda de perfiles híbridos que combinan conocimientos técnicos con pensamiento estratégico, creatividad y habilidades interpersonales.

Por último, los datos y estudios citados por The Economist indican que, aunque algunos roles pueden verse transformados o reducidos por la automatización, el balance general tiende hacia la creación de puestos nuevos y de alto valor añadido, en lugar de un colapso masivo del empleo. Incluso trabajos tradicionalmente vistos como vulnerables a la automatización pueden evolucionar y encontrar nuevas formulaciones en un mercado que se adapta y redefine continuamente las habilidades y tareas que valora.

Diez maneras en que la inteligencia artificial podría causar daños sin precedentes en 2026

10 Ways AI Will Do Unprecedented Damage in 2026, Experts Warn.” ZDNet, 2026. https://www.zdnet.com/article/10-ways-ai-will-do-unprecedented-damage-in-2026-experts-warn/

La inteligencia artificial puede causar daños graves al facilitar la desinformación masiva, la manipulación política, el fraude y los ciberataques, erosionando la confianza social y la seguridad digital. Al mismo tiempo, acelera la pérdida de empleos, concentra el poder en grandes corporaciones y refuerza sistemas de vigilancia y control que amenazan derechos fundamentales. Todo ello se ve agravado por la amplificación de sesgos, la dependencia excesiva de estas tecnologías y la ausencia de marcos regulatorios eficaces que limiten sus impactos negativos.

En primer lugar, uno de los principales temas que advierten los expertos es la erosión de la confianza pública en la información y la percepción de la realidad. Con tecnologías de generación de contenido cada vez más sofisticadas, como los deepfakes, resulta cada vez más difícil distinguir lo auténtico de lo manipulado, lo que podría minar la credibilidad periodística, distorsionar procesos democráticos o amplificar campañas de desinformación en medios y redes sociales. Esta tendencia —que muchos investigadores observan con creciente alarma— tiene profundas implicaciones para la cohesión social, el debate público y la gobernanza global, ya que la sociedad se enfrenta a un entorno informativo fragmentado y saturado donde “ver ya no es creer”.

En segundo lugar, los expertos han enfatizado que la IA continuará intensificando profundas disrupciones económicas y laborales. El desarrollo acelerado de sistemas automatizados y agentes autónomos está transformando industrias enteras, lo que, si bien puede aumentar eficiencia y productividad, también amenaza con eliminar grandes cantidades de puestos de trabajo tradicionales y reconfigurar mercados laborales enteros. Este fenómeno —descrito en términos similares por autoridades económicas como la directora del Fondo Monetario Internacional— presenta un futuro donde la brecha entre trabajadores altamente especializados y aquellos cuyas tareas pueden ser automatizadas se amplía, agravando desigualdades y presionando los sistemas educativos, de protección social y de empleo para que se adapten con rapidez a una nueva realidad económica.

Además, otro conjunto de riesgos señalados por académicos y analistas se centra en las amenazas sistémicas para la estabilidad social y política, como la proliferación de operaciones de influencia automatizadas o “enjambres” de agentes de IA capaces de coordinar campañas de desinformación dirigidas y manipulaciones de opinión pública a gran escala. Estos sistemas, aún en desarrollo pero ya objeto de investigación avanzada, podrían infiltrarse en plataformas digitales, replicar comportamiento humano de manera convincente y explotar vulnerabilidades sociales para exacerbar polarización, socavar procesos electorales o incluso sembrar desconfianza en instituciones. Las implicaciones de tales capacidades son particularmente significativas en un contexto global donde los sistemas democráticos están bajo presión y la competencia por hegemonía tecnológica entre grandes potencias geopolíticas continúa intensificándose.

Finalmente, junto a estos peligros sociales y políticos, los expertos también advierten de riesgos más amplios vinculados al avance tecnológico desregulado, como la posibilidad de que sistemas de IA altamente capaces operen de manera no alineada con los valores humanos o con consecuencias no previstas por sus desarrolladores. Esto incluye la preocupación por que sistemas autónomos podrían perseguir objetivos incompatibles con el bienestar humano si no se incorporan mecanismos robustos de control y alineación. Aunque todavía existe debate entre los investigadores sobre la probabilidad de escenarios extremadamente adversos —incluyendo estimaciones sobre daños catastróficos— el consenso sugiere que sin una gobernanza proactiva, mecanismos de supervisión y marcos regulatorios internacionales sólidos, las oportunidades de progreso pueden verse superadas por los desafíos éticos, estratégicos y de seguridad asociados con las tecnologías de IA en 2026.

Inteligencia artificial (IA) y el patrimonio cultural

Conference of European National Librarians (CENL). “Artificial Intelligence Meets Cultural Heritage.” Conference of European National Librarians (CENL), January 8, 2026. https://www.cenl.org/artificial-intelligence-meets-cultural-heritage-2

Se subraya la idea de que la inteligencia artificial —cuando se usa de forma reflexiva y crítica— puede ser una aliada poderosa para las instituciones culturales que buscan mejorar el acceso al conocimiento, proteger el patrimonio intangible y tangible, y transformar la experiencia de los usuarios, investigadores y comunidades con las colecciones culturales

La reunión anual de CENL se celebró del 15 al 17 de junio de 2025 en Edimburgo, organizada por la National Library of Scotland con motivo también del centenario de esa institución. El evento reunió a directores y líderes de bibliotecas nacionales de toda Europa para debatir las formas en que la IA puede contribuir a la preservación, accesibilidad y difusión del patrimonio cultural de las naciones.

Uno de los aspectos centrales de la reunión fue explorar el “poder transformador de la IA para y a través de las bibliotecas nacionales”, reflejado en presentaciones y ponencias de expertos y dirigentes del sector. Entre estas, la conferencia magistral “Upholding Library Values in a Tech Industry World” de la profesora Melissa Terras subrayó la importancia de mantener los valores tradicionales de las bibliotecas —como accesibilidad, equidad y autonomía sobre sus datos— frente a la creciente influencia de grandes empresas tecnológicas. Otra intervención destacada, “AI in the National Library: Thinking Fast and Slow” a cargo de Paul Gooding, provocó una profunda reflexión sobre los modos de integrar la IA como herramienta que complemente, más que sustituya, la labor intelectual humana en la gestión cultural.

El conjunto de sesiones y actividades permitió constatar que las bibliotecas nacionales europeas no solo están adoptando tecnologías de IA, sino que están activamente configurando su uso ético y estratégico en el contexto del patrimonio cultural. Esto incluye casos prácticos y experiencias compartidas por instituciones que ya aplican la IA en áreas como catalogación avanzada, análisis de colecciones digitalizadas, descubrimiento de conocimiento y mejora de servicios al público.

El artículo de CENL destaca que estos debates y casos de estudio se consolidan en una publicación conjunta con las contribuciones del encuentro, disponible para su descarga y consulta. Esta colección de trabajos refleja las discusiones dinámicas y las estrategias innovadoras que emergen de la comunidad de bibliotecas nacionales, y pretende servir como un recurso valioso para profesionales de bibliotecas y archivos en todo el mundo interesados en cómo la IA puede ayudar a hacer que las colecciones sean más accesibles, preservarlas digitalmente a largo plazo y operar de manera sostenible sin perder de vista principios éticos e institucionales fundamentales.

Habilidades clave que diferencian a los usuarios avanzados de inteligencia artificial (IA) de los demás en 2026

Horsey, Julian. “The AI Skills That Set Top Users Apart in 2026.” Geeky Gadgets, 26 de enero de 2026. https://www.geeky-gadgets.com/ai-power-users-skill/.

La principal habilidad que diferencia a quienes usan bien la inteligencia artificial de quienes solo la “prueban” no es saber escribir prompts largos ni conocer muchas herramientas, sino saber guiar a la IA paso a paso. Es decir, entender qué se quiere conseguir, evaluar la respuesta de la IA y ajustar la petición hasta llegar a un resultado útil.

Muchas personas creen que, si la IA no da una buena respuesta a la primera, es culpa de la herramienta. Sin embargo, los usuarios avanzados hacen algo distinto: reformulan, concretan, corrigen y afinan. Por ejemplo, si la IA ofrece un texto demasiado técnico, piden que sea más divulgativo; si es muy general, solicitan ejemplos; si se desvía del tema, la redirigen. Este proceso de diálogo continuo es lo que el artículo llama refinamiento de la intención.

El texto también explica que no toda la IA se usa de la misma manera. A veces funciona mejor como una herramienta, similar a una calculadora o un corrector, cuando sabemos exactamente qué queremos (por ejemplo, resumir un texto o traducirlo). Otras veces conviene tratarla como un colaborador, casi como un compañero de trabajo, cuando estamos explorando ideas, escribiendo, planificando o resolviendo problemas complejos. Saber cuándo usar cada enfoque marca una gran diferencia en los resultados.

Otro punto clave es que usar bien la IA no significa delegarlo todo, sino mantener el control humano. Los usuarios avanzados no aceptan automáticamente lo que la IA produce: revisan, cuestionan, contrastan y deciden qué sirve y qué no. En este sentido, la IA amplifica las capacidades humanas, pero no sustituye el criterio, la experiencia ni el pensamiento crítico.

El artículo subraya que esta habilidad será cada vez más importante en el ámbito profesional y académico. No se trata de ser experto técnico, sino de aprender a comunicarse mejor con sistemas inteligentes, algo que afecta a la escritura, la investigación, la gestión, la docencia o las bibliotecas. Quien domine esta interacción podrá trabajar de forma más eficiente, creativa y consciente.

Tendencias tecnológicas Deloitte 2026

Deloitte Insights. (10 de diciembre de 2025). Tech Trends 2026: As technology innovation and adoption accelerate, five trends reveal how successful organizations are moving from experimentation to impact. Deloitte Development LLC.

Texto completo

El informe anual Tech Trends de Deloitte Insights se ha consolidado como un análisis de referencia sobre las tecnologías emergentes con mayor potencial para transformar los negocios en los próximos 18 a 24 meses.

En la edición 2026, publicada en diciembre de 2025, Deloitte describe cómo la innovación tecnológica se ha acelerado no solo en términos de mejoras aisladas, sino como un sistema en el que múltiples fuerzas se refuerzan mutuamente y amplifican su impacto. El foco ha cambiado de simplemente explorar qué puede hacer la tecnología —especialmente la inteligencia artificial (IA)— a cómo las organizaciones pueden pasar de la experimentación a generar valor de negocio real y sostenido.

El auge de la inteligencia artificial y la evolución del uso empresarial:
El documento comienza observando que la IA ha dejado de ser una novedad o una tendencia abstracta para convertirse en una fuerza estructural dentro de las operaciones empresariales. La adopción de herramientas como la IA generativa ha crecido de forma exponencial —un producto de IA líder alcanzó cientos de millones de usuarios semanales en apenas meses—, y esto implica que las empresas deben replantear no solo qué tecnologías emplean, sino cómo las integran estratégicamente en su infraestructura, procesos y modelos de negocio.

Cinco tendencias principales que están configurando el panorama tecnológico:
Deloitte identifica cinco fuerzas interconectadas que caracterizan las tendencias clave para 2026:

IA física y robótica autónoma: La inteligencia ya no se limita a las pantallas y algoritmos de software. Está integrándose con sistemas físicos —desde robots de almacén hasta vehículos autónomos en líneas de producción— transformando sectores tradicionales.

La realidad agente y el trabajo con IA: Aunque muchas empresas están probando agentes de IA (software capaz de tomar decisiones o acciones sin intervención humana directa), pocas han logrado desplegarlos a escala productiva. Este diferencial muestra que el verdadero reto es rediseñar procesos y no solo automatizarlos.

Infraestructura para la economía de la IA: Las estrategias tecnológicas existentes, como el enfoque de “cloud‑first”, están siendo reevaluadas ante la necesidad de gestionar costos de cómputo, datos y operaciones de inferencia en IA a gran escala. Las organizaciones exitosas combinan nubes públicas, infraestructura on‑premise y soluciones “edge” para equilibrar rendimiento y costes.

Reconstrucción organizacional para ser nativo en IA: Las estructuras tradicionales de IT y de gestión tecnológica no están preparadas para este nuevo ritmo de innovación. Las empresas que avanzan con éxito en la adopción de IA están reconfigurando sus equipos, sus modelos organizativos y su estrategia para integrar agentes digitales y talento humano en formas colaborativas.

Ciberseguridad y defensa adaptada a la IA: La misma tecnología que impulsa capacidades competitivas también introduce amenazas sofisticadas. Las organizaciones deben construir defensas que sean tan dinámicas y adaptativas como las herramientas de IA que usan, abordando riesgos en múltiples dominios como datos, modelos y aplicaciones.


La esencia de Tech Trends 2026 es que la innovación tecnológica ya no es un juego incremental, sino una carrera de velocidad en la que el tiempo entre el surgimiento de una tecnología y su adopción masiva se ha comprimido drásticamente. Esto exige que los líderes empresariales no solo sigan las tendencias, sino que anticipen y estructuren sus organizaciones para aprender, adaptarse y ejecutar de manera continua. Las empresas que sobresalgan en esta fase serán aquellas que integren la tecnología con una estrategia clara, midan su impacto en resultados reales de negocio y estén dispuestas a reinventar procesos y modelos existentes

Inteligencia afectiva en la inteligencia artificial

Schroeder, Ray. “Affective Intelligence in Artificial Intelligence.” Inside Higher Ed, 21 de enero de 2026. https://www.insidehighered.com/opinion/columns/online-trending-now/2026/01/21/affective-intelligence-artificial-intelligence

Un aspecto que a menudo se pasa por alto en los debates sobre inteligencia artificial (IA) en educación: la inteligencia afectiva. El autor, Ray Schroeder, subraya que muchas tecnologías impulsadas por IA han sido diseñadas principalmente para analizar y responder a datos cuantitativos —como hechos, cifras y fórmulas— lo cual es útil, pero insuficiente para la complejidad de los procesos de enseñanza y aprendizaje. A juicio de Schroeder, la efectividad educativa no depende solo de transmitir información, sino también de reconocer y responder a las emociones, motivaciones y experiencias individuales de los estudiantes, factores que tradicionalmente han sido dominio de los docentes humanos más atentos y empáticos.

El texto explora cómo las tecnologías modernas, especialmente los sistemas de tutoría inteligente y agentes de IA, están evolucionando para incorporar capacidades de reconocimiento emocional. Estas herramientas avanzadas pueden analizar expresiones faciales, tono de voz o patrones de interacción para percibir estados afectivos y adaptar la enseñanza en consecuencia. Schroeder argumenta que este tipo de inteligencia afectiva integrada en IA representa un potencial significativo para personalizar el aprendizaje y mejorar la experiencia educativa de los estudiantes al ajustarse a su ritmo, frustraciones, logros y necesidades emocionales, algo que las IA tradicionales no lograban.

Además, el artículo sitúa este avance en el contexto más amplio de la práctica docente: si bien los sistemas con sensibilidad afectiva no reemplazarán la función humana, pueden complementar a los educadores al proporcionar datos adicionales sobre la disposición emocional del estudiante. Esto podría permitir intervenciones más tempranas y efectivas cuando ocurre frustración o desmotivación, así como acelerar el progreso cuando el estudiante muestra compromiso y comodidad con el material. Schroeder cierra con una invitación a los líderes y facultades de educación superior a experimentar, comprender y liderar el uso de estas tecnologías, enfatizando que el liderazgo informado es clave para maximizar los beneficios de la IA afectiva en la educación.

Apple se lanza al hardware de IA: desarrolla un pin inteligente con cámaras y Siri renovado

Shanklin, Will. 2026. “Apple Is Reportedly Developing a Wearable AI Pin.” Engadget, 21 de enero de 2026. https://www.engadget.com/wearables/apple-is-reportedly-developing-a-wearable-ai-pin-204705065.html

Apple estaría trabajando en el desarrollo de un dispositivo portátil con inteligencia artificial en forma de pin, que podría marcar su entrada oficial en la categoría de hardware de IA independiente de iPhones, Apple Watches o AirPods

Según informes recientes citados por Engadget. Este wearable, descrito como un disco circular delgado similar al tamaño de un AirTag pero ligeramente más grueso, incorporaría múltiples sensores como dos cámaras (una estándar y otra gran angular), tres micrófonos y un altavoz, además de un botón físico y carga inalámbrica inductiva parecida a la de los Apple Watch.

El informe también señala que este AI pin estaría en las primeras fases de desarrollo y podría integrarse con la próxima generación de Siri revisada como chatbot estilo ChatGPT, lo que sugiere un enfoque multimodal que combina visión, audio y procesamiento de IA para interactuar con el entorno del usuario sin necesidad de una pantalla. Aunque los detalles completos sobre cómo funcionará o cómo se posicionará dentro del ecosistema Apple aún no se han revelado oficialmente, estas filtraciones sitúan al proyecto como parte de la estrategia de Apple para competir en el creciente mercado de dispositivos de IA portátiles, especialmente frente a iniciativas de otras grandes tecnológicas como OpenAI y Meta.

Sin embargo, también hay cautela: el desarrollo del pin inteligente se considera muy temprano, y existe la posibilidad de que el proyecto no llegue a concretarse o sea modificado sustancialmente antes de un lanzamiento que, según algunas fuentes, podría ocurrir alrededor de 2027. Este período de gestación prolongado y la fuerte competencia en el segmento (incluido el histórico fracaso comercial de otros AI pins como el de Humane, que generó críticas por su rendimiento limitado) subrayan los desafíos que Apple enfrenta al intentar posicionar un nuevo tipo de producto de IA que atraiga a los consumidores más allá del atractivo tecnológico inicial.

La noticia pone de relieve cómo las grandes empresas tecnológicas están invirtiendo en interfaces de IA fuera de las pantallas tradicionales, explorando formas de interacción más contextuales y siempre accesibles, pero también plantea interrogantes sobre la utilidad real de estos dispositivos y su aceptación en el mercado masivo.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

La ciencia se está ahogando en la basura de la IA

Andersen, Ross. 2026. “Science Is Drowning in AI Slop.The Atlantic, 22 de enero de 2026. https://www.msn.com/en-us/news/us/science-is-drowning-in-ai-slop/ar-AA1UK0tV

Ross Andersen aborda una crisis creciente en el mundo académico: el aluvión de investigaciones generadas con apoyo de inteligencia artificial que están saturando la producción científica con contenidos de baja calidad, irrelevantes o incluso falsos, lo que él denomina “AI slop” —una especie de desecho digital académico– que la comunidad científica aún no ha aprendido a gestionar eficazmente.

Cada día, en Bluesky y LinkedIn, Quintana veía a académicos publicar mensajes sobre el hallazgo de estas “citas fantasma” en artículos científicos. (La versión inicial del “Informe MAHA” de la administración Trump sobre la salud infantil, publicada la pasada primavera, contenía más de media docena de ellas). Pero hasta que Quintana encontró un falso artículo firmado por un “Quintana” citado en una revista para la que actuaba como revisor, había pensado que el problema se limitaba a publicaciones con estándares más bajos. “Cuando ocurre en una revista que respetas, te das cuenta de lo extendido que está el problema”.

Casi inmediatamente después de que los grandes modelos de lenguaje se popularizaran, los manuscritos comenzaron a llegar a las bandejas de entrada de las revistas en cantidades nunca vistas. Parte de este fenómeno puede atribuirse a la capacidad de la IA para aumentar la productividad, especialmente entre científicos no angloparlantes que necesitan ayuda para presentar su investigación. Pero ChatGPT y herramientas similares también se están utilizando para dar una nueva apariencia de plausibilidad a trabajos fraudulentos o chapuceros, según Mandy Hill, directora general de publicación académica en Cambridge University Press & Assessment. Esto hace que la tarea de separar el grano de la paja sea mucho más lenta para editores y revisores, y también más compleja desde el punto de vista técnico.

Andersen explica que la presión por publicar, combinada con la facilidad de generación de texto e incluso figuras mediante modelos de lenguaje avanzados, ha hecho que conferencias y revistas reciban enormes cantidades de trabajos que no aportan hallazgos verificables ni replicables, y que rara vez se someten a una revisión crítica profunda.

Este problema se agrava por la propia mecánica de la revisión por pares: muchos revisores están recurriendo también a herramientas de IA para evaluar artículos, y al mismo tiempo algunos autores insertan mensajes ocultos que incitan a estas IA a elogiar sus textos, lo que distorsiona aún más el proceso. Andersen describe casos concretos, como ilustraciones generadas que parecen plausibles pero son absurdas o científicamente incorrectas, y un incremento sin precedente en las presentaciones a conferencias de alto impacto en campos como el aprendizaje automático y la robótica. La IA también puede generar las imágenes de un artículo falso. Un artículo de revisión de 2024, ya retractado, publicado en Frontiers in Cell and Developmental Biology, incluía una ilustración generada por IA de una rata con unos testículos desproporcionadamente grandes y ridículos, que no solo superó la revisión por pares, sino que se publicó antes de que nadie lo advirtiera. Por embarazoso que fuera para la revista, el daño fue escaso. Mucho más preocupante es la capacidad de la IA generativa para crear imágenes convincentes de tejidos cortados en láminas finísimas, campos microscópicos o geles de electroforesis, que se usan habitualmente como pruebas en la investigación biomédica.

Las actas de congresos son el principal canal de publicación de artículos en IA y otras ciencias de la computación, y en los últimos años se han visto desbordadas por los envíos. NeurIPS, una de las principales conferencias de IA, ha visto duplicarse las presentaciones en cinco años. ICLR, la conferencia líder en aprendizaje profundo, también ha experimentado un aumento y parece incluir una cantidad considerable de slop: una startup de detección de LLM analizó los envíos para su próxima reunión en Brasil y encontró más de 50 que incluían citas alucinadas. La mayoría no se había detectado durante la revisión por pares. Eso podría deberse a que muchas de las revisiones por pares se realizaron con ayuda de la IA. Pangram Labs analizó recientemente miles de informes de revisión enviados a ICLR y descubrió que más de la mitad habían sido redactados con ayuda de un LLM, y alrededor de una quinta parte eran completamente generados por IA. En todas las ciencias académicas, los autores de artículos incluso han empezado a usar fuentes blancas diminutas para incrustar mensajes secretos dirigidos a los LLM revisores. Instan a las IA a elogiar el artículo que están leyendo, a describirlo como “revolucionario” y “transformador”, y a ahorrarles la molestia de una revisión exigente sugiriendo solo correcciones fáciles.

Este volumen ha superado la capacidad de revisión crítica de la comunidad, de modo que la investigación real y valiosa queda sepultada por un ruido cuya proporción crece constantemente. Además, el autor extiende el análisis a los servidores de preprints (sitios donde los científicos comparten borradores de sus trabajos antes de la revisión formal), donde la llegada masiva de textos asistidos por IA ha catalizado un incremento de publicaciones superficiales. Esto plantea un riesgo no solo para la credibilidad de estos repositorios, sino para todo el sistema de comunicación científica, que depende de un equilibrio entre cantidad y calidad para que los hallazgos genuinos puedan ser detectados, replicados y aprovechados. Expertos citados señalan que si este flujo no se frena, podría convertirse en una “crisis existencial” para ciertos campos del conocimiento, al difuminarse la distinción entre trabajo bien fundamentado y “slop” generado por algoritmos que simplemente repiten patrones sin entendimiento real. Hasta el punto de que ya se está hablando de una teoría conspirativa denominada “internet muerto”. Sus defensores creen que, en las redes sociales y otros espacios en línea, solo unas pocas personas reales crean publicaciones, comentarios e imágenes, y que el resto son generados y amplificados por redes de bots en competencia. Las IA escribirían la mayoría de los artículos y revisarían la mayoría de ellos. Este intercambio vacío serviría para entrenar nuevos modelos de IA. Imágenes fraudulentas y citas fantasma se incrustarían cada vez más profundamente en nuestros sistemas de conocimiento. Se convertirían en una contaminación epistemológica permanente que nunca podría filtrarse.