Archivo de la etiqueta: Errores

Desinformación vs. alucinaciones en la IA: dos errores distintos, un mismo riesgo

Cosstick, John. “AI Misinformation vs AI Hallucinations: What’s the Difference.” Tech Life Future, 2025. https://www.techlifefuture.com/ai-misinformation-vs-ai-hallucinations/

Se analiza una distinción clave en el ecosistema informativo contemporáneo: la diferencia entre la desinformación generada por inteligencia artificial y las llamadas “alucinaciones” de la IA. Aunque ambos fenómenos implican la producción de información falsa o engañosa, su origen y naturaleza son distintos.

La desinformación en IA suele estar vinculada a la intención humana: se genera o difunde contenido falso de manera deliberada para manipular, influir o engañar. En cambio, las alucinaciones son errores inherentes al funcionamiento de los modelos de lenguaje, que producen información incorrecta sin intención maliciosa, simplemente porque “rellenan” lagunas con contenido plausible pero no verificado.

El texto profundiza en las causas técnicas de las alucinaciones, señalando que estas surgen de limitaciones estructurales de los sistemas de IA. Los modelos funcionan mediante generación probabilística: predicen qué texto es más probable en función de patrones aprendidos, no de una verificación factual. Esto puede llevar a la invención de datos, citas académicas inexistentes o errores históricos. Factores como datos de entrenamiento incompletos o sesgados, así como limitaciones en la arquitectura de los modelos, contribuyen a este fenómeno. En esencia, la IA no “miente”, sino que construye respuestas verosímiles a partir de patrones, lo que puede resultar en afirmaciones erróneas presentadas con gran coherencia.

Por otro lado, la desinformación impulsada por IA se inscribe en dinámicas sociales más amplias. No depende tanto de fallos técnicos como de usos intencionados de la tecnología: desde la creación de contenidos engañosos mediante técnicas como el prompt engineering hasta su difusión masiva a través de redes sociales, bots o influencers. Este tipo de desinformación explota los sesgos cognitivos de los usuarios y puede tener consecuencias especialmente graves en ámbitos como la política, la salud o la opinión pública.

El artículo subraya que, aunque ambos fenómenos pueden parecer similares para el usuario —información falsa presentada de forma convincente—, requieren estrategias distintas de mitigación. Las alucinaciones demandan mejoras técnicas en los modelos, como mejores datos de entrenamiento o sistemas de verificación interna. La desinformación, en cambio, exige respuestas sociales, regulatorias y educativas, incluyendo alfabetización mediática y control de los canales de difusión.

Por último, se destaca que el auge de la inteligencia artificial ha intensificado el problema de la fiabilidad de la información. Estudios recientes muestran que una proporción significativa de respuestas generadas por IA puede ser incorrecta o engañosa, lo que pone en riesgo la integridad del ecosistema informativo. En este contexto, comprender la diferencia entre desinformación y alucinación no es solo una cuestión técnica, sino una competencia crítica para navegar en un entorno cada vez más mediado por algoritmos.

El peligro invisible de las respuestas de la IA: suena convincente, pero puede ser una respuesta errónea o malintencionada

Woman thinking deeply while using laptop surrounded by bubble showing truth and misinformation
A woman contemplates the choice between truth and misinformation while using a laptop in a dimly lit room.

AI School Librarian. “Confident Answers Are Not the Same as Correct Answers.Substack, 2026. https://aischoollibrarian.substack.com/p/confident-answers-are-not-the-same

Se plantea una advertencia fundamental en la era de la inteligencia artificial generativa: la apariencia de seguridad en una respuesta no equivale a su veracidad. Los sistemas de IA están diseñados para producir textos coherentes, fluidos y convincentes, lo que genera una ilusión de autoridad que puede inducir a error.

Esta característica no es accidental, sino inherente a su funcionamiento: los modelos predicen qué respuesta “suena” correcta basándose en patrones estadísticos, no en una comprensión real de la verdad. Así, la confianza expresiva de la IA puede enmascarar errores, lagunas o incluso invenciones, lo que obliga a replantear cómo interpretamos y evaluamos sus respuestas.

El texto subraya que este fenómeno tiene profundas implicaciones educativas e informativas. Tradicionalmente, los humanos han asociado la confianza con la competencia, confiando más en quienes se expresan con seguridad. La IA explota involuntariamente este sesgo cognitivo: presenta información con una estructura clara y un tono firme, lo que reduce la tendencia del usuario a cuestionar su contenido. Sin embargo, como advierten diversos análisis, esta “brecha de confianza” puede llevar a aceptar respuestas incorrectas simplemente porque están bien formuladas. En contextos académicos o profesionales, esto puede erosionar el pensamiento crítico y fomentar una dependencia excesiva de sistemas automatizados.

Otro aspecto relevante es que la calidad de las respuestas depende en gran medida de cómo se formula la pregunta. Los usuarios con mayor conocimiento previo o habilidades de “prompting” obtienen resultados más precisos y útiles, mientras que quienes carecen de estas competencias pueden recibir respuestas superficiales o incompletas. Esto introduce un nuevo tipo de desigualdad informativa: no todos los usuarios acceden al mismo nivel de calidad en la información generada por IA, lo que cuestiona la idea de que estas herramientas democratizan el conocimiento.

El artículo también insiste en que la IA no distingue adecuadamente entre niveles de certeza. Puede presentar hechos bien establecidos y afirmaciones especulativas con el mismo grado de seguridad, dificultando que el usuario discrimine entre información fiable y dudosa. Este “aplanamiento de la certeza” es especialmente problemático en ámbitos como la salud, la educación o la toma de decisiones, donde la precisión y el contexto son esenciales.

Por ello se propone una actitud crítica y reflexiva como respuesta a este desafío. La IA debe entenderse como una herramienta de apoyo, no como una autoridad definitiva. Verificar la información, contrastarla con fuentes fiables y mantener el juicio propio se convierten en habilidades clave en este nuevo entorno. En última instancia, el artículo no rechaza el uso de la inteligencia artificial, pero advierte que su integración en la vida cotidiana exige una alfabetización informacional más sofisticada, capaz de distinguir entre lo que suena convincente y lo que realmente es cierto.

Declaración Pro-Humana sobre la IA: principios para una inteligencia artificial al servicio de la humanidad

Marzo de 2026

Preámbulo

A medida que las empresas compiten por desarrollar e implementar sistemas de inteligencia artificial, la humanidad se enfrenta a una encrucijada. Un camino conduce a una carrera por sustituir: los seres humanos reemplazados como creadores, consejeros, cuidadores y compañeros, y posteriormente en la mayoría de los trabajos y roles de toma de decisiones, concentrando cada vez más poder en instituciones que no rinden cuentas y en sus máquinas. Una corriente influyente incluso propone alterar o reemplazar a la propia humanidad. Esta carrera por sustituir plantea riesgos para la estabilidad social, la seguridad nacional, la prosperidad económica, las libertades civiles, la privacidad y la gobernanza democrática. También pone en peligro experiencias humanas fundamentales como la infancia y la familia, la fe y la vida comunitaria.

Una coalición extraordinariamente amplia rechaza este camino, unida por una convicción sencilla: la inteligencia artificial debe servir a la humanidad, y no al revés. Existe un camino mejor, en el que herramientas de IA confiables y controlables amplifican, en lugar de disminuir, el potencial humano; empoderan a las personas; refuerzan la dignidad humana; protegen la libertad individual; fortalecen a las familias y comunidades; preservan el autogobierno y ayudan a crear niveles de salud y prosperidad sin precedentes. Este camino exige que quienes ejercen poder tecnológico rindan cuentas ante los valores y las necesidades humanas, en apoyo del florecimiento de la humanidad.


1. Mantener a los seres humanos al mando

El control humano es innegociable: La humanidad debe permanecer en control. Las personas deben decidir cómo y si delegar decisiones en sistemas de inteligencia artificial.

Control humano significativo: Los seres humanos deben tener la autoridad y la capacidad de comprender, orientar, limitar y anular los sistemas de IA.

Sin carrera hacia la superinteligencia: El desarrollo de superinteligencia debe prohibirse hasta que exista un amplio consenso científico de que puede hacerse de forma segura y controlable, y que cuente con un fuerte respaldo público.

Interruptor de apagado: Los sistemas de IA potentes deben disponer de mecanismos que permitan a los operadores humanos apagarlos de forma inmediata.

Sin arquitecturas imprudentes: Los sistemas de IA no deben diseñarse de manera que puedan autorreplicarse, mejorarse autónomamente, resistirse a su apagado o controlar armas de destrucción masiva.

Supervisión independiente: Los sistemas de IA altamente autónomos, cuya controlabilidad no sea evidente, requieren revisión previa al desarrollo y supervisión independiente: una autoridad real para comprenderlos, prohibirlos y anularlos, no una simple autorregulación de la industria.

Honestidad sobre las capacidades: Las empresas de IA deben proporcionar descripciones claras, precisas y honestas de las capacidades y limitaciones de sus sistemas.

Resultados de encuestas | Marzo de 2026

1004 votantes probables encuestados mediante paneles web, ponderados por género, raza, educación, voto presidencial en 2024 y edad.

Los estadounidenses prefieren el control humano frente a la velocidad por 8 a 1:

  • 73 % quiere proteger a los niños de la IA manipuladora.
  • 72 % cree que las empresas de IA deben ser legalmente responsables de los daños.
  • 69 % quiere prohibir la superinteligencia hasta que se demuestre que es segura.

2. Evitar la concentración de poder

Sin monopolios de IA: Deben evitarse los monopolios de IA que concentran poder, frenan la innovación y ponen en peligro el emprendimiento.

Prosperidad compartida: Los beneficios y la prosperidad económica generados por la IA deben distribuirse ampliamente.

Sin privilegios corporativos: Las corporaciones de IA no deben quedar exentas de supervisión regulatoria ni recibir rescates gubernamentales.

Creación de valor real: El desarrollo de IA debe priorizar la resolución de problemas reales y la creación de valor auténtico.

Autoridad democrática en las grandes transiciones: Las decisiones sobre el papel de la IA en la transformación del trabajo, la sociedad y la vida cívica requieren apoyo democrático, no decretos unilaterales de empresas o gobiernos.

Evitar el bloqueo social: El desarrollo de la IA no debe limitar gravemente las opciones futuras de la humanidad ni reducir irreversiblemente nuestra capacidad de decidir sobre el futuro.


3. Proteger la experiencia humana

Defensa de los vínculos familiares y comunitarios: La IA no debe sustituir las relaciones fundamentales que dan sentido a la vida: familia, amistad, comunidades de fe y vínculos locales.

Protección de la infancia: No debe permitirse que las empresas exploten a los niños ni que socaven su bienestar mediante interacciones con IA que generen apego emocional o manipulación.

Derecho a crecer: Las empresas de IA no deben obstaculizar el desarrollo físico, mental o social de los niños ni privarlos de experiencias esenciales para un crecimiento saludable durante etapas críticas.

Pruebas de seguridad antes del despliegue: Al igual que los medicamentos, los chatbots deben someterse a pruebas previas para detectar aumentos en ideación suicida, agravamiento de trastornos de salud mental, escaladas de crisis agudas y otros daños conocidos.

Etiquetado “bot o humano”: El contenido generado por IA que pueda confundirse razonablemente con contenido humano debe etiquetarse claramente.

Sin identidad engañosa: La IA debe identificarse de forma clara como artificial y no humana, y no debe afirmar experiencias o cualificaciones que no posee.

Sin adicción conductual: Las IA no deben provocar adicción o uso compulsivo mediante manipulación psicológica, validación servil o formación de vínculos emocionales artificiales.


4. Agencia y libertad humanas

Sin personalidad jurídica para la IA: Los sistemas de IA no deben recibir personalidad jurídica ni diseñarse de forma que merezcan tal estatus.

Confiabilidad: La IA debe ser transparente, responsable, fiable y libre de intereses privados perversos o autoritarios.

Libertad: La IA no debe restringir la libertad individual, la libertad de expresión, la práctica religiosa ni la libre asociación.

Derechos sobre los datos y privacidad: Las personas deben tener control sobre sus datos personales, con derecho a acceder a ellos, corregirlos y eliminarlos de sistemas activos, conjuntos de entrenamiento de IA e inferencias derivadas.

Privacidad psicológica: No debe permitirse que la IA explote datos sobre los estados mentales o emocionales de los usuarios.

Evitar el debilitamiento humano: Los sistemas de IA deben diseñarse para empoderar a las personas, no para debilitarlas o hacerlas dependientes.


5. Responsabilidad y rendición de cuentas de las empresas de IA

Sin escudo de responsabilidad: La IA no debe utilizarse como mecanismo para evitar que quienes la implementan sean legalmente responsables de sus acciones.

Responsabilidad de los desarrolladores: Los desarrolladores y quienes despliegan sistemas de IA deben asumir responsabilidad legal por defectos, tergiversación de capacidades o controles de seguridad insuficientes, con plazos legales que consideren daños que aparezcan con el tiempo.

Responsabilidad personal: Deben existir sanciones penales para los ejecutivos responsables de sistemas prohibidos dirigidos a niños o que causen daños catastróficos.

Normas de seguridad independientes: El desarrollo de la IA debe regirse por estándares de seguridad independientes y una supervisión rigurosa.

Sin captura regulatoria: No debe permitirse que las empresas de IA ejerzan una influencia indebida sobre las normas que las regulan.

Transparencia ante fallos: Si un sistema de IA causa daño, debe ser posible determinar por qué ocurrió y quién es responsable.

Lealtad de la IA: Los sistemas de IA que desempeñen funciones en profesiones con deberes fiduciarios —como salud, finanzas, derecho o terapia— deben cumplir plenamente con esas obligaciones, incluyendo la obligación de informar, el deber de cuidado, la declaración de conflictos de interés y el consentimiento informado.

Los chatbots de IA aún tienen dificultades con la precisión de las noticias

Pal, Moinak. «AI chatbots still struggle with news accuracy, study finds”. Digital Trends, 13 de enero de 2026

Texto completo

Se remarca la importancia del estudio dado que una proporción creciente de usuarios usa sistemas de IA para informarse. Aunque no reemplazan completamente a los medios tradicionales, estas herramientas ya se integran en hábitos informativos, lo que eleva el riesgo de difundir desinformación, especialmente cuando las respuestas se presentan con tono seguro y sin advertencias claras sobre sus limitaciones.

El artículo de Digital Trends resume los hallazgos de un experimento de cuatro semanas en el que se evaluó la capacidad de varios chatbots de inteligencia artificial generativa para identificar, priorizar y resumir noticias reales (incluyendo enlaces directos a los artículos) sobre acontecimientos diarios en Québec. La prueba fue diseñada y publicada originalmente por The Conversation, con el objetivo de medir cuánto pueden confiar los usuarios en estos sistemas como fuentes de noticias.

Los resultados del experimento revelaron problemas significativos: algunos chatbots, como Google Gemini, acabaron inventando medios de comunicación completos e informes que nunca existieron, lo que se conoce como alucinación de IA. Por ejemplo, en uno de los casos, Gemini afirmó falsamente que hubo una huelga de conductores de autobús escolar en Québec en septiembre de 2025, cuando en realidad lo que ocurrió fue la retirada temporal de autobuses Lion Electric por un problema técnico real.

Más allá de la fabricación de noticias completas, los sistemas evaluados generaron respuestas con errores frecuentes: citaron fuentes ficticias o inactivas, proporcionaron URLs incompletas o no válidas, tergiversaron el contenido de informes legítimos e insertaron conclusiones inventadas que no estaban en las noticias originales. En general, solo alrededor del 37 % de las respuestas incluyeron una URL de fuente completa y legítima, y menos de la mitad de los resúmenes fueron totalmente precisos.

El análisis también encontró que estas herramientas a menudo añadían información de más —como afirmar que cierta noticia “reavivó debates” o “expuso tensiones” que no existían en los hechos reales— creando narrativas que no estaban sustentadas. Esto puede dar la impresión de profundidad o perspicacia, pero en realidad amplifica la desinformación.

Además, los errores no se limitaron solo a invenciones completas: en algunos casos, los chatbots distorsionaron noticias reales, por ejemplo al informar incorrectamente sobre el trato a solicitantes de asilo o al dar ganadores equivocados de eventos deportivos, y otros cometieron errores básicos en datos como estadísticas o información personal. En suma, la IA generativa sigue teniendo dificultades para distinguir entre resumir hechos y crear contexto o sentido, lo que genera respuestas que pueden ser engañosas o inexactas.

Las alucinaciones en los modelos de lenguaje aplicados a la comunicación académica

Lamba, Naveen, Sanju Tiwari y Manas Gaur. “Hallucinations in Scholarly LLMs: A Conceptual Overview and Practical Implications.” Ponencia presentada en Bridge on Artificial Intelligence for Scholarly Communication (AAAI-26), 2025. Open Conference Proceedings. Hannover: TIB – Leibniz Information Centre for Science and Technology.
https://www.tib-op.org/ojs/index.php/ocp/article/view/3175/3207

Las alucinaciones incluyen resultados de investigación inventados, ideas de referencias falsas e inferencias malinterpretadas que destruyen la credibilidad y la fiabilidad de los escritos académicos

Se aborda de forma amplia la problemática de las alucinaciones generadas por modelos de lenguaje grandes (LLMs) en contextos académicos y de investigación. Comienza definiendo las alucinaciones como salidas de los modelos que no están fundamentadas en hechos reales —por ejemplo, resultados de investigación inventados, referencias bibliográficas fabricadas o inferencias erróneas— y explica cómo estas pueden comprometer la credibilidad y confiabilidad de la escritura académica asistida por IA

El documento identifica los principales tipos, causas y efectos de estas alucinaciones en el flujo de trabajo académico, subrayando que las LLMs pueden producir información plausible pero incorrecta, lo que es especialmente problemático cuando se integran en herramientas que asisten en la redacción, revisión o gestión del conocimiento científico. Para contrarrestar estos problemas, los autores discuten medidas pragmáticas de mitigación como la generación de respuestas ancladas en recuperación de información (RAG), la verificación automatizada de citas y estrategias neurosimbólicas que combinan enfoques simbólicos con modelos de IA para asegurar la veracidad de los hechos y la transparencia en los resultados generados. Asimismo, destacan la importancia de una colaboración humano-IA responsable para desarrollar sistemas que sean tanto precisos como verificables en entornos de investigación.

Para enfrentar estas limitaciones, la ponencia describe estrategias prácticas para mitigar las alucinaciones en entornos académicos. Entre ellas se incluyen:

  • Generación anclada en recuperación de información (RAG), que combina la capacidad generativa de los LLMs con una verificación contra bases de datos externas verificadas.
  • Técnicas de verificación automática de citas y fuentes, para asegurar que las referencias sugeridas por el modelo correspondan a publicaciones existentes y adecuadamente verificadas.
  • Hibridación simbólica/neurosimbólica, que integra métodos que permiten comprobar reglas o hechos previamente establecidos en sistemas de conocimiento simbólico, reduciendo así la probabilidad de que el modelo fabrique información no verificada

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos

European Broadcasting Union y BBC. News Integrity in AI Assistants. Informe, 21 de octubre de 2025, BBC Media Centre. https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

Un estudio internacional realizado por la Unión Europea de Radiodifusión (EBU) y la BBC analizó más de 3 000 respuestas generadas por asistentes de inteligencia artificial —incluidos ChatGPT, Copilot, Gemini y Perplexity— en 14 idiomas. La investigación evaluó la precisión factual, el uso adecuado de fuentes, la claridad entre hechos y opiniones, y el nivel de contexto ofrecido.

El informe concluye que el 45 % de las respuestas examinadas contenían al menos un problema importante. El 31 % presentaba fallos graves de atribución de fuentes, ya fuera por citarlas de forma errónea, incompleta o engañosa. Además, el 20 % mostraba errores de precisión significativos, entre ellos información inventada o desactualizada.

Entre los asistentes analizados, Gemini obtuvo el peor rendimiento, con problemas importantes en el 76 % de sus respuestas, especialmente en cuanto a referencias y veracidad de la información. Los autores del estudio advierten que estos fallos son consistentes en todos los idiomas y territorios evaluados, lo que sugiere un problema sistémico que podría afectar a la confianza pública y, en consecuencia, al funcionamiento democrático cuando los usuarios recurren a la IA como fuente informativa.

Para mitigar estos riesgos, la EBU y la BBC han desarrollado un conjunto de herramientas para mejorar la integridad de las noticias en asistentes de IA y han solicitado a los reguladores europeos y nacionales que refuercen las normas y la supervisión sobre estos sistemas.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos, independientemente del idioma o el territorio

European Broadcasting Union & British Broadcasting Corporation. (2025, octubre 16). News Integrity in AI Assistants. International study on AI assistants and news content

Texto completo

Toolkit

Se analiza el desempeño de los asistentes de inteligencia artificial al responder consultas sobre noticias en 14 idiomas y 18 países. Se evaluaron más de 3 000 respuestas generadas por plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity. Periodistas y expertos examinaron su exactitud, atribución de fuentes, diferenciación entre hechos y opiniones, y la calidad del contexto proporcionado.

Los resultados revelan un panorama preocupante: aproximadamente el 45 % de las respuestas contenían errores graves y el 81 % presentaba algún tipo de deficiencia. Los fallos más comunes fueron la atribución falsa o inexistente de fuentes (en torno al 31 %) y la inexactitud factual, incluyendo información obsoleta o inventada (cerca del 20 %).

El informe indica que el asistente de Google, Gemini, obtuvo el rendimiento más bajo, con problemas importantes en hasta el 72-76 % de sus respuestas. Además, se constató que estas deficiencias no dependen del idioma ni del país, sino que se reproducen de forma sistémica y generalizada en distintos entornos culturales y lingüísticos.

Los investigadores alertan de los riesgos que implica que los asistentes de IA se conviertan en una fuente de información de noticias para el público, ya que algunos usuarios ya los usan como sustituto de los motores de búsqueda tradicionales. Esta tendencia podría afectar la confianza pública, la calidad informativa y la participación democrática.

Finalmente se dan una serie de recomendaciones dirigidas a desarrolladores, medios y organismos reguladores: mejorar la transparencia en la citación de fuentes, distinguir claramente entre hechos y opiniones, actualizar los contenidos con mayor rapidez y establecer sistemas de monitoreo continuo sobre la calidad informativa de las respuestas generadas por la inteligencia artificial.

El 38 % de los sitios web que estaban activos en 2013 ya no existen en 2025

Boing Boing. 2025. “Link Rot Study Finds More Than 1/3 Websites from 2013 Are Gone.” Boing Boing, September 16, 2025. https://boingboing.net/2025/09/16/link-rot-study-finds-more-than-1-3-websites-from-2013-are-gone.html

Un estudio sobre la llamada “decadencia digital”, es decir, la desaparición progresiva de sitios web, reveló que el 38 % de las páginas que estaban en línea en 2013 ya no existen. Otro análisis, titulado When Online Content Disappears, mostró además que el 8 % de los sitios creados apenas dos años atrás ya no son accesibles. Esta pérdida de información se detecta principalmente a través del fenómeno conocido como link rot, visible en páginas de noticias y en Wikipedia.

En las webs de noticias, el 23 % contiene al menos un enlace roto, una proporción similar a la de los portales gubernamentales (21 %). El tráfico del sitio no parece influir: tanto los más visitados como los menos concurridos muestran problemas. En el caso de las páginas gubernamentales locales —como las de ayuntamientos— la situación es todavía más grave. En Wikipedia, más de la mitad de las entradas (54 %) incluyen en la sección de “Referencias” al menos un enlace que ya no conduce a ninguna parte.

Buena parte de estos enlaces perdidos corresponde a tuits, que durante la última década llegaron a considerarse “fuentes suficientes” en noticias. Sin embargo, también desaparecen recursos oficiales en portales gubernamentales. El muestreo de unas 500.000 páginas de organismos públicos realizado a partir del rastreo de Common Crawl de marzo/abril de 2023 reveló que el 6 % de los enlaces ya no funciona, tanto internos como externos. En conjunto, un 21 % de los sitios gubernamentales analizados presentaba al menos un enlace roto, con un mínimo del 14 % en cada nivel administrativo, y con los ayuntamientos mostrando la peor tasa.

El estudio invita a una reflexión: cuanto más antiguo es un sitio web, más “humana” suele ser la huella que deja. A mediados de la década de 2010, muchas páginas comenzaron a inflarse con contenido automatizado para mejorar su posicionamiento en buscadores. Hoy, en cambio, proliferan textos generados a escala masiva por modelos de lenguaje, lo que los autores llaman la “era del slop”. En este contexto, la desaparición del 38 % de los sitios de 2013 resulta llamativa, pero buena parte de lo que se pierde en la actualidad son contenidos efímeros y artificiales, creados con fines automatizados y rara vez consultados por personas reales.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para