Archivo de la etiqueta: Inteligencia artificial

La alfabetización en IA está emergiendo como una competencia fundamental para todos

Webber, Gerald. “The Future of AI Literacy: Why Everyone Needs to Understand Artificial Intelligence.” Page One Power, September 26, 2025. https://pageonepower.com

La inteligencia artificial (IA) ha dejado de ser exclusiva de laboratorios o industrias especializadas y se ha integrado en aulas, lugares de trabajo e interacciones cotidianas. Al igual que la alfabetización digital se volvió esencial en la era de Internet, la alfabetización en IA está emergiendo como una competencia fundamental para estudiantes, profesionales y comunidades. Ser competente en IA no se limita a usar chatbots o aplicaciones; implica comprender lo que la IA puede y no puede hacer, cómo aplicarla de manera responsable, cuestionar sus resultados y reconocer sus riesgos sin depender excesivamente de ella, todo ello sin necesidad de saber programar.

Las percepciones sobre la IA varían según la generación. Estudios recientes muestran que los jóvenes son más propensos a experimentar con herramientas de IA, mientras que los grupos mayores manifiestan cautela, preocupados por la confianza, la privacidad y las consecuencias a largo plazo. Estas diferencias afectan la aceptación de la IA en entornos educativos, laborales y en la formulación de políticas.

Para los estudiantes, la alfabetización en IA es esencial, ya que esta tecnología ya respalda la investigación, la tutoría y la colaboración. Quienes la dominan estarán mejor preparados para carreras donde el uso de herramientas de IA es habitual, al igual que la alfabetización informática benefició a generaciones anteriores. UNESCO destaca que desarrollar competencias en IA dentro de la educación contribuye a mejorar habilidades de resolución de problemas y conciencia ética.

En el ámbito laboral, empleados y líderes deben comprender la IA para adaptarse a nuevas formas de resolver problemas y tomar decisiones más informadas. La inteligencia artificial está transformando prácticas de ingeniería y gestión, aumentando la eficiencia y ampliando las estrategias de resolución de problemas. La comprensión de sus beneficios y limitaciones permite un uso responsable y reduce riesgos de malaplicación.

La alfabetización en IA también ayuda a proteger contra su uso indebido, incluyendo la desinformación y violaciones de privacidad. Comprender cómo funcionan estos sistemas permite identificar problemas, hacer preguntas críticas y responsabilizar a las organizaciones sobre su aplicación. Además, es crucial reconocer los sesgos inherentes en los datos que alimentan la IA, que pueden generar resultados injustos o engañosos. La conciencia de estos sesgos fomenta la equidad y la confianza en el uso de la tecnología. Encuestas, como la de Pew Research Center, muestran que un alto porcentaje de adultos en EE. UU. desea tener más control sobre el uso de la IA y comparte preocupaciones sobre los sesgos en sus decisiones.

A nivel nacional e internacional, la alfabetización en IA representa una ventaja competitiva. Los países que invierten en educación sobre IA preparan a sus ciudadanos para adaptarse, innovar y contribuir al crecimiento económico sostenido. La falta de estas habilidades podría dejar rezagados tanto a individuos como a naciones en la carrera global por el liderazgo tecnológico.

Microsoft alerta que la IA podría generar amenazas biológicas “zero day” indetectables por los sistemas actuales

Microsoft says AI can create ‘Zero Day’ Threats in Biology.” MIT Technology Review, 2 de octubre de 2025. https://www.technologyreview.com/2025/10/02/1124767/microsoft-says-ai-can-create-zero-day-threats-in-biology/?utm_source=flipboard&utm_content=user%2Fmittechreview

Microsoft ha identificado un riesgo significativo: la inteligencia artificial podría diseñar amenazas biológicas que los sistemas actuales de bioseguridad no logren detectar, lo que se denomina un “zero day” en biología. Esto implica que una IA podría producir versiones levemente modificadas de toxinas conocidas —o nuevas moléculas peligrosas— que escapen a los controles existentes.

Las salvaguardas actuales, como el software de detección de secuencias genéticas, se basan en compararlas con amenazas conocidas. Pero los investigadores de Microsoft demostraron que, mediante IA generativa, pueden crear variantes suficientemente alteradas para evitar que el software las marque como peligrosas, aunque mantengan su función nociva. Esto revela un desfase entre la velocidad de innovación en IA aplicada a la biología y la capacidad reguladora de las defensas actuales.

El hallazgo plantea la necesidad urgente de reforzar los mecanismos de supervisión biológica. Se sugiere incorporar estándares más estrictos, monitoreo continuo, y una reevaluación de las herramientas de detección para que sean capaces de captar tanto versiones conocidas como variantes nuevas o no anticipadas de agentes biológicos peligrosos.

¿Cómo están utilizando los organizaciones humanitarias la inteligencia artificial en 2025? Análisis de las prácticas actuales y el potencial futuro.

ReliefWeb. How Are Humanitarians Using Artificial Intelligence in 2025? Mapping Current Practice and Future Potential: Initial Insights Report, August 2025. Agosto de 2025.

Texto completo

El informe de ReliefWeb ofrece una visión detallada de cómo los actores humanitarios están adoptando la inteligencia artificial (IA) en sus operaciones, destacando tanto las prácticas actuales como el potencial futuro de esta tecnología en el ámbito humanitario. A través de una investigación exhaustiva, se identifican las áreas clave donde la IA está siendo implementada, incluyendo la recopilación y análisis de datos, la toma de decisiones en tiempo real y la mejora de la eficiencia en la distribución de recursos.

El informe también aborda los desafíos que enfrentan las organizaciones humanitarias al integrar la IA en sus procesos, tales como la necesidad de infraestructura tecnológica adecuada, la capacitación del personal y las consideraciones éticas relacionadas con el uso de datos sensibles. Además, se discuten las oportunidades que la IA ofrece para mejorar la respuesta a emergencias y la planificación a largo plazo, permitiendo una mayor personalización de la ayuda y una mejor adaptación a las necesidades cambiantes de las poblaciones afectadas.

Principales conclusiones:

  • La adopción individual impulsa la preparación organizacional: Si bien los trabajadores humanitarios adoptan rápidamente las herramientas de IA, la mayoría de las organizaciones aún se encuentran en las primeras etapas de experimentación; el 25% sigue en fase piloto y el 26% está en fase de planificación, pero aún no ha iniciado su implementación.
  • La falta de capacitación genera riesgos: El 64% de los encuestados afirma tener poca o ninguna capacitación en IA a nivel organizacional, mientras que el 73% identifica la capacitación como la necesidad de apoyo más crucial para los próximos 12-24 meses.
  • Dominio de las herramientas comerciales: El 69% utiliza plataformas de IA comerciales como ChatGPT y Claude, en lugar de soluciones humanitarias específicas.
  • Falta de gobernanza: Existe un uso generalizado de la IA sin políticas formales, ya que solo el 21% de las organizaciones cuenta con un marco de gobernanza en IA.
  • Liderazgo del Sur Global: El 75% de las respuestas provino de África subsahariana, Oriente Medio y Norte de África, y la región de Asia-Pacífico, lo que demuestra un alto nivel de compromiso e innovación en entornos con recursos limitados.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación

Novomisky, Sebastián, y Alexandre Le Voci Sayad, eds. Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación. Huelva: Grupo Comunicar Ediciones, 2025.

Texto completo

Este libro colectivo aborda los desafíos y oportunidades que plantea la inteligencia artificial (IA) en el ámbito educativo y comunicacional, proponiendo la alfabetización mediática e informacional (AMI) como herramienta clave para navegar críticamente el entorno digital contemporáneo. En el prólogo, Alexandre Le Voci Sayad plantea que la IA debe ser humanizada mediante una educación que combine técnica, ética y pensamiento crítico, evitando tanto el tecno-optimismo ingenuo como el rechazo absoluto.

El primer capítulo, escrito por Romero-Gutiérrez, de-Casas-Moreno y Aguaded, analiza la tensión entre resiliencia y resistencia frente a la IA en América Latina. Se destaca la necesidad de una educomunicación ética que medie el uso de estas tecnologías en las instituciones educativas, reconociendo tanto sus riesgos como sus posibilidades pedagógicas.

Gabriella Taddeo introduce el concepto de “prompting reflexivo, una práctica que utiliza la IA como herramienta de exploración cultural e identitaria. A través de experiencias educativas, muestra cómo la IA puede actuar como una “prótesis cultural”, expandiendo nuestras capacidades expresivas y cognitivas, siempre desde una perspectiva crítica y consciente.

Simona Tirocchi propone un modelo de alfabetización crítica en IA, adaptando los principios clásicos de acceso, análisis, evaluación y producción al contexto algorítmico. Subraya que, aunque los sistemas de IA muestran comportamientos inteligentes, carecen de comprensión semántica, lo que exige una mediación humana constante para evitar malentendidos y usos acríticos.

Verónica Piovani reflexiona sobre la formación docente en tiempos de cultura digital y brecha generacional. Defiende el valor social de la escuela como espacio de construcción de memoria histórica y ciudadanía crítica, y propone actualizar los marcos normativos sin perder de vista los principios pedagógicos fundamentales.

Finalmente, Sebastián Novomisky y Nicolás Bernardo exploran los desafíos actuales en el aula, invitando a repensar qué aporta lo humano en la educación frente a las capacidades de la IA. Plantean que la automatización educativa no es inevitable, sino una decisión política, y que la AMI debe ser una herramienta inclusiva para garantizar una educación equitativa y transformadora.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

¿Está la IA erosionando silenciosamente nuestra capacidad de pensar? Y cómo los libros pueden salvarla.

Is AI Quietly Eroding Our Ability to Think? And How Books Can Save It.” Magazine – 1000 Libraries, 8 de septiembre de 2025. https://magazine.1000libraries.com/is-ai-quietly-eroding-our-ability-to-think-and-how-books-can-save-it/

El uso excesivo de la inteligencia artificial (IA) para responder preguntas y sintetizar información puede debilitar nuestra capacidad de pensamiento crítico. Según el autor, cuando confiamos en IA para procesar, analizar y explicar datos en lugar de hacerlo nosotros mismos, perdemos la oportunidad de profundizar en el razonamiento, cuestionar suposiciones o generar nuevas ideas.

La corteza prefrontal, o el área del cerebro necesaria para la toma de decisiones, la resolución de problemas y la regulación emocional, está mucho más desarrollada en los humanos que en los animales. Es el factor distintivo, la diferencia, y significa que somos los pensadores críticos más destacados del mundo.

976 / 5.000

La inteligencia artificial se ha convertido en una especie de fantasma, una palabra de moda que circula en redes sociales e internet. ChatGPT, en particular, ha sido noticia tras su lanzamiento al público. La gente ve el servicio como una oportunidad: puede planificar vacaciones, ayudarte a emprender y a gestionar un sistema legal complejo. ChatGPT es inteligente, si por inteligente nos referimos a que tiene acceso a más información de la que el cerebro humano puede procesar, y es capaz de dar respuesta a casi todo. ¿Suena a sueño, verdad?

Como cualquier otra parte del cuerpo, el cerebro es un músculo que necesita ser ejercitado y desarrollado. Necesitamos aprender a usarlo; requiere ejercicio y desafío. El problema que se pronostica con la IA es que podría erosionar nuestras habilidades de pensamiento crítico. Esto no es solo una hipótesis; estudios recientes han confirmado que una mayor dependencia de la IA está relacionada con una disminución de las habilidades de pensamiento crítico.

La situación empeora cuando pensamos en las generaciones más jóvenes, que se han vuelto especialmente dependientes de la tecnología. Sí, ChatGPT puede encontrarte excelentes restaurantes en Roma, pero también puede ayudarte con tus deberes, decirte si deberías romper con tu marido y pensar por ti sin tener la experiencia ni los matices necesarios para darte respuestas críticas.

No se trata de ser derrotistas; no es un tema sin esperanza. Por supuesto, la IA puede usarse como herramienta si se maneja correctamente. Pero lo más importante es que existe una actividad que puede combatir esta descarga cognitiva y obligarnos a, de forma gratificante, ejercitar un poco nuestro cerebro: la lectura.

Para contrarrestar esa erosión intelectual, el texto aboga por la lectura de libros como práctica que restaura y fortalece la mente humana. Leer exige tiempo, concentración, reflexión, confrontar ideas complejas y construir conexiones propias entre conceptos —actividades que la IA no “realiza” de la misma forma. En ese sentido, el autor sostiene que los libros funcionan como entrenamiento mental, ofreciendo resistencia cognitiva frente a la facilidad con la que la IA puede ofrecer respuestas rápidas y superficiales.

El artículo también sugiere que este no debe pensarse como un conflicto total entre IA y lectura, sino como una relación equilibrada: usar la IA para asistir nuestra curiosidad, pero no delegar el pensamiento. Así, el enfoque sería emplear estas herramientas como punto de partida, mientras el lector mantiene el rol activo de interpretar, cuestionar y extender. Al final, el texto propone que preservar una cultura de lectura consciente es una de las formas más contundentes de proteger nuestra autonomía intelectual en la era digital.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La IA reúne a los vivos con los fallecidos para un último adiós que alivie la despedida final

La inteligencia artificial (IA) está permitiendo a las personas crear videos de despedida que reúnen a los vivos con los fallecidos, ofreciendo una forma de cierre emocional.

Los vídeos generados por IA son uno de los aspectos más controvertidos del auge de la IA generativa. Desde violaciones de derechos de autor y desinformación hasta la desorganización digital de internet, hay muchos motivos para ser cautelosos. Pero también parece haber algunos resquicios de esperanza.

En Rusia, por ejemplo, familiares de soldados caídos en el conflicto con Ucrania están utilizando servicios de IA para generar videos que los muestran reunidos con sus seres queridos. Estos videos, que incluyen recreaciones digitales del fallecido y audios generados por IA basados en grabaciones proporcionadas por amigos y familiares, permiten escenas como abrazos o despedidas simbólicas. En los videos, la recreación digital de un soldado fallecido puede ser subiendo las escaleras al cielo, abrazando a un familiar o besando a su pareja. Los clips de audio también se generan mediante IA, basándose en las grabaciones proporcionadas por amigos y familiares.

En algunos casos, sin embargo, los familiares y seres queridos también buscan compañía. Para ello, contratan a empresas para que creen un chatbot de IA o un avatar digital basado en la memoria y las características de una persona en particular. La comunidad científica se ha referido a este cambio tecnocultural como «bots muertos» y también ha alertado sobre sus riesgos.

Estos videos de despedida, que atraen millones de visualizaciones, están vinculados a un proyecto social llamado «Encuentro Final» en la plataforma rusa de redes sociales VK o VKontakte. El costo de estos videos varía entre 20 y 80 dólares, dependiendo de la duración y personalización. «Mediante redes neuronales y una edición cuidadosa, recreamos el momento del reencuentro y los lanzamos al cielo», afirma el anuncio de una empresa rusa compartido en Telegram.

Para algunos, como Yelena Kirghizova, viuda de un oficial cuyo cuerpo nunca fue recuperado, estos videos ofrecen una forma de cierre emocional. La falta de información sobre el paradero de los soldados caídos ha sido una preocupación persistente, y estas representaciones digitales proporcionan una sensación de despedida simbólica.

Aunque la IA ofrece nuevas formas de lidiar con la pérdida, también plantea preguntas éticas y emocionales. La capacidad de la IA para recrear a personas fallecidas plantea interrogantes sobre el consentimiento, la autenticidad y el impacto emocional en los sobrevivientes. Este fenómeno destaca la creciente intersección entre la tecnología y las experiencias humanas más profundas.

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.