Archivo de la etiqueta: Inteligencia artificial

Impacto de la inteligencia artificial en la cognición humana

The Psychology of AI’s Impact on Human Cognition,” Psychology Today, publicado 3 de junio de 2025, revisado por Margaret Foley; disponible en Psychology Today, 2025, acceso 12 de agosto de 2025.

Texto completo

En el artículo, se plantea que la inteligencia artificial (IA) está remodelando profundamente la experiencia cognitiva humana, alterando nuestra libertad mental al influir en aspiraciones, emociones y pensamientos de manera compleja

A medida que la inteligencia artificial se integra de forma fluida en nuestra vida cotidiana, psicólogos y científicos cognitivos se enfrentan a una pregunta fundamental: ¿cómo está la IA remodelando la propia arquitectura del pensamiento y la conciencia humanas? El rápido avance de las herramientas de IA generativa a finales de 2024 y principios de 2025 representa algo más que progreso tecnológico: es una revolución cognitiva que exige nuestra atención.

Puntos clave

  • La IA altera la libertad cognitiva, moldeando aspiraciones, emociones y pensamientos de maneras complejas.
  • Las burbujas de filtro impulsadas por IA amplifican el sesgo de confirmación, debilitando el pensamiento crítico.
  • Contrarrestar los impactos de la IA practicando la conciencia metacognitiva y buscando experiencias corporales.

Internamente, nuestra libertad psicológica se manifiesta a través de cuatro dimensiones críticas: nuestras aspiraciones (las metas y sueños que nos motivan), nuestras emociones (las experiencias afectivas que colorean nuestra realidad), nuestros pensamientos (los procesos cognitivos que dan forma a nuestra comprensión) y nuestras sensaciones (nuestra interacción encarnada y sensorial con el mundo). Estas dimensiones internas interactúan dinámicamente con los entornos externos, creando el complejo tapiz de la experiencia humana.

Un punto central es el papel de los llamados “filter bubbles” impulsados por IA, que amplifican los sesgos de confirmación y debilitan el pensamiento crítico, al exponer repetidamente a las personas a contenidos que refuerzan sus propias creencias, habituando así una visión mental menos cuestionadora y más cerrada

Como contramedida, los autores sugieren fomentar la metaconciencia: es decir, desarrollar una conciencia crítica sobre cómo nos influye la IA, reconociendo cuándo está moldeando nuestro pensamiento. También recomendaron buscar experiencias encarnadas (“embodied experiences”), que impliquen el cuerpo y los sentidos, como formas de reconectar con procesos cognitivos más profundos y contrarrestar los efectos de la hiperautomatización mental.

ChatGPT-5, presenta una reducción significativa en las llamadas “alucinaciones”

Baden, Matthew. «Tests Reveal That ChatGPT-5 Hallucinates Less Than GPT-4o Did — and Grok Is Still the King of Making Stuff UpTechRadar, August 8, 2025. https://www.techradar.com/ai-platforms-assistants/tests-reveal-that-chatgpt-5-hallucinates-less-than-gpt-4o-did-and-grok-is-still-the-king-of-making-stuff-up?utm_source=flipboard&utm_content=other

Recientes pruebas comparativas entre modelos avanzados de inteligencia artificial han revelado que ChatGPT-5, la versión más reciente del popular asistente de OpenAI, presenta una reducción significativa en las llamadas “alucinaciones” — es decir, respuestas erróneas, inventadas o sin fundamento — en comparación con su predecesor, GPT-4o.

Esta mejora en la precisión representa un paso importante hacia una IA más confiable y útil para aplicaciones que requieren datos exactos y consistencia en la información proporcionada.

A pesar de estos avances, otro competidor en el ámbito de los asistentes IA, Grok, desarrollado por Anthropic, continúa siendo la IA que más tiende a generar datos incorrectos o inventados, lo que se denomina coloquialmente como “hacer stuff up”. Aunque Grok es reconocido por su velocidad de respuesta y su habilidad para mantener conversaciones naturales y fluidas, sufre limitaciones en la exactitud de sus respuestas, lo que puede resultar problemático en contextos que demandan alta precisión.

El análisis destaca que la reducción de alucinaciones en ChatGPT-5 no implica que esté completamente libre de errores, por lo que la verificación y validación de la información siguen siendo cruciales cuando se emplea esta tecnología, especialmente en ámbitos profesionales, académicos o científicos. Además, el artículo subraya la importancia de que los desarrolladores sigan trabajando para equilibrar la velocidad, la fluidez y la precisión de las IA, para optimizar su desempeño sin sacrificar la confiabilidad.

Este tipo de evaluaciones es fundamental para usuarios, desarrolladores y empresas que dependen de modelos de lenguaje para tareas complejas, y también refleja cómo la competencia en el desarrollo de IA impulsa mejoras constantes y la necesidad de transparencia sobre las limitaciones actuales.

Nvidia y AMD entregarán al Gobierno chino el 15 % de sus ventas de microchips en ese país.

McCarthy, Simone, y Phil Mattingly. “Nvidia and AMD Will Give US 15% of China Sales. But Chinese State Media Warns about Their Chips.” CNN, 11 de agosto de 2025. https://edition.cnn.com/2025/08/11/china/us-china-trade-nvidia-chips-intl-hnk?utm_source=flipboard&utm_content=user%2FCNN

Nvidia y AMD, dos de los principales fabricantes de semiconductores a nivel mundial, han alcanzado un acuerdo sin precedentes con el gobierno de Estados Unidos para pagar un 15% de sus ingresos generados por la venta de chips en China. Esta medida forma parte de una estrategia más amplia para mantener la supremacía estadounidense en el sector de la inteligencia artificial (IA), al tiempo que se procura conservar relaciones comerciales estables con China, un mercado crucial para ambas compañías

El acuerdo con la administración Trump permite a las empresas obtener licencias de exportación para vender los chips H20 de Nvidia y los chips MI308 de AMD en China, que son altamente demandados en el mercado de la IA. Sin embargo, el propio contexto geopolítico y las tensiones comerciales complican la implementación del acuerdo, ya que medios estatales chinos han expresado reservas sobre estos chips, alegando posibles «puertas traseras» que afectarían la seguridad y funcionalidad de los dispositivos. La Administración de Ciberseguridad de China también ha manifestado inquietudes sobre accesos no autorizados en estos chips. Nvidia, por su parte, ha negado rotundamente estas acusaciones, asegurando que sus productos no contienen puertas traseras, software espía ni mecanismos de apagado remoto.

El acceso chino a la tecnología estadounidense, especialmente a chips avanzados que facilitan el desarrollo de la inteligencia artificial, es un tema crítico en las fricciones comerciales y tecnológicas entre ambos países. Mientras que un alto el fuego comercial que redujo aranceles significativos está próximo a expirar, ambas naciones podrían extenderlo tras conversaciones recientes en Suecia. Nvidia había suspendido temporalmente la venta de sus chips H20 a China, pero la Casa Blanca flexibilizó los controles de exportación para permitir su comercialización, usando estas restricciones como herramienta negociadora en las conversaciones comerciales más amplias.

El acuerdo ha suscitado inquietudes en algunos legisladores estadounidenses, quienes defienden restricciones estrictas para evitar que China utilice tecnología estadounidense en su desarrollo militar y de inteligencia artificial. El gobierno de Trump y luego la administración Biden han intentado balancear la apertura del mercado con la protección de la seguridad nacional, permitiendo la exportación de chips que no son los más avanzados para no comprometer la ventaja tecnológica estadounidense. Sin embargo, la creciente preocupación china por la seguridad de estos chips, que incluye el miedo a posibles mecanismos de rastreo o apagado remoto, refleja la tensión y la desconfianza mutua en la relación bilateral tecnológica.

Paralelamente, China busca fomentar la autosuficiencia tecnológica para reducir su dependencia de los chips estadounidenses y acelerar sus propios avances en inteligencia artificial y otras tecnologías estratégicas. Las restricciones en la exportación de chips como el H20 podrían estimular a China a invertir más en innovación interna. Además, las negociaciones entre Estados Unidos y China no solo involucran estos chips, sino también otros componentes críticos para la inteligencia artificial, ya que se preparan para posibles encuentros de alto nivel entre los líderes de ambas potencias.

¿Quién decide qué se lee en Goodreads? intereses comerciales, algoritmos opacos y estructuras de poder

Hu, Yuerong, Jana Diesner, Ted Underwood, Zoe LeBlanc, Glen Layne-Worthey, y John Stephen Downie. “Who Decides What Is Read on Goodreads? Uncovering Sponsorship and Its Implications for Scholarly Research.” Big Data & Society, vol. 12, no. 3 (julio–septiembre 2025): 1–17. https://doi.org/10.1177/20539517251359229.

Se analiza críticamente el papel de las reseñas incentivadas en Goodreads y su impacto tanto en la comprensión académica del comportamiento lector como en la dinámica cultural y económica de la crítica literaria en línea. Los autores parten de la premisa de que las reseñas en redes sociales de libros no son simples reflejos espontáneos de lectores amateurs, sino artefactos sociotécnicos moldeados por intereses comerciales, algoritmos opacos y estructuras de poder dentro de la industria editorial y las plataformas digitales.

A partir de un corpus histórico de más de 7,8 millones de reseñas (2006–2017), el estudio identifica 331.211 reseñas explícitamente incentivadas mediante un enfoque de diccionario de palabras clave relacionadas con patrocinios. Este método revela que, aunque representan un porcentaje reducido (alrededor del 4,23 % del total), su presencia ha crecido exponencialmente desde 2007, con picos notables en géneros altamente rentables como romance, misterio/thriller y fantasía. El análisis vincula el incremento a la adquisición de Goodreads por Amazon en 2013, lo que habría intensificado la comercialización de la visibilidad de los libros.

Los resultados muestran una concentración extrema: el 80 % de las reseñas incentivadas provienen de solo el 13,66 % de los usuarios que publican este tipo de contenido, y se concentran en libros de un 27 % de autores y un 10 % de editoriales. Asimismo, las redes de patrocinadores revelan que empresas como NetGalley, Amazon y Goodreads ocupan posiciones centrales, colaborando frecuentemente en co-patrocinios. NetGalley, por sí sola, está presente en un tercio de las reseñas incentivadas identificadas.

El trabajo discute cómo esta concentración reproduce desigualdades preexistentes del mundo editorial tradicional, limitando la diversidad de géneros y la representación de autores independientes. Además, se alerta sobre el uso de reseñas como herramienta de marketing —incluso cuando no son positivas— para aumentar visibilidad y ventas, y sobre la dificultad de distinguir entre reseñas auténticas, pagadas o generadas por IA. Los autores subrayan la necesidad de un análisis crítico de los datos culturales de plataformas sociales, dado el acceso restringido y las limitaciones metodológicas impuestas por algoritmos propietarios.

En sus conclusiones, el estudio señala que las reseñas incentivadas no deben tratarse como meros registros de opinión pública, sino como productos de un ecosistema que combina intereses corporativos, dinámicas algorítmicas y estrategias de autopromoción. Recomienda que investigadores, desarrolladores de IA y lectores aborden estos datos con cautela, considerando su contexto sociotécnico, para evitar interpretaciones distorsionadas y perpetuación de sesgos estructurales.

Biblioteca Pública de Boston y Harvard impulsan el acceso a archivos históricos mediante inteligencia artificial

NPR. “Boston Public Library Aims to Increase Access to a Vast Historic Archive Using AI. NPR, 11 de agosto de 2025. Consultado el 11 de agosto de 2025.

La Biblioteca Pública de Boston (BPL) ha lanzado este verano una innovadora colaboración con la Biblioteca de Derecho de Harvard y OpenAI. Su objetivo es digitalizar extensos archivos históricos y hacerlos plenamente accesibles y buscables mediante inteligencia artificial. De este modo, el patrimonio documental se vuelve más utilizable tanto para investigadores como para el público general

Esta iniciativa no solo impulsa la preservación, sino que también busca modernizar los metadatos y procesos digitales existentes con apoyo del Harvard Law School’s Library Innovation Lab (a través de su Institutional Data Initiative, o IDI). El propósito es equilibrar el poder de la IA con la experiencia curatoría, beneficiando tanto a académicos como a usuarios habituales, incluidos quienes buscan explorar historia local y patrimonio cultural.

Por su parte, Harvard ha liberado casi un millón de libros de dominio público (del proyecto Google Books), en múltiples idiomas y épocas, como parte del “Institutional Books 1.0”. Este conjunto, que abarca textos desde el siglo XV y contiene millones de páginas, está siendo puesto a disposición de desarrolladores de IA y plataformas como Hugging Face.

El uso de datos de dominio público minimiza las polémicas legales relacionadas con derechos de autor, mientras que estas colecciones históricas —religiosas, literarias, jurídicas y científicas— enriquecerán los modelos de IA con información fundamentada y diversa. Sin embargo, también existe el riesgo de reproducir contenido desfasado o dañino, como narrativas racistas o teorías científicas obsoletas. Por ello, se está fomentando un uso informado y responsable del material.

Este enfoque representa un cambio en la forma en que las bibliotecas públicas y universitarias participan en el desarrollo de la IA. Al democratizar el acceso a estas fuentes y al involucrar a las bibliotecas como custodios éticos de datos, se busca devolver parte del control a estas instituciones, con beneficios tanto para la comunidad como para el ecosistema tecnológico.

Red de rutas de autoaprendizaje en Inteligencia Artificial.

Higuera C., Juan Camilo; Angie Antivar G.; Manu Barros; y Luis E. Higuera C. Red de rutas de autoaprendizaje en Inteligencia Artificial. Bogotá: Secretaría de Cultura, Recreación y Deporte; Dirección de Lectura y Bibliotecas; Sistema de Bibliotecas de Bogotá (SiBiBo), 2023

Texto completo

La «Ruta de autoaprendizaje sobre Inteligencia Artificial», desarrollado por la línea de «Aprendizaje a lo largo de la vida» del Sistema de Bibliotecas de Bogotá (SiBiBo), es una guía iniciática para comprender y navegar el campo de la Inteligencia Artificial (IA). El contenido está organizado en secciones, explorando subcampos específicos, filosofías y aplicaciones prácticas que cubren conceptos fundamentales como la definición de IA, su historia, desafíos éticos y legales, y aspectos prácticos de la implementación de IA sin programación. Además, el documento proporciona un camino de aprendizaje estructurado, que incluye preguntas guiadas, recursos y hitos para que los lectores lo sigan, atendiendo tanto a principiantes como a aquellos que buscan conocimientos avanzados en los diversos ámbitos de la IA.

La inteligencia artificial en la publicación académica: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación


Gao, W., Liu, G., Huang, M. B., & Yao, H. (2025). AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and PoliciesInternational Journal of Librarianship10(2), 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se investiga el panorama actual de las directrices y políticas relacionadas con el uso de inteligencia artificial generativa en revistas del ámbito de la Bibliotecología y Ciencias de la Información (LIS).

En un contexto en el que herramientas como ChatGPT se han popularizado para realizar tareas como corrección gramatical, análisis estadístico o redacción de manuscritos, los autores destacan preocupaciones éticas sobre autoría, derecho de autor, reproducibilidad y transparencia en la investigación

Mediante un enfoque metodológico descriptivo, se revisaron las normas editoriales de un conjunto de revistas LIS seleccionadas a partir de la lista de Nixon y se aplicaron estadísticas básicas para comparar revistas con y sin políticas explícitas sobre IA generativa.

Los resultados revelan que, de las 45 revistas estudiadas, 31 (69 %) incluyen algún tipo de declaración sobre el uso de IA en sus directrices. La mayoría exige a los autores declarar el uso de estas herramientas, y algunas (16) extienden regulaciones también a editores y revisores, incluyendo prohibiciones como el uso de manuscritos en sistemas de IA externos.

Además, se observa una carencia notable de tales políticas en revistas de acceso abierto, lo que plantea riesgos en cuanto a la calidad editorial y la proliferación de prácticas predatorias. Los autores concluyen subrayando la necesidad de estandarizar las declaraciones sobre el uso de IA generativa para fortalecer la integridad del proceso de publicación académica.

Diseño de IA ética para estudiantes: manual de IA generativa para la educación primaria y secundaria

AI Advisory Boards. “Designing Ethical AI for Learners- Generative AI Playbook for K-12 Education (Quill).” AI Advisory Boards (blog), 28 de abril de 2025.

Texto completo

Quill.org ha elaborado un «playbook» práctico y fundamentado en la investigación para diseñar inteligencia artificial (IA) ética en entornos educativos K-12. Basado en más de seis años de experiencia y utilizado por más de diez millones de estudiantes, especialmente en escuelas con menos recursos, su enfoque demuestra que la IA puede reflejar el juicio de educadores expertos si se implementa de manera adecuada

El playbook se estructura en cuatro pasos fundamentales: primero, realizar investigación antes de escribir código, definiendo con claridad lo que significa un aprendizaje exitoso en cada contexto; segundo, crear datasets propios con entre 50 y 100 respuestas reales de estudiantes acompañadas de retroalimentación docente de alta calidad; tercero, evaluar la IA de forma temprana y continua, revisando manualmente más de 100,000 respuestas al año y aplicando pruebas A/B; y cuarto, crear un consejo asesor docente –el Teacher Advisory Council– compuesto por más de 300 profesores que revisan y prueban cada actividad en múltiples ciclos antes de su lanzamiento.

Además, el enfoque se basa en tres principios clave para que la retroalimentación de la IA sea efectiva: diseñar prompts textuales que fomenten respuestas fundamentadas; definir respuestas ejemplares mediante criterios claros y revisión de numerosos ejemplos; y ofrecer retroalimentación constructiva y accionable que promueva la revisión y el crecimiento del estudiante, sin sustituir al docente.

Este playbook invita a educadores y desarrolladores de tecnología educativa a adoptar un proceso ético, colaborativo, riguroso y centrado en la pedagogía, asegurando que la IA actúe como un verdadero aliado en el aprendizaje.

Uso de la Inteligencia Artificial en la preparación de artículos científicos más accesibles para personas con discapacidad

Los modelos de lenguaje grandes (LLMs), como ChatGPT 4o, pueden facilitar la conversión de documentos científicos, especialmente archivos en LaTeX, hacia formatos accesibles que cumplan con los estándares de accesibilidad para personas con discapacidad visual.

La necesidad de esta transformación radica en superar las limitaciones del formato visual (como negritas o centrados) que dificulta el uso de tecnologías asistivas como lectores de pantalla. A diferencia del formato visual, el formato lógico —como usar comandos específicos de LaTeX (\title{}, \section{}, \author{})— permite una estructura semántica reconocible tanto para humanos con discapacidad como para máquinas

Durante un hackatón de tres días organizado por la Chan Zuckerberg Initiative en septiembre de 2024, los autores probaron un método zero-shot: sin entrenamiento específico, ChatGPT intentaba convertir archivos con formato visual en otros más estructurados y accesibles. Los resultados fueron mixtos: aunque en algunos casos logró reemplazar adecuadamente elementos como título, autores o secciones mediante comandos LaTeX semánticos, muchas veces alternó estilos visuales por comandos incorrectos, alterando el contenido, generando errores de compilación o incluso sustituyendo autores entre documentos no relacionados.

Ante estos desafíos, los investigadores identificaron que los LLMs requerían supervisión humana constante y prompts más precisos. En particular, la generación de un diálogo iterativo permitió mejorar los resultados; sin embargo, la fiabilidad seguía siendo insuficiente para implementaciones a gran escala sin revisión adicional

Como alternativa más prometedora, se propone entrenar un modelo personalizado: partir de un corpus de documentos accesibles correctamente etiquetados, generar versiones con formato visual, y entrenar al modelo para revertir ese proceso de forma precisa. Este enfoque podría superar las limitaciones observadas en el enfoque zero-shot actual

OpenAI lanza GPT-5, la última versión de su modelo de IA ChatGPT

AP News. 2025. “OpenAI Launches GPT-5.” August 7. https://apnews.com/article/gpt5-openai-chatgpt-artificial-intelligence-d12cd2d6310a2515042067b5d3965aa1

GPT-5 es la última versión del modelo de lenguaje que impulsa ChatGPT. Representa un salto significativo en capacidades de razonamiento, precisión, velocidad y adaptabilidad. Está diseñado para ofrecer respuestas más útiles, seguras y contextualmente relevantes.

Este modelo representa un avance notable en la capacidad de comprender y resolver tareas complejas, desde problemas matemáticos hasta redacción profesional, programación y análisis en áreas como salud y finanzas.

Entre sus principales novedades, GPT-5 puede ajustar su nivel de “esfuerzo cognitivo” según la tarea, lo que permite respuestas más rápidas o más profundas dependiendo del contexto. También ofrece explicaciones previas antes de utilizar herramientas externas, lo que mejora la transparencia en sus decisiones. Además, se ha optimizado para interactuar de forma más natural y eficiente, adaptándose al estilo y necesidades del usuario sin requerir configuraciones manuales.

El modelo está disponible en distintos planes: gratuito, Plus ($20/mes), Pro ($200/mes) y empresarial. Incluso en la versión gratuita se puede acceder a GPT-5, aunque con

Principales mejoras

  • Razonamiento avanzado: GPT-5 se comporta como un experto con doctorado en múltiples disciplinas. Puede resolver problemas complejos de matemáticas, ciencias, programación y salud.
  • Codificación instantánea: Capaz de generar software funcional completo a partir de simples instrucciones en texto, lo que OpenAI denomina “vibe-coding”.
  • Redacción profesional: Mejora la calidad, coherencia y estilo de textos técnicos, creativos y empresariales.
  • Salud y finanzas: Ofrece respuestas más precisas en temas médicos y financieros, aunque no sustituye a profesionales humanos.
  • Interacción adaptativa: El modelo decide en tiempo real qué priorizar (velocidad, profundidad, estilo) según la tarea, sin necesidad de seleccionar versiones específicas.

ciertas limitaciones.

Sam Altman, CEO de OpenAI, ha comparado su impacto con el del primer iPhone, destacando que aunque el salto respecto a GPT-4 no es radical, GPT-5 sobresale por su fiabilidad y competencia general.