Archivo de la categoría: Tecnologías de la información

Impacto de la inteligencia artificial en la cognición humana

The Psychology of AI’s Impact on Human Cognition,” Psychology Today, publicado 3 de junio de 2025, revisado por Margaret Foley; disponible en Psychology Today, 2025, acceso 12 de agosto de 2025.

Texto completo

En el artículo, se plantea que la inteligencia artificial (IA) está remodelando profundamente la experiencia cognitiva humana, alterando nuestra libertad mental al influir en aspiraciones, emociones y pensamientos de manera compleja

A medida que la inteligencia artificial se integra de forma fluida en nuestra vida cotidiana, psicólogos y científicos cognitivos se enfrentan a una pregunta fundamental: ¿cómo está la IA remodelando la propia arquitectura del pensamiento y la conciencia humanas? El rápido avance de las herramientas de IA generativa a finales de 2024 y principios de 2025 representa algo más que progreso tecnológico: es una revolución cognitiva que exige nuestra atención.

Puntos clave

  • La IA altera la libertad cognitiva, moldeando aspiraciones, emociones y pensamientos de maneras complejas.
  • Las burbujas de filtro impulsadas por IA amplifican el sesgo de confirmación, debilitando el pensamiento crítico.
  • Contrarrestar los impactos de la IA practicando la conciencia metacognitiva y buscando experiencias corporales.

Internamente, nuestra libertad psicológica se manifiesta a través de cuatro dimensiones críticas: nuestras aspiraciones (las metas y sueños que nos motivan), nuestras emociones (las experiencias afectivas que colorean nuestra realidad), nuestros pensamientos (los procesos cognitivos que dan forma a nuestra comprensión) y nuestras sensaciones (nuestra interacción encarnada y sensorial con el mundo). Estas dimensiones internas interactúan dinámicamente con los entornos externos, creando el complejo tapiz de la experiencia humana.

Un punto central es el papel de los llamados “filter bubbles” impulsados por IA, que amplifican los sesgos de confirmación y debilitan el pensamiento crítico, al exponer repetidamente a las personas a contenidos que refuerzan sus propias creencias, habituando así una visión mental menos cuestionadora y más cerrada

Como contramedida, los autores sugieren fomentar la metaconciencia: es decir, desarrollar una conciencia crítica sobre cómo nos influye la IA, reconociendo cuándo está moldeando nuestro pensamiento. También recomendaron buscar experiencias encarnadas (“embodied experiences”), que impliquen el cuerpo y los sentidos, como formas de reconectar con procesos cognitivos más profundos y contrarrestar los efectos de la hiperautomatización mental.

Nvidia y AMD entregarán al Gobierno chino el 15 % de sus ventas de microchips en ese país.

McCarthy, Simone, y Phil Mattingly. “Nvidia and AMD Will Give US 15% of China Sales. But Chinese State Media Warns about Their Chips.” CNN, 11 de agosto de 2025. https://edition.cnn.com/2025/08/11/china/us-china-trade-nvidia-chips-intl-hnk?utm_source=flipboard&utm_content=user%2FCNN

Nvidia y AMD, dos de los principales fabricantes de semiconductores a nivel mundial, han alcanzado un acuerdo sin precedentes con el gobierno de Estados Unidos para pagar un 15% de sus ingresos generados por la venta de chips en China. Esta medida forma parte de una estrategia más amplia para mantener la supremacía estadounidense en el sector de la inteligencia artificial (IA), al tiempo que se procura conservar relaciones comerciales estables con China, un mercado crucial para ambas compañías

El acuerdo con la administración Trump permite a las empresas obtener licencias de exportación para vender los chips H20 de Nvidia y los chips MI308 de AMD en China, que son altamente demandados en el mercado de la IA. Sin embargo, el propio contexto geopolítico y las tensiones comerciales complican la implementación del acuerdo, ya que medios estatales chinos han expresado reservas sobre estos chips, alegando posibles «puertas traseras» que afectarían la seguridad y funcionalidad de los dispositivos. La Administración de Ciberseguridad de China también ha manifestado inquietudes sobre accesos no autorizados en estos chips. Nvidia, por su parte, ha negado rotundamente estas acusaciones, asegurando que sus productos no contienen puertas traseras, software espía ni mecanismos de apagado remoto.

El acceso chino a la tecnología estadounidense, especialmente a chips avanzados que facilitan el desarrollo de la inteligencia artificial, es un tema crítico en las fricciones comerciales y tecnológicas entre ambos países. Mientras que un alto el fuego comercial que redujo aranceles significativos está próximo a expirar, ambas naciones podrían extenderlo tras conversaciones recientes en Suecia. Nvidia había suspendido temporalmente la venta de sus chips H20 a China, pero la Casa Blanca flexibilizó los controles de exportación para permitir su comercialización, usando estas restricciones como herramienta negociadora en las conversaciones comerciales más amplias.

El acuerdo ha suscitado inquietudes en algunos legisladores estadounidenses, quienes defienden restricciones estrictas para evitar que China utilice tecnología estadounidense en su desarrollo militar y de inteligencia artificial. El gobierno de Trump y luego la administración Biden han intentado balancear la apertura del mercado con la protección de la seguridad nacional, permitiendo la exportación de chips que no son los más avanzados para no comprometer la ventaja tecnológica estadounidense. Sin embargo, la creciente preocupación china por la seguridad de estos chips, que incluye el miedo a posibles mecanismos de rastreo o apagado remoto, refleja la tensión y la desconfianza mutua en la relación bilateral tecnológica.

Paralelamente, China busca fomentar la autosuficiencia tecnológica para reducir su dependencia de los chips estadounidenses y acelerar sus propios avances en inteligencia artificial y otras tecnologías estratégicas. Las restricciones en la exportación de chips como el H20 podrían estimular a China a invertir más en innovación interna. Además, las negociaciones entre Estados Unidos y China no solo involucran estos chips, sino también otros componentes críticos para la inteligencia artificial, ya que se preparan para posibles encuentros de alto nivel entre los líderes de ambas potencias.

¿Quién decide qué se lee en Goodreads? intereses comerciales, algoritmos opacos y estructuras de poder

Hu, Yuerong, Jana Diesner, Ted Underwood, Zoe LeBlanc, Glen Layne-Worthey, y John Stephen Downie. “Who Decides What Is Read on Goodreads? Uncovering Sponsorship and Its Implications for Scholarly Research.” Big Data & Society, vol. 12, no. 3 (julio–septiembre 2025): 1–17. https://doi.org/10.1177/20539517251359229.

Se analiza críticamente el papel de las reseñas incentivadas en Goodreads y su impacto tanto en la comprensión académica del comportamiento lector como en la dinámica cultural y económica de la crítica literaria en línea. Los autores parten de la premisa de que las reseñas en redes sociales de libros no son simples reflejos espontáneos de lectores amateurs, sino artefactos sociotécnicos moldeados por intereses comerciales, algoritmos opacos y estructuras de poder dentro de la industria editorial y las plataformas digitales.

A partir de un corpus histórico de más de 7,8 millones de reseñas (2006–2017), el estudio identifica 331.211 reseñas explícitamente incentivadas mediante un enfoque de diccionario de palabras clave relacionadas con patrocinios. Este método revela que, aunque representan un porcentaje reducido (alrededor del 4,23 % del total), su presencia ha crecido exponencialmente desde 2007, con picos notables en géneros altamente rentables como romance, misterio/thriller y fantasía. El análisis vincula el incremento a la adquisición de Goodreads por Amazon en 2013, lo que habría intensificado la comercialización de la visibilidad de los libros.

Los resultados muestran una concentración extrema: el 80 % de las reseñas incentivadas provienen de solo el 13,66 % de los usuarios que publican este tipo de contenido, y se concentran en libros de un 27 % de autores y un 10 % de editoriales. Asimismo, las redes de patrocinadores revelan que empresas como NetGalley, Amazon y Goodreads ocupan posiciones centrales, colaborando frecuentemente en co-patrocinios. NetGalley, por sí sola, está presente en un tercio de las reseñas incentivadas identificadas.

El trabajo discute cómo esta concentración reproduce desigualdades preexistentes del mundo editorial tradicional, limitando la diversidad de géneros y la representación de autores independientes. Además, se alerta sobre el uso de reseñas como herramienta de marketing —incluso cuando no son positivas— para aumentar visibilidad y ventas, y sobre la dificultad de distinguir entre reseñas auténticas, pagadas o generadas por IA. Los autores subrayan la necesidad de un análisis crítico de los datos culturales de plataformas sociales, dado el acceso restringido y las limitaciones metodológicas impuestas por algoritmos propietarios.

En sus conclusiones, el estudio señala que las reseñas incentivadas no deben tratarse como meros registros de opinión pública, sino como productos de un ecosistema que combina intereses corporativos, dinámicas algorítmicas y estrategias de autopromoción. Recomienda que investigadores, desarrolladores de IA y lectores aborden estos datos con cautela, considerando su contexto sociotécnico, para evitar interpretaciones distorsionadas y perpetuación de sesgos estructurales.

Red de rutas de autoaprendizaje en Inteligencia Artificial.

Higuera C., Juan Camilo; Angie Antivar G.; Manu Barros; y Luis E. Higuera C. Red de rutas de autoaprendizaje en Inteligencia Artificial. Bogotá: Secretaría de Cultura, Recreación y Deporte; Dirección de Lectura y Bibliotecas; Sistema de Bibliotecas de Bogotá (SiBiBo), 2023

Texto completo

La «Ruta de autoaprendizaje sobre Inteligencia Artificial», desarrollado por la línea de «Aprendizaje a lo largo de la vida» del Sistema de Bibliotecas de Bogotá (SiBiBo), es una guía iniciática para comprender y navegar el campo de la Inteligencia Artificial (IA). El contenido está organizado en secciones, explorando subcampos específicos, filosofías y aplicaciones prácticas que cubren conceptos fundamentales como la definición de IA, su historia, desafíos éticos y legales, y aspectos prácticos de la implementación de IA sin programación. Además, el documento proporciona un camino de aprendizaje estructurado, que incluye preguntas guiadas, recursos y hitos para que los lectores lo sigan, atendiendo tanto a principiantes como a aquellos que buscan conocimientos avanzados en los diversos ámbitos de la IA.

Diseño de IA ética para estudiantes: manual de IA generativa para la educación primaria y secundaria

AI Advisory Boards. “Designing Ethical AI for Learners- Generative AI Playbook for K-12 Education (Quill).” AI Advisory Boards (blog), 28 de abril de 2025.

Texto completo

Quill.org ha elaborado un «playbook» práctico y fundamentado en la investigación para diseñar inteligencia artificial (IA) ética en entornos educativos K-12. Basado en más de seis años de experiencia y utilizado por más de diez millones de estudiantes, especialmente en escuelas con menos recursos, su enfoque demuestra que la IA puede reflejar el juicio de educadores expertos si se implementa de manera adecuada

El playbook se estructura en cuatro pasos fundamentales: primero, realizar investigación antes de escribir código, definiendo con claridad lo que significa un aprendizaje exitoso en cada contexto; segundo, crear datasets propios con entre 50 y 100 respuestas reales de estudiantes acompañadas de retroalimentación docente de alta calidad; tercero, evaluar la IA de forma temprana y continua, revisando manualmente más de 100,000 respuestas al año y aplicando pruebas A/B; y cuarto, crear un consejo asesor docente –el Teacher Advisory Council– compuesto por más de 300 profesores que revisan y prueban cada actividad en múltiples ciclos antes de su lanzamiento.

Además, el enfoque se basa en tres principios clave para que la retroalimentación de la IA sea efectiva: diseñar prompts textuales que fomenten respuestas fundamentadas; definir respuestas ejemplares mediante criterios claros y revisión de numerosos ejemplos; y ofrecer retroalimentación constructiva y accionable que promueva la revisión y el crecimiento del estudiante, sin sustituir al docente.

Este playbook invita a educadores y desarrolladores de tecnología educativa a adoptar un proceso ético, colaborativo, riguroso y centrado en la pedagogía, asegurando que la IA actúe como un verdadero aliado en el aprendizaje.

Uso de la Inteligencia Artificial en la preparación de artículos científicos más accesibles para personas con discapacidad

Los modelos de lenguaje grandes (LLMs), como ChatGPT 4o, pueden facilitar la conversión de documentos científicos, especialmente archivos en LaTeX, hacia formatos accesibles que cumplan con los estándares de accesibilidad para personas con discapacidad visual.

La necesidad de esta transformación radica en superar las limitaciones del formato visual (como negritas o centrados) que dificulta el uso de tecnologías asistivas como lectores de pantalla. A diferencia del formato visual, el formato lógico —como usar comandos específicos de LaTeX (\title{}, \section{}, \author{})— permite una estructura semántica reconocible tanto para humanos con discapacidad como para máquinas

Durante un hackatón de tres días organizado por la Chan Zuckerberg Initiative en septiembre de 2024, los autores probaron un método zero-shot: sin entrenamiento específico, ChatGPT intentaba convertir archivos con formato visual en otros más estructurados y accesibles. Los resultados fueron mixtos: aunque en algunos casos logró reemplazar adecuadamente elementos como título, autores o secciones mediante comandos LaTeX semánticos, muchas veces alternó estilos visuales por comandos incorrectos, alterando el contenido, generando errores de compilación o incluso sustituyendo autores entre documentos no relacionados.

Ante estos desafíos, los investigadores identificaron que los LLMs requerían supervisión humana constante y prompts más precisos. En particular, la generación de un diálogo iterativo permitió mejorar los resultados; sin embargo, la fiabilidad seguía siendo insuficiente para implementaciones a gran escala sin revisión adicional

Como alternativa más prometedora, se propone entrenar un modelo personalizado: partir de un corpus de documentos accesibles correctamente etiquetados, generar versiones con formato visual, y entrenar al modelo para revertir ese proceso de forma precisa. Este enfoque podría superar las limitaciones observadas en el enfoque zero-shot actual

OpenAI lanza GPT-5, la última versión de su modelo de IA ChatGPT

AP News. 2025. “OpenAI Launches GPT-5.” August 7. https://apnews.com/article/gpt5-openai-chatgpt-artificial-intelligence-d12cd2d6310a2515042067b5d3965aa1

GPT-5 es la última versión del modelo de lenguaje que impulsa ChatGPT. Representa un salto significativo en capacidades de razonamiento, precisión, velocidad y adaptabilidad. Está diseñado para ofrecer respuestas más útiles, seguras y contextualmente relevantes.

Este modelo representa un avance notable en la capacidad de comprender y resolver tareas complejas, desde problemas matemáticos hasta redacción profesional, programación y análisis en áreas como salud y finanzas.

Entre sus principales novedades, GPT-5 puede ajustar su nivel de “esfuerzo cognitivo” según la tarea, lo que permite respuestas más rápidas o más profundas dependiendo del contexto. También ofrece explicaciones previas antes de utilizar herramientas externas, lo que mejora la transparencia en sus decisiones. Además, se ha optimizado para interactuar de forma más natural y eficiente, adaptándose al estilo y necesidades del usuario sin requerir configuraciones manuales.

El modelo está disponible en distintos planes: gratuito, Plus ($20/mes), Pro ($200/mes) y empresarial. Incluso en la versión gratuita se puede acceder a GPT-5, aunque con

Principales mejoras

  • Razonamiento avanzado: GPT-5 se comporta como un experto con doctorado en múltiples disciplinas. Puede resolver problemas complejos de matemáticas, ciencias, programación y salud.
  • Codificación instantánea: Capaz de generar software funcional completo a partir de simples instrucciones en texto, lo que OpenAI denomina “vibe-coding”.
  • Redacción profesional: Mejora la calidad, coherencia y estilo de textos técnicos, creativos y empresariales.
  • Salud y finanzas: Ofrece respuestas más precisas en temas médicos y financieros, aunque no sustituye a profesionales humanos.
  • Interacción adaptativa: El modelo decide en tiempo real qué priorizar (velocidad, profundidad, estilo) según la tarea, sin necesidad de seleccionar versiones específicas.

ciertas limitaciones.

Sam Altman, CEO de OpenAI, ha comparado su impacto con el del primer iPhone, destacando que aunque el salto respecto a GPT-4 no es radical, GPT-5 sobresale por su fiabilidad y competencia general.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Escribir es pensar: reflexión crítica sobre el papel de la IA en la redacción científica

Writing is thinking. Nat Rev Bioeng 3, 431 (2025). https://doi.org/10.1038/s44222-025-00323-4

El texto subraya que escribir no se reduce a comunicar resultados, sino que es una herramienta esencial para descubrir y ordenar ideas de manera estructurada. Al plasmar pensamientos en palabras, se logra transformar años de investigación en una narrativa coherente que permite definir claramente el mensaje central y el impacto del trabajo científico

Escribir artículos científicos es una parte integral del método científico y una práctica habitual para comunicar los resultados de la investigación. Sin embargo, escribir no consiste únicamente en informar de resultados; también es una herramienta para descubrir nuevos pensamientos e ideas. La escritura nos obliga a pensar —no de la forma caótica y no lineal en la que nuestra mente suele divagar, sino de manera estructurada e intencional—. Al ponerlo por escrito, podemos ordenar años de investigación, datos y análisis en una historia coherente, identificando así nuestro mensaje principal y la influencia de nuestro trabajo. Esto no es solo una observación filosófica; está respaldada por evidencias científicas. Por ejemplo, escribir a mano puede generar una amplia conectividad cerebral y tener efectos positivos sobre el aprendizaje y la memoria.

Aunque los modelos de lenguaje grandes (LLMs) pueden generar artículos y hasta revisiones de pares en pocos minutos, el editorial advierte que carecen de responsabilidad ética y académica. Además, su contenido puede contener errores, como referencias inventadas o hallazgos inexactos (fenómeno conocido como hallucination), lo que exige una verificación exhaustiva

Los LLMs actuales también pueden equivocarse, un fenómeno conocido como alucinación. Por ello, el texto generado por estos modelos debe ser revisado y verificado minuciosamente (incluyendo cada referencia, ya que podría ser inventada). Esto pone en duda cuánto tiempo ahorran realmente los LLMs en la actualidad. Puede resultar incluso más difícil y llevar más tiempo editar un texto generado por un LLM que redactar un artículo o un informe de revisión por pares desde cero, en parte porque para poder editarlo es necesario comprender el razonamiento que hay detrás. Algunos de estos problemas podrían abordarse con LLMs entrenados únicamente con bases de datos científicas, como se describe en un artículo de revisión de Fenglin Liu y su equipo incluido en este mismo número. El tiempo lo dirá.

No obstante, los LLMs pueden tener un papel útil: ayudan a mejorar la gramática y la claridad, especialmente para quienes no son hablantes nativos de inglés. También pueden servir para resumir literatura, estimular la creatividad o superar bloqueos de escritura, Sin embargo, el editorial concluye que delegar completamente la escritura a estos modelos puede impedirnos reflexionar profundamente y elaborar una narrativa memorable, una habilidad valiosa más allá del ámbito académico