Archivo de la etiqueta: Sesgos

Impacto de la inteligencia artificial en la cognición humana

The Psychology of AI’s Impact on Human Cognition,” Psychology Today, publicado 3 de junio de 2025, revisado por Margaret Foley; disponible en Psychology Today, 2025, acceso 12 de agosto de 2025.

Texto completo

En el artículo, se plantea que la inteligencia artificial (IA) está remodelando profundamente la experiencia cognitiva humana, alterando nuestra libertad mental al influir en aspiraciones, emociones y pensamientos de manera compleja

A medida que la inteligencia artificial se integra de forma fluida en nuestra vida cotidiana, psicólogos y científicos cognitivos se enfrentan a una pregunta fundamental: ¿cómo está la IA remodelando la propia arquitectura del pensamiento y la conciencia humanas? El rápido avance de las herramientas de IA generativa a finales de 2024 y principios de 2025 representa algo más que progreso tecnológico: es una revolución cognitiva que exige nuestra atención.

Puntos clave

  • La IA altera la libertad cognitiva, moldeando aspiraciones, emociones y pensamientos de maneras complejas.
  • Las burbujas de filtro impulsadas por IA amplifican el sesgo de confirmación, debilitando el pensamiento crítico.
  • Contrarrestar los impactos de la IA practicando la conciencia metacognitiva y buscando experiencias corporales.

Internamente, nuestra libertad psicológica se manifiesta a través de cuatro dimensiones críticas: nuestras aspiraciones (las metas y sueños que nos motivan), nuestras emociones (las experiencias afectivas que colorean nuestra realidad), nuestros pensamientos (los procesos cognitivos que dan forma a nuestra comprensión) y nuestras sensaciones (nuestra interacción encarnada y sensorial con el mundo). Estas dimensiones internas interactúan dinámicamente con los entornos externos, creando el complejo tapiz de la experiencia humana.

Un punto central es el papel de los llamados “filter bubbles” impulsados por IA, que amplifican los sesgos de confirmación y debilitan el pensamiento crítico, al exponer repetidamente a las personas a contenidos que refuerzan sus propias creencias, habituando así una visión mental menos cuestionadora y más cerrada

Como contramedida, los autores sugieren fomentar la metaconciencia: es decir, desarrollar una conciencia crítica sobre cómo nos influye la IA, reconociendo cuándo está moldeando nuestro pensamiento. También recomendaron buscar experiencias encarnadas (“embodied experiences”), que impliquen el cuerpo y los sentidos, como formas de reconectar con procesos cognitivos más profundos y contrarrestar los efectos de la hiperautomatización mental.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

Los motores de búsqueda y las plataformas de IA pueden reforzar las creencias previas de los usuarios en lugar de promover la información confiable.

Leung, Eugina, y Oleg Urminsky. “The Narrow Search Effect and How Broadening Search Promotes Belief Updating.” Proceedings of the National Academy of Sciences 122, no. 0 (March 24, 2025). https://www.pnas.org/doi/abs/10.1073/pnas.2408175122

A partir de 21 estudios con 9.906 participantes y diversas plataformas (Google, ChatGPT, Bing con IA, entre otras), los autores identifican el «efecto de búsqueda estrecha». Este fenómeno surge cuando los usuarios, influenciados por sus creencias previas, formulan búsquedas sesgadas que, combinadas con los algoritmos optimizados para ofrecer resultados alineados con esas búsquedas, refuerzan suposiciones preexistentes en lugar de desafiarlas.

​El «efecto de búsqueda estrecha» se relaciona estrechamente con el sesgo de confirmación, una tendencia cognitiva en la que las personas buscan, interpretan y recuerdan información que confirma sus creencias preexistentes, desestimando datos que las contradicen. Este sesgo puede influir significativamente en la forma en que los usuarios interactúan con los motores de búsqueda, afectando la objetividad de la información que consumen.

El estudio muestra que este efecto se mantiene en distintos ámbitos (salud, finanzas, política, sociedad) y que estrategias como pedir a los usuarios que corrijan conscientemente sus sesgos tienen una efectividad limitada. Sin embargo, modificar los algoritmos para ofrecer resultados más amplios y diversos puede fomentar la actualización de creencias. Los autores proponen un diseño de algoritmos basado en principios conductuales para mejorar la neutralidad de la información.

Para contrarrestar estos sesgos y promover una actualización efectiva de creencias, es esencial implementar estrategias tanto a nivel de usuario como de diseño algorítmico. Los usuarios deben ser conscientes de sus propios sesgos cognitivos y adoptar prácticas de búsqueda más amplias y críticas. Por otro lado, los desarrolladores de motores de búsqueda y plataformas de IA tienen la responsabilidad de diseñar algoritmos que presenten una diversidad de perspectivas y reduzcan la tendencia a reforzar creencias preexistentes. Este enfoque dual puede contribuir a una interacción más equilibrada y objetiva con la información en línea.

Los modelos de IA tienden a reflejar los valores, perspectivas y supuestos culturales de las sociedades occidentales

Henrich, Joe. «The AI Homogenization Trap: Why Cognitive Diversity MattersLinkedIn, 1 de febrero de 2025. https://www.linkedin.com/pulse/ai-homogenization-trap-why-cognitive-diversity-matters-hunneman.

El concepto de WEIRD bias (sesgo WEIRD) pone de manifiesto un problema en el desarrollo y uso de la inteligencia artificial, especialmente en sistemas como GPT. Este sesgo se refiere a la tendencia de los modelos de IA a reflejar los valores, perspectivas y supuestos culturales de las sociedades occidentales, educadas, industrializadas, ricas y democráticas, los cuales, a menudo, son los entornos predominantes en los que se desarrolla la tecnología y se generan los datos que alimentan estos sistemas.

El término fue acuñado por el investigador Joe Henrich para señalar que las investigaciones psicológicas y cognitivas, que suelen ser las bases de la programación y el entrenamiento de la IA, tienden a basarse en muestras de personas de estas sociedades WEIRD. De este modo, la IA resulta sesgada hacia las normas y formas de pensar de estas culturas, lo que limita su capacidad para comprender o integrar perspectivas diversas de otras partes del mundo, donde los valores y experiencias pueden ser muy diferentes.

El problema radica en que, aunque en las sociedades modernas se valore la idea de la inteligencia individual, los humanos, de manera colectiva, somos mucho más inteligentes. La inteligencia grupal, que se forma a partir de la combinación de distintos puntos de vista y enfoques, permite tomar decisiones más precisas y creativas. Sin embargo, esta inteligencia colectiva depende de la diversidad cognitiva, es decir, de la interacción de diferentes perspectivas que se complementan entre sí. Si esta diversidad se ve reducida, por ejemplo, al entrenar una IA únicamente con datos provenientes de sociedades WEIRD, la capacidad para tomar decisiones informadas y adaptadas a la realidad de diferentes culturas y contextos podría verse gravemente afectada.

El paralelismo con la biología se hace evidente cuando se recurre a la hipótesis Gaia, que sugiere que la Tierra y sus sistemas biológicos funcionan como un único ente autorregulado. Esta hipótesis destaca que los ecosistemas más diversos son los más resilientes ante cambios inesperados. Del mismo modo, una sociedad diversa desde el punto de vista cultural y cognitivo puede ser más adaptable e innovadora. En contraste, las sociedades homogéneas, como las que Michelle Gelfand describe como “sociedades cerradas” o tight societies, que tienden a imponer normas estrictas y homogéneas, corren el riesgo de perder su capacidad para innovar y adaptarse, lo que afecta su progreso.

Este sesgo WEIRD no solo influye en la IA, sino también en las decisiones políticas, económicas y sociales, ya que puede limitar la capacidad de comprender y abordar de manera efectiva los problemas de sociedades con diferentes valores, creencias y estructuras. Las decisiones tomadas desde un marco cultural limitado pueden no ser las más adecuadas o eficientes para abordar los desafíos globales.

Por lo tanto, el desafío radica en desarrollar tecnologías de IA más inclusivas, que incorporen una mayor diversidad cultural y cognitiva. Esto no solo permitirá que la IA sea más justa y precisa, sino que también podría contribuir a un mundo más innovador y adaptado a la pluralidad de perspectivas existentes.

Los chatbots de IA siguen demasiado centrados en el inglés y en la cultura occidental

«Lost in translation: AI chatbots still too English-language centric, Stanford study finds | ZDNET». Accedido 6 de septiembre de 2024. https://www.zdnet.com/article/lost-in-translation-ai-chatbots-still-too-english-language-centric-stanford-study-finds/#ftag=RSSbaffb68.

Las soluciones de IA, incluidos los chatbots, pueden carecer de la diversidad global necesaria para atender a usuarios internacionales. Un estudio reciente de la Universidad de Stanford encontró que muchos de los grandes modelos de lenguaje actuales tienden a favorecer «valores y gustos centrados en Occidente».

La investigación dirigida por Diyi Yang, profesora asistente en Stanford y parte del Instituto de IA Centrada en el Ser Humano de Stanford (HAI), señalan que los intentos de «alinear» estos modelos con los valores de los usuarios a menudo fallan.

Aunque se realizan esfuerzos para adaptar los modelos a los usuarios previstos, esto puede introducir sesgos que comprometen la calidad de las respuestas de los chatbots. En teoría, la alineación debería ser universal y permitir que los modelos sean más útiles para una variedad de usuarios en todo el mundo. Sin embargo, los anotadores que adaptan conjuntos de datos en diferentes regiones pueden malinterpretar estos instrumentos.

El mercado global de chatbots de IA está en rápida expansión y se espera que alcance los 67 mil millones de dólares para 2033. Más del 50% de las empresas se espera que inviertan más en el desarrollo de chatbots que en aplicaciones móviles tradicionales. Sin embargo, muchos idiomas y comunidades siguen siendo desatendidos por estas tecnologías.

El estudio de Stanford también destacó que los modelos de lenguaje suelen estar basados en las preferencias de sus creadores, que generalmente provienen de países de habla inglesa. Los modelos deben reflejar el contexto social de las comunidades a las que sirven, lo que implica variaciones en gramática, temas y sistemas de valores.

Los investigadores recomiendan aumentar la conciencia sobre la diversidad global al:

  1. Reconocer que la alineación de los modelos no es una solución universal.
  2. Fomentar la transparencia en las decisiones de diseño de los modelos de lenguaje.
  3. Buscar conjuntos de datos multilingües para mejorar el rendimiento en diversas lenguas.
  4. Trabajar estrechamente con usuarios locales para superar las deficiencias culturales o lingüísticas.

Es fundamental realizar pruebas extensivas con usuarios locales antes de la implementación completa, y ofrecer opciones de selección de idioma para mejorar la experiencia del usuario.