Archivo de la etiqueta: Pensamiento crítico

Enseñando alfabetización en IA a estudiantes de primaria

Potkalitsky, Nick. 2025. “The Digital Detective Club: Teaching AI Literacy to Young Students.” Educating AI (blog), noviembre. https://nickpotkalitsky.substack.com/p/the-digital-detective-club-teaching

Vivimos un cambio profundo en la forma en que se crean los textos. Por primera vez en la historia, nuestros hijos crecerán en un mundo en el que gran parte de lo que leen —ayudas para deberes, explicaciones, historias e incluso mensajes “personales”— podría estar generado por inteligencia artificial (IA) en lugar de haber sido escrito por humanos. Esta realidad plantea un desafío educativo crucial: ¿cómo enseñar a los estudiantes a interactuar críticamente con la información que consumen desde edades tempranas?

La mayoría de los programas de “alfabetización en IA” se enfocan en estudiantes mayores. Pero para cuando los alumnos llegan al bachillerato, ya han pasado años consumiendo contenidos generados por IA sin poseer herramientas para evaluarlos críticamente. Por ello se propone un plan de estudios dirigido a estudiantes de primaria (desde K hasta 5.º), que enseñe habilidades prácticas de “detección textual” para el mundo real en el que ya están inmersos.

Uno de los pilares del programa es la conciencia de la fuente. Los estudiantes aprenden a preguntarse no solo “¿es verdadero lo que leo?”, sino “¿de dónde viene?”, “¿quién lo escribió?” y “¿cómo puedo comprobarlo?”. De esta manera, desarrollan un hábito de verificación constante que los prepara para interactuar con contenidos digitales y automatizados de forma responsable.

Otro aspecto fundamental es el reconocimiento de la voz del texto. Los niños aprenden a diferenciar entre escritura humana y textos generados por IA, identificando rasgos como estilo, coherencia, singularidad o detalles personales que a menudo faltan en los textos automatizados. Esta habilidad les permite detectar cuándo un texto es genérico, neutro o artificial, y fomentar su pensamiento crítico.

El programa también enfatiza la valoración de la especificidad y lo concreto. Los alumnos comprenden que los textos valiosos, ya sean relatos, informes o explicaciones, incluyen detalles contextuales y matices propios. Por el contrario, los textos superficiales, impersonales o excesivamente generalizados pueden ser una señal de contenido automatizado o poco fiable. De esta forma, los estudiantes aprenden a apreciar la originalidad y a desarrollar criterios para discernir la calidad de la información.

Potkalitsky aclara que la intención no es asustar a los estudiantes ni alejarles de la IA, sino enseñarles a interactuar con ella de manera consciente, informada y responsable. La meta es que comprendan cuándo la IA puede ser útil y cuándo es necesaria la intervención humana para analizar, interpretar o tomar decisiones. Este enfoque contribuye a cultivar lo que el autor llama “conciencia situacional textual”: la capacidad de reconocer no solo qué leen los estudiantes, sino cómo, desde dónde, con qué intención y con qué propósito.

La alfabetización temprana en IA se vuelve especialmente relevante dado que muchos niños ya acceden a dispositivos, contenidos digitales y textos automatizados desde edades muy tempranas. Integrar estas competencias en la educación básica —en materias de lengua, lectura, ciudadanía digital y pensamiento crítico— permite preparar a los estudiantes para un entorno cada vez más mediado por la tecnología. Además, les proporciona herramientas para detectar desinformación, reconocer plagios, valorar la originalidad y mantener su propia voz creativa, habilidades fundamentales para desenvolverse con autonomía y responsabilidad en el mundo digital.

La propuesta busca transformar la manera en que los niños aprenden a leer, escribir y analizar información en la era de la inteligencia artificial. A través de ejercicios prácticos, análisis de textos y actividades lúdicas, los estudiantes desarrollan competencias críticas, creatividad y autonomía intelectual, preparándolos para enfrentar los desafíos educativos y sociales del siglo XXI.

¿Está la IA erosionando silenciosamente nuestra capacidad de pensar? Y cómo los libros pueden salvarla.

Is AI Quietly Eroding Our Ability to Think? And How Books Can Save It.” Magazine – 1000 Libraries, 8 de septiembre de 2025. https://magazine.1000libraries.com/is-ai-quietly-eroding-our-ability-to-think-and-how-books-can-save-it/

El uso excesivo de la inteligencia artificial (IA) para responder preguntas y sintetizar información puede debilitar nuestra capacidad de pensamiento crítico. Según el autor, cuando confiamos en IA para procesar, analizar y explicar datos en lugar de hacerlo nosotros mismos, perdemos la oportunidad de profundizar en el razonamiento, cuestionar suposiciones o generar nuevas ideas.

La corteza prefrontal, o el área del cerebro necesaria para la toma de decisiones, la resolución de problemas y la regulación emocional, está mucho más desarrollada en los humanos que en los animales. Es el factor distintivo, la diferencia, y significa que somos los pensadores críticos más destacados del mundo.

976 / 5.000

La inteligencia artificial se ha convertido en una especie de fantasma, una palabra de moda que circula en redes sociales e internet. ChatGPT, en particular, ha sido noticia tras su lanzamiento al público. La gente ve el servicio como una oportunidad: puede planificar vacaciones, ayudarte a emprender y a gestionar un sistema legal complejo. ChatGPT es inteligente, si por inteligente nos referimos a que tiene acceso a más información de la que el cerebro humano puede procesar, y es capaz de dar respuesta a casi todo. ¿Suena a sueño, verdad?

Como cualquier otra parte del cuerpo, el cerebro es un músculo que necesita ser ejercitado y desarrollado. Necesitamos aprender a usarlo; requiere ejercicio y desafío. El problema que se pronostica con la IA es que podría erosionar nuestras habilidades de pensamiento crítico. Esto no es solo una hipótesis; estudios recientes han confirmado que una mayor dependencia de la IA está relacionada con una disminución de las habilidades de pensamiento crítico.

La situación empeora cuando pensamos en las generaciones más jóvenes, que se han vuelto especialmente dependientes de la tecnología. Sí, ChatGPT puede encontrarte excelentes restaurantes en Roma, pero también puede ayudarte con tus deberes, decirte si deberías romper con tu marido y pensar por ti sin tener la experiencia ni los matices necesarios para darte respuestas críticas.

No se trata de ser derrotistas; no es un tema sin esperanza. Por supuesto, la IA puede usarse como herramienta si se maneja correctamente. Pero lo más importante es que existe una actividad que puede combatir esta descarga cognitiva y obligarnos a, de forma gratificante, ejercitar un poco nuestro cerebro: la lectura.

Para contrarrestar esa erosión intelectual, el texto aboga por la lectura de libros como práctica que restaura y fortalece la mente humana. Leer exige tiempo, concentración, reflexión, confrontar ideas complejas y construir conexiones propias entre conceptos —actividades que la IA no “realiza” de la misma forma. En ese sentido, el autor sostiene que los libros funcionan como entrenamiento mental, ofreciendo resistencia cognitiva frente a la facilidad con la que la IA puede ofrecer respuestas rápidas y superficiales.

El artículo también sugiere que este no debe pensarse como un conflicto total entre IA y lectura, sino como una relación equilibrada: usar la IA para asistir nuestra curiosidad, pero no delegar el pensamiento. Así, el enfoque sería emplear estas herramientas como punto de partida, mientras el lector mantiene el rol activo de interpretar, cuestionar y extender. Al final, el texto propone que preservar una cultura de lectura consciente es una de las formas más contundentes de proteger nuestra autonomía intelectual en la era digital.

Por qué la innovación en IA exige un pensamiento más inteligente en torno a la creación de valor

Henkin, David. 2025. “Why Innovation In AI Demands Smarter Thinking Around Value Creation.” Forbes, 23 de septiembre de 2025.

Ver noticia

La innovación en inteligencia artificial (IA) no debe centrarse únicamente en lo novedoso o espectacular, sino en cómo esa innovación genera valor tangible para las organizaciones y para las personas.

Henkin advierte que muchas iniciativas de IA se quedan en la fase de exhibición tecnológica sin traducirse en beneficios reales o sostenibles; para que la IA sea verdaderamente transformadora, debe integrarse con intención, propósito y una lógica clara de creación de valor.

Henkin plantea que para que la IA contribuya de verdad al progreso organizacional, es necesario reordenar el paradigma de innovación. No basta con lanzar modelos o prototipos; hay que preguntarse: ¿qué valor entregaremos, a quién y cómo mediremos ese valor? La innovación con IA debe concebirse como parte de la estrategia de negocios, no como un experimento aislado. En este sentido, toda aplicación de IA debe alinearse con objetivos estratégicos y estar sujeta a criterios rigurosos de retorno, impacto y sostenibilidad.

Un punto clave que el autor enfatiza es la necesidad de una mentalidad más sofisticada sobre “valor”. No se trata simplemente de reducir costos o automatizar tareas, sino de ampliar capacidades, mejorar experiencias, desbloquear nuevos modelos de negocio o permitir decisiones más inteligentes. En esa línea, Henkin advierte contra la trampa de diseñar soluciones de IA que parezcan innovadoras pero que en la práctica no cambian nada sustancial: la innovación eficaz requiere conectar la capacidad técnica con necesidades reales y expectativas concretas.

Finalmente, el artículo sugiere que las organizaciones que ganarán relevancia serán aquellas que internalicen este enfoque de innovación con IA orientada al valor, en lugar de seguir una lógica puramente tecnológica. La IA debe servir como palanca para crecimiento, competitividad y transformación profunda, siempre bajo un marco de pensamiento estratégico, medición rigurosa y foco en los resultados que importan.

¿Logrará la IA superar el umbral del pensamiento humano?

Nosta, John. “AI’s Cognitive March Toward Thought.Psychology Today, June 21, 2025. https://www.psychologytoday.com/us/blog/the-digital-self/202506/ais-cognitive-march-toward-thought

La inteligencia artificial (IA) se aproxima a lo que entendemos como pensamiento humano, aunque sin alcanzarlo completamente. Utilizando la analogía matemática de una serie que se acerca infinitamente a un valor sin llegar a él.

Los modelos de lenguaje a gran escala (LLMs) simulan el razonamiento paso a paso, pero su lógica es predictiva, no secuencial como la humana. Modelos recientes emplean el concepto de “pensamiento continuo”, que permite considerar múltiples caminos de razonamiento simultáneamente antes de colapsar en una sola respuesta, lo que mejora la eficiencia en la resolución de problemas complejos.

Aunque la IA se aproxima cada vez más a lo que podríamos llamar pensamiento humano en apariencia, la brecha entre simulación y cognición real persiste. La analogía matemática de la asintota ilustra cómo la IA se acerca infinitamente a la cognición humana, pero nunca la alcanza: sus capacidades se parecen cada vez más al razonamiento, pero no implican conciencia, intención ni experiencia subjetiva.

El autor advierte sobre el riesgo de atribuir cualidades humanas a sistemas que, aunque sofisticados, siguen siendo herramientas de manipulación semántica a gran escala. La tentación de considerar estos sistemas como inteligentes o incluso conscientes puede llevar a malentendidos y expectativas erróneas sobre sus capacidades.

Este comportamiento plantea un desafío filosófico y social: aunque los sistemas puedan parecer pensantes y generar respuestas confiables o incluso convincentes, siguen siendo herramientas de manipulación semántica a gran escala. La ilusión de cognición puede llevar a interpretaciones erróneas sobre su inteligencia o supuesta conciencia, pero la distinción entre apariencia de razonamiento y pensamiento real es crucial.

Se invita a reflexionar sobre la naturaleza de la cognición y la inteligencia, reconociendo los avances de la IA sin caer en la ilusión de que ha alcanzado el pensamiento humano genuino. La diferencia fundamental radica en que, mientras la IA puede simular el razonamiento, solo los seres humanos lo viven y lo experimentan.

Impacto de la inteligencia artificial en la cognición humana

The Psychology of AI’s Impact on Human Cognition,” Psychology Today, publicado 3 de junio de 2025, revisado por Margaret Foley; disponible en Psychology Today, 2025, acceso 12 de agosto de 2025.

Texto completo

En el artículo, se plantea que la inteligencia artificial (IA) está remodelando profundamente la experiencia cognitiva humana, alterando nuestra libertad mental al influir en aspiraciones, emociones y pensamientos de manera compleja

A medida que la inteligencia artificial se integra de forma fluida en nuestra vida cotidiana, psicólogos y científicos cognitivos se enfrentan a una pregunta fundamental: ¿cómo está la IA remodelando la propia arquitectura del pensamiento y la conciencia humanas? El rápido avance de las herramientas de IA generativa a finales de 2024 y principios de 2025 representa algo más que progreso tecnológico: es una revolución cognitiva que exige nuestra atención.

Puntos clave

  • La IA altera la libertad cognitiva, moldeando aspiraciones, emociones y pensamientos de maneras complejas.
  • Las burbujas de filtro impulsadas por IA amplifican el sesgo de confirmación, debilitando el pensamiento crítico.
  • Contrarrestar los impactos de la IA practicando la conciencia metacognitiva y buscando experiencias corporales.

Internamente, nuestra libertad psicológica se manifiesta a través de cuatro dimensiones críticas: nuestras aspiraciones (las metas y sueños que nos motivan), nuestras emociones (las experiencias afectivas que colorean nuestra realidad), nuestros pensamientos (los procesos cognitivos que dan forma a nuestra comprensión) y nuestras sensaciones (nuestra interacción encarnada y sensorial con el mundo). Estas dimensiones internas interactúan dinámicamente con los entornos externos, creando el complejo tapiz de la experiencia humana.

Un punto central es el papel de los llamados “filter bubbles” impulsados por IA, que amplifican los sesgos de confirmación y debilitan el pensamiento crítico, al exponer repetidamente a las personas a contenidos que refuerzan sus propias creencias, habituando así una visión mental menos cuestionadora y más cerrada

Como contramedida, los autores sugieren fomentar la metaconciencia: es decir, desarrollar una conciencia crítica sobre cómo nos influye la IA, reconociendo cuándo está moldeando nuestro pensamiento. También recomendaron buscar experiencias encarnadas (“embodied experiences”), que impliquen el cuerpo y los sentidos, como formas de reconectar con procesos cognitivos más profundos y contrarrestar los efectos de la hiperautomatización mental.

Claves para evaluar críticamente la información

Lemmons, D. (2025, julio). Asking Crucial Questions. Info Literal. Recuperado de https://infoliteral.substack.com/p/asking-crucial-questions

El artículor reflexiona sobre la importancia de formular preguntas fundamentales al momento de evaluar fuentes de información, especialmente en contextos académicos. Lemmons sostiene que la evaluación crítica no puede reducirse a una simple verificación de datos o a la confianza en la reputación de un medio. En cambio, propone una aproximación más profunda y activa que comienza con el cuestionamiento sistemático de cada fuente consultada.

Subraya que una de las habilidades más valiosas para estudiantes e investigadores es saber hacer las preguntas correctas. Entre las más importantes, menciona: ¿quién es el autor de la fuente?, ¿cuál es su afiliación institucional?, ¿para qué audiencia escribe?, ¿qué tipo de evidencia ofrece y cómo la ha obtenido?, ¿se omiten datos relevantes?, ¿hay alguna inclinación ideológica o interés económico detrás del texto? Estas preguntas permiten identificar no solo la fiabilidad del contenido, sino también sus limitaciones, sesgos y puntos ciegos.

Lemmons advierte sobre el riesgo de caer en una falsa sensación de seguridad al utilizar fuentes de instituciones prestigiosas o medios populares. Aunque estas puedan ofrecer contenidos valiosos, no están exentas de errores, parcialidades u omisiones. Por eso, invita a los lectores a ir más allá de la superficie, examinando con cuidado la estructura argumentativa y los supuestos que subyacen a cualquier texto. Según el autor, las zonas grises —aquellas en las que no hay respuestas claras o evidencias contundentes— son precisamente donde el pensamiento crítico debe activarse con mayor intensidad.

Asking Crucial Questions no es solo una guía práctica para evaluar información, sino también una defensa del pensamiento crítico como actitud intelectual. Lemmons insta a sus lectores a incorporar este hábito de preguntar en su día a día académico, no con escepticismo destructivo, sino con el compromiso de comprender mejor el mundo a través del análisis riguroso, la comparación de fuentes y la reflexión consciente sobre lo que se lee y se comunica.

Cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico

Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (Article 1121, pp. 1–22). ACM. https://doi.org/10.1145/3706598.3713778

Se analiza cómo la inteligencia artificial generativa (GenAI) influye en el pensamiento crítico de los trabajadores del conocimiento. El estudio parte de una preocupación creciente: si bien las herramientas de IA pueden mejorar la productividad, también podrían reducir el esfuerzo cognitivo y la capacidad de juicio crítico de los usuarios.

Para investigarlo, los autores realizaron una encuesta a 319 trabajadores del conocimiento, quienes proporcionaron un total de 936 ejemplos de cómo utilizan GenAI en su trabajo cotidiano.

Los resultados cuantitativos revelan una correlación preocupante: cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico. En cambio, quienes tienen más confianza en sus propias capacidades tienden a mantener un mayor nivel de evaluación crítica, incluso cuando emplean sistemas de IA. Estos hallazgos sugieren que la actitud del usuario frente a la tecnología influye significativamente en el nivel de verificación, análisis y control aplicado al contenido generado por IA.

En el análisis cualitativo, los investigadores identificaron tres dimensiones clave en las que los participantes reportaron cambios en su pensamiento crítico: la verificación de la información, la integración de respuestas y la supervisión de tareas. Algunos usuarios mencionaron que se volvieron más pasivos al aceptar las respuestas generadas por GenAI, mientras que otros afirmaron que la IA los impulsaba a contrastar fuentes, reinterpretar ideas o asumir un rol más reflexivo. Sin embargo, muchos reconocieron una reducción en el esfuerzo cognitivo necesario para resolver tareas complejas.

A partir de estos hallazgos, los autores advierten sobre el riesgo de que las herramientas GenAI refuercen hábitos mentales pasivos si no se diseñan cuidadosamente. Proponen que los diseñadores de interfaces incluyan elementos que fomenten la reflexión, la verificación de datos y la transparencia en los procesos algorítmicos. También destacan la importancia de promover una interacción más crítica y activa entre humanos y máquinas para evitar una dependencia acrítica de la tecnología.

En suma, el estudio proporciona una primera evidencia empírica sobre cómo las herramientas de IA generativa pueden estar moldeando el juicio y la capacidad crítica de los profesionales, tanto positiva como negativamente. Sus implicaciones son relevantes no solo para diseñadores de software, sino también para responsables de formación y políticas de implementación tecnológica en el ámbito laboral.

La adaptación de la inteligencia artificial (IA) durante la próxima década traerá cambios significativos en la forma de pensar, ser y actuar de los humanos.

Imagining the Digital Future. Being Human in 2035: The 18th Future of Digital Life Experts Canvassing. Marzo 2025.

Texto completo

Un grupo de 300 expertos en tecnología predice que la adaptación de la inteligencia artificial (IA) durante la próxima década traerá cambios significativos en la forma de pensar, ser y actuar de los humanos. La mayoría de ellos considera que estos cambios serán «profundos y significativos» o incluso «dramáticos»

Se consultó a 301 expertos entre diciembre de 2024 y febrero de 2025 sobre cómo la IA afectará las capacidades y comportamientos humanos. Casi 200 de ellos respondieron con ensayos detallados sobre el impacto de la IA en la esencia de ser humano.

Áreas de impacto negativo

Según las predicciones, la IA tendrá un efecto mayormente negativo en los siguientes aspectos:

  • Inteligencia social y emocional
  • Capacidad de pensamiento complejo
  • Confianza en valores y normas compartidos
  • Seguridad en las habilidades propias
  • Empatía y juicio moral
  • Bienestar mental
  • Sentido de agencia e identidad
  • Propósito de vida
  • Metacognición

Áreas de impacto positivo

Sin embargo, los expertos creen que la IA influirá positivamente en:

  • Curiosidad y capacidad de aprendizaje
  • Toma de decisiones y resolución de problemas
  • Pensamiento innovador y creatividad

Grado de cambio esperado

El 61% de los expertos prevé una transformación profunda en la forma en que los humanos operan y se relacionan con la IA. En cuanto a si el impacto general será positivo o negativo:

  • El 50% cree que será equilibrado, con efectos tanto buenos como malos.
  • El 23% piensa que será mayormente negativo.
  • El 16% considera que será principalmente positivo.
  • Solo el 6% opina que habrá poco o ningún cambio en la esencia humana.

Conclusiones

Aunque muchos expertos reconocen los beneficios de la IA para la sociedad, la mayoría expresa preocupación por la posible erosión de rasgos humanos esenciales. A pesar de ello, algunos confían en la capacidad de adaptación de los humanos para encontrar formas de prosperar en la era de la IA.

La alfabetización informacional es clave: el pensamiento crítico en la era digital de la IA

Contributors, eSchool Media. «Critical Thinking in the Digital Age of AI: Information Literacy Is Key». eSchool News, 16 de agosto de 2024. https://www.eschoolnews.com/digital-learning/2024/08/16/critical-thinking-digital-age-ai-information-literacy/.

Con el auge de la inteligencia artificial (IA), la desinformación ha entrado en una nueva era, haciendo crucial que los estudiantes desarrollen habilidades sólidas de alfabetización informacional. Estas habilidades ayudan a los estudiantes a navegar por escenarios de desinformación en el mundo digital, desde narrativas falsas hasta imágenes generadas por IA.

La alfabetización informacional, especialmente en plataformas digitales, debería ser una parte obligatoria del currículo escolar para combatir la desinformación y preparar a los estudiantes para un futuro impulsado por la IA. Durante la pandemia, la desinformación sobre el COVID-19, como las teorías conspirativas que vinculaban la enfermedad con redes 5G, se propagó rápidamente gracias a la tecnología digital. Del mismo modo, la IA ha amplificado narrativas engañosas, desde deepfakes hasta noticias falsas, complicando aún más el panorama informativo.

Un ejemplo reciente es el uso de deepfakes y desinformación tras los ataques de octubre de 2023 entre Israel y Gaza, donde se difundieron noticias falsas, como una historia fabricada sobre Qatar amenazando con cortar el suministro mundial de gas si Israel no detenía sus ataques en Gaza.

Además, la confianza del público en los medios se ha erosionado, con solo un 32% de estadounidenses confiando en los medios de comunicación de masas. Combatir la desinformación requiere no solo la verificación de hechos, sino también técnicas preventivas, como el «prebunking», que promueve la resiliencia a la desinformación.

Un enfoque educativo interdisciplinario, como el implementado en Finlandia, es esencial para fomentar el pensamiento crítico. En este país, la alfabetización mediática se enseña desde la escuela preescolar como parte del currículo nacional, lo que ha llevado a una mayor confianza en los medios y una resistencia más fuerte a la desinformación. Este enfoque es un modelo que otras naciones deberían considerar, especialmente en un mundo cada vez más afectado por la IA y la manipulación digital.

Pensamiento crítico y ética en la era de la IA generativa en la educación

Study of Generative AI Technologies in Education: A Critical Look into the Future of Learning. USC Center for Generative AI and Society, 2024

Texto completo

Este informe es una colección de seis artículos breves (más una introducción y una lista de los investigadores de IA Generativa), de los cuales «An Undergraduate Perspective of Generative AI in Undergraduate Education», de Eric Bui, y «Authoring by Editing and Revising: Considering Generative AI Tools», de Benjamin Nye, fueron los más sustanciosos e interesantes, ya que cada uno describe el uso de la IA de una manera ligeramente diferente, como fomento de la investigación, el pensamiento crítico y las habilidades de edición, al tiempo que se utiliza como asistente, en lugar de «profesor». Ambas son buenas lecturas. A través de Jonathan Kantrowitz, que destaca otro artículo de la colección, «Ethics in Generative AI: Report From the Field», de Stephen Aguilar, que informa de que «el género del profesor y su comodidad con la tecnología son factores que influyen en la adopción de la inteligencia artificial en el aula».