Archivo por meses: diciembre 2025

Índice de seguridad de IA 2025: evaluación de las prácticas de las principales empresas frente a riesgos existenciales y de gobernanza

Mashable — «AI safety report: Only 3 models make the grade: Gemini, Claude, and ChatGPT are top of the class — but even they are just C students»

Texto completo

El informe proviene del Future of Life Institute (FLI), que en su edición “Winter 2025 AI Safety Index” evaluó ocho proveedores importantes de IA: OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, y Z.ai

Un panel de expertos analizó declaraciones públicas y respuestas a encuestas de las compañías, evaluando 35 indicadores de seguridad — desde protección de datos hasta mecanismos de denuncia interna.

Solo tres modelos quedaron como “los mejor posicionados”: ChatGPT (de OpenAI), Gemini (de Google) y Claude (de Anthropic). Pero todos aprobaron de forma limitada: en la escala de notas del informe obtuvieron calificaciones de tipo “C” — un aprobado con reservas.

Ninguna de las empresas evaluadas tiene un plan público —verificable y creíble— para garantizar un control humano fiable sobre sistemas de IA cada vez más potentes, lo que abre la puerta a potenciales riesgos «catastróficos». Aunque algunas —como Anthropic y OpenAI— obtuvieron mejores notas en ciertos rubros como gobernanza, evaluación de riesgos y transparencia, las deficiencias en seguridad existencial, rendición de cuentas y medidas preventivas estructurales siguen siendo graves

El informe advierte de que la industria de la IA “va muy por delante” de sus propios mecanismos de regulación y seguridad, lo que genera una tensión creciente entre la carrera por la innovación y la necesidad de salvaguardar la integridad —social, ética y técnica— de sus sistemas

Datos clave:

  • Ninguna de las empresas evaluadas alcanzó un nivel satisfactorio en todos los dominios críticos. Las debilidades estructurales —sobre todo en ámbitos de riesgo existencial, evaluación independiente y transparencia— persisten.
  • Las mayores carencias se concentran en los dominios de evaluación de riesgos (risk assessment), marcos de seguridad (safety framework), y compartición de información (information sharing).
  • No hay evidencia pública de que ninguna empresa haya establecido un plan creíble, exhaustivo y verificable para controlar posibles inteligencias artificiales superinteligentes (AGI / “superhuman AI”). Esa “seguridad existencial” —el control sobre sistemas que podrían ser más inteligentes que los humanos— es considerada la “debilidad estructural central del sector”.

Aunque algunas empresas cumplen parcialmente criterios de estándares emergentes (como los propuestos en la UE), la implementación es desigual: profundidad, especificidad y transparencia siguen siendo insuficiente

La IA ahorra a los trabajadores menos de una hora al día.

AI Saves Workers Less Than an Hour Each Day, New OpenAI Report Shows.” CNET. 2025 https://www.cnet.com/tech/services-and-software/ai-saves-workers-less-than-an-hour-each-day-new-openai-report-shows/

Informe

Un reciente informe de OpenAI revela que las herramientas de inteligencia artificial (IA) ya están generando un ahorro de tiempo real en el entorno laboral. Según la encuesta realizada a 9.000 empleados de cerca de 100 empresas, quienes usan las soluciones de IA han declarado que logran ahorrar entre 40 y 60 minutos por día en sus tareas profesionales.

El informe OpenAI’s 2025 ‘The State of Enterprise AI’ report ofrece una visión detallada de cómo las empresas están utilizando las herramientas de IA en la práctica. Basándose en datos de uso anónimos de más de un millón de clientes empresariales, junto con una encuesta realizada a 9000 trabajadores de casi 100 organizaciones, el informe presenta un panorama de la creciente adopción e integración de la IA en el lugar de trabajo.

Este ahorro no se limita a un tipo de trabajo: los sectores donde más se nota la ganancia de tiempo incluyen ciencia de datos, ingeniería, comunicaciones y contabilidad. Para muchos de estos trabajadores, el uso de IA no solo agiliza tareas rutinarias, sino que aumenta la velocidad o la calidad del resultado. De hecho, el 75 % de los encuestados afirmó que la IA ha mejorado su rendimiento en uno u otro de esos aspectos.

Además, el informe sugiere que la IA no solo optimiza lo ya existente, sino que amplía lo que los trabajadores pueden hacer: muchas personas informan que ahora son capaces de desempeñar tareas que antes les resultaban inaccesibles. En algunos perfiles —especialmente los más intensivos en uso de IA— el ahorro de tiempo puede traducirse en más de 10 horas semanales.

Por último, los datos muestran una adopción acelerada de la IA en las empresas: el uso de herramientas como ChatGPT Enterprise creció exponencialmente, y muchos equipos están integrándolas de forma estructural en sus flujos de trabajo, lo que sugiere que la IA está pasando de ser una novedad o experimento a ser parte permanente del entorno laboral moderno.

El último sabio de la medina: así vive el librero más veterano de Rabat

Meet The Oldest Bookseller of Rabat, Morocco.” 1000 Libraries Magazine, 8 de diciembre. https://magazine.1000libraries.com/meet-the-oldest-bookseller-of-rabat-morocco/

Mohamed Aziz, conocido como el librero más antiguo de Rabat, nació en 1948 en la capital marroquí y quedó huérfano a una edad muy temprana, lo que marcó profundamente su infancia y su acceso a la educación. Para poder continuar en la escuela trabajó durante años como pescador, pero finalmente tuvo que abandonar sus estudios a los quince años debido al precio prohibitivo de los libros de texto. Aquella frustración —tener el deseo de aprender, pero no los medios— lo acompañó durante años, y fue precisamente esa herida la que lo condujo a convertir su vida en un acto de resistencia cultural: si él no había podido comprar libros, dedicaría su vida a ponerlos al alcance de los demás.

Sus inicios como librero fueron extremadamente humildes. Comenzó vendiendo apenas nueve libros usados bajo un árbol, en plena calle, improvisando con lo que tenía y confiando en que algún lector curioso se detuviera a hojear sus ejemplares. Con el tiempo, su presencia constante y su enorme dedicación lo llevaron a abrir un pequeño establecimiento en la medina de Rabat. Así nació su tienda Bouquiniste El Azizi, que desde 1967 permanece en el mismo lugar y se ha convertido en un punto de referencia cultural y humano para generaciones de lectores, estudiantes, profesores y curiosos. Su librería, abarrotada de volúmenes en árabe, francés e inglés, es un espacio donde conviven la memoria, la conversación y el acceso democrático al conocimiento.

Lo que distingue a Mohamed Aziz no es solo su longevidad como librero, sino su relación íntima con los libros. Dedica entre seis y ocho horas diarias a leer, convencido de que un librero que no lee es un vendedor más, no un mediador entre la cultura y las personas. Se calcula que ha leído más de 4.000 títulos, e incluso hay quien afirma que la cifra supera los 5.000. No lo hace por obligación profesional, sino porque para él la lectura ha sido siempre su refugio y su forma de dignidad: una respuesta personal frente a la pobreza y la falta de oportunidades que sufrió en su juventud. En sus palabras, leer es su manera de encontrar sentido y de reivindicar la vida que no pudo tener de niño.

Su filosofía se refleja también en su manera de trabajar. Tiene la costumbre de dejar muchos libros expuestos en la calle, sin vigilancia ni medidas de seguridad. Cuando le preguntan si no teme que se los roben, responde con una frase que ya forma parte de su leyenda: “Los que no saben leer no roban libros, y los que pueden leer, no son ladrones”. Esta convicción sencilla y profunda resume su fe en la cultura como motor de humanidad, y en la lectura como acto transformador. Aziz es, así, más que un comerciante: es una figura moral y cultural de Rabat, un guardián de historias y un ejemplo de cómo un individuo puede construir un espacio de conocimiento abierto incluso en contextos de dificultad.

Con el paso de los años, su librería se ha convertido en un símbolo de la resistencia del libro en un mundo que cambia y en un país que todavía enfrenta retos en alfabetización y acceso a la cultura. Estudiantes, turistas, investigadores y vecinos acuden a su tienda no solo a comprar, sino a escuchar recomendaciones, compartir inquietudes o simplemente conversar unos minutos. Mohamed Aziz encarna la idea del librero como figura comunitaria, un puente entre el pasado y el presente, y una prueba viviente de que los libros pueden ser un destino y una salvación.

Bibliotecas y búsquedas con IA: evaluando la fiabilidad de las respuestas

Fowler, Geoffrey A. “We Tested Which AI Gave the Best Answers Without Making Stuff Up — One Beat ChatGPT.” The Washington Post, August 27, 2025

En agosto de 2025, The Washington Post publicó un estudio en el que un grupo de bibliotecarios evaluó nueve herramientas de búsqueda basadas en inteligencia artificial para determinar cuáles ofrecían respuestas más precisas y fiables, evitando las conocidas “alucinaciones” o errores inventados por la IA. El objetivo era medir la exactitud de las respuestas, la fiabilidad de las fuentes y la capacidad de cada sistema para manejar información reciente, especializada o compleja.

El experimento consistió en 30 preguntas diseñadas para poner a prueba las fortalezas y debilidades de cada IA, incluyendo datos poco conocidos, eventos recientes, interpretación de imágenes y sesgos de los modelos. Se evaluaron herramientas como ChatGPT (versiones 4 y 5), Bing Copilot, Claude, Grok, Perplexity, Meta AI y las versiones de búsqueda de Google AI. Tres bibliotecarios analizaron cerca de 900 respuestas, valorando tanto la exactitud como la presencia de referencias confiables.

Los resultados mostraron que Google AI Mode fue, en general, la herramienta más fiable, especialmente en la resolución de preguntas sobre trivialidades o información reciente. Sin embargo, todas las IA evaluadas presentaron limitaciones: muchas generaron respuestas incorrectas con citas aparentemente verídicas, fallaron en preguntas especializadas o de difícil acceso, tuvieron problemas con información reciente y mostraron sesgos hacia ciertas disciplinas o perspectivas. La interpretación de imágenes también fue un reto para la mayoría de los sistemas.

A pesar de sus limitaciones, las IA demostraron ser útiles en ciertos contextos, como la síntesis de información dispersa o compleja. Los evaluadores subrayaron que, aunque estas herramientas pueden ahorrar tiempo, no deben reemplazar la verificación tradicional de fuentes. Recomiendan un uso crítico y complementario, tratando la IA como un apoyo para la investigación más que como fuente definitiva.

El estudio evidencia que ninguna IA es perfecta y que, aunque ofrecen ventajas en rapidez y síntesis, siguen siendo propensas a errores, omisiones y sesgos. Los bibliotecarios enfatizan la importancia de la verificación y el pensamiento crítico al usar estas herramientas, igual que se haría al consultar fuentes tradicionales en una biblioteca.

Resultados clave:

Herramienta más fiable: Google AI Mode fue la IA que ofreció respuestas más precisas y consistentes, especialmente en información reciente y trivialidades poco conocidas.

Alucinaciones y errores: Varias IA, incluida ChatGPT, generaron respuestas incorrectas con un tono de certeza, a veces citando fuentes que no respondían a la pregunta.

Limitaciones con información especializada: Ninguna IA respondió correctamente en todos los casos que requerían conocimientos de nicho o fuentes difíciles de acceder.

Problemas con información reciente: Las IA fallaron en eventos o datos muy recientes debido a sus límites en actualización de datos.

Interpretación visual limitada: Las preguntas sobre detalles de imágenes o contenido visual fueron problemáticas para la mayoría de las IA.

Sesgos inherentes: Las IA mostraron sesgos en temas de carreras académicas o áreas de conocimiento, favoreciendo disciplinas STEM sobre humanidades o sociales.

Utilidad relativa: Las IA pueden ahorrar tiempo y sintetizar información compleja, pero no sustituyen la verificación de fuentes tradicionales; deben usarse como complemento crítico en la investigación.

Guía para el uso de las inteligencias artificiales en el ámbito educativo

Guía para el uso de las inteligencias artificiales en el ámbito educativo. Euskadi: Departamento de Educación. Departamento de Educación y Elhuyar Licencia, 2025

Texto completo

La Guía para el uso de las inteligencias artificiales en el ámbito educativo, elaborada por el Departamento de Educación y Elhuyar, se presenta como un documento exhaustivo destinado a acompañar al profesorado en la integración ética, crítica y pedagógica de la inteligencia artificial (IA) en los centros educativos. Desde el inicio, la guía subraya la rápida expansión de estas tecnologías en todos los ámbitos de la vida —incluida la enseñanza— y advierte que su accesibilidad, facilidad de uso y normalización entre adolescentes exigen una reflexión profunda sobre sus implicaciones éticas, legales y pedagógicas. Aunque la IA ofrece potenciales beneficios, también plantea riesgos como el coste ambiental, la dependencia tecnológica de grandes corporaciones, la propagación de errores o creencias falsas y el uso indebido por parte del alumnado.

La guía también explica de manera clara cómo funcionan los sistemas de IA generativa: se entrenan con grandes volúmenes de datos —muchos de ellos con sesgos— y generan respuestas probabilísticas, no comprensiones reales. Por ello, pueden equivocarse, “alucinar”, reproducir estereotipos o generar contenidos incorrectos. Se presentan ejemplos prácticos sobre cómo controlar la creatividad del chatbot, cuándo utilizar modelos de razonamiento y en qué contextos las herramientas son más útiles (generación de ideas, resúmenes, reorganización de formatos) o menos adecuadas (datos sensibles, procesos de aprendizaje en los que es crucial la participación activa del alumnado). También se subraya que las IA funcionan peor en lenguas minorizadas como el euskera, aunque existen iniciativas locales para fortalecer su presencia.

Fake News: ¿Cuál es el daño? Repensando los efectos reales de la desinformación

Cunliffe-Jones, Peter. Fake News – What’s the Harm? Open Access Monograph. University of Westminster Press, 2024.

Texto completo

PDF

ePub

En Fake News – What’s the Harm?, Peter Cunliffe-Jones, periodista y fundador de Africa Check, sostiene que desde el estallido global de preocupación por la desinformación en 2016, el debate público y académico se ha apoyado en suposiciones erróneas sobre la naturaleza, el alcance y los efectos reales de las llamadas “fake news”. A partir de un análisis exhaustivo de 250 estudios de caso recopilados durante cuatro años, el autor propone una revisión profunda del concepto de “information disorder”, argumentando que la narrativa dominante suele simplificar un fenómeno complejo y multifacético.

El libro plantea cuatro ideas clave para periodistas, verificadores, responsables políticos y plataformas digitales. Primero, Cunliffe-Jones insiste en que el desorden informativo no puede reducirse únicamente a la desinformación: intervienen también la mala información, el contenido mal contextualizado, la manipulación interesada y, en ocasiones, errores no intencionados que circulan tanto en ámbitos digitales como fuera de ellos. Segundo, destaca que la desinformación no es un problema exclusivamente online; por el contrario, en muchos contextos —sobre todo en países del Sur Global— la transmisión oral, las creencias locales y la comunicación en espacios presenciales pueden causar daños equiparables o incluso mayores que los provocados por los contenidos digitales virales.

En tercer lugar, el autor subraya que la desinformación que afecta a los responsables políticos puede ser tan peligrosa como la que circula entre el público. Políticos, legisladores y autoridades pueden tomar decisiones erróneas si reciben información falsa o distorsionada, lo que genera consecuencias sociales y económicas de gran alcance. Esto rompe con la idea convencional de que el principal riesgo recae únicamente en la ciudadanía desinformada. Por último, Cunliffe-Jones propone un modelo práctico para que verificadores, investigadores y plataformas puedan distinguir entre afirmaciones falsas que tienen un potencial real de causar consecuencias perjudiciales y aquellas que, aunque incorrectas, apenas generan efectos tangibles. Este marco busca ayudar a priorizar recursos, mejorar intervenciones y equilibrar la lucha contra la desinformación con la defensa de la libertad de expresión.

La obra ha sido ampliamente elogiada por especialistas internacionales en periodismo y estudios sobre medios. Lucas Graves destaca que ofrece un nuevo marco explicativo capaz de superar los debates repetitivos sobre el “pánico moral” en torno a las fake news. Masato Kajimoto subraya que el libro avanza hacia una visión más matizada y sistemática del problema, mientras que Herman Wasserman resalta su valor para investigadores, activistas y legisladores, especialmente por su perspectiva histórica y su atención al contexto africano.

Cunliffe-Jones, con décadas de experiencia como reportero y con un papel fundamental en el desarrollo del movimiento de verificación de datos —incluida su participación en el Código de Principios de la IFCN—, ofrece aquí una reflexión sólida, crítica y constructiva. Su enfoque combina análisis riguroso, ejemplos reales y recomendaciones concretas, convirtiendo esta obra en un aporte clave para comprender y enfrentar el impacto social de la desinformación contemporánea.

Tilly Norwood: la primera actriz creada por IA que provoca un terremoto en Hollywood

Kent, Jo Ling. 2025. There’s a new face in Hollywood, generated by AI.” CBS News, 7 diciembre 2025. https://www.cbsnews.com/news/theres-a-new-face-in-hollywood-generated-by-ai/

En el artículo se habla de Tilly Norwood, una “actriz” completamente generada por inteligencia artificial (IA), que ha causado gran revuelo en la industria del entretenimiento en Hollywood.

Tilly Norwood es el primer rostro creado por IA que aspira a entrar en el mundo del cine: no existe en la realidad, sino que fue diseñada por computadora por el estudio Particle6. Su creadora, Eline van der Velden — actriz y productora — afirma que invirtieron más de 2 000 iteraciones para generar a Tilly, intentando dotarla de rasgos universales con potencial global. Van der Velden ha declarado que su intención no era reemplazar actores reales, sino explorar nuevas posibilidades creativas: que Tilly sea “la próxima Scarlett Johansson del género IA”

La noticia provocó un fuerte rechazo en parte de la industria: miembros de la élite de Hollywood expresaron su alarma ante la idea de “actores sintéticos”. El presidente del sindicato de actores SAG-AFTRA, Sean Astin, afirmó que “actriz no le llamaría” a algo tan artificial, defendiendo que la IA puede servir de herramienta, pero no sustituir la actuación humana.

Por otro lado, algunos en la industria creen que la tecnología podría transformar la producción audiovisual, reduciendo costes y ofreciendo nuevas formas narrativas; mientras tanto, otros advierten sobre los riesgos éticos y laborales de depender del talento digital.

Clarivate publica la lista 2025 de Investigadores Altamente Citados

Clarivate Announces Highly Cited Researchers 2025 List. STM Publishing News, 12 noviembre 2025. https://clarivate.com/highly-cited-researchers/

Esta lista distingue a aquellos investigadores cuya producción científica ha tenido un “impacto amplio y significativo” a nivel global.

En esta edición, se han reconocido 6.868 investigadores de todo el mundo, quienes acumulan 7.131 reconocimientos, procedentes de más de 1.300 instituciones en 60 países y regiones. El hecho de que haya más “awards” que personas responde a que algunos investigadores han sido reconocidos en más de un campo científico (múltiples disciplinas).

El método de selección se basa principalmente en datos bibliométricos extraídos de la base de datos Web of Science Core Collection, tomando en cuenta la frecuencia de citas de los artículos. No obstante, Clarivate combina estos datos con análisis cuantitativo, métricas complementarias y revisión cualitativa por expertos, con el fin de identificar sólo aquellas contribuciones que genuinamente han influido en su campo a largo plazo.

En cuanto a la distribución geográfica:

  • El país con mayor número de reconocimientos es Estados unidos, con 2.670 premiados, lo que representa aproximadamente el 37 % del total mundial — una cifra que representa un ligero repunte respecto a años anteriores.
  • En segundo lugar aparece China con 1.406 premiados, (20 %), seguida por United Kingdom con 570 premiados, (8 %).
  • Otros países con presencia destacada: Alemania (363), Australia (312) y Canadá (227) awards.
  • Además, la concentración del talento resulta notable: aunque la lista cubre 60 países/regiones, el 86 % de los reconocimientos se concentran en solo 10 de ellos, y el 75 % en los cinco primeros. Esto evidencia una fuerte centralización del impacto científico global.
  • En lo que respecta a España, la presencia de 94 investigadores en ese selecto grupo supone un reconocimiento colectivo del desempeño científico nacional: demuestra que investigadores españoles están contribuyendo a la ciencia global con trabajos de gran impacto e influencia.

Un aspecto clave de esta edición 2025 es el refuerzo del procedimiento de evaluación: para combatir prácticas cuestionables (por ejemplo, producción extremadamente prolífica, auto-citas exageradas, patrones de citación anómalos), Clarivate ha implementado “capas adicionales de escrutinio”. En concreto, este año se excluyeron 432 premios potenciales debido a producción desmedida. Además, la revisión rigurosa permitió reintroducir la categoría de Matemáticas, que había sido temporalmente retirada en años previos.

Por último, la lista de HCR 2025 no sólo es un reconocimiento individual: funcionan como una especie de “termómetro global” del ecosistema científico, permitiendo analizar tendencias por país, instituciones, disciplinas, y también sirve como indicador del “talento investigador” distribuido internacionalmente.

Guía de buenas prácticas para informar del uso de IA por parte de bibliotecarios y editores

COUNTER. Ready for Consultation: AI Metrics. Best Practice Guidance for Reporting AI Usage (Draft, 2025).

Texto completo

COUNTER propone nuevas directrices para medir el uso de herramientas de inteligencia artificial en plataformas editoriales, diferenciándolo claramente del uso humano. El objetivo es estandarizar estos informes y evitar que la actividad de IA distorsione los datos tradicionales de uso.

El borrador de COUNTER sobre las mejores prácticas para informar del uso de IA surge ante la necesidad de adaptar el Code of Practice (Release 5.1) a un entorno donde la inteligencia artificial generativa y agente opera de forma habitual en plataformas de editores y proveedores de información. El documento reconoce que las reglas anteriores fueron diseñadas en un contexto previo al uso extendido de herramientas como agentes autónomos y modelos generativos, por lo que se requiere un marco más preciso para distinguir entre actividad humana, actividad automatizada tradicional (bots y crawlers) y actividad de IA agente, que no puede clasificarse igual que la automatización previamente excluida de los informes.

El objetivo del borrador es establecer mecanismos claros y estandarizados para que las plataformas que ofrecen contenidos (textos, artículos, etc.) puedan reportar métricas sobre el uso de IA —ya sea directamente en su sitio, o a través de herramientas externas (como buscadores basados en IA o agregadores). COUNTER considera que estas directrices no sólo sirven a editores o bibliotecas, sino también que podrían ser útiles para herramientas independientes de IA

La publicación del borrador está abierta a comentarios de la comunidad: proveedores tecnológicos, editoriales, bibliotecas y consorcios están invitados a aportar feedback para mejorar las directrices antes de que se adopten de forma definitiva.

Enseñando alfabetización en IA a estudiantes de primaria

Potkalitsky, Nick. 2025. “The Digital Detective Club: Teaching AI Literacy to Young Students.” Educating AI (blog), noviembre. https://nickpotkalitsky.substack.com/p/the-digital-detective-club-teaching

Vivimos un cambio profundo en la forma en que se crean los textos. Por primera vez en la historia, nuestros hijos crecerán en un mundo en el que gran parte de lo que leen —ayudas para deberes, explicaciones, historias e incluso mensajes “personales”— podría estar generado por inteligencia artificial (IA) en lugar de haber sido escrito por humanos. Esta realidad plantea un desafío educativo crucial: ¿cómo enseñar a los estudiantes a interactuar críticamente con la información que consumen desde edades tempranas?

La mayoría de los programas de “alfabetización en IA” se enfocan en estudiantes mayores. Pero para cuando los alumnos llegan al bachillerato, ya han pasado años consumiendo contenidos generados por IA sin poseer herramientas para evaluarlos críticamente. Por ello se propone un plan de estudios dirigido a estudiantes de primaria (desde K hasta 5.º), que enseñe habilidades prácticas de “detección textual” para el mundo real en el que ya están inmersos.

Uno de los pilares del programa es la conciencia de la fuente. Los estudiantes aprenden a preguntarse no solo “¿es verdadero lo que leo?”, sino “¿de dónde viene?”, “¿quién lo escribió?” y “¿cómo puedo comprobarlo?”. De esta manera, desarrollan un hábito de verificación constante que los prepara para interactuar con contenidos digitales y automatizados de forma responsable.

Otro aspecto fundamental es el reconocimiento de la voz del texto. Los niños aprenden a diferenciar entre escritura humana y textos generados por IA, identificando rasgos como estilo, coherencia, singularidad o detalles personales que a menudo faltan en los textos automatizados. Esta habilidad les permite detectar cuándo un texto es genérico, neutro o artificial, y fomentar su pensamiento crítico.

El programa también enfatiza la valoración de la especificidad y lo concreto. Los alumnos comprenden que los textos valiosos, ya sean relatos, informes o explicaciones, incluyen detalles contextuales y matices propios. Por el contrario, los textos superficiales, impersonales o excesivamente generalizados pueden ser una señal de contenido automatizado o poco fiable. De esta forma, los estudiantes aprenden a apreciar la originalidad y a desarrollar criterios para discernir la calidad de la información.

Potkalitsky aclara que la intención no es asustar a los estudiantes ni alejarles de la IA, sino enseñarles a interactuar con ella de manera consciente, informada y responsable. La meta es que comprendan cuándo la IA puede ser útil y cuándo es necesaria la intervención humana para analizar, interpretar o tomar decisiones. Este enfoque contribuye a cultivar lo que el autor llama “conciencia situacional textual”: la capacidad de reconocer no solo qué leen los estudiantes, sino cómo, desde dónde, con qué intención y con qué propósito.

La alfabetización temprana en IA se vuelve especialmente relevante dado que muchos niños ya acceden a dispositivos, contenidos digitales y textos automatizados desde edades muy tempranas. Integrar estas competencias en la educación básica —en materias de lengua, lectura, ciudadanía digital y pensamiento crítico— permite preparar a los estudiantes para un entorno cada vez más mediado por la tecnología. Además, les proporciona herramientas para detectar desinformación, reconocer plagios, valorar la originalidad y mantener su propia voz creativa, habilidades fundamentales para desenvolverse con autonomía y responsabilidad en el mundo digital.

La propuesta busca transformar la manera en que los niños aprenden a leer, escribir y analizar información en la era de la inteligencia artificial. A través de ejercicios prácticos, análisis de textos y actividades lúdicas, los estudiantes desarrollan competencias críticas, creatividad y autonomía intelectual, preparándolos para enfrentar los desafíos educativos y sociales del siglo XXI.