Archivo de la etiqueta: Alfabetización digital

Opiniones del profesorado sobre la IA

The Chronicle of Higher Education. “Faculty Views on AI.” The Chronicle of Higher Education, consultado el 7 de mayo de 2026. The Chronicle of Higher Education

Texto completo

El informe presenta un panorama claro: la IA ya está transformando la enseñanza superior, pero su adopción está marcada por la tensión entre utilidad práctica y riesgo pedagógico. Los docentes valoran su capacidad para ahorrar tiempo, generar materiales y apoyar tareas rutinarias, pero temen que debilite el esfuerzo intelectual, favorezca el engaño y erosione competencias fundamentales. La conclusión implícita es que el problema no es solo tecnológico, sino estratégico: las universidades deberán decidir si la IA será un simple atajo operativo o una herramienta integrada críticamente dentro de un nuevo modelo educativo.

El informe Faculty Views on AI refleja una posición profundamente ambivalente del profesorado universitario ante la inteligencia artificial generativa. Por un lado, una mayoría reconoce que estas herramientas ya están siendo útiles para mejorar ciertos aspectos de la docencia; por otro, existe una preocupación muy fuerte por su impacto negativo en el aprendizaje, la ética académica y la falta de regulación institucional. El estudio combina datos de una encuesta de The Chronicle of Higher Education a 425 docentes en 2025 y otra de la American Association of Colleges and Universities (AAC&U) a 1.057 profesores de educación superior en 2025, lo que permite observar tendencias consolidadas en el ámbito universitario.

Uno de los datos más significativos es que el profesorado ya está incorporando la IA a su trabajo cotidiano. El 78 % afirma haber utilizado herramientas de IA para crear o editar textos, lo que indica que estas aplicaciones se están convirtiendo en asistentes habituales para redactar materiales, instrucciones o contenidos académicos. Además, el 55 % las ha empleado para crear o revisar cuestionarios, exámenes u otras evaluaciones, mientras que el 40 % dice haberlas usado para elaborar o modificar programas docentes (syllabi). También el 36 % las ha utilizado para crear o editar imágenes, señal de que la IA comienza a desempeñar un papel relevante en la producción de recursos visuales para las clases. Estos porcentajes muestran que, lejos de ser una novedad marginal, la IA ya forma parte de las prácticas docentes en muchas instituciones.

Sin embargo, junto a este uso creciente aparecen temores muy marcados sobre sus consecuencias educativas. El 90 % del profesorado considera que el uso de IA reducirá las capacidades de pensamiento crítico del alumnado, lo que revela una inquietud central: que los estudiantes deleguen procesos intelectuales complejos en la máquina y pierdan autonomía analítica. Asimismo, el 83 % cree que la IA disminuirá la capacidad de atención, reforzando la idea de que el acceso inmediato a respuestas puede fomentar hábitos de concentración superficial. Otro dato especialmente revelador es que el 78 % sostiene que el fraude académico o las trampas en el campus han aumentado desde que la IA se popularizó, lo que sitúa la integridad académica como una de las grandes preocupaciones actuales.

A estos temores se suma un problema institucional importante: la ausencia de normas claras. Más de seis de cada diez profesores afirman que sus universidades carecen de directrices claras sobre cómo debe usarse la IA por parte del profesorado. Esto genera incertidumbre y respuestas desiguales entre departamentos o facultades. En muchos casos, cada docente decide por su cuenta si la permite, la restringe o la integra, lo que produce incoherencia pedagógica y desconcierto entre los estudiantes. El informe subraya que las universidades necesitan definir con mayor claridad qué papel desean otorgar a estas tecnologías y comunicarlo de forma transparente a toda la comunidad académica.

Entre quienes todavía no utilizan IA para mejorar materiales docentes, las razones principales también resultan reveladoras. La objeción más citada son los problemas éticos, seguida de las dudas sobre si realmente ayuda a aprender mejor, las preocupaciones medioambientales y de sostenibilidad, y finalmente los temores relacionados con privacidad y derechos de autor. Esto demuestra que la resistencia no se debe únicamente a desconocimiento tecnológico, sino también a debates legítimos sobre valores, impacto social y calidad educativa.

Las bibliotecas lideran la IA en los campus

Libraries Leading Campus AI: Claiming Our Seat at the Table. Coalition for Networked Information (CNI). Plenary Sessions: CNI Spring 2026 Membership Meeting. Washington, DC: CNI, 2026. Accedido el 4 de mayo de 2026. https://www.cni.org/events/membership-meetings/past-meetings/spring-2026/plenary-sessions-s26

El título resume una reivindicación central: las bibliotecas universitarias no deben limitarse a reaccionar ante la irrupción de la IA, sino participar activamente en la toma de decisiones institucionales. La propuesta sugiere que las bibliotecas poseen experiencia histórica en alfabetización informacional, organización del conocimiento, privacidad, acceso equitativo y evaluación crítica de fuentes, competencias especialmente valiosas en el contexto de la inteligencia artificial generativa.

Esta visión supone un cambio profundo respecto a los enfoques tradicionales. Durante años, las bibliotecas fueron consideradas principalmente proveedoras de recursos documentales y servicios de apoyo. Sin embargo, la expansión de la IA las sitúa en una posición estratégica para liderar debates sobre uso ético de datos, sistemas algorítmicos, transparencia de modelos, propiedad intelectual, competencias digitales y diseño de políticas institucionales. El mensaje implícito es que quien controla la información y sabe mediar críticamente con ella debe estar presente en las mesas donde se decide el futuro digital del campus.

La sesión plenaria de clausura, Aprovechando el renacimiento de los datos para el descubrimiento científico, fue impartida por Manish Parashar, figura destacada en computación científica y estrategia institucional en IA. El concepto de “renacimiento de los datos” alude al crecimiento exponencial de volúmenes de información científica generados por sensores, simulaciones, repositorios abiertos, experimentos automatizados e inteligencia artificial. Esta abundancia de datos está transformando la forma de investigar en prácticamente todas las disciplinas.

La conferencia plantea que el dato ya no es solo un subproducto de la investigación, sino un recurso estructural comparable a los laboratorios o bibliotecas físicas. Para aprovechar este nuevo escenario se requieren infraestructuras avanzadas: almacenamiento escalable, computación de alto rendimiento, interoperabilidad, curación de datos, metadatos consistentes y políticas sólidas de acceso y reutilización. También se necesitan profesionales capaces de conectar ciencia, tecnología y gobernanza. En ese sentido, las bibliotecas académicas vuelven a aparecer como actores clave, especialmente en gestión de datos de investigación y preservación digital.

El programa general del encuentro refuerza además la idea de comunidad profesional orientada a la colaboración. Según CNI, las reuniones de membresía sirven para compartir proyectos, analizar políticas tecnológicas y catalizar nuevas iniciativas entre instituciones diversas. No se trata solo de un congreso académico, sino de un espacio donde se construyen agendas comunes para el futuro de la información en la educación superior.

Desde una perspectiva bibliotecaria, la primavera de 2026 evidencia tres tendencias principales. En primer lugar, la biblioteca pasa de gestora documental a agente estratégico de transformación digital. En segundo lugar, la alfabetización en IA y datos se convierte en una extensión natural de la alfabetización informacional clásica. En tercer lugar, la colaboración entre bibliotecas, servicios informáticos, investigadores y liderazgo universitario resulta imprescindible para afrontar desafíos complejos.

En conclusión, el futuro de las bibliotecas académicas ya no se juega únicamente en las colecciones, sino en la capacidad de influir en la gobernanza de la inteligencia artificial y en la arquitectura del conocimiento basada en datos. Las instituciones que comprendan este cambio no solo prestarán mejores servicios: participarán activamente en la definición de la universidad del siglo XXI.

El impacto de la IA en las habilidades funcionales de alfabetización

Hargadon, Steve. “The Impact of AI Using Functional Literacy Skills.Steve Hargadon Blog, abril de 2026. https://www.stevehargadon.com/2026/04/the-impact-of-ai-using-functional.html

El debate sobre la inteligencia artificial desde la productividad hacia la formación humana. Más que preguntarse cuánto tiempo ahorra la IA, se pregunta qué capacidades dejamos de ejercitar cuando la usamos indiscriminadamente. Su tesis de fondo es clara: la alfabetización funcional sigue siendo indispensable, pero ahora debe protegerse y reinventarse en diálogo con las máquinas. La educación del futuro dependerá menos de prohibir la IA que de enseñar a usarla sin renunciar al pensamiento propio

En este ensayo, Steve Hargadon reflexiona sobre una de las transformaciones educativas más profundas del presente: la manera en que la inteligencia artificial está alterando las habilidades funcionales de alfabetización, es decir, aquellas capacidades prácticas vinculadas con leer, escribir, comprender, sintetizar información y expresarse de forma competente en la vida cotidiana. El autor no aborda la alfabetización como simple dominio técnico de la lectura y la escritura, sino como un conjunto de destrezas cognitivas esenciales para pensar, interpretar el mundo y participar de forma autónoma en la sociedad. Desde esa perspectiva, la irrupción de la IA no es solo un cambio tecnológico, sino un desafío cultural y pedagógico de gran alcance.

Hargadon sostiene que durante siglos las habilidades de lectura y escritura han requerido esfuerzo mental sostenido. Comprender un texto complejo implicaba concentración, paciencia, inferencia y capacidad crítica. Redactar suponía ordenar ideas, estructurar argumentos, buscar precisión léxica y revisar errores. Sin embargo, las herramientas de IA generativa modifican radicalmente este proceso al ofrecer resúmenes automáticos, textos completos redactados en segundos, reformulación instantánea de ideas y respuestas inmediatas a preguntas complejas. Lo que antes exigía trabajo intelectual ahora puede externalizarse hacia la máquina. Esta comodidad plantea un dilema central: ganar eficiencia sin perder capacidad humana.

Uno de los puntos más relevantes del texto es la distinción entre usar la IA como apoyo y depender de la IA como sustituto. El autor considera legítimo que un estudiante emplee herramientas inteligentes para aclarar conceptos, revisar gramática, recibir ejemplos o explorar nuevas perspectivas. En ese sentido, la IA puede democratizar el acceso al conocimiento, reducir barreras educativas y ofrecer acompañamiento constante. Pero el problema aparece cuando la herramienta reemplaza enteramente el proceso de pensar. Si un alumno pide a la IA que escriba un ensayo completo, resuelva la interpretación de una lectura o genere conclusiones sin intervención propia, el resultado puede parecer exitoso externamente, aunque internamente no haya existido aprendizaje real.

El texto advierte que las habilidades funcionales de alfabetización no se conservan automáticamente: se fortalecen mediante el uso. Igual que un músculo se debilita cuando no se ejercita, la capacidad para leer críticamente, argumentar por escrito o mantener atención prolongada puede erosionarse cuando se delega sistemáticamente en sistemas automáticos. La IA, por tanto, no solo ahorra tiempo; también puede reducir la práctica necesaria para desarrollar competencias profundas. Esta preocupación se vuelve especialmente importante en generaciones jóvenes que crecen utilizando asistentes inteligentes desde edades tempranas.

El autor también señala una paradoja contemporánea: muchas instituciones educativas siguen evaluando productos finales —redacciones, trabajos escritos, respuestas correctas— sin poder medir con claridad el proceso cognitivo que condujo a ellos. La IA encaja perfectamente en ese modelo, porque puede producir resultados aceptables sin que el estudiante haya comprendido realmente el contenido. Así, los sistemas de evaluación tradicionales corren el riesgo de premiar apariencias de competencia en lugar de competencias auténticas. La escritura entregada puede ser excelente, mientras que el pensamiento del alumno permanece estancado.

Otro aspecto central del ensayo es la necesidad de redefinir qué significa estar alfabetizado en la era digital. Ya no bastará con leer y escribir en sentido clásico. Será imprescindible saber formular preguntas de calidad, verificar respuestas automáticas, detectar errores plausibles, contrastar fuentes, interpretar sesgos algorítmicos y decidir cuándo conviene usar IA y cuándo pensar sin ella. En otras palabras, la alfabetización del futuro incluirá una dimensión metacognitiva: saber gobernar la relación entre mente humana y asistencia artificial.

Hargadon no adopta una postura tecnófoba. Reconoce que la IA puede ampliar enormemente las oportunidades educativas. Un estudiante curioso puede recibir explicaciones personalizadas, practicar idiomas, explorar temas especializados o profundizar en conocimientos que antes estaban reservados a expertos o instituciones prestigiosas. El problema no es la herramienta en sí, sino el marco cultural de uso. Si se emplea para expandir curiosidad, autonomía y pensamiento crítico, la IA se convierte en aliada. Si se usa para evitar esfuerzo intelectual, termina empobreciendo el desarrollo cognitivo.

En términos sociales, el artículo sugiere que se abrirá una brecha entre dos perfiles de usuarios. Por un lado, quienes usen IA para potenciar sus propias capacidades y aprender más rápido. Por otro, quienes la utilicen para simular competencia sin desarrollar criterio propio. Esa diferencia puede no ser visible de inmediato en notas académicas o certificados, pero sí aparecerá con fuerza en el trabajo, en la toma de decisiones complejas y en la adaptación a entornos inciertos. La verdadera ventaja competitiva no será “tener IA”, sino conservar juicio propio mientras se trabaja con ella

¿Deberían las escuelas prohibir la IA? La pregunta que no podemos ignorar ahora mismo

The AI School Librarian. “Should Schools Pause AI? The Question We Cannot Ignore Right Now.” The AI School Librarians Newsletter, April 17, 2026. https://aischoollibrarian.substack.com/p/should-schools-pause-ai-the-question

El artículo analiza la propuesta de pausar durante cinco años la inteligencia artificial en las escuelas por riesgos relacionados con aprendizaje, privacidad, salud mental y falta de evidencias sólidas sobre sus beneficios. Aunque reconoce esos peligros, sostiene que prohibirla no evitará su uso fuera del aula y dejaría al alumnado sin orientación crítica ni formación adecuada. Concluye que la mejor opción es una integración prudente: regulación clara, protección de datos, capacitación docente y alfabetización digital crítica.

El artículo aborda uno de los debates más relevantes y urgentes en el ámbito educativo contemporáneo: si las escuelas deberían suspender temporalmente el uso de la inteligencia artificial generativa. El texto parte de una propuesta impulsada por una coalición liderada por Fairplay, que reclama una pausa de cinco años en el uso de herramientas de IA orientadas al alumnado en centros de educación infantil, primaria y secundaria. Esta petición representa una de las críticas públicas más contundentes hasta la fecha contra la expansión de la IA en la enseñanza, y refleja un cambio importante en la conversación pública: ya no se discute solo qué puede hacer la IA, sino qué efectos reales está teniendo sobre los estudiantes.

La coalición justifica su propuesta señalando múltiples riesgos todavía insuficientemente comprendidos. Entre ellos destacan las posibles consecuencias sobre el desarrollo cognitivo, ya que una dependencia excesiva de herramientas automáticas podría debilitar habilidades como el pensamiento crítico, la resolución de problemas o la capacidad de redacción autónoma. También se mencionan impactos potenciales sobre el desarrollo social y emocional, dado que el aprendizaje escolar no consiste únicamente en adquirir contenidos, sino en interactuar con docentes y compañeros, debatir, equivocarse y construir conocimiento en comunidad. Además, el artículo recoge inquietudes relativas a la salud mental, la integridad académica y la privacidad de los datos estudiantiles.

Uno de los argumentos más sólidos que reconoce el autor es la falta de evidencia empírica robusta. Aunque la IA se presenta con frecuencia como una revolución educativa, todavía existen escasos estudios longitudinales que demuestren mejoras sostenidas y consistentes en los resultados de aprendizaje gracias a estas herramientas. Gran parte del entusiasmo actual se basa en promesas, hipótesis y potencialidades, más que en pruebas consolidadas. En otras palabras, se está implantando una tecnología a gran escala antes de comprender plenamente sus consecuencias pedagógicas.

El texto también critica la forma desigual y precipitada con la que muchas instituciones educativas están adoptando estas herramientas. Algunos centros han desarrollado marcos claros, objetivos definidos, protocolos de uso y criterios éticos. Sin embargo, otros han introducido la IA sin suficiente formación docente, sin políticas transparentes y sin tiempo para reflexionar sobre su integración. Esta implantación improvisada genera incertidumbre y puede aumentar desigualdades entre estudiantes y escuelas. A ello se suma el problema persistente de la privacidad: muchas plataformas de IA no explican con claridad cómo almacenan, procesan o utilizan los datos de los menores.

No obstante, el autor considera que una pausa total de cinco años presenta serias limitaciones. Señala que prohibir la IA en la escuela no impediría que los estudiantes la utilicen fuera del aula. Por el contrario, los jóvenes ya interactúan con estas herramientas en sus hogares, teléfonos móviles y redes digitales, y seguirán haciéndolo. Si la escuela se retira del debate, la IA no desaparece: simplemente pasa a utilizarse en espacios sin supervisión adulta, sin orientación crítica y sin acompañamiento pedagógico. Desde esta perspectiva, excluir la IA del entorno escolar puede dejar a los estudiantes más vulnerables y menos preparados.

El artículo establece además un paralelismo con lo ocurrido años atrás con las redes sociales. Plataformas como Facebook, Instagram o TikTok se convirtieron en elementos centrales de la vida juvenil mientras muchas escuelas optaban por ignorarlas o restringirlas sin enseñar realmente cómo funcionan. No se explicó de forma sistemática cómo operan los algoritmos, cómo capturan la atención o cómo circula la desinformación. Como resultado, muchos estudiantes aprendieron por ensayo y error, a veces sufriendo daños. El autor sugiere que con la IA podría repetirse ese mismo error histórico si las escuelas responden únicamente con prohibiciones.

En el fondo, el texto plantea una tensión compleja entre dos verdades simultáneas. La primera es que la IA introduce riesgos reales en el aprendizaje, la privacidad y el desarrollo de los estudiantes. La segunda es que esta tecnología se está integrando rápidamente en la sociedad y en el mundo laboral al que los jóvenes accederán en el futuro. Por ello, el verdadero dilema no es simplemente si la IA pertenece o no a la escuela, sino cómo evitar tanto una adopción precipitada como un rechazo absoluto.

Como conclusión, el artículo defiende una posición intermedia basada en prudencia, regulación y alfabetización crítica. En lugar de acelerar sin control o prohibir sin alternativa, propone que las escuelas diseñen políticas claras, formen al profesorado, evalúen evidencias, protejan datos y enseñen a los estudiantes a comprender las limitaciones y riesgos de estas herramientas. La cuestión no sería “usar o no usar IA”, sino cómo integrarla responsablemente en beneficio del aprendizaje humano.

Las estafas en redes sociales provocaron pérdidas de 2.100 millones de dólares en 2025

Whittaker, Zack. «Consumers Lost $2.1 Billion to Social Media Scams in 2025, FTC ReportsTechCrunch, 27 abr. 2026, https://techcrunch.com/2026/04/27/consumers-lost-2-1-billion-to-social-media-scams-in-2025-ftc-reports/


Según el informe más reciente de la Comisión Federal de Comercio (FTC), las redes sociales se han convertido en la vía más costosa para el fraude al consumidor, alcanzando pérdidas récord de 2.100 millones de dólares en 2025. Esta cifra representa un alarmante incremento de ocho veces respecto a los niveles registrados en 2020, lo que demuestra que los delincuentes están aprovechando la accesibilidad y el bajo costo de las plataformas digitales para alcanzar a miles de víctimas potenciales con gran facilidad.

El reporte destaca que Facebook lidera las estadísticas como la plataforma donde se inician más fraudes, seguida por WhatsApp e Instagram. Casi el 30% de todas las personas que reportaron pérdidas financieras por estafas el año pasado señalaron que el contacto inicial ocurrió en una red social. Estas plataformas permiten a los estafadores hackear cuentas para suplantar identidades, utilizar herramientas publicitarias para segmentar víctimas por intereses y crear perfiles falsos que parecen legítimos.

En cuanto a las modalidades de fraude, las estafas de inversión fueron las más lucrativas, sumando 1.100 millones de dólares (más de la mitad del total). Estas suelen involucrar promesas de altos rendimientos mediante criptomonedas o falsos asesores financieros. Por otro lado, las estafas de compras en línea fueron las más frecuentes: miles de usuarios pagaron por productos anunciados en redes sociales que nunca fueron entregados. Asimismo, las estafas románticas siguen siendo una amenaza significativa, con casi el 60% de los casos iniciados a través de interacciones sociales digitales.

Finalmente, la FTC advierte que todos los grupos de edad son vulnerables, aunque existe una ligera excepción en los mayores de 80 años, quienes siguen siendo contactados principalmente a través de llamadas telefónicas. Para mitigar estos riesgos, las autoridades recomiendan encarecidamente ajustar las configuraciones de privacidad, limitar quién puede ver los contactos y desconfiar de cualquier solicitud de dinero o consejos de inversión que provengan de conocidos o extraños exclusivamente a través de mensajes digitales..

Laboratorio de Alfabetización y Acción en IA

University of Virginia Library y College and Graduate School of Arts & Sciences. “AI Literacy and Action Lab Announcement.” 17 de abril de 2026 https://library.virginia.edu/ai/lab

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

El 17 de abril de 2026, la Biblioteca de la Universidad de Virginia, en colaboración con el College and Graduate School of Arts & Sciences, anunció la creación del AI Literacy and Action Lab, una iniciativa destinada a abordar de forma directa y estructurada los desafíos que plantea la inteligencia artificial en la educación superior. Este laboratorio surge como respuesta a la necesidad urgente de comprender no solo el funcionamiento de las herramientas de IA, sino también sus implicaciones éticas, pedagógicas y sociales. Con el lanzamiento de cuatro proyectos piloto durante la primavera y el verano de 2026, y la incorporación de cursos en otoño, el programa se posiciona como un espacio dinámico de experimentación, reflexión y producción de conocimiento aplicado.

Los proyectos piloto abarcan ámbitos diversos como el futuro del trabajo, el pensamiento crítico y ético, y la integración de la IA en la planificación docente tanto en humanidades como en disciplinas STEM. Un rasgo distintivo del laboratorio es la participación de bibliotecarios como facilitadores, quienes no solo aportan su experiencia en alfabetización informacional, sino que también actúan como mentores a lo largo de todo el proceso. Esta figura refuerza el papel de la biblioteca como agente activo en la formación académica, más allá de su función tradicional. En este contexto, profesionales como Meridith Wolnick destacan la importancia de guiar a los estudiantes hacia un uso reflexivo y crítico de la IA, fomentando debates basados en casos que permitan explorar sus implicaciones más profundas.

El laboratorio también persigue objetivos institucionales más amplios, como reducir las desigualdades entre facultades y departamentos en el acceso y uso de la IA, promover un juicio informado en su utilización y generar resultados estructurados basados en evidencia que respalden tanto la investigación como la innovación educativa. Mira Waller subraya que la clave no está en dictar normas rígidas sobre el uso de la IA, sino en capacitar a la comunidad universitaria para desarrollar criterios propios en un entorno tecnológico que evoluciona más rápido que las propias instituciones académicas. Este enfoque conecta directamente con la misión histórica de las bibliotecas: enseñar a evaluar la información y fomentar el pensamiento crítico.

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

La IA contra sí misma: Google intensifica la lucha contra los anuncios fraudulentos

Huamani, K. “AI Is a Gold Mine for Spammers and Scammers, but Google Is Using It as a Tool to Fight Back.” AP News, 16 de abril de 2026.

Leer artículo

Este articulo analiza la creciente paradoja de la inteligencia artificial en el ecosistema digital: la misma tecnología que facilita la proliferación de fraudes y estafas en internet se ha convertido también en la principal herramienta para combatirlos. En particular, se centra en el informe anual de seguridad publicitaria de Google, que revela cómo el uso de sistemas avanzados de IA —como Gemini— está permitiendo detectar y bloquear anuncios maliciosos antes de que lleguen al público.

El texto de Kaitlyn Huamani analiza cómo la expansión de la inteligencia artificial generativa ha intensificado un problema antiguo: el de los fraudes y el spam en internet. Aunque estos engaños existen desde los inicios de la red, la accesibilidad de herramientas de IA ha permitido a los estafadores producir contenidos mucho más sofisticados —como anuncios de productos milagro o vídeos con voces falsas de celebridades— a una velocidad y escala sin precedentes. Expertos como Nate Elliott destacan que la gran diferencia actual no es la naturaleza del problema, sino su aceleración exponencial, que beneficia tanto a actores legítimos como a los maliciosos. Esta tendencia tiene un impacto real: según el Federal Bureau of Investigation, en el último año se registraron más de 22.000 denuncias por estafas relacionadas con IA, con pérdidas que superan los 893 millones de dólares.

Frente a este escenario, grandes empresas tecnológicas como Google están reforzando sus sistemas de defensa mediante el uso de su propia inteligencia artificial. En su informe anual de seguridad publicitaria, la compañía reconoce el aumento de anuncios fraudulentos cada vez más complejos, pero subraya la eficacia de sus herramientas basadas en IA. Su sistema, impulsado por Gemini, logró detectar más del 99% de los anuncios que infringían las políticas antes de que llegaran a los usuarios. En 2025, Google bloqueó o eliminó más de 8.300 millones de anuncios y suspendió cerca de 24,9 millones de cuentas de anunciantes, de las cuales más de 4 millones estaban vinculadas a actividades fraudulentas. Estas cifras reflejan tanto la magnitud del problema como el esfuerzo creciente por contenerlo.

El artículo también explica cómo funcionan estas herramientas defensivas. Gracias a Gemini, Google puede analizar cientos de miles de millones de señales —como la antigüedad de las cuentas, patrones de comportamiento o características de las campañas— para evaluar la intención real de los anunciantes. Esto permite distinguir con mayor precisión entre negocios legítimos y actores maliciosos, reduciendo además los errores: las suspensiones indebidas de anunciantes se han reducido en un 80%. Otro avance clave es la velocidad, ya que procesos que antes llevaban segundos o minutos ahora se realizan en milisegundos, lo que permite bloquear amenazas antes incluso de que se publiquen.

Aun así, el problema sigue siendo complejo y dinámico. Los anuncios fraudulentos adoptan múltiples formas y evolucionan constantemente, replicando estrategias tradicionales pero con mayor volumen y rapidez gracias a la IA. Google insiste en que no clasifica los anuncios en función de si han sido generados por inteligencia artificial, sino según si incumplen sus políticas, ya que muchas empresas legítimas también utilizan estas herramientas de forma correcta. En este contexto, los expertos coinciden en que la confrontación entre estafadores y sistemas de defensa continuará intensificándose.

En última instancia, el texto plantea un escenario en el que la lucha contra el fraude digital se convierte en una especie de “IA contra IA”. Como señala Matt Seitz, el volumen del problema es ya tan grande que no puede gestionarse únicamente con intervención humana. Esto anticipa un futuro en el que la automatización será clave tanto para la creación de amenazas como para su detección, consolidando una carrera tecnológica permanente entre ataque y defensa en el entorno digital.

ZODIAC: un nuevo marco para evaluar la información en la era de la inteligencia artificial generativa

Reagan, Kevin, Kay Coates, y Jessica Swaringen. “Your Information ZODIAC: An Information Evaluation Framework for the Age of Generative AI.” Journal of New Librarianship 10, no. 2 (2025): 94–109. https://newlibs.org/index.php/jonl/article/view/3107/3189

Se propone un nuevo marco conceptual para la evaluación crítica de la información en un contexto profundamente transformado por la inteligencia artificial generativa. Partiendo de modelos ya consolidados en alfabetización informacional —como CRAAP, SIFT o ACT UP—, los autores desarrollan el modelo ZODIAC, un acrónimo que sintetiza seis dimensiones clave: Zooming in, Other opinions, Dataset, Intent, Authenticity y Consistency.

Este enfoque responde a la necesidad urgente de adaptar las herramientas de evaluación tradicionales a un entorno en el que los contenidos no solo son abundantes, sino también generados automáticamente por sistemas complejos como los modelos de lenguaje.

El primer componente, Zooming in, invita a examinar detenidamente los detalles de la información generada, prestando atención a elementos que pueden pasar desapercibidos en una lectura superficial. Other opinions enfatiza la importancia de contrastar la información con otras fuentes, reforzando la idea de que ningún contenido —especialmente el generado por IA— debe considerarse aislado. Uno de los aportes más innovadores del modelo es la inclusión de Dataset, que introduce a los estudiantes en la necesidad de reflexionar sobre los datos de entrenamiento de los sistemas de inteligencia artificial, un aspecto ausente en marcos anteriores pero crucial para comprender los sesgos y limitaciones de estas herramientas.

Asimismo, el criterio de Intent se centra en analizar la finalidad del contenido generado: no solo qué dice, sino por qué y para qué ha sido producido. Este punto es especialmente relevante en sistemas de IA, donde la intencionalidad puede no ser evidente y está mediada por los objetivos del diseño del sistema. Por su parte, Authenticity y Consistency abordan dos problemas característicos de la inteligencia artificial generativa: la dificultad para verificar la autenticidad de los contenidos y la tendencia de estos sistemas a generar respuestas plausibles pero no siempre coherentes o veraces. En conjunto, estos criterios permiten a los estudiantes desarrollar una mirada crítica más afinada frente a textos, imágenes o datos producidos por IA.

Se subraya que el modelo ZODIAC está diseñado como una herramienta introductoria, especialmente orientada a estudiantes de primer año universitario. Su objetivo no es ofrecer un sistema exhaustivo, sino proporcionar una base accesible que permita comenzar a desarrollar competencias críticas en un entorno informativo cada vez más complejo. En este sentido, los autores reconocen explícitamente las limitaciones del modelo, señalando que no aborda de manera completa aspectos sociales y medioambientales relacionados con la inteligencia artificial, como el impacto energético de los sistemas o las implicaciones éticas de su uso.

En la discusión final, los autores amplían el marco conceptual e invitan a la comunidad profesional —bibliotecarios, docentes e investigadores— a avanzar hacia modelos más holísticos de alfabetización informacional y alfabetización en IA. Este llamamiento es especialmente relevante en el contexto actual, donde la capacidad de evaluar información ya no puede separarse del conocimiento sobre cómo funcionan las tecnologías que la generan. En definitiva, el artículo sitúa el modelo ZODIAC como una propuesta pedagógica innovadora que, aunque inicial, abre nuevas vías para repensar la enseñanza del pensamiento crítico en la era de la inteligencia artificial.

Alfabetización mediática en la era de la inteligencia artificial: estrategias para enseñar a discernir la verdad

Gibbons, Catherine. “5 Ways to Build Critical Literacy in the Age of AI.” Edutopia, 25 de noviembre de 2025. https://www.edutopia.org/article/teaching-media-literacy-age-ai

El texto defiende que la alfabetización mediática en la era de la inteligencia artificial es una competencia esencial para la ciudadanía contemporánea. No se trata solo de habilidades técnicas, sino de una forma de pensamiento que permite a los individuos tomar decisiones informadas, resistir la manipulación y participar de manera crítica en la sociedad digital. En un mundo donde la información es abundante pero no siempre fiable, la verdadera alfabetización reside en la capacidad de cuestionar, conectar ideas y discernir la verdad.

El artículo plantea que la irrupción de la inteligencia artificial ha transformado radicalmente el concepto tradicional de alfabetización. Ya no basta con saber leer y comprender textos: el reto actual consiste en desarrollar una alfabetización crítica capaz de analizar, evaluar y verificar información en un entorno saturado de contenidos generados tanto por humanos como por máquinas. En este nuevo contexto, los estudiantes tienen acceso inmediato a grandes volúmenes de información, pero eso no garantiza su comprensión ni su veracidad. Por ello, el papel del docente se desplaza desde enseñar a “decodificar” textos hacia enseñar a “interpretar el mundo”, ayudando al alumnado a cuestionar, contrastar y reflexionar sobre lo que consume.

Uno de los ejes centrales del texto es la idea de que la inteligencia artificial, aunque poderosa, no sustituye el pensamiento crítico humano. Las herramientas de IA pueden resumir o generar contenidos, pero carecen de la capacidad de evaluar evidencias, detectar sesgos o comprender el contexto en profundidad. Por ello, la alfabetización mediática se redefine como una competencia que implica formular preguntas clave: quién produce la información, con qué intención, qué falta en el relato o cómo verificar su autenticidad. Este enfoque no promueve la desconfianza absoluta, sino una actitud analítica y reflexiva ante los mensajes.

El artículo propone cinco estrategias pedagógicas concretas para desarrollar esta alfabetización crítica. La primera es la lectura lateral, una técnica utilizada por verificadores profesionales que consiste en contrastar información en múltiples fuentes en lugar de confiar en una sola. Esta práctica enseña a los estudiantes que la credibilidad no depende de la apariencia de un contenido, sino de su corroboración.

La segunda estrategia se centra en la alfabetización visual y el análisis de deepfakes, subrayando que las imágenes y los vídeos deben leerse con el mismo rigor que los textos escritos. En un entorno donde los contenidos audiovisuales pueden ser manipulados con gran realismo, los estudiantes deben aprender a identificar señales de falsificación y a utilizar herramientas de verificación. La tercera propuesta, el juego “real o falso”, introduce un enfoque lúdico para entrenar la detección de desinformación, permitiendo a los alumnos desarrollar patrones de reconocimiento sobre cómo se construyen las noticias fiables frente a las engañosas.

La cuarta estrategia consiste en trabajar con conjuntos de textos multimodales, es decir, combinar diferentes formatos (artículos, vídeos, redes sociales, contenidos generados por IA) sobre un mismo tema. Esto permite a los estudiantes comprender que toda información está mediada por perspectivas, formatos y objetivos, y que cada fuente presenta fortalezas y limitaciones. Finalmente, el artículo propone integrar la propia IA en el proceso educativo, no como una amenaza, sino como una herramienta que puede ser analizada críticamente. Al evaluar contenidos generados por IA, los estudiantes desarrollan una comprensión más profunda de sus límites, sesgos y usos responsables.

El peligro invisible de las respuestas de la IA: suena convincente, pero puede ser una respuesta errónea o malintencionada

Woman thinking deeply while using laptop surrounded by bubble showing truth and misinformation
A woman contemplates the choice between truth and misinformation while using a laptop in a dimly lit room.

AI School Librarian. “Confident Answers Are Not the Same as Correct Answers.Substack, 2026. https://aischoollibrarian.substack.com/p/confident-answers-are-not-the-same

Se plantea una advertencia fundamental en la era de la inteligencia artificial generativa: la apariencia de seguridad en una respuesta no equivale a su veracidad. Los sistemas de IA están diseñados para producir textos coherentes, fluidos y convincentes, lo que genera una ilusión de autoridad que puede inducir a error.

Esta característica no es accidental, sino inherente a su funcionamiento: los modelos predicen qué respuesta “suena” correcta basándose en patrones estadísticos, no en una comprensión real de la verdad. Así, la confianza expresiva de la IA puede enmascarar errores, lagunas o incluso invenciones, lo que obliga a replantear cómo interpretamos y evaluamos sus respuestas.

El texto subraya que este fenómeno tiene profundas implicaciones educativas e informativas. Tradicionalmente, los humanos han asociado la confianza con la competencia, confiando más en quienes se expresan con seguridad. La IA explota involuntariamente este sesgo cognitivo: presenta información con una estructura clara y un tono firme, lo que reduce la tendencia del usuario a cuestionar su contenido. Sin embargo, como advierten diversos análisis, esta “brecha de confianza” puede llevar a aceptar respuestas incorrectas simplemente porque están bien formuladas. En contextos académicos o profesionales, esto puede erosionar el pensamiento crítico y fomentar una dependencia excesiva de sistemas automatizados.

Otro aspecto relevante es que la calidad de las respuestas depende en gran medida de cómo se formula la pregunta. Los usuarios con mayor conocimiento previo o habilidades de “prompting” obtienen resultados más precisos y útiles, mientras que quienes carecen de estas competencias pueden recibir respuestas superficiales o incompletas. Esto introduce un nuevo tipo de desigualdad informativa: no todos los usuarios acceden al mismo nivel de calidad en la información generada por IA, lo que cuestiona la idea de que estas herramientas democratizan el conocimiento.

El artículo también insiste en que la IA no distingue adecuadamente entre niveles de certeza. Puede presentar hechos bien establecidos y afirmaciones especulativas con el mismo grado de seguridad, dificultando que el usuario discrimine entre información fiable y dudosa. Este “aplanamiento de la certeza” es especialmente problemático en ámbitos como la salud, la educación o la toma de decisiones, donde la precisión y el contexto son esenciales.

Por ello se propone una actitud crítica y reflexiva como respuesta a este desafío. La IA debe entenderse como una herramienta de apoyo, no como una autoridad definitiva. Verificar la información, contrastarla con fuentes fiables y mantener el juicio propio se convierten en habilidades clave en este nuevo entorno. En última instancia, el artículo no rechaza el uso de la inteligencia artificial, pero advierte que su integración en la vida cotidiana exige una alfabetización informacional más sofisticada, capaz de distinguir entre lo que suena convincente y lo que realmente es cierto.