El mundo digital en la industria editorial.

Carlos A. Scolari et al., El mundo digital en la industria editorial. Xalapa: Universidad Veracruzana, 2025

Texto completo

El volumen El mundo digital en la industria editorial reúne una serie de reflexiones sobre el impacto de la inteligencia artificial (IA) en la cadena del libro, desde la creación hasta la distribución y el consumo. La obra parte de la idea de que la IA ya forma parte del ecosistema editorial y que su incorporación debe realizarse en un marco ético y regulado.

Carlos A. Scolari, en entrevista con Aída Pozos, plantea que la irrupción de la IA puede entenderse como una nueva revolución comparable a la de Gutenberg. Destaca que vivimos en un ecosistema infoxicado, pero también hiperpersonalizado, y que el reto es usar estas herramientas de manera crítica, ética y transparente.

Rafael Morales Gamboa analiza la relación entre IA generativa y lectura, subrayando que los modelos de lenguaje operan sobre patrones estadísticos que transforman la forma en que entendemos la lectura y la escritura. Asimismo, muestra cómo estas herramientas pueden acompañar los procesos de lectura, aunque no están exentas de sesgos.

Guillermo de Jesús Hoyos Rivera estudia los grandes modelos de lenguaje y advierte sobre su complejidad para replicar el lenguaje humano, al tiempo que destaca sus limitaciones y potencial en el ámbito editorial.

Otros autores amplían la discusión hacia el ámbito educativo (Alberto Ramírez Martinell), la transformación del libro en nuevos soportes (Carlos Rojas Urrutia), la economía digital y el diseño editorial (Rodrigo Martínez Martínez), así como el papel de las librerías independientes (Luis Castro Hernández). Finalmente, María Fernanda Mendoza Ochoa reflexiona sobre los riesgos éticos y legales, en particular la tensión entre IA y derechos de autor

¿Por qué es importante la alfabetización en IA?

EIT Deep Tech Talent Initiative. 2025. “Why AI Literacy Matters in 2025.” EIT Deep Tech Talent. Accessed September 3, 2025. https://www.eitdeeptechtalent.eu/news-and-events/news-archive/why-ai-literacy-matters-in-2025/

La alfabetización en inteligencia artificial se ha convertido en un pilar fundamental para desenvolverse en la sociedad contemporánea, del mismo modo en que en el pasado lo fueron la alfabetización básica y las competencias digitales.

En 2025, la alfabetización en IA se está volviendo tan importante como la lectura, la escritura e incluso las habilidades digitales básicas. Sin embargo, no se trata solo de formular mejores preguntas en ChatGPT o usar asistentes inteligentes para ahorrar tiempo; se trata de comprender cómo funcionan estos sistemas, qué los impulsa y cómo impactan a la sociedad en todos los niveles.

La alfabetización en IA requiere más que solo usar tecnología; requiere pensamiento crítico. Y hay mucho en juego, porque a medida que la IA se integra cada vez más en todos los aspectos de nuestras vidas, desde la educación y la atención médica hasta la contratación y los servicios gubernamentales, la falta de comprensión pública conlleva graves riesgos. El Foro Económico Mundial ahora clasifica la alfabetización en IA como una habilidad cívica, esencial para la participación en los procesos democráticos. Sin ella, las personas pueden ser vulnerables a la desinformación, sistemas sesgados o decisiones tomadas por algoritmos opacos.

Ya sea por confiar demasiado en los resultados de la IA o por confiar ciegamente en sistemas que no han sido probados éticamente, las consecuencias son personales y sociales.

Pero cerrar esta brecha de conocimiento va más allá de la mejora de las competencias digitales; se trata de brindar a las personas las herramientas necesarias para pensar críticamente, proteger sus derechos y participar en la configuración del uso de la IA.

La Ley de IA de la UE y su papel en la promoción del conocimiento sobre la IA

La Ley de IA de la UE (AIA), adoptada formalmente en 2024, es la primera legislación importante del mundo destinada a regular la inteligencia artificial. Establece normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en la Unión Europea, con el fin de garantizar que la IA se utilice de forma segura y transparente.

La AIA prohíbe ocho prácticas:

  • Manipulación y engaño perjudiciales basados ​​en IA
  • Explotación perjudicial de vulnerabilidades basada en IA
  • Clasificación o ranking social
  • Evaluación o predicción del riesgo individual de delito
  • Extracción no dirigida de material de internet o CCTV para crear o ampliar bases de datos de reconocimiento facial
  • Reconocimiento de emociones en lugares de trabajo e instituciones educativas
  • Categoría biométrica para deducir ciertas características protegidasIdentificación biométrica remota en tiempo real para fines policiales en espacios públicos accesibles

Clasifica los sistemas de IA por riesgo: inaceptable, alto, limitado y mínimo, y establece normas estrictas sobre cómo debe desarrollarse e implementarse cada tipo. Esto ya está teniendo un efecto dominó mucho más allá del sector tecnológico.

Pero su impacto va más allá de la regulación. Al aumentar la comprensión pública sobre cómo funciona la IA y dónde se utiliza, ayuda a los usuarios a convertirse en consumidores más informados y críticos de las tecnologías de IA. Los requisitos prácticos de la Ley están priorizando la alfabetización en IA. Esto significa que las empresas que implementan sistemas de IA de alto riesgo, como los utilizados en la contratación o la educación, deben asegurarse de que su personal esté adecuadamente capacitado para comprender cómo funcionan los sistemas de IA, reconocer sus limitaciones y ser consciente de posibles sesgos.

En otras palabras, la alfabetización en IA ya no es solo una habilidad técnica, sino una cuestión de cumplimiento normativo.

¿Qué es el Artículo 4 de la AIA?

El Artículo 4 exige a las organizaciones, tanto a las que desarrollan sistemas de IA como a las que los utilizan, que se aseguren de que todos los involucrados comprendan cómo funciona la IA, incluidos sus riesgos e impactos.

Por alfabetización en IA, la ley se refiere a que las personas tengan los conocimientos y la concienciación suficientes para implementar la IA de forma inteligente. Esto incluye comprender dónde la IA puede ser beneficiosa o perjudicial, y conocer qué derechos y responsabilidades legales están en juego, y abarca a todos los empleados, contratistas, proveedores de servicios y otros terceros que trabajen con IA en nombre de una organización.

Bruselas no ha definido una lista de verificación de capacitación estricta, pero las organizaciones deben cubrir áreas clave para cumplir:

  • Un conocimiento básico de la IA: qué es y cómo funciona, incluyendo sus beneficios y riesgos.
  • Claridad sobre el rol de la organización: ¿es usted el creador de la IA o simplemente utiliza la herramienta de otra persona?
  • Conocimiento de los riesgos asociados a los sistemas de IA en cuestión, especialmente si son de alto riesgo.
  • Programas personalizados que reflejen la experiencia de los usuarios, sus niveles de conocimiento técnico y el contexto real de su trabajo.

Aunque las pruebas formales no son obligatorias, se espera que las organizaciones consideren el nivel de comprensión de la IA de su personal y desarrollen la capacitación o la orientación adecuadas. Para los sistemas de mayor riesgo, podrían requerirse medidas adicionales en virtud del Artículo 26, que establece la obligación de que el personal que trabaja con los sistemas de IA en la práctica esté suficientemente capacitado para manejar el sistema y garantizar la supervisión humana.

La norma del Artículo 4 entró en vigor el 2 de febrero de 2025, pero su aplicación no comenzará hasta el 3 de agosto de 2026, lo que da tiempo a las organizaciones para establecer registros internos, como registros de capacitación, materiales de orientación u otras pruebas, aunque no necesariamente certificados formales.

El cumplimiento del Artículo 4 consiste en adecuar los esfuerzos de alfabetización en IA de una organización a la composición de su personal, la IA que utiliza y cómo podría afectar a otros. Basta con un enfoque flexible y basado en el riesgo, pero debe ser real.

Empoderar a los alumnos para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education (Review Draft). OECD, Paris, mayo de 2025. PDF. Disponible en: AILitFramework Review Draft.

Texto completo

Este borrador de mayo de 2025 presenta el AILit Framework, un marco de alfabetización en IA dirigido a los niveles de educación primaria y secundaria. Es fruto de una iniciativa conjunta de la Comisión Europea y la OCDE, con el patrocinio de Code.org y la participación de expertos internacionales.

El marco contribuye al desarrollo del dominio de Evaluación de la Alfabetización en Medios e IA (Media & AI Literacy) en PISA 2029. Además, está en sintonía con los esfuerzos de la UE en la transformación digital educativa: el Plan de Acción para la Educación Digital 2021-2027, recomendaciones del Consejo Europeo de 2023, directrices éticas sobre IA y datos (2022), el Marco de Competencia Digital DigComp 2.2 y el Reglamento Europeo de IA (AI Act), que promueve un enfoque centrado en las personas y basado en el riesgo, exigiendo niveles adecuados de alfabetización en IA a quienes desarrollen o desplieguen sistemas de IA

.

  1. Principios fundamentales y estructura del marco
    El AILit Framework se apoya en principios clave que orientan su diseño:
    • Duradero: define competencias que seguirán siendo relevantes a medida que evoluciona la IA.
    • Interdisciplinario: busca integrarse en diversas asignaturas y contextos educativos.
    • Ilustrativo: incluye escenarios y ejemplos didácticos para hacer tangibles las competencias.
    • Práctico: ofrece un enfoque viable dentro del entorno escolar.
    • Global: incorpora perspectivas de educadores y expertos de diferentes regiones del mundo.
    1. Competencias clave del alumnado
      El marco distingue cuatro dominios principales de competencias que los estudiantes deben desarrollar:
    • Interactuar con la IA (engage with AI) – comprender y abordar sistemas de IA de forma crítica y consciente.
    • Crear con IA (create with AI) – usar herramientas de IA para producir contenido o soluciones.
    • Gestionar la IA (manage AI) – supervisar y controlar el uso de la IA de forma informada.
    • Diseñar la IA (design AI) – comprender cómo se construyen los sistemas de IA y participar en su diseño ético.
    • Estas áreas suman 22 competencias específicas, pensadas para proporcionar una base sólida para la interacción educativa con la IA.
    1. Participación y horizonte de implementación
      Este borrador invita a educadores, líderes educativos y responsables de políticas públicas a dar retroalimentación. La versión final del marco está prevista para 2026, acompañada de materiales didácticos y ejemplos prácticos listos para usar en el aula

    Mientras tanto, se está fomentando la colaboración para enriquecer este proceso de elaboración mediante consultas y revisión continua.

    Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

    AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

    Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

    El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

    La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

    Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

    Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

    ¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

    Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

    Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

    Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

    Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

    Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

    1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
    2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
    3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

    Diez años al aire: Sistematización de la experiencia comunicativa de la Radio Revista Biblio 93-94, de la UNED, Costa Rica.

    Villalobos-Laurent, Anne Alice, y Pamela Jiménez-Flores. “Diez años al aire: Sistematización de la experiencia comunicativa de la Radio Revista Biblio 93-94, de la UNED, Costa Rica.Espiga: Vida universitaria 24, no. 50 (julio-diciembre 2025): 111-154. https://revistas.uned.ac.cr/index.php/espiga/article/view/6059/8656

    El artículo “Diez años al aire” presenta la sistematización de la experiencia de la Radio Revista Biblio 93-94, un proyecto radiofónico creado en 2013 por la Universidad Estatal a Distancia (UNED) de Costa Rica.

    La Radio Revista Biblio 93-94 nació con un propósito claro: darle voz a la bibliotecología, abrir un espacio de participación a los estudiantes y mostrar cómo las bibliotecas pueden transformar la sociedad. En diez años, este programa se convirtió en un punto de encuentro único entre estudiantes y profesionales de la información, con 94 emisiones que sumaron más de 180.000 escuchas dentro y fuera de Costa Rica.

    El proyecto surgió como una respuesta creativa a los retos de la educación a distancia. Los estudiantes de bibliotecología necesitaban un apoyo extra para fortalecer sus competencias, y la radio resultó ser el medio perfecto: accesible, económico y capaz de conectar con la audiencia a través de un lenguaje especializado pero cercano. El formato de “radio revista” ofreció dinamismo al combinar entrevistas, noticias y secciones diversas, lo que le dio frescura y abrió la puerta a la interacción.

    Uno de los rasgos más valiosos fue la participación estudiantil. Jóvenes sin experiencia previa en comunicación asumieron con entusiasmo el reto de producir, locutar y seleccionar contenidos, desarrollando así habilidades comunicativas y tecnológicas que complementaron su formación. Gracias a este trabajo colaborativo, se trataron temas de gran relevancia: desde el perfil del profesional en bibliotecología, la promoción de la lectura y la accesibilidad, hasta el papel de las bibliotecas en la Agenda 2030 y experiencias internacionales.

    Con el tiempo, la Radio Revista Biblio 93-94 rompió estereotipos sobre la profesión, fortaleció la alfabetización informacional y tendió puentes entre bibliotecología y comunicación. Más que un programa académico, se consolidó como un modelo inspirador de extensión universitaria y un laboratorio de aprendizaje colectivo, dejando lecciones que hoy sirven de guía para nuevas iniciativas en educación a distancia y comunicación educativa.

    Por qué los modelos de lenguaje locales están ganando terreno frente a la IA en la nube

    Bring your own brain? Why local LLMs are taking off.The Register, August 31, 2025. https://www.theregister.com/2025/08/31/local_llm_opinion_column/

    El crecimiento del uso de modelos de lenguaje grande ejecutados localmente (local LLMs) responde en parte a una creciente desconfianza hacia las grandes empresas de tecnología y sus políticas de manejo de datos. Una encuesta del Pew Research Center indica que el 81 % de los estadounidenses teme el mal uso de sus datos por parte de compañías de IA. Este temor ha llevado incluso a que la FTC advirtiera a empresas de IA sobre el cumplimiento de sus promesas de protección de la privacidad.

    Este contexto de desconfianza se agrava al revelar prácticas como la retención prolongada de datos. OpenAI afirma “olvidar” los chats si se lo solicita el usuario, pero en realidad está obligado por orden judicial a conservar dichos registros. Igualmente, la empresa Anthropic extendió recientemente sus reglas de retención de datos de 30 días a cinco años, y comenzó a entrenar sus modelos con datos de usuario. Aunque ofrece opciones para desactivar esa función, se trata de configuraciones opt-out, no opt-in.

    El artículo también toca la dimensión de soberanía tecnológica. En Europa, algunos desarrolladores están adoptando LLMs locales para garantizar el cumplimiento del RGPD. Por ejemplo, la empresa alemana Makandra integró internamente un modelo de IA local para asegurar el manejo conforme a las normativas europeas.

    Desde una perspectiva ideológica, promover los LLM locales representa una visión de democratización tecnológica. Emre Can Kartal, ingeniero de crecimiento en Jan (un proyecto de Menlo Research), destaca que el objetivo es «garantizar que la IA siga estando en manos de las personas, no concentrada en unos pocos gigantes tecnológicos».

    Otro factor clave es el costo práctico. Muchas compañías de IA ofrecen computación a pérdida y tienden a restringir el acceso en momentos de alta demanda. Esto es frustrante para usuarios avanzados que pagan suscripciones costosas pero se encuentran limitados durante sesiones intensivas, por ejemplo, en programación asistida por IA.

    Este cambio hacia LLMs locales refleja una tendencia creciente: mayor control sobre la privacidad, independencia frente a empresas externas, ahorro financiero, y una cultura que promueve la accesibilidad tecnológica para todos.

    La brecha de género en el uso de la inteligencia artificial generativa

    Otis, Nicholas G., Katelyn Cranney, Solene Delecourt, and Rembrand Koning. 2024. “Global Evidence on Gender Gaps and Generative AI.” OSF Preprints. October 14. doi:10.31219/osf.io/h6a7c.

    Entre noviembre de 2022 y mayo de 2024, se observa que aproximadamente 42 % de los usuarios mensuales de ChatGPT y Perplexity eran mujeres, mientras que esa cifra baja al 31 % para Claude de Anthropic.

    La disparidad aumenta al examinar las descargas móviles: entre mayo de 2023 y noviembre de 2024, solo 27,2 % de las descargas de la aplicación ChatGPT provinieron de mujeres; Claude y Perplexity muestran porcentajes igualmente bajos.

    En cuanto al acceso a herramientas y aplicaciones basadas en IA, entre agosto de 2022 y julio de 2025, únicamente 34,3 % de las visitas a 3.821 herramientas específicas fueron realizadas por mujeres.

    Además, una metaanálisis de 18 estudios, que incluyó alrededor de 143.000 personas, concluye que las mujeres tienen una probabilidad aproximadamente 20 % menor de usar IA generativa en comparación con los hombres.

    Según algunos estudios destacados, las brechas de género fueron especialmente pronunciadas: un estudio sobre posdoctorandos mostró una diferencia de 21 puntos porcentuales; otro, sobre propietarios de negocios en EE.UU., Australia, Reino Unido y Canadá, registró una brecha de 11 puntos; mientras que en estudiantes universitarios en EE.UU. y Suecia las cifras fueron de 25 y 31 puntos, respectivamente.

    Por último, algunos resultados apuntan a una «penalización femenina»: ciertas participantes expresaron preocupación de que utilizar IA pudiera perjudicar su trayectoria profesional o hacer que colegas cuestionen su competencia.

    Para mitigar esta desigualdad, los autores sugieren, entre otras medidas, hacer el uso de IA generativa obligatorio para empleados, lo que ayudaría a fomentar una adopción más paritaria y evitar que los sesgos perpetuados por un uso mayoritario masculino se traduzcan en sistemas de IA discriminatorios.

    Defender la educación frente a la IA instrumentalizada

    Paris, Britt S., Lindsay Weinberg y Emma May. “Fighting Weaponized AI in Higher Education.Academe Blog, 22 de julio de 2025.https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/

    la inteligencia artificial, lejos de ser neutral, puede ser utilizada como herramienta de control por parte de entidades poderosas. Bajo ciertas políticas gubernamentales —como el plan de acción del gobierno de EE. UU. para promover la IA—, se corre el riesgo de desplazar valores públicos importantes como la libertad académica, los derechos civiles y la justicia educativa. La alerta es clara: estamos ante una tecnología que puede, deliberadamente, erosionar el bien público

    Frente a esta amenaza, la Asociación Estadounidense de Profesores Universitarios (AAUP), a través de su comité ad hoc sobre inteligencia artificial, presentó un informe basado en encuestas a su membresía. El documento refleja inquietudes compartidas sobre cómo la IA se incorpora en las instituciones —muy a menudo sin participación del profesorado—, y cómo esto impacta la democracia, la justicia laboral y la misión educativa.

    La adopción de tecnologías “educativas” dominadas por IA ha sido permisiva, incluso centrada en “ventas”, pero sin añadidos para mejorar el aprendizaje. Estas tecnologías, además, aumentan la vigilancia sobre docentes y estudiantes, respondiendo más a incentivos corporativos que a la mejora del currículo o del bienestar universitario.

    Los autores proponen fortalecer la participación desde la base: crear comités que incluyan docentes, estudiantes y personal técnico para revisar adquisición y uso de tecnología. Estos órganos deberían tener voz real en decisiones estratégicas, pudiendo incluso vetar políticas impuestas desde arriba, y promover formación centrada en las personas, no en la tecnología.

    En lugar de aceptar un modelo impuesto, se aboga por una respuesta unida que conecte el trabajo académico con la defensa de los valores democráticos. La tecnología no debe determinar el futuro de la educación; deben ser las personas, organizadas y con control sobre su entorno de trabajo, quienes decidan.

    Cómo la IA está cambiando —y no «matando»— la universidad

    Flaherty, Colleen. “How AI Is Changing—Not ‘Killing’—College.” Inside Higher Ed, August 29, 2025

    Texto completo

    Las principales conclusiones de la encuesta realizada por Inside Higher Ed a estudiantes sobre la IA generativa muestran que, en su opinión, el uso de esta tecnología en constante evolución no ha disminuido el valor de la universidad, pero podría afectar a sus habilidades de pensamiento crítico.

    El artículo presenta los principales hallazgos de la encuesta Student Voice 2025–26 realizada por Inside Higher Ed, que se centra en las percepciones de los estudiantes universitarios sobre la inteligencia artificial generativa. La encuesta fue parte de la serie Student Voice 2025–26 y se realizó en julio de 2025. Participaron 1 047 estudiantes de 166 instituciones de educación superior (tanto públicas como privadas, de dos y cuatro años).

    Un alto porcentaje, aproximadamente el 85 %, informó haber utilizado inteligencia artificial generativa en cursos durante el último año. Las actividades más comunes incluyen: lluvia de ideas (55 %), preguntas tipo tutor (50 %) y preparación para exámenes o test (46 %). Le siguen funciones como edición de trabajos y generación de resúmenes.

    En contraste, solo el 25 % admite usar IA para completar tareas completas, y apenas el 19 % para redactar ensayos enteros. Quienes emplearon IA para escribir ensayos son un tanto más propensos a reportar un impacto negativo en su pensamiento crítico (12 %) en comparación con quienes la utilizaron solo para estudiar (6 %)

    El principal motor del uso indebido de IA (desde la perspectiva de los estudiantes) es la presión por obtener buenas calificaciones (37 %), seguido por la falta de tiempo (27 %) y el desinterés por las políticas de integridad académica (26 %). Solo un ínfimo 6 % atribuye este comportamiento a políticas poco claras.

    Aun así, el 97 % opina que las instituciones deberían actuar frente a los retos que plantea la IA, pero prefieren soluciones educativas (como formación sobre ética en el uso de IA – 53 %) por encima de prácticas represivas como detectar contenido generado por IA (21 %) o limitar su uso en clase (18 %).

    Se observa una brecha de género en la percepción de la IA: los estudiantes hombres son más propensos que las mujeres o personas no binarias a decir que la IA está mejorando sus habilidades de pensamiento crítico.

    Aunque muchos temen que el uso de estas tecnologías pueda afectar habilidades clave como el pensamiento crítico, en general los estudiantes no consideran que la IA esté «matando» el valor de la universidad.

    Según la encuesta, los estudiantes están utilizando la IA activamente como parte de su proceso de aprendizaje, lo que indica una adopción respetuosa y consciente. Aunque reconocen los riesgos potenciales, como la disminución de habilidades analíticas, no perciben que la IA disminuya la relevancia o el propósito de su formación universitaria.

    Esta perspectiva de los estudiantes plantea una tensión interesante: por un lado, existe una preocupación legítima sobre cómo la IA puede impactar negativamente en el desarrollo de competencias críticas; por otro, su uso creciente refleja una herramienta valiosa para complementar el aprendizaje, siempre que se utilice con responsabilidad