Archivo de la categoría: Tecnologías de la información

Hacer que la inteligencia artificial sea generativa para la educación superior

CNI. 2025. “Making Artificial Intelligence Generative for Higher Education: A Multi-Institution Research Project.” Accessed August 27, 2025. https://www.cni.org/topics/teaching-learning/making-artificial-intelligence-generative-for-higher-education-a-multi-institution-research-project

El proyecto Making Artificial Intelligence Generative for Higher Education, liderado por Ithaka S+R, reunió a 18 instituciones de educación superior de EE. UU. y Canadá para investigar cómo la inteligencia artificial generativa (IA generativa) está transformando la enseñanza, el aprendizaje y la investigación en la educación superior.

Desde su inicio en septiembre de 2023 hasta su culminación en el verano de 2025, el proyecto recopiló datos a través de entrevistas semiestructuradas con docentes e investigadores, proporcionando información valiosa sobre la adopción de la IA generativa en estos contexto.

Los hallazgos del estudio destacan que la IA generativa se está integrando de manera significativa en diversas áreas académicas, desde la creación de contenidos hasta la asistencia en la investigación. Sin embargo, también se identificaron desafíos importantes, como la necesidad de formación adecuada para los usuarios y la gestión de preocupaciones éticas relacionadas con el uso de estas tecnologías. Además, se subrayó la importancia de desarrollar infraestructuras de apoyo que faciliten la implementación efectiva de la IA generativa en el ámbito académico.

Este proyecto no solo proporciona una visión detallada de las tendencias actuales en el uso de la IA generativa en la educación superior, sino que también ofrece recomendaciones prácticas para instituciones que buscan integrar estas tecnologías de manera efectiva y ética en sus entornos académicos.

BooksAI.com: resúmenes y aprendizaje rápido de libros mediante inteligencia artificial

https://booksai.com/

BooksAI.com es una plataforma impulsada por inteligencia artificial que permite generar resúmenes, ideas clave, citas y elementos prácticos a partir de libros, utilizando modelos avanzados como ChatGPT. Su objetivo es facilitar el acceso rápido a los conceptos esenciales de una obra, sin necesidad de leerla en su totalidad.

Entre sus características principales, BooksAI.com ofrece resúmenes instantáneos: los usuarios pueden obtener resúmenes concisos de libros ingresando el título y el autor. La plataforma procesa la información y proporciona un resumen detallado, destacando los puntos más relevantes. Además, ofrece las ideas principales y citas destacadas de cada libro, lo que facilita una comprensión más profunda del contenido. También identifica acciones o lecciones prácticas que los lectores pueden aplicar en su vida diaria basándose en el contenido del libro.

La plataforma cuenta con una interfaz conversacional que, gracias a la tecnología de procesamiento de lenguaje natural, permite interactuar de manera fluida con el contenido del libro, responder preguntas y proporcionar aclaraciones adicionales. BooksAI.com ofrece acceso gratuito, permitiendo a los usuarios explorar y obtener resúmenes de una amplia variedad de libros sin costo alguno. Está diseñada para estudiantes, profesionales, investigadores y cualquier persona interesada en comprender rápidamente un libro sin dedicarle demasiado tiempo.

Una tormenta perfecta para la lectura. La inteligencia artificial (IA) 

Allington, Daniel. 2025. “AI Is Making Reading Books Feel Obsolete and Students Have a Lot to Lose.The Conversation, August 28, 2025. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

La IA está redefiniendo la educación y la lectura, ofreciendo herramientas poderosas pero también presentando desafíos significativos. Es crucial encontrar un equilibrio que permita a los estudiantes aprovechar los beneficios de la tecnología sin sacrificar las habilidades cognitivas esenciales desarrolladas a través de la lectura tradicional.

Naomi S. Baron escribe: «Se avecina una tormenta perfecta para la lectura. La inteligencia artificial (IA) llegó justo cuando tanto niños como adultos dedicaban menos tiempo a la lectura que en un pasado no tan lejano. Un estudio reciente revela que la lectura por placer en Estados Unidos ha disminuido un 40 % desde principios de los 2000. La IA está transformando radicalmente cómo las personas interactúan con los textos, ya sea para estudio, investigación o entretenimiento, y esto podría depreciar el valor percibido de la lectura como actividad humana significativa. Incluso antes de la popularización de la IA, la lectura ya estaba en declive. En EE. UU., el porcentaje de estudiantes de cuarto grado que leen por placer casi todos los días cayó del 53 % en 1984 al 39 % en 2022, y los de octavo grado del 35 % al 14 % en 2023. Entre los adultos, solo el 54 % de los estadounidenses leyó al menos un libro en 2023. Factores como el tiempo dedicado a redes sociales y la priorización de la eficiencia mediante la IA contribuyen a que muchos lectores se conviertan en “lectores caídos”, es decir, aquellos que solían leer pero ya no lo hacen.

Aunque la IA ofrece ventajas en términos de eficiencia, su uso excesivo puede tener efectos negativos en el aprendizaje profundo y la retención de información. La lectura activa de libros fomenta habilidades cognitivas como la concentración, la comprensión crítica y la reflexión profunda, habilidades que pueden verse comprometidas si los estudiantes dependen demasiado de las soluciones automatizadas.

La inteligencia artificial está transformando la forma en que accedemos y consumimos información, lo que ha llevado a que la lectura tradicional de libros impresos sea percibida como obsoleta por algunos. Herramientas como resúmenes automáticos, asistentes de lectura y plataformas de aprendizaje basadas en IA permiten a los estudiantes obtener información de manera más rápida y eficiente, reduciendo la necesidad de leer libros completos. Herramientas como BooksAI o BookAI.chat permiten interactuar con libros sin necesidad de leerlos personalmente, eliminando experiencias esenciales de aprendizaje y reflexión crítica.

Así, los educadores y bibliotecas enfrentan el desafío de equilibrar el uso de la tecnología con métodos tradicionales de enseñanza. Es esencial promover la alfabetización digital crítica, enseñando a los estudiantes a evaluar la información proporcionada por la IA y a complementar su aprendizaje con la lectura profunda de textos completos.

El camino hacia la Inteligencia Artificial General: comprender el cambiante panorama informático del futuro.

The Road to Artificial General Intelligence: Understanding the Evolving Compute Landscape of Tomorrow. MIT Technology Review Insights. En colaboración con Arm. Agosto de 2025.

Texto completo

El artículo aborda el núcleo del desafío de la Inteligencia Artificial General (AGI): los modelos actuales, capaces de escribir código o descubrir fármacos, todavía fracasan en tareas simples que cualquier persona puede resolver en minutos. Esta paradoja refleja la dificultad de crear una IA que no solo sobresalga en dominios específicos, sino que iguale o supere la inteligencia humana en múltiples campos. La pregunta central es si la actual revolución de la IA puede realmente dar ese salto, y cuáles serían los habilitadores clave —hardware, software o una combinación de ambos— necesarios para hacerlo posible.

Expertos del sector ofrecen predicciones audaces. Dario Amodei, cofundador de Anthropic, anticipa la llegada de una “IA poderosa” tan pronto como en 2026. Según él, esta tendría propiedades extraordinarias: inteligencia de nivel Nobel en dominios concretos, capacidad de moverse entre interfaces como texto, audio o entornos físicos, y la autonomía para razonar hacia metas propias, en lugar de limitarse a responder preguntas. Por su parte, Sam Altman, CEO de OpenAI, asegura que ya empiezan a verse características similares a la IAG, con un potencial transformador comparable al de la electricidad o internet. Destaca que el progreso se debe a tres factores: la mejora continua en el entrenamiento y los datos, el abaratamiento del cómputo y un valor socioeconómico que describe como “superexponencial”.

El optimismo no se limita a los fundadores de startups. Proyecciones agregadas indican al menos un 50% de probabilidad de que los sistemas de IA alcancen varios hitos de AGI antes de 2028. Encuestas de expertos sugieren que la probabilidad de que las máquinas superen a los humanos en todas las tareas sin ayuda externa es del 10% para 2027 y del 50% para 2047. Además, los plazos se acortan con cada nuevo avance: lo que con GPT-3 se estimaba en 50 años, a finales de 2024 ya se veía factible en cinco años. Para Ian Bratt, vicepresidente de tecnología de machine learning en Arm, los grandes modelos de lenguaje y razonamiento ya están transformando prácticamente todas las industrias, y son la antesala de este cambio radical.

¿Por qué es importante la alfabetización en IA?

EIT Deep Tech Talent Initiative. 2025. “Why AI Literacy Matters in 2025.” EIT Deep Tech Talent. Accessed September 3, 2025. https://www.eitdeeptechtalent.eu/news-and-events/news-archive/why-ai-literacy-matters-in-2025/

La alfabetización en inteligencia artificial se ha convertido en un pilar fundamental para desenvolverse en la sociedad contemporánea, del mismo modo en que en el pasado lo fueron la alfabetización básica y las competencias digitales.

En 2025, la alfabetización en IA se está volviendo tan importante como la lectura, la escritura e incluso las habilidades digitales básicas. Sin embargo, no se trata solo de formular mejores preguntas en ChatGPT o usar asistentes inteligentes para ahorrar tiempo; se trata de comprender cómo funcionan estos sistemas, qué los impulsa y cómo impactan a la sociedad en todos los niveles.

La alfabetización en IA requiere más que solo usar tecnología; requiere pensamiento crítico. Y hay mucho en juego, porque a medida que la IA se integra cada vez más en todos los aspectos de nuestras vidas, desde la educación y la atención médica hasta la contratación y los servicios gubernamentales, la falta de comprensión pública conlleva graves riesgos. El Foro Económico Mundial ahora clasifica la alfabetización en IA como una habilidad cívica, esencial para la participación en los procesos democráticos. Sin ella, las personas pueden ser vulnerables a la desinformación, sistemas sesgados o decisiones tomadas por algoritmos opacos.

Ya sea por confiar demasiado en los resultados de la IA o por confiar ciegamente en sistemas que no han sido probados éticamente, las consecuencias son personales y sociales.

Pero cerrar esta brecha de conocimiento va más allá de la mejora de las competencias digitales; se trata de brindar a las personas las herramientas necesarias para pensar críticamente, proteger sus derechos y participar en la configuración del uso de la IA.

La Ley de IA de la UE y su papel en la promoción del conocimiento sobre la IA

La Ley de IA de la UE (AIA), adoptada formalmente en 2024, es la primera legislación importante del mundo destinada a regular la inteligencia artificial. Establece normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en la Unión Europea, con el fin de garantizar que la IA se utilice de forma segura y transparente.

La AIA prohíbe ocho prácticas:

  • Manipulación y engaño perjudiciales basados ​​en IA
  • Explotación perjudicial de vulnerabilidades basada en IA
  • Clasificación o ranking social
  • Evaluación o predicción del riesgo individual de delito
  • Extracción no dirigida de material de internet o CCTV para crear o ampliar bases de datos de reconocimiento facial
  • Reconocimiento de emociones en lugares de trabajo e instituciones educativas
  • Categoría biométrica para deducir ciertas características protegidasIdentificación biométrica remota en tiempo real para fines policiales en espacios públicos accesibles

Clasifica los sistemas de IA por riesgo: inaceptable, alto, limitado y mínimo, y establece normas estrictas sobre cómo debe desarrollarse e implementarse cada tipo. Esto ya está teniendo un efecto dominó mucho más allá del sector tecnológico.

Pero su impacto va más allá de la regulación. Al aumentar la comprensión pública sobre cómo funciona la IA y dónde se utiliza, ayuda a los usuarios a convertirse en consumidores más informados y críticos de las tecnologías de IA. Los requisitos prácticos de la Ley están priorizando la alfabetización en IA. Esto significa que las empresas que implementan sistemas de IA de alto riesgo, como los utilizados en la contratación o la educación, deben asegurarse de que su personal esté adecuadamente capacitado para comprender cómo funcionan los sistemas de IA, reconocer sus limitaciones y ser consciente de posibles sesgos.

En otras palabras, la alfabetización en IA ya no es solo una habilidad técnica, sino una cuestión de cumplimiento normativo.

¿Qué es el Artículo 4 de la AIA?

El Artículo 4 exige a las organizaciones, tanto a las que desarrollan sistemas de IA como a las que los utilizan, que se aseguren de que todos los involucrados comprendan cómo funciona la IA, incluidos sus riesgos e impactos.

Por alfabetización en IA, la ley se refiere a que las personas tengan los conocimientos y la concienciación suficientes para implementar la IA de forma inteligente. Esto incluye comprender dónde la IA puede ser beneficiosa o perjudicial, y conocer qué derechos y responsabilidades legales están en juego, y abarca a todos los empleados, contratistas, proveedores de servicios y otros terceros que trabajen con IA en nombre de una organización.

Bruselas no ha definido una lista de verificación de capacitación estricta, pero las organizaciones deben cubrir áreas clave para cumplir:

  • Un conocimiento básico de la IA: qué es y cómo funciona, incluyendo sus beneficios y riesgos.
  • Claridad sobre el rol de la organización: ¿es usted el creador de la IA o simplemente utiliza la herramienta de otra persona?
  • Conocimiento de los riesgos asociados a los sistemas de IA en cuestión, especialmente si son de alto riesgo.
  • Programas personalizados que reflejen la experiencia de los usuarios, sus niveles de conocimiento técnico y el contexto real de su trabajo.

Aunque las pruebas formales no son obligatorias, se espera que las organizaciones consideren el nivel de comprensión de la IA de su personal y desarrollen la capacitación o la orientación adecuadas. Para los sistemas de mayor riesgo, podrían requerirse medidas adicionales en virtud del Artículo 26, que establece la obligación de que el personal que trabaja con los sistemas de IA en la práctica esté suficientemente capacitado para manejar el sistema y garantizar la supervisión humana.

La norma del Artículo 4 entró en vigor el 2 de febrero de 2025, pero su aplicación no comenzará hasta el 3 de agosto de 2026, lo que da tiempo a las organizaciones para establecer registros internos, como registros de capacitación, materiales de orientación u otras pruebas, aunque no necesariamente certificados formales.

El cumplimiento del Artículo 4 consiste en adecuar los esfuerzos de alfabetización en IA de una organización a la composición de su personal, la IA que utiliza y cómo podría afectar a otros. Basta con un enfoque flexible y basado en el riesgo, pero debe ser real.

¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

  1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
  2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
  3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

Por qué los modelos de lenguaje locales están ganando terreno frente a la IA en la nube

Bring your own brain? Why local LLMs are taking off.The Register, August 31, 2025. https://www.theregister.com/2025/08/31/local_llm_opinion_column/

El crecimiento del uso de modelos de lenguaje grande ejecutados localmente (local LLMs) responde en parte a una creciente desconfianza hacia las grandes empresas de tecnología y sus políticas de manejo de datos. Una encuesta del Pew Research Center indica que el 81 % de los estadounidenses teme el mal uso de sus datos por parte de compañías de IA. Este temor ha llevado incluso a que la FTC advirtiera a empresas de IA sobre el cumplimiento de sus promesas de protección de la privacidad.

Este contexto de desconfianza se agrava al revelar prácticas como la retención prolongada de datos. OpenAI afirma “olvidar” los chats si se lo solicita el usuario, pero en realidad está obligado por orden judicial a conservar dichos registros. Igualmente, la empresa Anthropic extendió recientemente sus reglas de retención de datos de 30 días a cinco años, y comenzó a entrenar sus modelos con datos de usuario. Aunque ofrece opciones para desactivar esa función, se trata de configuraciones opt-out, no opt-in.

El artículo también toca la dimensión de soberanía tecnológica. En Europa, algunos desarrolladores están adoptando LLMs locales para garantizar el cumplimiento del RGPD. Por ejemplo, la empresa alemana Makandra integró internamente un modelo de IA local para asegurar el manejo conforme a las normativas europeas.

Desde una perspectiva ideológica, promover los LLM locales representa una visión de democratización tecnológica. Emre Can Kartal, ingeniero de crecimiento en Jan (un proyecto de Menlo Research), destaca que el objetivo es «garantizar que la IA siga estando en manos de las personas, no concentrada en unos pocos gigantes tecnológicos».

Otro factor clave es el costo práctico. Muchas compañías de IA ofrecen computación a pérdida y tienden a restringir el acceso en momentos de alta demanda. Esto es frustrante para usuarios avanzados que pagan suscripciones costosas pero se encuentran limitados durante sesiones intensivas, por ejemplo, en programación asistida por IA.

Este cambio hacia LLMs locales refleja una tendencia creciente: mayor control sobre la privacidad, independencia frente a empresas externas, ahorro financiero, y una cultura que promueve la accesibilidad tecnológica para todos.

La brecha de género en el uso de la inteligencia artificial generativa

Otis, Nicholas G., Katelyn Cranney, Solene Delecourt, and Rembrand Koning. 2024. “Global Evidence on Gender Gaps and Generative AI.” OSF Preprints. October 14. doi:10.31219/osf.io/h6a7c.

Entre noviembre de 2022 y mayo de 2024, se observa que aproximadamente 42 % de los usuarios mensuales de ChatGPT y Perplexity eran mujeres, mientras que esa cifra baja al 31 % para Claude de Anthropic.

La disparidad aumenta al examinar las descargas móviles: entre mayo de 2023 y noviembre de 2024, solo 27,2 % de las descargas de la aplicación ChatGPT provinieron de mujeres; Claude y Perplexity muestran porcentajes igualmente bajos.

En cuanto al acceso a herramientas y aplicaciones basadas en IA, entre agosto de 2022 y julio de 2025, únicamente 34,3 % de las visitas a 3.821 herramientas específicas fueron realizadas por mujeres.

Además, una metaanálisis de 18 estudios, que incluyó alrededor de 143.000 personas, concluye que las mujeres tienen una probabilidad aproximadamente 20 % menor de usar IA generativa en comparación con los hombres.

Según algunos estudios destacados, las brechas de género fueron especialmente pronunciadas: un estudio sobre posdoctorandos mostró una diferencia de 21 puntos porcentuales; otro, sobre propietarios de negocios en EE.UU., Australia, Reino Unido y Canadá, registró una brecha de 11 puntos; mientras que en estudiantes universitarios en EE.UU. y Suecia las cifras fueron de 25 y 31 puntos, respectivamente.

Por último, algunos resultados apuntan a una «penalización femenina»: ciertas participantes expresaron preocupación de que utilizar IA pudiera perjudicar su trayectoria profesional o hacer que colegas cuestionen su competencia.

Para mitigar esta desigualdad, los autores sugieren, entre otras medidas, hacer el uso de IA generativa obligatorio para empleados, lo que ayudaría a fomentar una adopción más paritaria y evitar que los sesgos perpetuados por un uso mayoritario masculino se traduzcan en sistemas de IA discriminatorios.

Defender la educación frente a la IA instrumentalizada

Paris, Britt S., Lindsay Weinberg y Emma May. “Fighting Weaponized AI in Higher Education.Academe Blog, 22 de julio de 2025.https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/

la inteligencia artificial, lejos de ser neutral, puede ser utilizada como herramienta de control por parte de entidades poderosas. Bajo ciertas políticas gubernamentales —como el plan de acción del gobierno de EE. UU. para promover la IA—, se corre el riesgo de desplazar valores públicos importantes como la libertad académica, los derechos civiles y la justicia educativa. La alerta es clara: estamos ante una tecnología que puede, deliberadamente, erosionar el bien público

Frente a esta amenaza, la Asociación Estadounidense de Profesores Universitarios (AAUP), a través de su comité ad hoc sobre inteligencia artificial, presentó un informe basado en encuestas a su membresía. El documento refleja inquietudes compartidas sobre cómo la IA se incorpora en las instituciones —muy a menudo sin participación del profesorado—, y cómo esto impacta la democracia, la justicia laboral y la misión educativa.

La adopción de tecnologías “educativas” dominadas por IA ha sido permisiva, incluso centrada en “ventas”, pero sin añadidos para mejorar el aprendizaje. Estas tecnologías, además, aumentan la vigilancia sobre docentes y estudiantes, respondiendo más a incentivos corporativos que a la mejora del currículo o del bienestar universitario.

Los autores proponen fortalecer la participación desde la base: crear comités que incluyan docentes, estudiantes y personal técnico para revisar adquisición y uso de tecnología. Estos órganos deberían tener voz real en decisiones estratégicas, pudiendo incluso vetar políticas impuestas desde arriba, y promover formación centrada en las personas, no en la tecnología.

En lugar de aceptar un modelo impuesto, se aboga por una respuesta unida que conecte el trabajo académico con la defensa de los valores democráticos. La tecnología no debe determinar el futuro de la educación; deben ser las personas, organizadas y con control sobre su entorno de trabajo, quienes decidan.

Cómo la IA está cambiando —y no «matando»— la universidad

Flaherty, Colleen. “How AI Is Changing—Not ‘Killing’—College.” Inside Higher Ed, August 29, 2025

Texto completo

Las principales conclusiones de la encuesta realizada por Inside Higher Ed a estudiantes sobre la IA generativa muestran que, en su opinión, el uso de esta tecnología en constante evolución no ha disminuido el valor de la universidad, pero podría afectar a sus habilidades de pensamiento crítico.

El artículo presenta los principales hallazgos de la encuesta Student Voice 2025–26 realizada por Inside Higher Ed, que se centra en las percepciones de los estudiantes universitarios sobre la inteligencia artificial generativa. La encuesta fue parte de la serie Student Voice 2025–26 y se realizó en julio de 2025. Participaron 1 047 estudiantes de 166 instituciones de educación superior (tanto públicas como privadas, de dos y cuatro años).

Un alto porcentaje, aproximadamente el 85 %, informó haber utilizado inteligencia artificial generativa en cursos durante el último año. Las actividades más comunes incluyen: lluvia de ideas (55 %), preguntas tipo tutor (50 %) y preparación para exámenes o test (46 %). Le siguen funciones como edición de trabajos y generación de resúmenes.

En contraste, solo el 25 % admite usar IA para completar tareas completas, y apenas el 19 % para redactar ensayos enteros. Quienes emplearon IA para escribir ensayos son un tanto más propensos a reportar un impacto negativo en su pensamiento crítico (12 %) en comparación con quienes la utilizaron solo para estudiar (6 %)

El principal motor del uso indebido de IA (desde la perspectiva de los estudiantes) es la presión por obtener buenas calificaciones (37 %), seguido por la falta de tiempo (27 %) y el desinterés por las políticas de integridad académica (26 %). Solo un ínfimo 6 % atribuye este comportamiento a políticas poco claras.

Aun así, el 97 % opina que las instituciones deberían actuar frente a los retos que plantea la IA, pero prefieren soluciones educativas (como formación sobre ética en el uso de IA – 53 %) por encima de prácticas represivas como detectar contenido generado por IA (21 %) o limitar su uso en clase (18 %).

Se observa una brecha de género en la percepción de la IA: los estudiantes hombres son más propensos que las mujeres o personas no binarias a decir que la IA está mejorando sus habilidades de pensamiento crítico.

Aunque muchos temen que el uso de estas tecnologías pueda afectar habilidades clave como el pensamiento crítico, en general los estudiantes no consideran que la IA esté «matando» el valor de la universidad.

Según la encuesta, los estudiantes están utilizando la IA activamente como parte de su proceso de aprendizaje, lo que indica una adopción respetuosa y consciente. Aunque reconocen los riesgos potenciales, como la disminución de habilidades analíticas, no perciben que la IA disminuya la relevancia o el propósito de su formación universitaria.

Esta perspectiva de los estudiantes plantea una tensión interesante: por un lado, existe una preocupación legítima sobre cómo la IA puede impactar negativamente en el desarrollo de competencias críticas; por otro, su uso creciente refleja una herramienta valiosa para complementar el aprendizaje, siempre que se utilice con responsabilidad