Archivo de la etiqueta: Inteligencia artificial

Informe Horizon 2025 sobre tendencias y desafíos en la Educación Superior

EDUCAUSE. 2025 EDUCAUSE Horizon Report | Teaching and Learning Edition. EDUCAUSE, 2025.

Texto completo

El 2025 EDUCAUSE Horizon Report | Teaching and Learning Edition ofrece una visión detallada de las tendencias emergentes, tecnologías clave y prácticas pedagógicas que están moldeando el futuro de la educación superior. El informe destaca cómo las instituciones educativas están navegando en un entorno caracterizado por una compleja interacción de factores globales, tecnológicos y sociales.

La educación superior atraviesa un momento marcado no por una única crisis, sino por una superposición compleja de tendencias globales. Desde la inestabilidad climática hasta los cambios en la economía mundial, las instituciones enfrentan presiones que van más allá de los propios campus. Además, estudiantes, educadores e instituciones se enfrentan a retos internos como la evolución en las expectativas de los alumnos, cambios demográficos, ajustes en el mercado laboral y debates persistentes sobre el valor real de la educación superior.

La rápida evolución tecnológica, especialmente en inteligencia artificial (IA) y realidad virtual (RV), está transformando no solo cómo los estudiantes interactúan con los contenidos, sino también la comprensión de la cognición y la manera en que se documenta y valora el aprendizaje. Paralelamente, los entornos políticos y regulatorios cambian, desafiando y redefiniendo el papel que la educación superior juega en la sociedad. En conjunto, estos factores configuran un panorama en el que la educación superior ya no puede permitirse evolucionar lentamente.

Este informe refleja ese espíritu de transformación mediante un análisis de tendencias emergentes, tecnologías clave, prácticas innovadoras y escenarios futuros posibles. La información proviene de un panel global de expertos que, con conocimientos diversos y metodologías rigurosas, exploran cómo y por qué ocurren estos cambios, además de los retos y oportunidades que enfrentan las instituciones hoy para modelar la educación del futuro.

Tendencias emergentes:

El informe identifica varias tendencias sociales, tecnológicas, económicas, ambientales y políticas que están influyendo en la educación superior. Estas incluyen la transformación digital acelerada, el aumento de la inteligencia artificial en la enseñanza y el aprendizaje, y las cambiantes expectativas de los estudiantes respecto a la flexibilidad y la accesibilidad de los contenidos educativos.

Tecnologías y prácticas clave:

Entre las tecnologías destacadas se encuentran las herramientas de inteligencia artificial para la enseñanza, el desarrollo profesional del profesorado en el uso de la IA generativa, la gobernanza de la IA, el refuerzo de la ciberseguridad, la evolución de las prácticas docentes, la alfabetización digital crítica y la integración de la tecnología en la enseñanza y el aprendizaje.

Escenarios futuros:

El informe presenta cuatro escenarios posibles para el futuro de la educación superior: Crecimiento, Restricción, Colapso y Transformación. Cada escenario explora diferentes trayectorias que las instituciones podrían seguir en respuesta a las tendencias y desafíos identificados.

Algunos periódicos importantes de Estados Unidos publican una lista de lecturas recomendadas para el verano con autores y obras ficticias generadas por IA

Blair, Elizabeth. “How an AI-Generated Summer Reading List Got Published in Major Newspapers.NPR, May 20, 2025. https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai

El 20 de mayo de 2025, NPR informó que varios periódicos estadounidenses, incluidos el Chicago Sun-Times y una edición del Philadelphia Inquirer, publicaron una lista de lectura de verano que contenía títulos de libros ficticios atribuidos a autores reales. Esta lista fue generada parcialmente por inteligencia artificial y distribuida por King Features, una unidad de Hearst Newspapers.

En un episodio reciente que pone de relieve los crecientes retos en la era de la inteligencia artificial, varios medios estadounidenses de renombre publicaron una lista de libros recomendados para el verano, entre los que se incluían títulos completamente inventados, pero atribuidos a autores reales y prestigiosos. La lista fue elaborada por King Features, una filial de Hearst Newspapers, y distribuida a sus periódicos asociados como parte de un paquete editorial estacional.

La lista se presentó como una selección de “libros esenciales para el verano”, pero contenía falsedades sorprendentes: títulos ficticios atribuidos a autores reales como Isabel Allende, Percival Everett y Cormac McCarthy, entre otros. Por ejemplo, uno de los libros inventados fue Tidewater Dreams de Allende, que no existe. Solo 5 de los 15 libros recomendados eran auténticos.

El contenido fue redactado por Marco Buscaglia, un colaborador independiente habitual. Buscaglia admitió haber utilizado una herramienta de inteligencia artificial (cuya identidad no se especifica en el artículo) para generar sugerencias literarias, y reconoció que no verificó si los títulos realmente existían. Esta falta de comprobación permitió que los títulos ficticios pasaran desapercibidos hasta que varios lectores y profesionales del mundo editorial empezaron a señalar errores tras la publicación.

Tanto el Chicago Sun-Times como el Philadelphia Inquirer, dos de los periódicos que publicaron la lista, han respondido asegurando que no fueron responsables directos del contenido, ya que este provenía del servicio editorial de King Features. Ambos medios han revisado internamente lo sucedido y se han comprometido a implementar controles más estrictos para evitar la publicación de información generada por IA sin revisión humana.

Este incidente ha generado un intenso debate sobre la ética y la práctica del uso de herramientas de IA en el periodismo. Aunque su uso puede ser eficiente, especialmente en tareas rutinarias o de apoyo, esta situación demuestra los peligros de confiar en la IA para generar contenido sin validación. La precisión, la reputación de los medios y la confianza del público están en juego.

También plantea interrogantes sobre la relación entre las agencias de contenido sindicadas y los periódicos locales. Al depender de servicios externos para llenar espacio en sus páginas —especialmente en secciones como cultura o estilo de vida— los medios corren el riesgo de ceder parte del control editorial y de comprometer su credibilidad si no ejercen la debida supervisión.

Los medios implicados han iniciado una reflexión sobre cómo deben gestionarse las colaboraciones con creadores de contenido y cómo utilizar la inteligencia artificial sin poner en riesgo la exactitud y la responsabilidad informativa. El caso también es un ejemplo de cómo el público, cada vez más atento y crítico, puede detectar errores que escapan a los filtros editoriales.

Este caso evidencia los límites del uso de la IA generativa en periodismo, sobre todo cuando no se combina con una revisión editorial rigurosa. La confianza en los medios, ya erosionada por otros factores en los últimos años, se ve aún más amenazada por errores de este tipo, que pueden parecer triviales, pero que en el fondo comprometen principios fundamentales como la veracidad y la responsabilidad.

Wiley defiende los derechos de autor frente al uso no autorizado de contenidos en la inteligencia artificial

Wiley. 2025. Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. May 7, 2025. https://www.wiley.com/en-us/position-statement-ai-scraping

En su declaración oficial, Wiley —una de las editoriales académicas más antiguas y reconocidas del mundo— reafirma su postura firme en defensa de los derechos de propiedad intelectual ante el creciente uso de contenidos protegidos en el entrenamiento de modelos de inteligencia artificial. Subraya que la innovación tecnológica debe avanzar de la mano de prácticas éticas y legales, especialmente en lo que respecta al uso de obras creadas por autores, investigadores y comunidades académicas.

Wiley comienza recordando su compromiso histórico con la creación y difusión del conocimiento, destacando que este progreso solo es posible si se respeta el trabajo intelectual de quienes generan contenidos. Reconoce el valor transformador de la inteligencia artificial para la investigación y el descubrimiento, pero advierte que dicho avance debe asentarse sobre una base de respeto a los derechos de autor, atribución adecuada y compensación justa.

En este sentido, la editorial exige que los desarrolladores de IA soliciten autorización expresa antes de utilizar materiales de su propiedad o publicados en colaboración con sus socios. Wiley deja claro que no existe ningún tipo de permiso implícito, y que todos los derechos están reservados, salvo que se obtenga una licencia formal.

Además, se insiste en que la atribución transparente y la trazabilidad del origen de los datos son principios clave del desarrollo ético de IA. Wiley ha desarrollado marcos de licenciamiento flexibles y adaptables, que permiten a los desarrolladores acceder de forma legal a contenidos protegidos, en función de sus necesidades específicas.

El comunicado también subraya que ya existen numerosos acuerdos exitosos entre editoriales científicas (STM y comerciales) y empresas de IA, incluidos acuerdos firmados por la propia Wiley. Estos pactos demuestran que el mercado de licencias de contenidos para IA no solo es viable, sino que ya está en funcionamiento.

Más allá del aspecto legal, Wiley resalta el valor de establecer colaboraciones activas con la comunidad de desarrolladores de IA para promover estándares compartidos que incluyan transparencia, citación adecuada, atribución y procedencia de los datos. Esto no solo garantiza el respeto por los creadores, sino que también contribuye a generar confianza entre los usuarios de sistemas de IA.

En conclusión, Wiley aboga por un ecosistema sostenible donde la tecnología y la creatividad humana coexistan armónicamente. La editorial invita a autores, investigadores, desarrolladores éticos de IA y otras editoriales a participar activamente en la construcción de un marco de innovación responsable, donde los derechos de los creadores sean preservados y reconocidos como base de cualquier avance significativo en el campo de la inteligencia artificial.

¿Pueden los chatbots de IA sustituir a los motores de búsqueda? un análisis del tráfico web global (2023–2025)

Sarkar, Sujan. 2025. Are AI Chatbots Replacing Search Engines? A 2-Year Data Study on Web Traffic Trends. OneLittleWeb. Última actualización 22 de abril de 2025. https://www.onelittleweb.com/ai-chatbots-vs-search-engines-study/

El informe de OneLittleWeb, titulado «Are AI Chatbots Replacing Search Engines? A 2-Year Data Study on Web Traffic Trends», analiza la evolución del tráfico web global entre abril de 2023 y marzo de 2025, comparando el uso de motores de búsqueda tradicionales con el de chatbots de inteligencia artificial.

Crecimiento de los Chatbots de IA

Durante el período analizado, los chatbots de IA experimentaron un crecimiento significativo en su tráfico web:

  • Crecimiento interanual del 80,92%: Pasaron de 30.500 millones de visitas entre abril de 2023 y marzo de 2024 a 55.200 millones en el mismo período de 2024-2025.
  • Dominio de ChatGPT: Este chatbot lidera el mercado con un 86,32% de participación en el tráfico total de chatbots, seguido por DeepSeek y Gemini.
  • Crecimiento de nuevos actores: DeepSeek y Grok destacaron por su rápido aumento en visitas, con incrementos del 113.007% y 353.787% respectivamente.

Comparación con los Motores de Búsqueda

A pesar del crecimiento de los chatbots, los motores de búsqueda tradicionales mantienen una posición dominante:

  • Tráfico total de 1,86 billones de visitas: Entre abril de 2024 y marzo de 2025, los motores de búsqueda registraron una ligera disminución del 0,51% en comparación con el año anterior.
  • Diferencia en visitas diarias: En marzo de 2025, los motores de búsqueda promediaron 5.500 millones de visitas diarias, mientras que los chatbots alcanzaron 233,1 millones, lo que representa una diferencia de casi 24 veces.
  • Participación de mercado: Google lidera con un 87,57% del tráfico entre los motores de búsqueda, seguido por Microsoft Bing y Yandex.

Integración de IA en los Motores de Búsqueda

Los motores de búsqueda están incorporando funciones basadas en IA para mejorar la experiencia del usuario:

  • Google: Ha introducido «AI Overviews» y «AI Mode», que proporcionan respuestas generadas por IA directamente en los resultados de búsqueda
  • Microsoft Bing: Implementó la «Search Generative Experience (SGE)», que utiliza IA para ofrecer respuestas más completas y contextuales.

Impacto en el Tráfico Web y el SEO

Aunque los chatbots de IA están ganando popularidad, su capacidad para dirigir tráfico a sitios web es limitada

  • Tasas de clics más bajas: Los chatbots tienen una tasa de clics promedio del 0,33%, en comparación con el 8,63% de los motores de búsqueda tradicionales.
  • Preocupaciones para los editores: La menor capacidad de los chatbots para generar tráfico directo plantea desafíos para los editores y creadores de contenido que dependen del SEO.

El estudio concluye que, aunque los chatbots de IA están creciendo rápidamente y transformando la forma en que los usuarios interactúan con la información, todavía no están reemplazando a los motores de búsqueda tradicionales. Los motores de búsqueda siguen siendo la principal fuente de acceso a la información en línea, y su integración con tecnologías de IA sugiere una evolución hacia una experiencia de búsqueda más conversacional y personalizada.

La IA generativa y el empleo

International Labour Organization (ILO) and NASK. Generative AI and Jobs: A Refined Global Index of Occupational Exposure. Geneva: ILO, May 20, 2025.

PDF

ePub

El informe presenta el análisis global más detallado hasta la fecha sobre cómo la inteligencia artificial generativa (GenAI) puede transformar el mercado laboral en todo el mundo.

Se ofrece el análisis más detallado hasta la fecha sobre el impacto potencial de la inteligencia artificial generativa (GenAI) en el empleo mundial. A través del desarrollo de un índice global refinado, el estudio examina la exposición de diversas ocupaciones a la GenAI, basándose en el análisis de casi 30.000 tareas laborales, validadas por expertos y evaluadas mediante modelos de IA y microdatos armonizados por la OIT.

Uno de los hallazgos clave del informe es que aproximadamente uno de cada cuatro empleos a nivel mundial (25 %) está potencialmente expuesto a la GenAI. Esta cifra asciende al 34 % en los países de ingresos altos, donde las infraestructuras tecnológicas están más desarrolladas. Sin embargo, el estudio subraya que esta exposición no equivale a una pérdida automática de empleo. Por el contrario, se espera que la GenAI transforme los trabajos, modificando las tareas que los componen, en lugar de reemplazarlos completamente.

Una de las contribuciones metodológicas del informe es la introducción de “gradientes de exposición”, que permiten clasificar los empleos según su nivel de vulnerabilidad frente a la automatización generativa. Esta herramienta es especialmente útil para que los responsables políticos puedan diseñar intervenciones más específicas y adaptadas a cada contexto ocupacional.

El informe también identifica importantes desequilibrios de género en la exposición a la GenAI. En los países de altos ingresos, el 9,6 % del empleo femenino se encuentra en ocupaciones altamente automatizables, en contraste con el 3,5 % del empleo masculino. Esta diferencia resalta la necesidad de abordar la transición digital desde una perspectiva de género para evitar profundizar desigualdades preexistentes.

Entre los sectores más afectados se encuentran los trabajos administrativos, cuya naturaleza rutinaria y basada en procesamiento de información los hace especialmente susceptibles a la automatización. Sin embargo, el informe también advierte sobre la creciente exposición de ocupaciones cognitivas altamente digitalizadas, como aquellas relacionadas con los medios de comunicación, el desarrollo de software y las finanzas. Aunque estas profesiones han estado a la vanguardia de la transformación digital, sus tareas están cada vez más dentro del alcance de las capacidades de la GenAI.

A pesar del potencial de la IA generativa para automatizar ciertas funciones, el informe aclara que la automatización total de los empleos sigue siendo limitada, ya que muchas tareas requieren todavía juicio humano, interacción interpersonal o supervisión. Por ello, el efecto más probable de la GenAI será una transformación progresiva de los roles laborales, no su desaparición inmediata.

Por último, la OIT y el NASK destacan que la forma en que cada país afronte esta transformación dependerá en gran medida de las políticas públicas adoptadas. La inversión en infraestructura digital, la formación en habilidades relevantes y la protección de la calidad del empleo serán factores determinantes para que los trabajadores puedan adaptarse y mantenerse dentro de ocupaciones que están evolucionando rápidamente.

Inteligencia artificial y desinformación: Herramientas y estrategias para abordar en las aulas el desafío del momento

Garcia Luna, Ana Laura, Cecilia Vázquez y Nira Dinerstein. Inteligencia artificial y desinformación: Herramientas y estrategias para abordar en las aulas el desafío del momento. Edición de Franco Piccato y Guadalupe López. Buenos Aires: Chequeado, noviembre de 2024.

Texto completo

Esta guía, elaborada por Chequeado con el apoyo de Google News Initiative, está dirigida a profesores universitarios de América Latina. Su propósito es proporcionar herramientas y conocimientos para enfrentar los desafíos que plantea la inteligencia artificial (IA) en la generación y detección de desinformación, promoviendo así la resiliencia informativa en las futuras generaciones.

Objetivos principales:

  • Comprender los conceptos clave relacionados con la IA y su funcionamiento.
  • Identificar herramientas actuales para la generación de textos, imágenes, videos y audios mediante IA.
  • Desarrollar habilidades prácticas para verificar la credibilidad de la información y detectar desinformaciones.
  • Analizar casos de estudio que ejemplifiquen la desinformación potenciada por IA, fomentando el pensamiento crítico y el debate en el aula

Guía del estudiante sobre inteligencia artificial

AAC&U (American Association of Colleges and Universities). 2025. «New Student Guide to Artificial Intelligence Provides Expanded Resources for Navigating College in the AI Age.» AAC&U, May 6, 2025.

Texto completo

La Asociación Estadounidense de Universidades y Colegios (AAC&U) y la Universidad de Elon han publicado la segunda entrega de la serie Student Guide to Artificial Intelligence. Al igual que la primera edición, este recurso es gratuito y está disponible para estudiantes e instituciones a través de su sitio web y el de la AAC&U.

La nueva guía está diseñada para ayudar a los estudiantes a prepararse para el uso de la IA en sus estudios. Está organizada en torno a cinco competencias clave:

  • Investigación, recopilación de información y resumen
  • Escritura
  • Trabajo creativo
  • Análisis de datos y números
  • Apoyo al estudio y al aprendizaje

Además, incluye capítulos dedicados a la integridad académica, la ética de la IA, la planificación profesional y la creación de un portafolio con proyectos asistidos por IA.

El contenido fue desarrollado con la colaboración de expertos en inteligencia artificial y profesores universitarios de 14 países, incluidos Estados Unidos, España, Francia, Alemania, Japón y Venezuela, así como con aportaciones de estudiantes y usuarios de la primera edición.

El impacto de la inteligencia artificial generativa en el periodismo: relaciones entre plataformas y editores según el informe Journalism Zero

Brown, Peter, y Klaudia Jaźwińska. 2025. Journalism Zero: How Platforms and Publishers Are Navigating AI. Tow Center for Digital Journalism, Columbia Journalism School. https://towcenter.columbia.edu/sites/towcenter.columbia.edu/files/content/Journalism%20Zero_%20How%20Platforms%20and%20Publishers%20are%20Navigating%20AI.pdf.

Texto completo

La inteligencia artificial generativa está reconfigurando las relaciones entre las plataformas tecnológicas y los medios de comunicación.

Este documento se enmarca dentro de una línea de investigación que el Tow Center lleva desarrollando desde 2015, la cual ya había señalado en 2019, en su informe “The End of an Era”, que la estrategia dominante en la era de las redes sociales —la de depender de plataformas como Facebook, Twitter o Google para llegar a las audiencias— había sido errónea para el periodismo.

Con la llegada de ChatGPT y otras herramientas de IA generativa, se marca un nuevo punto de inflexión en esta relación. El informe destaca que estas tecnologías se están integrando en el periodismo de múltiples maneras. Por un lado, están siendo usadas en tareas internas y de apoyo, como el análisis de grandes volúmenes de datos, la generación de titulares y resúmenes, la traducción de contenidos, la adaptación de formatos o la redacción de informes y publicaciones para redes sociales. Este uso, aunque significativo, no es el foco principal del estudio.

El núcleo del informe se centra más bien en una cuestión polémica y estructural: el uso de contenido periodístico ya publicado —sin autorización— para entrenar los modelos de lenguaje que dan vida a estas herramientas. Un ejemplo destacado es el del periódico The New York Times, cuyo contenido representó un 1,2 % de una versión recreada del conjunto de datos que entrenó ChatGPT-2. Los modelos generativos como Perplexity prometen ofrecer respuestas instantáneas con fuentes citadas, sin necesidad de que el usuario acceda a las páginas originales, lo que mina los modelos de negocio de los medios al reducir el tráfico hacia sus sitios web.

Esta dinámica representa un giro sustancial respecto a la era de las redes sociales. Si bien en esa etapa las plataformas dependían del contenido de los medios para atraer usuarios —y los medios esperaban obtener a cambio visitas y visibilidad—, en esta nueva era las plataformas usan los contenidos periodísticos directamente como materia prima para entrenar sus modelos y, posteriormente, los integran en productos que muchas veces sustituyen la visita directa a los medios.

El informe señala que las compañías tecnológicas necesitan datos verificados y confiables para entrenar sus modelos, y que el periodismo profesional cumple perfectamente con ese requisito. Jessica Lessin, fundadora de The Information, lo resume con contundencia: “Resulta que las noticias precisas y bien escritas son una de las fuentes más valiosas para estos modelos, que han estado absorbiendo la producción intelectual humana sin permiso”.

El último gran desafío de los agentes de IA: la autorización para actuar por nosotros

Rosenbush, Steven. 2025.AI Agents Face One Last, Big Obstacle.The Wall Street Journal, May 17, 2025. https://www.wsj.com/articles/ai-agents-face-one-last-big-obstacle-ef3ea7f5

¿Pueden los agentes de IA reservar un vuelo por ti?. Aún no. El desarrollo de agentes de inteligencia artificial (IA) capaces de realizar tareas complejas en nombre de los usuarios está avanzando rápidamente, pero aún enfrenta un gran obstáculo: obtener permisos para actuar.

Aunque los modelos de lenguaje actuales (LLM, por sus siglas en inglés) son suficientemente potentes para llevar a cabo una amplia gama de funciones, su utilidad depende cada vez más de su capacidad para conectarse con herramientas externas como aplicaciones, sitios web y APIs. Esta conexión es esencial para que los agentes puedan realizar tareas del mundo real, como reservar un vuelo, pedir un Uber o gestionar el correo electrónico.

Un ejemplo que ilustra el potencial de estos agentes fue presentado en una conferencia de Apple, donde se imaginó a Siri realizando una serie de acciones encadenadas: consultar el estado de un vuelo a partir de un correo electrónico, revisar mensajes de texto para conocer los planes de comida con una persona, y calcular el tiempo necesario para llegar del aeropuerto al restaurante. Sin embargo, para que este tipo de asistentes funcione realmente, es imprescindible resolver cómo otorgarles autorización para acceder de forma segura a cuentas personales y datos sensibles. Los humanos usan contraseñas o reconocimiento biométrico, pero los agentes de IA requieren métodos distintos, ya que actúan como intermediarios.

Uno de los líderes en abordar este desafío es Alex Salazar, CEO de la startup Arcade.dev. Su empresa, ubicada en el área de San Francisco, está creando herramientas que permiten a los agentes firmar sesiones y obtener permisos de acceso a servicios externos. Arcade.dev ya trabaja con compañías como Shortwave para conectar agentes de correo con plataformas como Notion. En marzo, la empresa consiguió una ronda de financiación de 12 millones de dólares para impulsar este desarrollo, lo que muestra el interés del mercado en este tipo de soluciones.

Una iniciativa destacada en este ámbito fue la introducción del Model Context Protocol (MCP) por parte de Anthropic, la empresa detrás del chatbot Claude. Este protocolo busca estandarizar la forma en que los modelos de IA se conectan con herramientas externas, tal como el conector USB-C estandarizó la conexión de dispositivos físicos. Esta estandarización es vista como un paso necesario para que los agentes puedan operar de forma segura y eficiente en distintos entornos digitales.

De cara al futuro, Salazar prevé que, en los próximos dos años, los agentes de IA asumirán tareas cada vez más complejas como redactar correos electrónicos o planificar itinerarios, aunque todavía necesitarán confirmación humana antes de ejecutar acciones. Posteriormente, se espera que empiecen a operar de manera completamente autónoma en tareas de bajo riesgo. Una vez superados los principales desafíos técnicos, se anticipa un cambio radical en la forma en que las personas interactúan con la tecnología, comparable al impacto que tuvo la llegada de las tiendas de aplicaciones en 2008. La aparición de agentes autónomos podría marcar el inicio de una nueva era en la automatización y asistencia digital.

El desarrollo de políticas sobre inteligencia artificial generativa en las universidades británicas

Wilson, Thomas D. 2025. «The Development of Policies on Generative Artificial Intelligence in UK UniversitiesIFLA Journal. https://doi.org/10.1177/03400352251333796

El artículo examina cómo las universidades del Reino Unido han reaccionado ante el auge de la inteligencia artificial generativa (IAg) y cómo están desarrollando políticas para regular su uso en el ámbito académico. En particular, se enfoca en las instituciones del Russell Group, un conjunto de universidades líderes en investigación que han adoptado principios comunes para guiar la integración de estas tecnologías.

El artículo analiza en profundidad cómo las universidades del Reino Unido están respondiendo al auge de la inteligencia artificial generativa (IAg) —como ChatGPT, Claude, Copilot, entre otras— y cómo esta tecnología está reconfigurando la educación superior. En particular, se centra en la forma en que las instituciones académicas, y más concretamente las pertenecientes al Russell Group (grupo de élite de universidades centradas en la investigación), han comenzado a desarrollar políticas formales para regular y aprovechar el uso de estas herramientas. El trabajo también incluye un examen comparativo con instituciones que no pertenecen al grupo y que enfrentan mayores retos para implementar marcos normativos debido a la falta de recursos.

La expansión de la IAg ha sido rápida, y su impacto en el sector educativo es profundo. Su adopción ha generado oportunidades pedagógicas —como personalización del aprendizaje, apoyo a estudiantes con necesidades especiales, mejora de la escritura académica y eficiencia en la retroalimentación docente—, pero también preocupaciones críticas:

  • Plagio y trampas asistidas por IA
  • Transformación de la evaluación
  • Brechas en la equidad digital
  • Necesidad de formación docente
  • Cambios en la naturaleza de la autoría y la originalidad académica

El estudio de Wilson toma como punto de partida la declaración de principios publicada por el Russell Group en 2023, donde se establecieron cinco ejes para la incorporación de la IAg en las universidades:

  1. Fomentar la alfabetización en IA entre el personal y el alumnado.
  2. Equipar al profesorado para acompañar a los estudiantes en el uso responsable de la tecnología.
  3. Revisar modelos de evaluación para mantener la integridad sin limitar el aprendizaje innovador.
  4. Preservar el rigor académico y la ética en la producción de conocimiento.
  5. Colaborar entre instituciones para compartir prácticas efectivas.

El artículo identifica variaciones sustanciales en la adopción e implementación de estas políticas, incluso entre las universidades del Russell Group. Algunas han creado marcos institucionales completos, con líneas claras sobre:

  • Qué usos de la IAg están permitidos o prohibidos.
  • Cómo citar contenido generado por IA.
  • Qué procedimientos aplicar en casos de mala praxis.
  • Cómo adaptar tareas evaluativas para reducir el riesgo de trampa.

Otras, sin embargo, aún están en etapas incipientes de desarrollo normativo, limitándose a recomendaciones generales o esperando una posición nacional más consolidada.

En universidades fuera del Russell Group, se observa una mayor dificultad para articular políticas, debido a la falta de recursos técnicos, de personal capacitado y de liderazgo en el tema. Esto puede generar desigualdades entre instituciones en términos de preparación ante los desafíos éticos y prácticos de la IAg.