
Universidad de Granada. Recomendaciones para el uso de la Inteligencia Artificial en la Universidad de Granada. Granada: Universidad de Granada, 2024.
El documento recoge el resultado de un amplio proceso de reflexión colaborativa desarrollado en la Universidad de Granada durante 2024 para analizar las implicaciones del uso de la inteligencia artificial (IA) en el ámbito universitario. Parte del reconocimiento de que la irrupción de la IA, especialmente la generativa, constituye un cambio tecnológico profundo que está transformando los procesos de aprendizaje, investigación, gestión administrativa y relación con la sociedad. El informe no es normativo, sino una guía de inspiración para promover un uso ético, responsable y crítico de la IA en la institución.
En el área de docencia y aprendizaje, se describen numerosas oportunidades: apoyo a la planificación didáctica, generación de materiales, personalización del aprendizaje y automatización de tareas. No obstante, se advierten riesgos relevantes como la falta de integridad académica, problemas de privacidad, sesgos, brechas digitales, pérdida de competencias y dependencia de grandes empresas tecnológicas. Para mitigarlos, se proponen recomendaciones centradas en la transparencia en el uso, la adaptación de metodologías y evaluaciones, la alfabetización digital, la protección de datos y la formación del profesorado y del estudiantado.
En el ámbito de la investigación, la IA ofrece posibilidades valiosas en todas sus fases: búsqueda y síntesis de información, diseño de estudios, análisis de datos, generación de código y redacción científica. Sin embargo, también puede comprometer la calidad, reproducibilidad y ética de los resultados si no existe supervisión humana adecuada. El documento recomienda mejorar la capacitación de los equipos investigadores, garantizar la trazabilidad de los datos, asegurar la explicabilidad de los modelos utilizados y fomentar un uso que respete la integridad científica.
Respecto a la gestión universitaria, se destacan oportunidades como la mejora de la atención al usuario, la automatización de contenidos, el apoyo a la toma de decisiones y la traducción de recursos institucionales. A la vez, se identifican riesgos: vulneración de datos personales, dependencia tecnológica, falta de formación, costes económicos y opacidad en la generación de contenidos. Se proponen medidas para asegurar el cumplimiento normativo, promover herramientas institucionales y garantizar transparencia y sostenibilidad en su adopción.
Finalmente, en cuanto al impacto social, el documento subraya amenazas como la pérdida de privacidad, los sesgos, el aumento de desigualdades, la desinformación, los efectos sociolaborales negativos y los riesgos éticos en áreas sensibles. Propone que la universidad actúe con responsabilidad a través de la formación en IA, la protección de la privacidad, la inclusión digital, la identificación de sesgos, la promoción de la veracidad, la vigilancia de riesgos humanos y laborales, y la apuesta por una gobernanza justa y transparente de estas tecnologías.










