
«Are Universities Too Slow to Cope with Generative AI?» Impact of Social Sciences LSE, 27 de abril de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/04/27/are-universities-to-slow-to-cope-with-generative-ai/.
Al igual que otras tendencias de la tecnología educativa, la IA generativa ha provocado un animado debate y una división entre quienes impulsan el potencial carácter disruptivo de la tecnología y las perspectivas más críticas. Mark Carrigan sostiene que, dado que la IA generativa ya está haciendo incursiones en la práctica profesional y estudiantil, el sector de la enseñanza superior no puede eludir el compromiso y debe encontrar nuevas formas de responder más rápidamente a los nuevos avances.
El auge de la IA generativa plantea retos y oportunidades a las universidades. Por un lado, las universidades pueden aprovechar las tecnologías de IA generativa para mejorar la enseñanza, la investigación y los procesos administrativos. Por ejemplo, los chatbots con IA pueden ofrecer asistencia personalizada a los estudiantes, automatizando tareas rutinarias y liberando recursos humanos para actividades más complejas. Los algoritmos de IA también pueden ayudar a los investigadores a analizar grandes conjuntos de datos y generar ideas, acelerando el ritmo de los descubrimientos científicos.
Sin embargo, también hay retos prácticos que las universidades deben abordar. Uno de ellos es garantizar la integridad de las evaluaciones frente a la IA generativa. A medida que los modelos de IA se vuelven más sofisticados, existe el riesgo de que los estudiantes puedan utilizarlos para generar contenidos plagiados o automatizados. Las universidades tendrán que desarrollar mecanismos sólidos para detectar y prevenir este tipo de mala conducta, quizás mediante el uso de herramientas avanzadas de detección del plagio o adaptando las metodologías de evaluación.
Otro reto es reconocer el papel de la IA generativa en las publicaciones académicas. A medida que los sistemas de IA como ChatGPT sean más capaces de producir textos coherentes y convincentes, puede resultar necesario establecer directrices o normas para atribuir las contribuciones automatizadas en los artículos académicos. Esto podría implicar la introducción de convenciones específicas de autoría o requisitos de transparencia para garantizar el crédito y la responsabilidad adecuados.
Las universidades también tienen que examinar críticamente las implicaciones éticas y políticas más amplias de la integración de la IA generativa en sus operaciones. Deben sortear los posibles escollos del capitalismo de plataforma y evitar la normalización de los sistemas que se basan en la extracción de datos y la participación de los usuarios. Es crucial equilibrar los beneficios de las tecnologías de IA con las preocupaciones por la privacidad, la autonomía y el impacto social de la automatización. Google Scholar ya registra 629 resultados para el término de búsqueda exacto «Chat GPT», a pesar de que el software no se lanzó hasta el 30 de noviembre de 2022. Queda por ver cómo la IA generativa podría acelerar aún más estos comentarios y análisis.
Para hacer frente con eficacia a la IA generativa, las universidades deben participar activamente en la investigación, el discurso y la colaboración con otras partes interesadas. Esto puede implicar esfuerzos interdisciplinarios en los que participen la informática, la ética, el derecho, las ciencias sociales y las humanidades. Al fomentar una comprensión profunda de la tecnología, sus implicaciones y sus limitaciones, las universidades pueden dar forma a políticas, prácticas y programas educativos responsables que preparen a los estudiantes para un futuro en el que la IA generativa sea omnipresente.
En última instancia, las universidades tienen un papel central que desempeñar en la configuración de las dimensiones éticas, sociales y culturales de la IA generativa. Mediante la investigación crítica, el fomento de la innovación responsable y la promoción de prácticas éticas, las universidades pueden afrontar los retos y aprovechar el potencial de la IA generativa en beneficio de la sociedad.
La advertencia de Danah Boyd sobre la falta de espacio para el pensamiento reflexivo y el análisis matizado es relevante en el contexto de la rápida evolución de la AI Generativa. Las universidades se enfrentan al desafío de abordar problemas prácticos inmediatos, como el uso de ChatGPT en la evaluación, mientras establecen bases sólidas para hacer frente a desarrollos futuros impredecibles. El ritmo de avance de las capacidades de la IA generativa, como se evidencia en el lanzamiento de GPT-4, puede superar la capacidad de las universidades para asimilar y adaptarse, especialmente cuando aún están lidiando con versiones anteriores como GPT-3.5.
Además, es importante reconocer que la IA generativa abarca una amplia gama de casos de uso, incluyendo imágenes, videos, música y voz, que probablemente se vuelvan cada vez más prominentes en el futuro. Esto plantea desafíos adicionales para las universidades en términos de comprender y abordar las implicaciones éticas, legales y sociales de estas nuevas formas de generación de contenido.
En el contexto de lo que se ha denominado la «Academia Acelerada», donde el ritmo de trabajo aumenta pero las políticas avanzan lentamente, existe un peligro de distanciamiento entre las políticas formuladas y la realidad. Es fundamental establecer mecanismos ágiles que permitan a las universidades identificar y abordar de manera efectiva las cuestiones emergentes relacionadas con la AI generativa. Esto implica una colaboración interdisciplinaria y una apertura a la participación de académicos, estudiantes y administradores de todas las áreas para dar respuestas adecuadas a medida que surgen nuevos desafíos.
La toma de decisiones y la formulación de políticas deben acelerarse para evitar respuestas institucionales que no estén alineadas con la rápida evolución de la tecnología. Por ejemplo, es crucial considerar no solo las formas actuales de AI generativa, sino también el crecimiento de los sistemas de texto a imagen y de texto a video al adoptar enfoques creativos en la evaluación. La adaptabilidad y la flexibilidad son clave para asegurar que las universidades puedan mantenerse al día con los desarrollos de la AI y abordar sus implicaciones de manera reflexiva y ética.