Archivo de la categoría: Tecnologías de la información

¿Nos dará ChatGPT una lección de educación?

«Will ChatGPT Give Us a Lesson in Education?» Accedido 9 de octubre de 2023. https://www.nature.com/articles/d42473-023-00083-y.


Puede que haya una curva de aprendizaje a medida que se popularizan las herramientas de IA, pero esta tecnología ofrece a los profesores la oportunidad de ayudar a los alumnos a adquirir nuevas habilidades en la formulación de preguntas y en el pensamiento crítico.

Después de que chatbots superpotentes como ChatGPT-4 empezaran a estar ampliamente disponibles este año, los administradores escolares de todo el mundo se movilizaron para prohibir la tecnología en la educación en las aulas. Casi media docena de distritos estadounidenses bloquearon el acceso a la IA y otros modelos multimodales de lenguaje de gran tamaño (MLLM) en los dispositivos y redes escolares, y algunas escuelas australianas recurrieron a los exámenes de lápiz y papel después de que los estudiantes fueran sorprendidos utilizando chatbots para escribir ensayos.

La resistencia de los profesores alcanzó su punto álgido cuando se lanzó ChatGPT-4 en marzo de 2023. Desarrollada por OpenAI, con sede en San Francisco, esta IA generativa puede escribir poesía y canciones, y aprobó el examen de abogacía de EE.UU. en el percentil 90. Las MLLM pueden procesar imágenes y texto, y responden a consultas buscando patrones en datos en línea.

Cuando se le preguntó por qué las escuelas de Seattle habían restringido el uso de ChatGPT-4 en los dispositivos del distrito, Tim Robinson, portavoz del distrito, respondió: «La IA generativa hace posible la producción de trabajo no original, y el distrito escolar requiere trabajo y pensamiento original por parte de los estudiantes».

Sin embargo, ante el crecimiento aparentemente inevitable de la IA, muchas escuelas están dando marcha atrás, aunque con cuidado. «Todavía existe el temor de que los estudiantes utilicen grandes modelos lingüísticos como atajos en lugar de practicar para ser mejores escritores», afirma Tamara Tate, científica de proyectos del Laboratorio de Aprendizaje Digital de la Universidad de California en Irvine. Añade que si la IA ha llegado para quedarse, los estudiantes podrían beneficiarse de estrategias educativas que promuevan usos creativos de la tecnología. «Estas herramientas pueden proporcionar a los estudiantes compañeros de aprendizaje en el momento sobre una enorme variedad de temas».

En opinión de Tate y otros expertos, las MLLM pueden desempeñar varias funciones educativas positivas, como animar a los estudiantes a evaluar las respuestas en lugar de aceptarlas automáticamente. Sin embargo, es necesario reflexionar detenidamente para garantizar que se aprovechan estas posibles ventajas y mitigar los posibles inconvenientes. ¿Cómo podría desarrollarse la educación asistida por IA?

Ganancias y pérdidas en el aula

Los defensores del uso educativo de la inteligencia artificial generativa señalan varias ventajas. En primer lugar, ChatGPT-4 tiene un extraordinario dominio de la estructura gramatical adecuada, lo que Tate afirma que podría ser especialmente útil para hablantes no nativos que buscan comprender cómo incorporar correctamente palabras y frases en situaciones del mundo real.

Xiaoming Zhai, un profesor visitante que estudia aplicaciones de aprendizaje automático en la educación científica en la Universidad de Georgia en Atenas, cree que los profesores también pueden beneficiarse al utilizar modelos como ChatGPT como herramientas de enseñanza. Estos modelos pueden generar planes de lecciones personalizados y otros recursos adaptados a las necesidades de los estudiantes individuales, al tiempo que ayudan con la calificación y otras tareas mundanas. En la opinión de Zhai, esa capacidad libera tiempo para que los profesores puedan ofrecer a los estudiantes un feedback más personalizado. Al automatizar de manera eficiente tareas básicas como buscar literatura y materiales relevantes y resumir contenido, los modelos permiten a estudiantes y profesores «centrarse más en el pensamiento creativo».

El pensamiento creativo ayudará a las personas a aprovechar al máximo los MLLM (modelos de lenguaje y aprendizaje automático a gran escala). «Los modelos de lenguaje grandes son como motores de búsqueda: basura entra, basura sale», escribió Tate en un artículo reciente.

Los profesores pueden ayudar a sus estudiantes a desarrollar estrategias expertas de solicitud y optimización de búsqueda para generar el contenido más útil. «Para utilizar la tecnología de manera efectiva, los estudiantes deben centrarse en el trabajo de revisión», dice Tate. «ChatGPT-4 puede generar una respuesta fluida en el primer borrador, pero no mucho contenido profundo. Las respuestas pueden ser vagas y a menudo incorrectas».

Mientras investigábamos este artículo, le pedimos a ChatGPT-4 que nos dijera, en sus propias palabras, por qué sería una herramienta útil para la educación. Segundos después, el modelo proporcionó una respuesta detallada en la que afirmaba tener acceso a vastas cantidades de conocimiento y poder responder instantáneamente a preguntas en varios idiomas en cualquier momento. Pero el modelo también fue sincero acerca de sus limitaciones, señalando que si ChatGPT-4 no comprende los matices de una pregunta en particular, podría proporcionar información incompleta o errónea que podría ser problemática para los estudiantes que dependen exclusivamente del modelo para obtener respuestas.

Dado que los MLLM pueden no respaldar sus afirmaciones con razones o evidencia, esto brinda a los profesores la oportunidad de demostrar la necesidad de un razonamiento crítico. «Los estudiantes deben pensar en quién dijo qué y por qué en una respuesta dada», dice Tate.

Lea Bishop, profesora de derecho en la Facultad de Derecho Robert H. McKinney de la Universidad de Indiana en Indianápolis, está de acuerdo en que las posibles inexactitudes requerirán que los estudiantes examinen minuciosamente la salida del modelo. «Debes desarrollar el hábito de cuestionar todo lo que ves», dice. «Eso significa hacer preguntas detalladas de seguimiento y triangular con otras fuentes de conocimiento para ver qué coincide. Necesito que me demuestres que eres mejor que la computadora».


Lidiando con el engaño y el secreto

Algunos expertos se preocupan de que, para estudiantes menos motivados, estos tipos de modelos proporcionen una tentadora fuente de contenido preelaborado que disminuye las habilidades de pensamiento crítico. Los predecesores de ChatGPT-4 demostraron ser capaces de generar ensayos y respuestas a preguntas de respuesta corta y exámenes de opción múltiple. «Ya tenemos muchos problemas con estudiantes que sienten que aprender equivale a buscar, copiar y pegar», dice Paulo Blikstein, profesor asociado de comunicación, medios y tecnologías de aprendizaje en la Universidad de Columbia, en Nueva York. «Con la IA, tenemos un riesgo aún mayor de que algunos elijan el camino más corto y fácil e incorporen esas heurísticas y métodos como modo predeterminado».

Los profesores pueden intentar identificar contenido generado por IA con paquetes de software llamados detectores de resultados. Pero estos paquetes tienen una fiabilidad cuestionable, y en julio de 2023, OpenAI discontinuó su propio detector de resultados citando preocupaciones sobre la baja precisión. Los expertos se preocupan de que modelos como ChatGPT-4 pongan cada vez más a los profesores en el indeseado papel de tener que vigilar a los estudiantes que infringen las reglas con contenido generado por IA.

Tales preocupaciones son válidas y contribuyeron a las respuestas iniciales negativas. Blikstein dice que las restricciones escolares tempranas pueden verse como una «reacción impulsiva contra algo que todavía es muy difícil de entender».

Y aunque estas prohibiciones se están levantando gradualmente, ChatGPT todavía no está libre de preocupaciones: su funcionamiento sigue siendo opaco, incluso para los expertos. Entre sus entradas y respuestas hay miles de millones de cálculos en una ‘caja negra’. Se dice que ChatGPT es el lanzamiento más secreto de OpenAI hasta ahora. La empresa no ha revelado nada sobre cómo se entrenó el modelo, y sistemas propietarios desarrollados por empresas competidoras están impulsando una «carrera armamentista» de IA, avanzando a una velocidad asombrosa.

Definiendo habilidades fundamentales

¿Significa el auge de los MLLM que la escritura en sí misma seguirá el camino de habilidades más antiguas, de manera similar a cómo la competencia matemática básica fue prácticamente obsoleta debido a las calculadoras? Los expertos ofrecen una variedad de opiniones. Adoptando una postura optimista, Bishop argumenta que habilidades funcionales de escritura como ortografía, gramática y conocimiento de cómo organizar un ensayo estándar «serán totalmente obsoletas dentro de dos años». Otros ven la necesidad de precaución. «Sin práctica escribiendo su propio contenido, será difícil para los estudiantes prever dónde y cómo se cometen errores de escritura, y luego detectarlos en el contenido generado por IA», dice Tate.

Desde la perspectiva de Blikstein, esta zona gris subraya la necesidad de proceder con precaución. «Las apuestas son altas con el lenguaje», dice, agregando que la IA generativa puede ser una poderosa aliada para mejorar, no reemplazar, la cognición de un estudiante. Pero quedan preguntas importantes. «Por ejemplo, no tenemos un buen modelo para la autoría en el ámbito del contenido generado por IA», dice. «El texto aparece de la nada, y no tenemos idea de dónde proviene». Para profesionales experimentados, utilizar la IA para mejorar las habilidades de escritura puede no plantear mucho problema. «Pero eso no es cierto para las personas más jóvenes que no entienden el oficio de escribir desde el principio», agrega.

Blikstein también se preocupa de que la IA pueda perpetuar desigualdades educativas. Los distritos escolares más ricos tienen recursos para aplicar la tecnología con énfasis en la interacción humana y el aprendizaje basado en proyectos, mientras que las escuelas más pobres podrían optar cada vez más por la automatización para ahorrar dinero. «Si te conformas con algo barato, puede tomar el control de todo tu sistema», dice. «Luego, cinco años después, se convierte en la nueva normalidad», agrega.

En última instancia, la IA podría ofrecer una evolución en las normas educativas que haga que los educadores vuelvan a lo básico. «Tenemos que identificar las competencias fundamentales que queremos que nuestros estudiantes tengan», dice Zhao. «¿Cómo vamos a incorporar modelos como ChatGPT en el proceso de aprendizaje? Estamos preparando a futuros ciudadanos, y si la IA estará disponible, entonces debemos pensar en cómo construir competencia en la educación para que los estudiantes puedan tener éxito».

Nuevo proyecto de ley en la Asamblea del Estado de Nueva York sobre venta de libros creados con IA generativa

New Bill in New York State Assembly: re: Sale of Books Created with Generative AI, New York State Assembly, 2023

Texto completo

El nuevo proyecto de ley exige que los vendedores en línea de libros creados total o parcialmente con el uso de inteligencia artificial generativa revelen dicho uso de la inteligencia artificial generativa antes de la realización de su venta; se aplica a todos los libros impresos y digitales que consten de texto, imágenes, audio, rompecabezas, juegos o cualquier combinación de los mismos.

ChatGPT ya puede ver, oír y hablar

«ChatGPT Can Now See, Hear, and Speak». Accedido 29 de septiembre de 2023. https://openai.com/blog/chatgpt-can-now-see-hear-and-speak.

Hasta ahora ChatGPT ha estado limitado por su ámbito de accesibilidad. Con la introducción de voz a texto, respuestas vocales, funcionalidad de imágenes y mucho más, los usuarios tienen ahora acceso a un modelo de IA mucho más intuitivo.

ChatGPT dio a conocer una serie de actualizaciones que incluyen el reconocimiento de voz e imágenes, marcando un paso significativo hacia la creación de una experiencia de usuario más interactiva e intuitiva (similar a cómo interactuamos actualmente con Siri & Google Assistant).

Puntos clave:

  • Ahora los usuarios pueden hacer fotos y hablar de ellas en directo con ChatGPT, una función especialmente útil para viajar, planificar comidas o resolver problemas académicos.
  • Las interacciones de voz se basan en un novedoso modelo de conversión de texto a voz que, en colaboración con actores de doblaje profesionales, genera un sonido similar al humano. También podrá transcribir su propio audio a texto para agilizar las interacciones.
  • La comprensión de imágenes se apoya en BeMyEyes, ampliando las capacidades de razonamiento de GPT-4 a una amplia gama de imágenes, incluyendo fotos, capturas de pantalla y documentos mixtos de texto-imagen; haciendo más fácil que nunca mantener una discusión con GPT-4.
  • La nueva funcionalidad se lanzará inicialmente para los usuarios Plus y Enterprise, con un despliegue más amplio previsto en un futuro próximo. Las funciones de voz sólo estarán disponibles en iOS y Android, mientras que las funciones de imagen estarán disponibles en todas las plataformas.

El potencial de la IA y las transformaciones digitales en los espacios bibliotecarios

Looking towards a brighter future: the potentiality of AI and digital transformations to library spaces. Leeds: Library at the University of Leeds, 2023

Texto completo

A medida que las bibliotecas continúan evolucionando en la era digital, este informe de investigación destaca el papel que la IA puede desempeñar en el futuro digital de las bibliotecas, asegurando que sigan siendo proveedores vibrantes e indispensables de conocimiento para todos.

La Biblioteca de la Universidad de Leeds, en el Reino Unido, acaba de publicar un fascinante informe sobre la IA en lo que ellos llaman «espacios bibliotecarios», titulado «Mirando hacia un futuro más brillante: el potencial de la IA y las transformaciones digitales en los espacios bibliotecarios». Hay muchas cosas que me gustan de este informe, como la perspectiva histórica sobre el desarrollo y las implicaciones de las tecnologías de IA.

El informe explora cómo las tecnologías de IA pueden transformar las operaciones de las bibliotecas, mejorar la experiencia del usuario, optimizar procesos y mejorar la descripción y la accesibilidad de las colecciones. Ofrece una visión general de la investigación, teoría y prácticas actuales de la IA y hace recomendaciones específicas para la IA y otras tecnologías en el entorno de la biblioteca.

Masud Khokhar, Bibliotecario Universitario y Custodio de la Colección Brotherton, enfatizó la importancia de la investigación para la comunidad bibliotecaria, diciendo:

«Las bibliotecas siempre han adoptado nuevas tecnologías para mejorar el acceso a la información y el conocimiento. El Proyecto de Inteligencia Artificial (IA) en Bibliotecas es uno de los pasos que estamos dando bajo el tema de Futuros Digitales para lograr nuestra visión. Al compartir nuestra investigación sobre los beneficios y las aplicaciones prácticas de las tecnologías de IA para las bibliotecas con el sector en general, esperamos que podamos avanzar colectivamente, utilizando tecnologías de IA para mejorar la forma en que trabajamos y cómo accedemos, procesamos y mantenemos el conocimiento. Queremos que todos puedan aprovechar al máximo las oportunidades que la IA presenta para servir mejor a nuestras comunidades».

Este informe proporciona conocimientos valiosos y orientación práctica para las bibliotecas que deseen aprovechar el poder de la IA para satisfacer las cambiantes necesidades de sus usuarios. Incluye entrevistas con expertos de todo el mundo, así como con profesionales relevantes y partes interesadas dentro de la Universidad de Leeds. Esta comprensión realista de las operaciones de la biblioteca ayuda a identificar áreas prioritarias donde los enfoques de IA podrían beneficiar tanto a las organizaciones como a los usuarios.

ChatGPT ya puede conectarse directamente a la información de Internet en tiempo real gracias a Bing, por lo que ya no limita la información a septiembre de 2021

VentureBeat. «OpenAI Gives ChatGPT Access to the Entire Internet», 27 de septiembre de 2023. https://venturebeat.com/ai/openai-gives-chatgpt-access-to-the-entire-internet/.

ChatGPT de OpenAI ha sido una herramienta indudablemente potente e interesante desde su lanzamiento en noviembre de 2022, pero ha estado limitada con el dominio de su conocimiento – que sólo incluía información hasta septiembre de 2021. Pero eso cambia hoy.

OpenAI acaba de anunciar en X (antes Twitter) que ChatGPT «ahora puede navegar por Internet para ofrecerte información actual y fidedigna, con enlaces directos a las fuentes», gracias a una integración con el motor de búsqueda Bing de Microsoft.

Según la empresa, esta función ya está disponible para los suscriptores de ChatGPT Plus y los usuarios de ChatGPT Enterprise, y puede elegirse con el menú desplegable situado bajo el selector GPT-4, en la parte superior de la aplicación.

En realidad, esto supone el regreso de ChatGPT a la navegación web. En marzo, cuando OpenAI presentó los complementos de terceros para ChatGPT, también anunció dos complementos propios: Code Interpreter (que ahora se llama «Advanced Data Analysis» y permite a ChatGPT aceptar archivos cargados) y «Browsing», que utiliza la API de Microsoft Bing y un navegador basado en texto para buscar en Internet y resumir información para los usuarios, con citas en superíndice sobre las que el usuario puede pasar el ratón y hacer clic para visitar el sitio web de origen.

La IA en la educación superior

Jisc. «Artificial Intelligence (AI) in Tertiary Education – Jisc», 26 de abril de 2021.

Texto completo

Los últimos doce meses han presenciado cambios significativos en el impacto de la inteligencia artificial en la educación, comenzando, para la mayoría, con el lanzamiento de ChatGPT en noviembre de 2022. Las preocupaciones sobre la integridad académica y el futuro de la evaluación dominaron los primeros debates y aún plantean muchos problemas.

«La IA generativa plantea desafíos sustanciales para la educación, especialmente en lo que respecta a la evaluación, pero también ofrece oportunidades para apoyar a los estudiantes y el aprendizaje. No sorprendentemente, también ha actuado como un estímulo para que el sector educativo examine todos los aspectos de qué y cómo enseña y reevalúe las prácticas de evaluación, cosas que han permanecido en gran parte estáticas durante mucho tiempo».

Heidi Fraser-Krauss, directora ejecutiva de Jisc.

El debate creció rápidamente para abordar formas de aprovechar el poder de la inteligencia artificial generativa para reducir la carga de trabajo y encontrar nuevas y emocionantes formas de utilizarla en el aprendizaje y la enseñanza. La cuestión del impacto de la IA en la fuerza laboral pronto salió a la luz, con debates sobre cómo garantizar la empleabilidad de los estudiantes y prepararlos para un entorno de trabajo impulsado por la IA. Probablemente todavía estemos al comienzo de este viaje.

Es fácil olvidar que antes de ChatGPT ya estábamos viendo que la IA brindaba un valor real en la educación. En el Reino Unido, estamos viendo a los primeros adoptantes utilizando con éxito servicios de IA en beneficio de los estudiantes y las instituciones educativas. Estos incluyen a Ada y FirstPass en el Bolton College, el aprendizaje adaptativo con CENTURY Tech en el Basingstoke College of Technology, el asistente digital Beacon en la Staffordshire University y el asistente digital Taylor en la Open University. A nivel internacional, esto es evidente con el uso de CogBooks en la Arizona State University o, a una escala mucho mayor, SquirrelAi en China. La IA generativa ha impulsado enormemente esto.

Esperamos que al resumir periódicamente el estado de las tecnologías educativas de IA estemos proporcionando contexto e ideas para que los colegios y universidades exploren esto aún más. La IA no está exenta de desafíos, ya sean legales, éticos o técnicos, y el progreso hacia la transformación digital es probable que sea problemático si simplemente reaccionamos a los impulsores tecnológicos externos.

Ahora existen bases sólidas para permitir una mayor adopción de la IA en colegios y universidades, y para enfrentar los desafíos y oportunidades presentados por el ritmo implacable de los avances en IA que estamos viendo actualmente.

Amazon invierte hasta 4.000 millones de dólares en la empresa de inteligencia artificial Anthropic en una creciente batalla tecnológica

AP News. «Amazon Is Investing up to $4 Billion in AI Startup Anthropic in Growing Tech Battle», 25 de septiembre de 2023. https://apnews.com/article/artificial-intelligence-amazon-anthropic-investment-72d21e6c663d506dbf968f50628e7ded.

Amazon invertirá hasta 4.000 millones de dólares en Anthropic y tomará una participación minoritaria en esta empresa de inteligencia artificial, según anunciaron ambas compañías el lunes.

La inversión pone de relieve cómo las grandes empresas tecnológicas están invirtiendo dinero en IA en su carrera por aprovechar las oportunidades que la última generación de esta tecnología está llamada a impulsar.

Amazon y Anthropic afirman que el acuerdo forma parte de una colaboración más amplia para desarrollar los llamados modelos de base, que sustentan los sistemas generativos de IA que han captado la atención mundial.

Los modelos de base, también conocidos como grandes modelos lingüísticos, se entrenan en vastos conjuntos de información en línea, como entradas de blogs, libros digitales, artículos científicos y canciones pop, para generar textos, imágenes y vídeos que se asemejen al trabajo humano.

En virtud del acuerdo, Anthropic convertirá a Amazon en su principal servicio de computación en la nube y utilizará los chips personalizados del gigante minorista online como parte del trabajo para entrenar y desplegar sus sistemas de IA generativa.

Anthropic, con sede en San Francisco, fue fundada por antiguos empleados de OpenAI, creadora del chatbot de IA ChatGPT, que causó sensación en todo el mundo por su capacidad para dar respuestas que imitaban las humanas.

Anthropic ha lanzado su propio rival de ChatGPT, llamado Claude. La última versión, disponible en EE.UU. y el Reino Unido, es capaz desde «diálogos sofisticados y generación creativa de contenidos hasta razonamientos complejos e instrucciones detalladas», según la empresa.

Amazon está luchando por ponerse al día con rivales como Microsoft, que invirtió mil millones de dólares en OpenAI en 2019, seguido de otra inversión multimillonaria a principios de año.

Amazon ha estado desplegando nuevos servicios para mantenerse al día con la carrera armamentista de la IA, incluida una actualización para su popular asistente Alexa para que los usuarios puedan tener conversaciones más parecidas a las humanas y resúmenes generados por IA de reseñas de productos para los consumidores.

Informe técnico: Inteligencia Artificial Generativa

David Leslie and Francesca Rossi. Tech Brief: Generative Artificial Intelligence, ACM Technology Policy Committees 2023

Texto completo

La rápida comercialización de la IA generativa (GenAI) plantea múltiples riesgos a gran escala para las personas, la sociedad y el planeta que requieren una respuesta rápida y coordinada a nivel internacional para mitigarlos.

La ausencia de directrices globales y coherentes para el desarrollo y despliegue de los sistemas GenAI, y su consiguiente proliferación, crea enormes riesgos individuales, sociales y socioeconómicos. Se necesita una acción política rápida y proporcionada, a nivel nacional e internacional, para hacer frente a los desafíos planteados por la creciente escala y alcance de los riesgos relacionados con la GenAI.

Las grandes disparidades en la influencia económica de las partes interesadas en el sistema GenAI tienen el potencial, si no se abordan plenamente en las políticas, de amplificar el impacto de los riesgos relacionados con la GenAI. si no se abordan plenamente en la política, de amplificar la desigualdad y frustrar la innovación y la competencia.

  • Valor estimado del mercado mundial de GenAI en 2023. 8.000 millones de dólares estadounidenses
  • 65 Meses tardó Twitter en alcanzar los 100 millones de usuarios tras su lanzamiento.
  • 2 meses que tardó ChatGPT en alcanzar ese hito.
  • ChatGPT está en la segunda posición de entre todas las aplicaciones
  • El 43 % de los estudiantes universitarios que han utilizado ChatGPT o una aplicación similar.
  • El 80% estimado de trabajadores estadounidenses se verán afectadas al menos el 10% de sus tareas laborales por la GenAI.
  • El 19 % de dichos trabajadores que verán afectadas al menos el 50% de sus tareas
  • 3,4 Gigavatios hora de electricidad se consumió para entrenar al PaLM de Google durante dos meses, lo que consume más de 300 hogares en un año.
  • El 76% de los consumidores estadounidenses están preocupados por la desinformación producida por GenAI.

¿Puede la IA generativa aportar algo a la revisión académica por pares?

Impact of Social Sciences. «Can Generative AI Add Anything to Academic Peer Review?», 26 de septiembre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/09/26/can-generative-ai-add-anything-to-academic-peer-review/.

Aunque las aplicaciones de IA generativa prometen eficiencia y pueden beneficiar el proceso de revisión por pares, dadas sus deficiencias y nuestro limitado conocimiento de su funcionamiento interno, Mohammad Hosseini y Serge P.J.M. Horbach sostienen que no deberían utilizarse de forma independiente ni indiscriminada en todos los contextos. Centrándose en los últimos acontecimientos, sugieren que el proceso de revisión por pares es uno de los contextos en los que la IA generativa debería utilizarse con mucho cuidado, si es que se utiliza.


En el siempre cambiante panorama de la investigación académica y la comunicación académica, la llegada de la inteligencia artificial generativa y modelos de lenguaje grandes (LLM) como el ChatGPT de OpenAI ha despertado atención, elogios y críticas. El uso de la inteligencia artificial generativa en diversas tareas académicas se ha discutido en profundidad. Entre los posibles casos de uso, contar con el apoyo de la inteligencia artificial generativa para revisores y editores en el proceso de revisión por pares parece una opción prometedora. El sistema de revisión por pares ha enfrentado durante mucho tiempo diversos desafíos, incluyendo revisiones sesgadas o no constructivas, escasez de revisores expertos y la naturaleza que consume mucho tiempo de la empresa.

Aunque el uso de la inteligencia artificial generativa podría mitigar algunos de estos desafíos, como ocurre con muchas discusiones sobre la integración de nuevas tecnologías en flujos de trabajo existentes, también existen varias preocupaciones legítimas. Recientemente se analizó el uso de LLM en el contexto de cinco temas críticos dentro del contexto de la revisión por pares: los roles de los revisores y editores, la calidad y funciones de las revisiones por pares, problemas de reproducibilidad y las amplias implicaciones sociales y epistémicas del proceso de revisión por pares. Se concluyó que la inteligencia artificial generativa tiene el potencial de remodelar los roles tanto de los revisores por pares como de los editores, agilizando el proceso y posiblemente aliviando problemas relacionados con la falta de revisores. Sin embargo, esta posible transformación no está exenta de complejidad.

Asistir en las revisiones, pero no ser un revisor independiente

En su forma actual, las aplicaciones de IA generativa son incapaces de realizar revisiones por pares de forma independiente (es decir, sin supervisión humana), porque siguen cometiendo demasiados errores y su funcionamiento interno es desconocido y cambia rápidamente, lo que da lugar a resultados impredecibles. Sin embargo, la IA generativa puede ayudar a los actores del proceso de revisión por pares de otras maneras, por ejemplo, ayudando a los revisores a mejorar sus notas iniciales para que sean más constructivas y respetuosas. Además, la IA generativa puede permitir a los académicos que no escriban en su lengua materna contribuir al proceso de revisión en otros idiomas (por ejemplo, inglés), o ayudar a los editores a redactar cartas de decisión basadas en un conjunto de informes de revisión. Estos casos de uso podrían ayudar a ampliar el grupo de revisores y hacer que el proceso sea más eficiente y equitativo.

Confidencialidad, sesgo y robustez

A pesar de estos posibles beneficios, y además de las limitadas capacidades de la inteligencia artificial generativa para llevar a cabo revisiones independientes, existen preocupaciones importantes relacionadas con el uso de LLMs en contextos de revisión. Estas preocupaciones se refieren, por ejemplo, a la forma en que los desarrolladores de herramientas de inteligencia artificial generativa utilizan los datos proporcionados. Especialmente cuando se envían conjuntos de datos que pueden contener información personal o confidencial, la forma en que los desarrolladores de las herramientas utilizan el contenido proporcionado debería ser transparente, lo cual no es el caso en la actualidad. Además, las herramientas de inteligencia artificial generativa corren el riesgo de agravar algunos de los sesgos existentes en la revisión por pares, ya que reproducen contenido y sesgos presentes en sus datos de entrenamiento. En tercer lugar, dado que estas herramientas evolucionan rápidamente y su resultado depende en gran medida de la indicación proporcionada (incluso cambios menores podrían tener un gran impacto en el contenido generado), su resultado no siempre es reproducible. Esto plantea dudas sobre la robustez de las revisiones generadas con la ayuda de la inteligencia artificial, lo que refuerza la idea de que la inteligencia artificial generativa solo podría servir para mejorar (en cuanto a formato, tono, gramática y legibilidad) las revisiones que han sido escritas por revisores humanos.


Externalización del elemento social de la revisión por pares

Otra preocupación se relaciona con el hecho de que la revisión por pares es un proceso inherentemente social. De hecho, en lugar de ser un mecanismo de control mecánicamente objetivo, la revisión por pares se basa en las interacciones entre colegas acerca de lo que significa hacer buena ciencia. Por lo tanto, el proceso es un medio importante para debatir y negociar las normas de la comunidad acerca de qué preguntas deben abordarse, qué métodos son apropiados o aceptables, qué formas de comunicación son más adecuadas y muchas otras cuestiones. La revisión por pares también es un componente constitutivo fundamental de la integridad de la investigación y las normas éticas. En un estudio reciente, descubrimos que, en lo que respecta a las normas de integridad de la investigación, los investigadores valoran principalmente la opinión de sus pares epistémicos, es decir, aquellos que publican en las mismas revistas o asisten a las mismas conferencias, en lugar de, por ejemplo, otros colegas que trabajan en el mismo instituto. Los procesos de revisión por pares son un lugar destacado donde los expertos «se encuentran» y donde se desarrollan discusiones sobre estos temas, de manera implícita o explícita. Externalizar estos procesos a herramientas automatizadas podría empobrecer estas discusiones y tener consecuencias imprevistas más amplias.

Desarrollos recientes

En los último meses varios acontecimientos han cambiado el panorama de la inteligencia artificial generativa y han tenido un impacto en su uso con fines de revisión académica por pares. La reacción de algunos financiadores, como el National Institutes of Health (NIH) [Notice number NOT-OD-23-149] y Australian Research Council [Policy on Use of Generative Artificial Intelligence in the ARC’s grants programs]) que han prohibido el uso de la inteligencia artificial generativa en sus procesos de revisión y evaluación de subvenciones, se encuentra entre estos cambios.

Estos financiadores están principalmente preocupados por la confidencialidad y la generación de contenido falso, y con razón. La revisión de subvenciones es un juego diferente en comparación con las revisiones de artículos en revistas, ya que lo primero moldea las agendas de investigación y el acceso a recursos financieros, mientras que lo segundo informa principalmente sobre los resultados de estudios que ya se han realizado y, a veces, se han publicado como preprints.

En cuanto a la generación de contenido falso, los modelos de inteligencia artificial generativa aún cometen errores, incluso a nivel de hechos básicos. Por lo tanto, utilizarlos para revisar subvenciones y posteriormente distribuir fondos podría dañar seriamente la integridad del flujo de trabajo de los financiadores y comprometer la legitimidad de las decisiones de financiamiento. Además, las solicitudes de subvención a veces contienen información detallada sobre cada miembro del proyecto, cuya privacidad podría verse comprometida si se comparte con terceros. Esto también es una preocupación principal cuando se utiliza la inteligencia artificial generativa para revisar manuscritos o conjuntos de datos, que podrían contener información personal o sensible sobre los participantes en la investigación o tecnologías.

Las aplicaciones de la inteligencia artificial generativa todavía se encuentran en fases tempranas de desarrollo y en un futuro cercano podrían beneficiar el proceso de revisión por pares de muchas maneras. Dicho esto, dadas las limitaciones de esta tecnología, se deberían fomentar experimentos a pequeña escala y una adopción gradual. También debemos estar preparados para poner fin a su uso cuando sea necesario o en casos en los que los riesgos superen a los beneficios.

Si bien apoyamos la prohibición de las aplicaciones de inteligencia artificial generativa en algunos contextos, también tenemos preocupaciones sobre esta estrategia a largo plazo. Además de la complicada pregunta de cómo hacer cumplir dicha prohibición y supervisar el cumplimiento, siempre es necesario equilibrar las preocupaciones en relación con la inteligencia artificial generativa con sus beneficios en términos de eficiencia, que podrían liberar recursos financieros (en el caso de los financiadores, para financiar proyectos adicionales). En el futuro, recomendamos a los diferentes grupos de usuarios en la academia que revisen y modifiquen con frecuencia sus políticas sobre el uso de aplicaciones de inteligencia artificial generativa en función de las circunstancias y adopten medidas de mitigación de riesgos que se adapten a su contexto específico.

Plan de acción EDUCAUSE Horizon 2023: IA Generativa

Texto completo

En 2023, la IA generativa surgió como la tecnología más rápidamente adoptada de la historia. Todos los miembros de la comunidad de la enseñanza superior, desde los estudiantes hasta los gestores, intentan determinar qué impacto pueden, quieren y deben tener las herramientas de IA generativa en la vida, el aprendizaje y el trabajo. Para complicar aún más las cosas, no hay consenso sobre cómo o incluso si la IA generativa debe desempeñar un papel en el futuro de la enseñanza superior.

Sobre la base de las tendencias, tecnologías y prácticas descritas en el Informe EDUCAUSE Horizon 2023: Edición sobre Enseñanza y Aprendizaje, el grupo de expertos del informe elaboró su visión del futuro junto con acciones prácticas que los individuos pueden aplicar en el futuro.

Cuando se les pidió que describieran el estado de la IA generativa que les gustaría ver en la educación superior dentro de 10 años, los panelistas construyeron en colaboración su futuro preferido, Así:

Los desarrolladores e investigadores de IA generativa desean formas de garantizar que los procesos y los resultados sean iguales representativos e imparciales. Los desarrolladores dan prioridad consideraciones éticas como la transparencia algorítmica y seguridad de los datos, la accesibilidad, la equidad y la inclusión. Los usuarios finales deben tener pleno control sobre el uso que instituciones y empresas sus datos y su propiedad intelectual. La formación en IA para estudiantes y profesionales se basaría en prácticas éticas. Las herramientas de IA generativa deben diseñarse con salvaguardias para garantizar que funcionan dentro de los límites de los objetivos de los desarrolladores. Los desarrolladores y usuarios finales de IA generativa tienen que establecer conjuntos de datos de referencia específicos para diversos contextos de la enseñanza superior.