Archivo de la etiqueta: Recomendaciones

Plan de Acción EDUCAUSE 2024: Políticas y directrices de AI

EDUCAUSE. «2024 EDUCAUSE Action Plan: AI Policies and Guidelines». Accedido 26 de mayo de 2024. https://www.educause.edu/research/2024/2024-educause-action-plan-ai-policies-and-guidelines.

El Estudio del Panorama de la IA 2024 de EDUCAUSE, basado en una encuesta a más de 900 profesionales de tecnología en educación superior, reveló brechas significativas en las políticas y directrices relacionadas con la IA en la educación superior

«Solo el 23% de los encuestados indicó que su institución tiene políticas de uso aceptable relacionadas con la IA ya implementadas, y casi la mitad (48%) de los encuestados no estuvo de acuerdo o estuvo en desacuerdo en que su institución tiene políticas y directrices adecuadas para permitir una toma de decisiones ética y efectiva sobre el uso de la IA».

Más de un año después del «renacimiento de la IA» que revolucionó las expectativas dentro y fuera del aula, la mayoría de las instituciones aún están intentando ponerse al día y establecer políticas y directrices que ayuden a sus líderes, personal, profesores y estudiantes a utilizar estas nuevas y poderosas tecnologías de manera efectiva y segura.

Afortunadamente, las instituciones no necesitan empezar desde cero en el desarrollo de sus políticas y directrices de IA. Gracias al trabajo de Cecilia Ka Yuk Chan y WCET, las instituciones cuentan con una base sobre la cual construir, un marco de políticas que abarca la gobernanza institucional, las operaciones y la pedagogía. Este marco ayuda a garantizar que las políticas y directrices relacionadas con la IA aborden de manera integral aspectos críticos de la vida y el funcionamiento institucional:

Gobernanza incluye la gestión de datos, la evaluación del uso de la IA en toda la institución, la promoción y el monitoreo del uso de la IA por parte de profesores y personal (incluida la investigación), el acceso inclusivo y equitativo, la propiedad intelectual y el uso de la IA para prácticas de promoción, tenencia y recontratación.

Operaciones abarca el desarrollo profesional (capacitación y apoyo), el desarrollo y mantenimiento de la infraestructura para la IA, y la revisión y recomendación de la implementación de la IA para mejorar las prácticas operativas.

Pedagogía incluye la integridad académica, las prácticas de evaluación, la comunicación clara a los estudiantes sobre las expectativas de la IA, el desarrollo de competencias y habilidades en IA para la preparación laboral, la comprensión del sesgo algorítmico, la interacción regular y sustantiva, y la accesibilidad del aprendizaje.

Con este marco como telón de fondo, se desarrolló este plan de acción convocando a un panel de profesionales de tecnología en educación superior para proponer posibles acciones que las instituciones podrían tomar en los próximos dos años para comenzar a establecer políticas y directrices efectivas de IA. Se pidió a los panelistas que revisaran el contenido del Plan de Acción de Horizon 2023 de EDUCAUSE: IA Generativa, reflexionando específicamente sobre el «futuro preferido» descrito en este informe, y que enumeraran los posibles impactos de las políticas y directrices de IA en individuos, unidades, instituciones y colaboraciones entre instituciones. Luego se les pidió a los panelistas que consideraran las acciones que podrían ayudar a los interesados en la educación superior a navegar tanto las políticas y directrices de IA existentes como las nuevas.

En comparación con la línea de tiempo de diez años que normalmente se utiliza para el trabajo de previsión, la ventana de dos años permitió a los panelistas reflexionar sobre los desafíos y oportunidades mucho más inmediatos para la planificación y toma de decisiones del presente. Las capacidades y necesidades de la IA están evolucionando rápidamente, y los líderes de la educación superior deben tomar medidas ahora. Delineando acciones que pueden aprovechar las políticas y directrices existentes o ayudarnos a crear nuevas, el panel ha comenzado a trazar un camino a seguir para la práctica de la IA en la educación superior que esperamos encuentre perspicaz, relevante y accionable.

EDUCAUSE y la Cooperativa WICHE para Tecnologías Educativas (WCET) colaboraron en la planificación y recopilación de datos para este plan de acción.

Aprovechando Políticas y Directrices Existentes

Muchas instituciones ya tienen políticas, directrices y procesos que, aunque no específicos para la IA, podrían estar relacionados o ser aplicables a herramientas y prácticas de IA. En lugar de «reinventar la rueda» creando un conjunto completamente nuevo de políticas y directrices, los líderes de estas instituciones podrían centrarse en comprender cómo aprovechar mejor los recursos y apoyos existentes. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a construir sobre lo que ya existe:

Acciones Individuales

  • Familiarizarse con herramientas comunes de IA.
  • Ser buenos administradores de los datos institucionales y las directrices existentes.
  • Desarrollar la alfabetización individual en IA.

Acciones Departamentales o de Unidad

  • Aclarar qué políticas departamentales o de unidad existentes se aplican a la IA y cuáles no.
  • Desarrollar un lenguaje estándar para múltiples tipos de uso de IA en los cursos.
  • Crear oportunidades de colaboración para descubrir qué funciona y qué no.

Acciones Institucionales

  • Formar comités interfuncionales y comunidades de práctica para evaluar y mejorar las prácticas de IA.
  • Ampliar la formación profesional existente para incluir capacitación en IA para todo el personal docente, administrativo y estudiantil.
  • Mapear las políticas y directrices de IA a la misión, valores y estrategias existentes de la institución.

Acciones Multiinstitucionales

  • Colaborar para crear un entendimiento común de las implicaciones potenciales de las regulaciones estatales/federales.
  • Desarrollar criterios de evaluación que puedan añadirse a los recursos existentes.
  • Colaborar con instituciones pares para revisar y comparar políticas y procedimientos de IA.

Creación de Nuevas Políticas y Directrices

Aunque los recursos y apoyos existentes pueden ayudar con algunas necesidades relacionadas con la IA, las tecnologías y prácticas de IA incipientes pueden presentar desafíos novedosos que las políticas y directrices existentes simplemente no abordan. En estos casos, las instituciones pueden necesitar crear nuevas políticas y directrices y establecer nuevas estructuras y apoyos para ayudar a los interesados a navegar estas aguas inexploradas. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a saber por dónde empezar cuando tienen una hoja en blanco frente a ellos:

Acciones Individuales

  • Incorporar las voces y perspectivas de los estudiantes al desarrollar nuevas políticas y directrices.
  • Recomendar escenarios o problemas para los que se necesita orientación adicional sobre IA.
  • Ser transparentes y abiertos sobre el uso de IA para generar conversación, incluyendo la documentación de casos de uso nuevos y emergentes.

Acciones Departamentales o de Unidad

  • Revisar regularmente los programas académicos y cursos para determinar dónde debe mejorarse y apoyarse el uso de IA y/o la alfabetización.
  • Desarrollar nuevas colaboraciones para romper barreras.
  • Establecer políticas y procedimientos claros para temas relacionados con la tenencia y promoción de IA.

Acciones Institucionales

  • Garantizar el acceso equitativo a herramientas de IA en todo el campus.
  • Contratar líderes y/o personal específicamente encargado de dirigir la IA para la institución.
  • Crear una estructura de gobernanza de IA de alto nivel (fuera de TI), incluyendo auditorías regulares.

Acciones Multiinstitucionales

  • Construir marcos compartidos para evaluar productos y modelos de IA internos y de proveedores.
  • Aprovechar la comunidad de educación superior y los estándares de cumplimiento comunes para presionar a los proveedores de soluciones de IA para que satisfagan las necesidades de la educación superior.
  • Lanzar iniciativas interinstitucionales para avanzar en las políticas y estándares de IA.

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

Nuevas directrices sobre Inteligencia Artificial para bibliotecas universitarias y de investigación

Research Libraries Guiding Principles for Artificial
Intelligence
Association of Research Libraries (ARL), abril 2024

Texto completo

La Asociación de Bibliotecas de Investigación (ARL) ha presentado un conjunto de siete principios guía dirigidos a los bibliotecarios universitarios, con el objetivo de orientar su labor ante el creciente uso de inteligencia artificial generativa.

En los dos años transcurridos desde el lanzamiento de ChatGPT, los bibliotecarios han sido solicitados frecuentemente para liderar la investigación y el desarrollo de la tecnología emergente de IA, abordando preguntas sobre derechos de autor y preocupaciones de citación. Algunos bibliotecarios han creado sus propias guías de IA o lanzado proyectos piloto para abordan algunas inquietudes académicas.

Los siete principios de la ARL se centran en el desarrollo y la implementación de la IA generativa, que generalmente se refiere a modelos de lenguaje grande como ChatGPT de OpenAI. La asociación afirma que los principios tienen como objetivo «promover prácticas éticas y transparentes, y generar confianza entre los interesados, tanto en las bibliotecas de investigación como en todo el entorno de investigación».

Principios Guía de la ARL

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca y a los profesionales de TI sobre la IA.
  2. Entender y crear conciencia sobre el sesgo de la IA: Ayudar a los usuarios a navegar y evaluar la IA considerando posibles distorsiones en la información e imágenes generadas.
  3. Defender la apertura y la transparencia: Enfocarse en los algoritmos, datos de entrenamiento y metodologías utilizadas para crear la IA.
  4. Reconocer que no hay IA sin humanos: La participación humana es necesaria en consideraciones éticas, de accesibilidad y de fiabilidad al usar IA en entornos de investigación.
  5. La seguridad y la privacidad son clave: Abogar por leyes y regulaciones que prioricen la información personal de los usuarios de la biblioteca.
  6. Continuar la aplicación de la ley de derechos de autor: Preservar los derechos de las bibliotecas para fines de investigación y educación, y abordar la intersección de los derechos de autor con la IA.
  7. Equidad en la información digital: Asegurar que la ley de derechos de autor guíe los contratos con revistas académicas e instituciones de investigación, y promover el uso justo, la libertad intelectual y de información.

Desarrollo y Aplicación

Las discusiones sobre los principios comenzaron hace más de un año, aproximadamente seis meses después del debut de ChatGPT. Los principios fueron desarrollados a través de ARL Scholars and Scholarship Committee y ARL Advocacy and Public Policy Committee, definidos después de múltiples reuniones y un período de comentarios abiertos para todos los miembros.

Cynthia Hudson Vitale, directora de política científica y becas de la ARL, y Katherine Klosek, directora de política de información y relaciones federales, señalaron que, aunque no hay un plan fijo para revisar y cambiar los principios, están abiertos a la discusión a medida que evolucionan la IA y las preocupaciones relacionadas.

Jeanette Moss, bibliotecaria de apoyo curricular e instrucción en la Universidad Northwestern, afirmó: «Los bibliotecarios siempre han estado en la tarea de enseñar cómo evaluar la información, ya sea información escrita o fuentes de información, por lo que eso no ha cambiado desde que comenzó Internet. Pero ahora tenemos que reforzar aún más ese punto».

Recomendaciones éticas para la investigación en inteligencia artificial del Comité Español de Ética de la Investigación (CEEI)

Recomendaciones éticas para la investigación en inteligencia artificial. Comité Español de Ética de la Investigación (CEEI), 2024

Descargar

Este informe, elaborado en colaboración con la Oficina Española de Prospectiva Tecnológica, analiza los desafíos éticos que plantea el desarrollo y la aplicación de la inteligencia artificial (IA). El CEEI ofrece una serie de recomendaciones para garantizar que la investigación en IA se lleve a cabo de forma responsable y ética, teniendo en cuenta los posibles riesgos y beneficios para la sociedad.

RESPONSABILIDAD EN EL DESARROLLO Y EL USO DE SISTEMAS AUTÓNOMOS

Este conjunto de desafíos se centra en la capacidad de los sistemas de IA para tomar decisiones de manera automática, siempre bajo supervisión humana, conforme a las Directrices Éticas para una IA Fiable publicadas por la Comisión Europea en 2018 y las de la UNESCO de 2021. Aspectos específicos relacionados con la investigación en IA incluyen:

  1. Salvaguardar los derechos humanos y fundamentales: Los investigadores y las instituciones deben asegurar que los sistemas de IA respeten la dignidad, la autodeterminación y los derechos humanos y democráticos.
  2. Salvaguardar el medioambiente: Los sistemas de IA deben desarrollarse considerando su consumo energético y su impacto ambiental.
  3. Responsabilidad: Los investigadores deben proporcionar orientación sobre las decisiones y acciones de los sistemas de IA y colaborar con sus instituciones y otras partes interesadas.
  4. Inspeccionabilidad y trazabilidad: Es necesario identificar las fuentes de datos utilizadas por el sistema y la forma en que toma decisiones para garantizar su transparencia y justicia.
  5. Divulgación de la investigación: Los investigadores deben contribuir al debate público sobre los riesgos y oportunidades de la IA y presentar un balance equilibrado entre ambos.

CONSECUENCIAS SOCIALES Y RESPONSABILIDAD SOCIAL DE LA INVESTIGACIÓN

La IA tiene un gran potencial para generar cambios en diversas áreas de aplicación. En la investigación, es esencial:

  1. Reconocer la incertidumbre: Asesorar adecuadamente sobre la incertidumbre asociada con la investigación en IA y fomentar la investigación interdisciplinar.
  2. Asegurar una participación amplia: Comunicar los riesgos y oportunidades de manera transparente e involucrar a aquellos que se ven más afectados por las decisiones.
  3. Protección de datos y consideración a los individuos: Seguir los principios fundamentales de la protección de datos y asegurar el consentimiento adecuado en el uso de datos personales.

DATOS

El uso de datos, especialmente de grandes cantidades, plantea desafíos éticos en la investigación en IA. Es esencial:

  1. Asegurar la calidad de los datos: Cuestionar la calidad y relevancia de los datos, facilitar el acceso a fuentes de datos abiertas y garantizar la verificabilidad.
  2. Acceso justo a los datos: Asegurar que la investigación, los datos utilizados y los resultados obtenidos estén disponibles públicamente, evitando la evasión de los requisitos de transparencia.

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos. Comité Español de Ética de la Investigación. nov. 2023

Descargar


El Comité Español de Ética en la Investigación ha aprobado su primer informe sobre la autoría y afiliaciones en trabajos científicos y técnicos, en respuesta a un encargo del Ministerio de Ciencia e Innovación. Recomienda que los códigos de buenas prácticas de investigación incluyan pautas sobre la indicación de afiliaciones, priorizando el orden basado en la relación contractual. La nueva Ley de la Ciencia permite la adscripción parcial o total del personal de investigación con terceras entidades, así como la posibilidad de doble afiliación. El Comité, compuesto por expertos en diversas áreas, promueve la ética profesional y la integridad científica, emitiendo informes y recomendaciones sobre estas materias, además de establecer principios para códigos de buenas prácticas en investigación.

Principios Rectores de las Bibliotecas Universitarias y de Investigación para el uso de la Inteligencia Artificial de ARL

Research Libraries Guiding Principles for Artificial Intelligence.” Association of Research Libraries, April 2024

Texto completo


La articulación de un conjunto de principios rectores para la inteligencia artificial (IA) en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general.

La Asociación de Bibliotecas de Investigación (ARL, por sus siglas en inglés) ha publicado un conjunto de «Principios Rectores de las Bibliotecas de Investigación para la Inteligencia Artificial». Las tecnologías de inteligencia artificial (IA), y en particular, la IA generativa, tienen un gran potencial para mejorar el acceso a la información y promover la apertura en los resultados de investigación. Sin embargo, la IA también tiene el potencial de perturbar los paisajes de información y las comunidades que las bibliotecas de investigación apoyan y sirven. La creciente disponibilidad de modelos de IA plantea muchas posibilidades y también suscita varios consideraciones éticas, profesionales y legales.

Articular un conjunto de principios rectores para la IA en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general. Estos principios servirán como un marco fundamental para el uso ético y transparente de la IA, y reflejan los valores que sostienen las bibliotecas de investigación. La ARL se apoyará en estos principios en nuestra defensa política y compromiso.

Desarrollados a través del Comité de Académicos y Academia de la ARL y el Comité de Defensa y Política Pública de la ARL, estos principios han sido creados y refinados después de múltiples reuniones del comité, una sesión de oficina abierta para todos los miembros y un período de comentarios abierto. Durante el período de comentarios abierto solo, recibimos más de 60 comentarios que han sido tenidos en cuenta en el desarrollo de estos principios.

Los principios incluyen:

  1. Las bibliotecas democratizan el acceso a herramientas y tecnología de inteligencia artificial para fomentar la alfabetización digital entre todas las personas.
  2. Las bibliotecas se comprometen a comprender dónde están presentes las distorsiones y sesgos en los modelos y aplicaciones de IA.
  3. Las bibliotecas abogan por la transparencia e integridad de la información.
  4. Las bibliotecas creen en la importancia de la participación humana en los procesos de toma de decisiones críticas relacionadas con la IA.
  5. Las bibliotecas priorizan la seguridad y privacidad de los usuarios en el uso de herramientas y tecnología de IA.
  6. Las bibliotecas consideran que la ley de derechos de autor en Estados Unidos y Canadá es lo suficientemente flexible y robusta como para responder a muchos problemas de derechos de autor que surgen de la intersección de la tecnología y la inteligencia artificial.
  7. Las bibliotecas negocian para preservar el uso académico de la información digital.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.

Directrices para maestros de estudiantes con discapacidades del aprendizaje general

Guidelines for Teachers of Students with General Learning Disabilities. 2007

Texto completo

Estas directrices han sido desarrolladas para ayudar a los maestros y otros en satisfacer las necesidades de los estudiantes con discapacidades del aprendizaje general. Pueden ser utilizadas en escuelas primarias regulares, escuelas primarias especiales, escuelas secundarias y otros entornos educativos. Están destinadas para ser utilizadas por todos los maestros y también deberían ser accesibles para una variedad de otros profesionales directamente involucrados en la educación del estudiante. Estos incluyen Asistentes de Necesidades Especiales, terapeutas, personal directivo, padres, consejeros de orientación, cuidadores, servicios de apoyo consultivo y profesionales de la salud, servicios sociales y el sector voluntario.

Inteligencia Artificial Generativa en la Educación Superior: evidencia de un análisis de políticas y directrices institucionales

McDonald, Nora, Aditya Johri, Areej Ali, y Aayushi Hingle. «Generative Artificial Intelligence in Higher Education: Evidence from an Analysis of Institutional Policies and Guidelines». arXiv, 12 de enero de 2024. https://doi.org/10.48550/arXiv.2402.01659.

El lanzamiento de ChatGPT en noviembre de 2022 provocó una adopción masiva de inteligencia artificial generativa (GenAI) en instituciones de educación superior (IES). Las IES se apresuraron a responder a su uso, especialmente por parte de los estudiantes, primero buscando regularlo y luego argumentando a favor de su integración productiva en la enseñanza y el aprendizaje.

En el año transcurrido desde el lanzamiento, las instituciones de educación superior (IES) han proporcionado cada vez más políticas y pautas para dirigir la GenAI. En este artículo se examinaron documentos producidos por 116 universidades estadounidenses categorizadas como instituciones de alta actividad investigadora o R1 con el fin de comprender comprehensivamente los consejos y orientaciones relacionados con la GenAI dados a los interesados institucionales.

A través de un análisis extenso, se encontró que la mayoría de las universidades (N=73, 63%) fomentan el uso de GenAI y muchas proporcionan orientación detallada para su uso en el aula (N=48, 41%). Más de la mitad de todas las instituciones proporcionaron programas de estudios de muestra (N=65, 56%) y la mitad (N=58, 50%) proporcionaron currículos de muestra y actividades de GenAI que ayudarían a los instructores a integrar y aprovechar la GenAI en su aula. Notablemente, la mayoría de la orientación para las actividades se centró en la escritura, mientras que el código y las actividades relacionadas con STEM se mencionaron la mitad del tiempo y de manera vaga incluso cuando lo estaban (N=58, 50%). Finalmente, más de la mitad de las instituciones hablaron sobre la ética de la GenAI en una variedad de temas de manera amplia, incluyendo la Diversidad, Equidad e Inclusión (DEI) (N=60, 52%).

En general, basándose en sus hallazgos, se advierte que la orientación para el profesorado puede volverse abrumadora, ya que se recomienda a menudo una revisión extensa de los enfoques pedagógicos en las políticas.

Declaración conjunta sobre Datos de Investigación de STM, DataCite y Crossref

«Joint Statement on Research Data – DataCite». DataCie. Accedido 29 de noviembre de 2023. https://datacite.org/blog/joint-statement-on-research-data/.

Ampliar imagen


En 2012, DataCite y STM redactaron una declaración conjunta inicial sobre la vinculación y citación de datos de investigación. Desde entonces, ha habido un progreso significativo, con casi 10 millones de citas de datos rastreadas, numerosos repositorios adoptando las mejores prácticas de citación de datos, miles de revistas implementando políticas de datos, proporcionando declaraciones de disponibilidad de datos, estableciendo enlaces persistentes entre artículos y conjuntos de datos, y observando un número creciente de financiadores introduciendo políticas de datos. Dado este avance, el enfoque actual es actualizar las recomendaciones para los diversos interesados involucrados en el intercambio de datos de investigación.

La premisa de la declaración conjunta original sigue siendo válida: la mayoría de los interesados, desde investigadores y financiadores hasta bibliotecarios y editores, están de acuerdo sobre los beneficios de poner los datos de investigación a disposición y hacerlos localizables para su reutilización por parte de otros. Esto mejora la utilidad y rigor del registro académico. Sin embargo, compartir datos de investigación aún no es un paso evidente en el ciclo de vida de la investigación. Ahora contamos con una infraestructura de comunicación académica suficiente para generar un cambio generalizado y creemos que está ganando impulso para la acción colectiva.

En este contexto, DataCite, una comunidad global con más de 3000 repositorios en todo el mundo, y STM, cuya membresía incluye a más de 140 organizaciones de publicación científica, técnica y médica, están emitiendo esta declaración conjunta. Crossref, una infraestructura abierta sin fines de lucro con más de 18.000 miembros institucionales de 150 países, se une a este llamado, reconociendo la necesidad de un enfoque más amplio en la citación de datos. El objetivo de esta declaración es acelerar la adopción de mejores prácticas y políticas, y fomentar el desarrollo continuo de políticas críticas en colaboración con un amplio grupo de interesados.


Los signatarios de esta declaración recomiendan lo siguiente como mejores prácticas en el intercambio de datos de investigación:

  1. Cuando publican sus resultados, los investigadores depositan los datos de investigación relacionados y los resultados en un repositorio de datos confiable que asigna identificadores persistentes (DOIs cuando están disponibles). Los investigadores enlazan a los datos de investigación utilizando identificadores persistentes.
  2. Al utilizar datos de investigación creados por otros, los investigadores brindan atribución citando los conjuntos de datos en la sección de referencias mediante identificadores persistentes.
  3. Los repositorios de datos facilitan el intercambio de resultados de investigación de manera FAIR, incluido el soporte para la calidad y completitud de los metadatos.
  4. Los editores establecen políticas de datos apropiadas para las revistas, describiendo la forma en que se compartirán los datos junto con el artículo publicado.
  5. Los editores establecen instrucciones para que los autores incluyan Citas de Datos con identificadores persistentes en la sección de referencias de los artículos.
  6. Los editores incluyen Citas de Datos y enlaces a datos en Declaraciones de Disponibilidad de Datos con identificadores persistentes (DOIs cuando están disponibles) en los metadatos del artículo registrados en Crossref.
  7. Además de las Citas de Datos, las Declaraciones de Disponibilidad de Datos (legibles por humanos y máquinas) se incluyen en los artículos publicados cuando corresponde.
  8. Los repositorios y los editores conectan artículos y conjuntos de datos mediante conexiones de identificadores persistentes en los metadatos y listas de referencias.
  9. Los financiadores y las organizaciones de investigación brindan a los investigadores orientación sobre prácticas de ciencia abierta, rastrean el cumplimiento de políticas de ciencia abierta cuando es posible y promueven e incentivan a los investigadores a compartir, citar y vincular abiertamente los datos de investigación.
  10. Los financiadores, instituciones de formulación de políticas, editores y organizaciones de investigación colaboran para alinear las políticas y directrices FAIR de datos de investigación.
  11. Todos los interesados colaboran en el desarrollo de herramientas, procesos e incentivos a lo largo del ciclo de investigación para facilitar el intercambio de datos de investigación de alta calidad, haciendo que todos los pasos del proceso sean claros, fáciles y eficientes para los investigadores mediante el suministro de apoyo y orientación.
  12. Los interesados responsables de la evaluación de la investigación tienen en cuenta el intercambio de datos y la citación de datos en sus estructuras de sistemas de recompensas y reconocimiento.