Archivo de la etiqueta: Inteligencia artificial

ChatGPT recuerda quien eres y tu historial para personalizar los resultados de búsqueda

Goode, Lauren. «OpenAI Gives ChatGPT a Memory». Wired. Accedido 16 de febrero de 2024. https://www.wired.com/story/chatgpt-memory-openai/.

La promesa y el peligro de Internet siempre ha sido una memoria mayor que la nuestra, un recuerdo permanente de información y eventos que nuestros cerebros no pueden almacenar. Más recientemente, las empresas tecnológicas han prometido que los asistentes virtuales y los chatbots podrían manejar parte de la carga mnemotécnica al recordar y recordar. Es una visión de Internet como una capa de conversación en lugar de un repositorio.

Esto es lo que la última versión de OpenAI pretende proporcionar. La empresa está empezando a implementar la memoria a largo plazo en ChatGPT, una función que mantiene un registro de quién eres, cómo trabajas y sobre qué te gusta conversar. Llamada simplemente Memoria, es una característica de personalización de IA que potencia la herramienta de «instrucciones personalizadas» que OpenAI lanzó en julio pasado. Utilizando las instrucciones personalizadas de ChatGPT, una persona podría decirle al chatbot que es un periodista de tecnología basado en el Área de la Bahía que disfruta del surf, y el chatbot tendría en cuenta esa información en futuras respuestas dentro de esa conversación, como una primera cita que nunca olvida los detalles.

Ahora, la memoria de ChatGPT persiste en múltiples conversaciones. El servicio también recordará detalles personales sobre un usuario de ChatGPT incluso si no hacen una instrucción personalizada o le dicen directamente al chatbot que recuerde algo; simplemente recoge y almacena detalles a medida que avanzan las conversaciones. Esto funcionará tanto en la versión gratuita (ChatGPT 3.5) como en la de pago (ChatGPT 4).

En una demostración con WIRED previa al lanzamiento de esta función, Joanne Jang, jefa de producto de la empresa para el comportamiento de los modelos, tecleó algunas consultas de ejemplo. En una de ellas, Jang pidió a ChatGPT que escribiera un post en las redes sociales para la inauguración de una cafetería llamada Catio el día de San Valentín; el bot realizó la tarea. En otro post, Jang indicó que iba a abrir una cafetería llamada Catio el día de San Valentín. El bot había almacenado esta información sobre ella. Del mismo modo, cuando Jang pidió un consejo sobre programación e indicó que utilizaba Python, ChatGPT registró en la memoria que Jang utiliza exclusivamente Python.

Estos datos aparecerán en todas las conversaciones futuras de Jang con ChatGPT. Incluso si no hace referencia a Catio directamente en otro chat, ChatGPT lo mencionará cuando sea relevante.

El último prompt: estrategias en torno a la adopción de la Inteligencia Artificial

Ossa, Andrés. O último prompt. (2024). Cerlalc. Recuperado 15 de febrero de 2024, de

Texto completo

Español

Portugués


Las personas a menudo adoptan una de estas tres estrategias para integrar las innovaciones tecnológicas en sus vidas diarias: 1) usarlas como una extensión de habilidades preexistentes, como el uso del teléfono para ampliar la comunicación verbal; 2) utilizarlas para superar limitaciones físicas, como el desarrollo de aeronaves que permiten alcanzar los cielos; y 3) delegar tareas consideradas tediosas o difíciles de aprender, como optar por un grabador para documentar reuniones en lugar de taquigrafía. En la práctica, estas estrategias a menudo se combinan para crear aprovechamientos multifacéticos de los avances que redefinen nuestra existencia.

Frente al surgimiento de la inteligencia artificial, parece que la sociedad está inclinándose hacia una combinación de las tres estrategias de adaptación mencionadas anteriormente, sin estar plenamente consciente de los peligros o beneficios que esto puede representar para los cimientos de nuestra civilización. Hace 66 años, Isaac Asimov, en sus cuentos «La última respuesta» y «La última pregunta», ofreció algunas indicaciones sobre cómo debemos enfrentar los desafíos presentados por una tecnología tan disruptiva para nuestra sociedad. Una inteligencia artificial que plantea desafíos a partir de las nuevas excepciones que los derechos de autor podrían tener, la redefinición del concepto de creatividad y originalidad, la resolución de problemas complejos para fines humanitarios, el impacto en el empleo e incluso nuevas tácticas para librar la guerra, entre otros temas.

Panorama actual de la inteligencia artificial (IA) en la educación superior

EDUCAUSE. «2024 EDUCAUSE AI Landscape Study – Introduction and Key Findings.» Accessed February 14, 2024. https://www.educause.edu/ecar/research-publications/2024/2024-educause-ai-landscape-study/introduction-and-key-findings.

El panorama actual de la inteligencia artificial (IA) en la educación superior está marcado por un movimiento de la reacción a la acción. Los actores clave de la educación superior están explorando las oportunidades que ofrece la IA para la enseñanza, el aprendizaje y el trabajo, al mismo tiempo que mantienen una cautela frente a la amplia gama de riesgos que plantean las tecnologías impulsadas por la IA. Con el fin de contribuir a estos esfuerzos, presentamos este primer Estudio del Panorama de la IA en EDUCAUSE, en el cual resumimos los sentimientos y experiencias actuales de la comunidad de educación superior en relación con la planificación estratégica y la preparación, las políticas y procedimientos, la fuerza laboral y el futuro de la IA en la educación superior. Esta encuesta se distribuyó del 27 de noviembre al 8 de diciembre de 2023, y se centra en los impactos que la IA ha tenido en la educación superior desde la popularización de las herramientas de IA generativa.

Principales Hallazgos

Planificación Estratégica y Preparación

  • La mayoría de las instituciones están trabajando en estrategias relacionadas con la IA. Solo el 11% de los encuestados dijo que nadie en su institución está trabajando en una estrategia relacionada con la IA.
  • Las instituciones están preocupadas por quedarse rezagadas. La mayoría de los encuestados indicaron que el aumento del uso de la IA por parte de los estudiantes en sus cursos y los riesgos del uso inapropiado de la IA (73% y 68%, respectivamente) fueron los principales motivadores para la planificación estratégica relacionada con la IA.
  • Los objetivos de la planificación estratégica relacionada con la IA están principalmente relacionados con el apoyo a los estudiantes. Los tres objetivos más importantes de la planificación estratégica relacionada con la IA son preparar a los estudiantes para la futura fuerza laboral, explorar nuevos métodos de enseñanza y aprendizaje, y mejorar la educación superior para el bien común (seleccionado por el 64%, 63% y 41% de los encuestados, respectivamente). Además, la mayoría de los encuestados indicaron que su estrategia relacionada con la IA se enfoca hasta cierto punto o en gran medida en mejorar las experiencias educativas y los servicios estudiantiles (76%).
  • Las instituciones están operacionalizando estos objetivos principalmente proporcionando capacitación para profesores, personal y estudiantes (56%, 49% y 39%, respectivamente).

Líderes y Socios Estratégicos

  • Los líderes están cautelosamente optimistas sobre la IA. La mayoría de los encuestados ejecutivos informaron que los líderes de su institución están abordando la IA con una combinación de precaución y entusiasmo o se sienten optimistas sobre la IA (52% y 29%, respectivamente).
  • Los interesados carecen de conciencia sobre los sentimientos, estrategias y políticas relacionadas con la IA en sus instituciones, probablemente como resultado de los silos institucionales.
  • Más de la mitad de los encuestados (56%) indicaron que personalmente se les han asignado responsabilidades relacionadas con la estrategia de IA.
  • La mayoría de los encuestados indicaron que todas las áreas funcionales son al menos en cierta medida responsables de la estrategia relacionada con la IA.
  • Más de la mitad de los encuestados (57%) indicaron que su institución no está trabajando con socios externos para desarrollar estrategias de IA o que no saben si su institución está trabajando con socios externos para desarrollar estrategias de IA.

Políticas y Procedimientos

  • La IA está teniendo el mayor impacto en las políticas para la enseñanza y el aprendizaje, la tecnología y la ciberseguridad y privacidad de datos (reportado por el 95%, 79% y 72% de los encuestados, respectivamente, como «ya impactado» o «pronto impactado»).
  • La integridad académica sigue siendo una preocupación importante. La mayoría de los encuestados (78%) indicaron que la IA ha afectado la integridad académica.
  • Las prácticas de gobernanza de datos están cambiando en respuesta a la IA. Casi la mitad de los líderes ejecutivos (47%) dijeron que su institución está preparando datos para estar listos para la IA.
  • La privacidad y seguridad de datos son preocupaciones centrales. Los profesionales de privacidad y seguridad están más preocupados por la seguridad de datos (82%), el cumplimiento de regulaciones federales (74%), la gobernanza ética de datos (56%), el cumplimiento de regulaciones locales (56%) y los impactos de sesgos en los datos (52%).
  • Solo el 18% de los encuestados dijeron que sus políticas relacionadas con la IA son algo o extremadamente restrictivas, por ejemplo, prohibiendo el uso de estudiantes o profesores.

Fuerza Laboral y el Futuro de la IA en la Educación Superior

  • Aunque a muchos profesores y personal se les están asignando tareas laborales relacionadas con la IA, pocos roles laborales se han creado o reestructurado formalmente para adaptarse a dichas tareas. Más de la mitad de los encuestados (56%) informaron que se les han asignado personalmente responsabilidades relacionadas con la IA, pero pocos encuestados estaban al tanto de la creación de nuevos puestos de trabajo o la modificación formal de puestos de trabajo existentes (11% y 14%, respectivamente).
  • Los interesados sienten que hay algunos usos apropiados para las tecnologías impulsadas por IA en la educación superior: apoyo personalizado al estudiante; actuación como asistente de ense

Alucinaciones de la IA: un término incorrecto que vale la pena aclarar

Maleki, N., Padmanabhan, B., & Dutta, K. (2024). AI Hallucinations: A Misnomer Worth Clarifying (arXiv:2401.06796). arXiv. https://doi.org/10.48550/arXiv.2401.06796

Las «alucinaciones» en el contexto de la Inteligencia Artificial (IA) se refieren a errores o distorsiones en la generación de texto o imágenes por parte de sistemas de IA. Estos errores pueden manifestarse como la creación de contenido incoherente, ilógico o incluso perturbador por parte del modelo de IA, a pesar de que no hay una entrada correspondiente que justifique dicha salida. Las alucinaciones pueden ocurrir debido a deficiencias en los datos de entrenamiento, problemas en la arquitectura del modelo, sesgos en los algoritmos utilizados o simplemente a la complejidad inherente de las tareas de generación de contenido. Las alucinaciones son un desafío importante en el desarrollo de sistemas de IA, especialmente en áreas donde la precisión y coherencia son fundamentales, como la traducción automática, la generación de texto y la creación de imágenes.

A medida que los modelos de lenguaje grandes continúan avanzando en la Inteligencia Artificial (IA), se ha demostrado que los sistemas de generación de texto sufren de un fenómeno problemático denominado a menudo «alucinación». Sin embargo, con la creciente presencia de la IA en diversos ámbitos, incluida la medicina, han surgido preocupaciones sobre el uso del término en sí mismo.

En el ámbito médico, la adopción del término «alucinación» en IA ha generado preocupaciones, especialmente por su posible asociación estigmatizante con problemas de salud mental como la esquizofrenia. Para abordar estas preocupaciones, se sugiere establecer terminologías consistentes y definiciones formales de «alucinación» en el contexto de la IA. Esto promovería la claridad y coherencia en las discusiones y mitigaría la confusión y ambigüedad en su aplicación interdisciplinaria.

En este estudio, se realiza una revisión sistemática para identificar documentos que definen «alucinación de la IA» en catorce bases de datos. Se presentan y analizan las definiciones obtenidas en todas las bases de datos, se categorizan según sus aplicaciones y se extraen puntos clave dentro de cada categoría.

Los resultados destacan una falta de consistencia en cómo se utiliza el término, pero también ayudan a identificar varios términos alternativos en la literatura. Se discuten las implicaciones de estos hallazgos y se hace un llamado a un esfuerzo más unificado para establecer una consistencia en un importante problema contemporáneo de IA que puede afectar significativamente múltiples dominios.

WARC-GPT: Una herramienta de código abierto para explorar archivos web utilizando IA

WARC-GPT: An Open-Source Tool for Exploring Web Archives Using AI | Library Innovation Lab. (2024, febrero 12). https://lil.law.harvard.edu/blog/2024/02/12/warc-gpt-an-open-source-tool-for-exploring-web-archives-with-ai/

WARC-GPT: una herramienta de generación aumentada de recuperación [RAG] de código abierto y altamente personalizable que la comunidad de archivos web puede usar para explorar la intersección entre los archivos web y la inteligencia artificial. La herramienta permite crear chatbots personalizados que utilizan un conjunto de archivos de archivo web como base de conocimiento, lo que permite a los usuarios explorar colecciones a través de conversaciones.

Con WARC-GPT, se pueden hacer preguntas específicas en lenguaje natural sobre una colección de archivos WARC. En lugar de depender de búsquedas por palabras clave y filtros de metadatos para ordenar los resultados de búsqueda,

Este proyecto es parte de nuestra serie en curso que explora cómo la inteligencia artificial cambia nuestra relación con el conocimiento. El lanzamiento de este software experimental ayudará a comprender si y cómo la IA puede ayudar a acceder y descubrir el contenido de los archivos web.

WARC-GPT permite a los usuarios ingerir y traducir una colección de archivos WARC en una configuración de RAG que se puede utilizar con una variedad de LLMs, lo que permite a los archiveros e investigadores usar un chatbot que tiene conocimiento de sus colecciones. WARC-GPT es especialmente útil para explorar colecciones privadas de WARCs o aquellas que no formaron parte de los datos de entrenamiento para un LLM. Aunque los LLMs generalmente se entrenan con datos de fuentes como Common Crawl, un repositorio abierto de datos de rastreo web que consta de más de 250 mil millones de páginas, no es posible verificar qué datos se han incluido. Al fundamentar el conocimiento de un LLM con una colección de WARCs, se proporciona información contextual relevante que es especialmente útil para consultas específicas o especializadas dentro de un dominio particular.

Ciencia ciudadana, Inteligencia Artificial y narración de historias personales

AI meets citizen science to unlock the nature of storytelling. Newsroom. Recuperado 12 de febrero de 2024, de https://www.mcgill.ca/newsroom/channels/news/ai-meets-citizen-science-unlock-nature-storytelling-354331

Un nuevo proyecto liderado por investigadores de la Universidad McGill busca entender una de las prácticas más antiguas y poderosas de la humanidad: la narración de historias. Desde antiguas tradiciones orales hasta la literatura moderna y las narrativas digitales, la narración de historias es una parte esencial de la experiencia vivida que aún no se comprende completamente.

‘Las Vidas de los Personajes Literarios’ es una iniciativa única en su tipo, que aprovecha la inteligencia artificial (IA) y la sabiduría colectiva de lectores de todo el mundo para explorar la pregunta: ¿por qué contamos historias?

Así como nuestras redes sociales en la vida real pueden revelar quiénes somos como individuos, analizar cómo interactúan los personajes en una historia puede arrojar luz sobre la naturaleza de la narración de historias en diferentes culturas. «Los personajes son el armazón de una gran narración», explica Andrew Piper, profesor del Departamento de Lenguajes de la Universidad McGill. En la actualidad, es posible utilizar modelos de IA para detectar quién es un personaje en una historia, sin embargo, es mucho más complicado entender si y cómo interactúan esos personajes. El esfuerzo por resolver esa pieza del rompecabezas plantea un desafío sin precedentes, ya que solo en el siglo XIX se inventaron más de 1.5 millones de personajes en inglés, y hoy en día ese número es magnitudes más alto.

«La proliferación de historias hoy en día es asombrosa. Simplemente no hay manera de dar cuenta de la amplitud de la creatividad humana sin depender de la IA. Pero estos sistemas a menudo están entrenados de manera sesgada o desconocida. Al contar con la ayuda de los lectores, podemos construir sistemas de IA mejores y más transparentes para descubrir los patrones intrincados en los que se basan las historias humanas», dijo Piper, director del proyecto.

El equipo de investigación hace un llamado a voluntarios para contribuir al proyecto como científicos ciudadanos. A través del portal web Zooniverse, los lectores responden preguntas sobre las interacciones de los personajes en pasajes cortos de ficción contemporánea. Los datos recopilados de forma colaborativa se utilizarán para entrenar a los modelos de IA para comprender mejor a los personajes literarios. Mientras que gran parte del desarrollo de la IA ocurre a puerta cerrada, los resultados de este proyecto estarán abiertos a todos.

«Todos los datos y modelos que generemos estarán abiertos al público, estableciendo un estándar importante para la IA transparente e inclusiva. Nuestro objetivo no es construir narradores robóticos. Queremos obtener una comprensión más profunda de la narración humana», dijo Piper.

‘Las Vidas de los Personajes Literarios’ es un proyecto de Zooniverse que involucra a investigadores de las universidades de McGill, Alberta, California: Berkeley y Michigan. Está financiado por el Consejo de Investigación de Ciencias Sociales y Humanidades de Canadá.

Chips informáticos en cerebros humanos

Hatfield, Jenn, y Alec Tyson. «Computer Chips in Human Brains: How Americans View the Technology amid Recent Advances». Pew Research Center (blog). Accedido 10 de febrero de 2024. https://www.pewresearch.org/short-reads/2024/02/01/computer-chips-in-human-brains-how-americans-view-the-technology-amid-recent-advances/.


El anuncio reciente de Elon Musk sobre el exitoso implante de un chip informático en el cerebro humano a través de Neuralink ha generado un gran interés y debate sobre las implicaciones de esta tecnología. Según una encuesta realizada por el Centro de Investigación Pew en otoño de 2021, los estadounidenses muestran una actitud general de cautela y negatividad hacia el uso extendido de estos chips para mejorar la función cognitiva.

En una encuesta del Centro de Investigación Pew realizada en otoño de 2021, preguntamos a los estadounidenses sobre la perspectiva de implantes cerebrales de chips informáticos que algún día podrían permitir a las personas «procesar información de manera mucho más rápida y precisa». Los estadounidenses generalmente expresaron opiniones cautelosas y negativas sobre la idea, pero sus opiniones variaron según cómo se pudieran usar dichos chips.

Más de la mitad de los adultos estadounidenses (56%) dijeron que el uso generalizado de chips cerebrales para mejorar la función cognitiva sería una mala idea para la sociedad. Solo el 13% dijo que sería una buena idea y el 31% no estaba seguro. Una gran mayoría (78%) dijo que no querría un implante de chip para ellos mismos, mientras que el 20% dijo que sí lo querría.

Consistente con estas opiniones, el 63% de los estadounidenses dijeron en la encuesta de 2021 que el uso generalizado de chips cerebrales sería «interferir con la naturaleza y cruzar una línea que no deberíamos cruzar». Un porcentaje mucho menor (35%) dijo que sus opiniones se describían mejor por la afirmación «como humanos, siempre estamos tratando de mejorar y esto no es diferente».

Los estadounidenses altamente religiosos eran particularmente propensos a ver los chips cerebrales como cruzando una línea: entre aquellos con altos niveles de compromiso religioso, el 81% dijo esto, en comparación con la mitad de aquellos con bajos niveles de compromiso religioso. (El compromiso religioso se mide mediante tres elementos autoinformados: la importancia de la religión en la vida de los estadounidenses, su frecuencia de asistencia a servicios religiosos y su frecuencia de oración).

A pesar de la cautela generalizada sobre los implantes cerebrales de chips informáticos en la encuesta de 2021, los estadounidenses estuvieron en gran medida abiertos a usar dichos chips con fines terapéuticos. Por ejemplo:

Un 77% favorecieron el uso de implantes cerebrales de chips informáticos para permitir un mayor movimiento para las personas paralizadas. 64% favorecieron su uso para tratar el deterioro mental relacionado con la edad. Por el contrario, porciones mucho más pequeñas apoyaron el uso de chips cerebrales para otros fines, donde no se mencionaba claramente ningún beneficio terapéutico:

Un 32% favorecieron su uso para traducir directamente pensamientos en texto. 25% favorecieron su uso para buscar en internet solo con el pensamiento. Porciones significativas de adultos no estaban seguros de cómo se sentían acerca de estos usos potenciales.

Los esfuerzos iniciales de reclutamiento de Neuralink para un implante de chip cerebral se centraron en personas con cuadriplejía, pero Musk también ha hablado sobre el uso de los chips para propósitos más amplios. La declaración de misión de Neuralink alude a ambos, diciendo que la compañía tiene como objetivo «restaurar la autonomía a aquellos con necesidades médicas no satisfechas hoy y desbloquear el potencial humano mañana».

Opiniones sobre estándares para la prueba, revisión de chips cerebrales Los implantes de chips cerebrales están actualmente en pruebas y desarrollo. Nuestra encuesta de 2021 encontró una profunda preocupación pública sobre cómo serían revisados y evaluados. Por ejemplo, la mayoría de los estadounidenses (83%) dijeron que querían que los chips cerebrales fueran probados para seguridad y eficacia utilizando un estándar más alto que el existente para dispositivos médicos. Y el 78% dijo que los chips cerebrales probablemente o definitivamente se usarían antes de que comprendamos completamente cómo afectan la salud de las personas.

Pensamiento crítico y ética en la era de la IA generativa en la educación

Study of Generative AI Technologies in Education: A Critical Look into the Future of Learning. USC Center for Generative AI and Society, 2024

Texto completo

Este informe es una colección de seis artículos breves (más una introducción y una lista de los investigadores de IA Generativa), de los cuales «An Undergraduate Perspective of Generative AI in Undergraduate Education», de Eric Bui, y «Authoring by Editing and Revising: Considering Generative AI Tools», de Benjamin Nye, fueron los más sustanciosos e interesantes, ya que cada uno describe el uso de la IA de una manera ligeramente diferente, como fomento de la investigación, el pensamiento crítico y las habilidades de edición, al tiempo que se utiliza como asistente, en lugar de «profesor». Ambas son buenas lecturas. A través de Jonathan Kantrowitz, que destaca otro artículo de la colección, «Ethics in Generative AI: Report From the Field», de Stephen Aguilar, que informa de que «el género del profesor y su comodidad con la tecnología son factores que influyen en la adopción de la inteligencia artificial en el aula».

Google renombra el chatbot Bard como Gemini y lanza una suscripción de pago

Dastin, Jeffrey, y Jeffrey Dastin. «Google Rebrands Bard Chatbot as Gemini, Rolls out Paid Subscription». Reuters, 8 de febrero de 2024, sec. Technology. https://www.reuters.com/technology/google-rebrands-bard-chatbot-gemini-rolls-out-paid-subscription-2024-02-08/.

Más sobre Gemini

Google anunció el cambio de nombre de su chatbot Bard a Gemini, reflejando la nueva inteligencia artificial que lo impulsa. Ahora los usuarios pueden suscribirse a Gemini Advanced por 19.99 $ al mes, lo que incluye acceso a un modelo de IA Ultra 1.0 más potente y dos terabytes de almacenamiento en la nube.

Esta suscripción, parte del plan Google One AI Premium, busca competir con las ofertas de Microsoft en el mercado de suscripciones de IA, como ChatGPT Plus. La integración de Gemini en Gmail y su suite de productividad de Google se alinea con la forma en que los usuarios trabajan.

La empresa aprovecha su base de usuarios de Android para ampliar el alcance de Gemini, con planes de expansión internacional y soporte para idiomas adicionales. El cambio de nombre señala la evolución de Google en tecnología de IA, pasando de Bard a Gemini.

Inteligencia Artificial Generativa en la Educación Superior: evidencia de un análisis de políticas y directrices institucionales

McDonald, Nora, Aditya Johri, Areej Ali, y Aayushi Hingle. «Generative Artificial Intelligence in Higher Education: Evidence from an Analysis of Institutional Policies and Guidelines». arXiv, 12 de enero de 2024. https://doi.org/10.48550/arXiv.2402.01659.

El lanzamiento de ChatGPT en noviembre de 2022 provocó una adopción masiva de inteligencia artificial generativa (GenAI) en instituciones de educación superior (IES). Las IES se apresuraron a responder a su uso, especialmente por parte de los estudiantes, primero buscando regularlo y luego argumentando a favor de su integración productiva en la enseñanza y el aprendizaje.

En el año transcurrido desde el lanzamiento, las instituciones de educación superior (IES) han proporcionado cada vez más políticas y pautas para dirigir la GenAI. En este artículo se examinaron documentos producidos por 116 universidades estadounidenses categorizadas como instituciones de alta actividad investigadora o R1 con el fin de comprender comprehensivamente los consejos y orientaciones relacionados con la GenAI dados a los interesados institucionales.

A través de un análisis extenso, se encontró que la mayoría de las universidades (N=73, 63%) fomentan el uso de GenAI y muchas proporcionan orientación detallada para su uso en el aula (N=48, 41%). Más de la mitad de todas las instituciones proporcionaron programas de estudios de muestra (N=65, 56%) y la mitad (N=58, 50%) proporcionaron currículos de muestra y actividades de GenAI que ayudarían a los instructores a integrar y aprovechar la GenAI en su aula. Notablemente, la mayoría de la orientación para las actividades se centró en la escritura, mientras que el código y las actividades relacionadas con STEM se mencionaron la mitad del tiempo y de manera vaga incluso cuando lo estaban (N=58, 50%). Finalmente, más de la mitad de las instituciones hablaron sobre la ética de la GenAI en una variedad de temas de manera amplia, incluyendo la Diversidad, Equidad e Inclusión (DEI) (N=60, 52%).

En general, basándose en sus hallazgos, se advierte que la orientación para el profesorado puede volverse abrumadora, ya que se recomienda a menudo una revisión extensa de los enfoques pedagógicos en las políticas.