Archivo de la etiqueta: ChatGPT

Los sistemas de inteligencia artificial como ChatGPT pueden realizar análisis de datos a un coste de menos del 1% de lo que costaría contratar a un analista humano

South China Morning Post. «Study Shows ChatGPT Has Potential to Do Data Analysis at Fraction of Human Cost», 29 de mayo de 2023. https://www.scmp.com/tech/article/3222214/llms-chatgpt-can-perform-data-analysis-fraction-human-cost-comparable-performance-study.

Los resultados preliminares proceden de un estudio sobre LLM realizado por la Academia Damo de Alibaba y la Universidad Tecnológica Nanyang de Singapur. El coste de GPT-4, la última versión del LLM desarrollado por la start-up estadounidense OpenAI, es sólo el 0,45% de la contratación de un analista de datos senior, según un estudio.

El uso de grandes modelos lingüísticos (LLM) como GPT-4 en el análisis de datos cuesta menos del 1% de lo que cuesta contratar a un analista humano con resultados comparables, según un estudio reciente que pone de relieve la amenaza potencial que supone para la seguridad laboral la creciente adopción de la inteligencia artificial generativa (IA) en diversos sectores.

El coste de GPT-4, la última versión de la LLM desarrollada por la start-up estadounidense OpenAI, es sólo el 0,45% de la contratación de un analista de datos sénior que gane en el mercado unos 90.000 dólares anuales, o el 0,71% de un empleado de nivel subalterno, según las conclusiones de un estudio de unos investigadores de Damo Academy, la rama de investigación interna del gigante chino del comercio electrónico Alibaba Group Holding, y la Universidad Tecnológica Nanyang de Singapur, publicadas en el servidor de preprints arXiv (PDF).

En el estudio, los investigadores formularon preguntas y proporcionaron los datos, y automatizaron todo el proceso de análisis de datos utilizando GPT-4 para extraer y analizar los datos, con el fin de producir finalmente ideas y gráficos. Los resultados del análisis se compararon con los de analistas de datos humanos profesionales en términos de rendimiento, tiempo y costes.

Los experimentos demostraron que la GPT-4 no sólo es significativamente más barata que un analista de datos humano, sino también mucho más rápida a la hora de completar las tareas, según las conclusiones del estudio.

Sin embargo, el estudio señala que se necesitan más estudios antes de concluir que GPT-4 puede sustituir a los analistas de datos. GPT-4 también puede superar a un analista humano de nivel básico en términos de rendimiento, que se evaluó a través de una serie de métricas que incluían la corrección y fluidez en los gráficos y las percepciones que producían, y tiene un «rendimiento comparable» al de un analista de nivel superior, con ventajas que varían según los distintos casos y métricas.

En algunos casos, el modelo de IA consiguió superar a los analistas de datos humanos en cuanto a la corrección de las cifras y el análisis, y las percepciones que generaba GPT-4 tendían a ser más complejas, según el estudio. GPT-4 también obtuvo plena puntuación en alineación y fluidez a la hora de generar el análisis con textos gramaticalmente correctos.

Sin embargo, GPT-4 quedó por detrás de los humanos a la hora de mostrar datos correctos en los gráficos, así como en la presentación y el formato en algunos casos. A pesar de los errores en algunas cifras, GPT-4 podía generar análisis correctos, señalaba el estudio.

El estudio arroja nueva luz sobre la creciente aplicación de las GPT-4 en diversas industrias, donde se espera que mejoren la eficiencia pero también amenacen los puestos de trabajo humanos.

Las empresas tecnológicas chinas se apresuran a desarrollar sus propios servicios similares a ChatGPT. Alibaba está trabajando en su propia respuesta, llamada Tongyi Qianwen, que lanzó en abril para pruebas beta a clientes corporativos por invitación, semanas después de que Baidu diera a conocer su servicio Ernie Bot.

ChatGPT: la inteligencia artificial y la generación de textos académicos. Planeta biblioteca 2023/05/31

ChatGPT: la inteligencia artificial y la generación de textos académicos.

Planeta biblioteca 2023/05/31

ESCUCHAR EL PROGRAMA

Ir a descargar

Video Conferencia Argentina

Video «Cómo funciona CHATGPT»

ChatGPT es un modelo de lenguaje basado en IA desarrollado por OpenAI que puede ser una herramienta valiosa para los educadores. Permite interactuar con un asistente virtual inteligente para obtener respuestas y generar ideas sobre tendencias. Sin embargo, su uso plantea preocupaciones éticas y de privacidad, como el acceso y uso indebido a datos personales, el sesgo algorítmico, el plagio académico y las implicaciones de la toma de decisiones automatizada en temas sensibles.

¿Sustituirá ChatGPT al motor de búsqueda de Google?

«Will ChatGPT Replace the Google Search Engine?», 26 de mayo de 2023. https://www.boldare.com/blog/will-chatgpt-replace-google-search-engine.

ChatGPT ha arrasado en el sector digital, conquistando corazones y mentes por igual. Y esto ha ocurrido por una razón. Es fácil de usar, gratuito y lleno de usos potenciales. Es potente, pero no ilimitado. En pocas palabras: no, ChatGPT no sustituirá al motor de búsqueda de Google. Puede que se haga con parte del tráfico pero, al menos por ahora

ChatGPT, o modelos lingüísticos similares, son potentes herramientas para generar textos de apariencia humana y ayudar a los usuarios a encontrar información. Sin embargo, es importante señalar que ChatGPT está diseñado como agente conversacional y no como motor de búsqueda.

Google Search y ChatGPT parecen similares. Hay un campo en el que se introduce la consulta y, a continuación, se obtiene un resultado: en el caso de Google, se trata de una lista de sitios web (aunque no sólo: en los últimos años, Google ha empezado a mostrar los denominados resultados enriquecidos, que pretenden responder a la pregunta del usuario a nivel de motor de búsqueda); en el caso de ChatGPT, se trata de una respuesta completa a una pregunta determinada.

Google vs ChatGPT no se trata simplemente de una competición entre un motor de búsqueda clásico y la IA. Google lleva tiempo utilizando algoritmos de IA para responder a las consultas de los usuarios. RankBrain, Neural Matching, Bert, MUM: estos son los algoritmos de IA más populares que Google ha introducido en su motor de búsqueda en los últimos años.

BERT (Bidirectional Encoder Representations from Transformers) se lanzó en 2018 y ayuda al motor de búsqueda a procesar y comprender el lenguaje natural. Se basa en la arquitectura Transformer – al igual que el modelo GPT utilizado por ChatGPT.

¿Cómo funciona ChatGPT?

ChatGPT es un modelo lingüístico probabilístico diseñado para seguir y ejecutar instrucciones. Ha sido entrenado con un conjunto específico de datos textuales para ejecutar las instrucciones con la mayor precisión posible. Lo hace generando tokens: secuencias de caracteres y palabras, basadas en una distribución de probabilidades.

En pocas palabras, lo que hace básicamente la inteligencia artificial es analizar las estadísticas y la secuencialidad del orden de las palabras y construir cadenas con las palabras más probables. El aspecto que aún no es visible en el propio ChatGPT -pero lo será en su iteración Bing o en el modelo fuente OpenAI Playground- es la posibilidad de definir el parámetro «temperatura». Esta característica permite a los usuarios decidir cuánto puede desviarse el modelo de la información que ha aprendido de su conjunto de datos.

En la práctica, el parámetro de temperatura indica si los tokens (palabras) utilizados deben tener el nivel de probabilidad más alto. Esto tiene un enorme impacto en el efecto final. Si decide añadir sólo las palabras más probables, el resultado será muy plano, repetitivo y esquemático. Si permite el uso de tokens de menor rango, más aleatorios, obtendrá un resultado más versátil e interesante.

Los posibles errores y elucubraciones en las respuestas se deben a que, aunque los modelos se entrenan con enormes cantidades de datos textuales, no son capaces de entender el mundo de forma humana ni de verificar la veracidad de la información como harían las personas. En su lugar, se basan en estructuras lingüísticas y patrones aprendidos a partir de los datos de entrenamiento.

Por ejemplo, cuando se le pregunta sobre algún tema científico, puede citar determinados trabajos de investigación, junto con sus títulos, autores, fechas de publicación, etc. Pero una vez que se empieza a buscar esos trabajos, a menudo resulta que nunca han existido. Todo depende de cuánta información y cuántas citas sobre un tema determinado había en el corpus de texto utilizado para entrenar el modelo.

Por consiguiente, aunque el resultado generado por un modelo sea gramaticalmente correcto y suene sensato, puede contener información falsa, o información «inventada» por el modelo. De ahí viene el concepto de «alucinación»

Y por eso hay que tener en cuenta que, aunque la IA sea una herramienta poderosa para la generación de textos, sigue requiriendo supervisión y evaluación humanas, sobre todo si la información que proporciona se va a utilizar para tomar decisiones importantes o en situaciones en las que el uso de datos precisos y exactos es esencial. Por eso, utilizar ChatGPT como alternativa a los motores de búsqueda -incluido Google- está prácticamente descartado.

ChatGPT no es un motor de búsqueda, es un procesador de texto. Como su nombre indica, su función es procesar texto. También puede generar textos, pero para ello debe recibir alguna entrada o un patrón a seguir. No escribirá una entrada de blog por ti (es decir, puede hacerlo, pero el escritor debe comprobar la información generada por el chatbot). ChatGPT puede resultar útil para varios usos: puede codificar, corregir, analizar y categorizar contenidos, etcétera. Pero no funcionará como motor de búsqueda.

Aunque los modelos de IA conversacional como ChatGPT pueden proporcionar respuestas instantáneas y ayudar a los usuarios en determinadas tareas, no tienen la misma amplitud y profundidad de información que un motor de búsqueda como Google. Es más acertado considerar los modelos de IA conversacional y los motores de búsqueda como herramientas complementarias que como competidores directos. La IA conversacional puede ser útil para proporcionar respuestas rápidas y entablar conversaciones interactivas, mientras que los motores de búsqueda destacan en la recuperación de una amplia gama de información de la inmensidad de Internet.

En conclusión: Hay que tener en cuenta que la tecnología está en constante evolución y que es posible que surjan nuevos avances en el futuro. Sin embargo, por ahora, es poco probable que los modelos de IA conversacional sustituyan por completo a los motores de búsqueda como Google Search. En cambio, es probable que sigan coexistiendo y complementándose de diferentes maneras para atender las diversas necesidades de información de los usuarios.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Guía del bibliotecario para el aprendizaje práctico de ChatGPT: creación y evaluación de citas

«Librarian Guide to Hands-on Learning ChatGPT Activities for Bibliographic Instruction: Citation Creation and Evaluation». Accedido 29 de mayo de 2023. https://www.chatgptlibrarian.com/2023/04/librarian-guide-to-hands-on-learning.html.

La enseñanza de habilidades bibliográficas es fundamental para que los estudiantes desarrollen competencias en la investigación y la escritura académica. Una herramienta cada vez más popular para brindar instrucción bibliográfica interactiva es ChatGPT, un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Este artículo presenta una guía práctica para los bibliotecarios que deseen utilizar ChatGPT como una herramienta de aprendizaje práctico en la creación y evaluación de citas.

Desarrollo:

  1. Breve introducción a ChatGPT: Se proporciona una descripción general de ChatGPT y cómo puede ser utilizado como recurso para la enseñanza bibliográfica.
  2. Actividad 1: Creación de citas: Se ofrece una actividad práctica en la cual los estudiantes pueden interactuar con ChatGPT para aprender a crear citas bibliográficas correctamente utilizando diferentes estilos de citación (APA, MLA, Chicago, etc.). Se brindan ejemplos y se resuelven dudas comunes.
  3. Actividad 2: Evaluación de citas: Se presenta una actividad en la cual los estudiantes deben evaluar la calidad y precisión de diferentes citas bibliográficas generadas por ChatGPT. Se discuten los criterios para evaluar una cita adecuada y se promueve la reflexión crítica sobre la información utilizada.
  4. Consejos para la implementación: Se ofrecen sugerencias y recomendaciones prácticas para los bibliotecarios que deseen incorporar estas actividades en sus sesiones de instrucción bibliográfica, incluyendo el tiempo estimado, las mejores prácticas y las posibles adaptaciones.

I. Introducción

  • Explicar la importancia de crear citas precisas y con el formato adecuado
  • Discutir las ventajas de utilizar ChatGPT para la creación y evaluación de citas


II. Creación de citas

  • Discutir los diferentes estilos de citación (por ejemplo, APA, MLA, Chicago)
  • Proporcionar recursos para aprender las normas y directrices de cada estilo de citación
  • Demostrar cómo utilizar ChatGPT para generar citas en diferentes estilos
  • Proporcionar ejemplos de citas influyentes y precisas

III. Evaluación de citas

  • Discutir la importancia de evaluar la precisión y el formato de las citas
  • Explicar cómo utilizar ChatGPT para evaluar la precisión y el formato de las citas.
  • Demostrar cómo introducir citas en ChatGPT para su evaluación
  • Proporcionar ejemplos de citas con formato correcto y citas con errores

IV. Buenas prácticas

  • Proporcionar consejos para la creación y evaluación de citas, como el uso de fuentes fiables y la comprobación del formato.
  • Discutir los errores comunes que deben evitarse al crear citas, como la información inexacta o incompleta.
  • Ofrecer recursos para aprender más sobre la creación y evaluación de citas

V. Ejercicios prácticos

  • Proporcione ejercicios de práctica para que los estudiantes generen y evalúen citas utilizando ChatGPT.
  • Proporcionar comentarios sobre los ejercicios y ofrecer sugerencias para mejorarlos
    VI. Conclusión

Recapitule los puntos principales de la guía

  • Animar a los alumnos a seguir practicando la creación y evaluación de citas mediante ChatGPT.
  • Ofrécete para ayudarles con cualquier pregunta o problema que puedan tener al utilizar ChatGPT para la creación y evaluación de citas.

La utilización de ChatGPT como herramienta de aprendizaje práctico en la instrucción bibliográfica puede ser una forma efectiva y atractiva de ayudar a los estudiantes a desarrollar habilidades en la creación y evaluación de citas. Esta guía del bibliotecario proporciona actividades concretas y consejos útiles para aprovechar al máximo esta herramienta en el proceso de enseñanza y aprendizaje.

La UNESCO moviliza a los ministros de Educación de todo el mundo para dar una respuesta coordinada al ChatGPT

«AI: UNESCO Mobilizes Education Ministers from around the World for a Co-Ordinated Response to ChatGPT | UNESCO». Accedido 29 de mayo de 2023.

Ver artículo

En respuesta a la rápida aparición de nuevas y potentes herramientas generativas de IA, la UNESCO celebró la primera reunión mundial de Ministros de Educación para explorar las oportunidades, los retos y los riesgos inmediatos y de largo alcance que las aplicaciones de la IA plantean a los sistemas educativos. Más de 40 ministros compartieron sus planteamientos políticos y sus planes sobre la mejor manera de integrar estas herramientas en la educación. Durante el debate en línea del 25 de mayo de 2023, la UNESCO presentó una hoja de ruta sobre la IA generativa y la educación, que incluye un diálogo abierto entre múltiples partes interesadas.

Durante el debate surgieron algunas preocupaciones comunes, entre ellas cómo adaptar los sistemas educativos a las perturbaciones que la IA generativa está provocando rápidamente, cómo integrar la IA generativa en los planes de estudio, los métodos de enseñanza y los exámenes, y cómo mitigar los defectos inherentes a estas tecnologías, entre ellos la capacidad de cometer errores manifiestos y producir información sesgada.

El debate ministerial puso de manifiesto que los gobiernos de todo el mundo están formulando respuestas políticas adecuadas en este panorama en rápida evolución, desarrollando o perfeccionando las estrategias nacionales sobre IA, sobre protección de datos y otros marcos normativos.

Sólo el 10% de las escuelas y universidades disponen de orientaciones formales sobre IA

Una nueva encuesta mundial realizada por la UNESCO en más de 450 escuelas y universidades ha revelado que menos del 10% han desarrollado políticas institucionales y/o directrices formales sobre el uso de aplicaciones de IA generativa. Los resultados ilustran que una respuesta inmediata a la repentina aparición de estas potentes aplicaciones de IA generativa que pueden producir creaciones escritas y visuales supone un reto para las instituciones.

Se destacó el papel vital que desempeñan los profesores en esta nueva era como facilitadores del aprendizaje. Pero los profesores necesitan orientación y formación para hacer frente a estos retos.

Directrices políticas y marco de competencias de la UNESCO

La UNESCO seguirá dirigiendo el diálogo mundial con los responsables políticos, los socios de EdTech, el mundo académico y la sociedad civil. La Organización está elaborando directrices políticas sobre el uso de la inteligencia artificial generativa en la educación y la investigación, así como marcos de competencias en materia de inteligencia artificial para estudiantes y docentes de la enseñanza escolar. Estas directrices se presentarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023.

La UNESCO posee una experiencia única, gracias a su mandato en materia de educación y ciencias. En los últimos años, la Organización ha liderado una reflexión mundial sobre los Futuros de la Educación, y también ha establecido el primer marco normativo mundial para la ética de la inteligencia artificial, adoptado unánimemente por sus 193 Estados Miembros en noviembre de 2021.

Inteligencia Artificial Generativa y Ley de Propiedad Intelectual

Generative Artificial Intelligence and Copyright Law. Congressional Research Service (CRS). Legal Sidebar Prepared for Members and Committees of Congress Updated May 11, 2023

Descargar

Las recientes innovaciones en el campo de la inteligencia artificial (IA) plantean nuevos interrogantes sobre como la autoría, la infracción y el uso justo se aplicarán a los contenidos creados o utilizados por la IA.

Los denominados programas informáticos de «IA generativa», como los programas DALL-E 2 y ChatGPT de Open AI, el programa Stable Diffusion de Stability AI y el programa autotitulado Midjourney, son capaces de generar nuevas imágenes, textos y otros contenidos (o «salidas») en respuesta a las indicaciones textuales de un usuario (o «entradas»). Estos programas de IA generativa se entrenan para generar esos resultados en parte exponiéndolos a grandes cantidades de de obras existentes, como escritos, fotografías, pinturas y otras obras de arte. Este documento explora las cuestiones que los tribunales y la Oficina de Derechos de Autor de EE.UU. han empezado a plantearse sobre si los resultados de los programas de IA generativa tienen derecho a ser protegidos por los derechos de autor así como la forma en que el programas pueden infringir los derechos de autor de otras obras.

Derechos de autor de obras creadas con IA generativa

El uso generalizado de programas de IA generativa plantea la cuestión de quién, si es que alguien, puede tener los los derechos de autor de los contenidos creados con estos programas, dado que el usuario de la IA, el programador de la IA y el propio programa de IA desempeñan un papel en la creación de estas obras.

¿Están protegidos por derechos de autor los resultados de la IA?

La cuestión de si los productos de la IA -como las imágenes creadas por DALL-E o los textos creados por ChatGPT- depende, al menos en parte, del concepto de «autoría». La Constitución de EE.UU. autoriza al Congreso a «asegurar a los autores, por tiempo limitado… el derecho exclusivo a sus … escritos». Sobre la base de esta autoridad, la Ley de Derechos de Autor otorga protección de derechos de autor a «obras originales de autoría». Aunque la Constitución y la Ley de Propiedad Intelectual no definen explícitamente quién (o qué) puede ser un «autor», la Oficina de Derechos de Autor de EE.UU. sólo reconoce los derechos de autor en obras «creadas por un ser humano». Los tribunales también se han negado a ampliar la protección de los derechos de autor a los autores no humanos. Por ejemplo, los tribunales de apelación han sostenido en varios casos que un mono que tomó una serie de fotos carecía de legitimación para demandar en virtud de la Ley de Propiedad Intelectual; que era necesaria cierta creatividad humana un libro supuestamente inspirado en seres celestiales; y que un jardín vivo no podía ser objeto de derechos de autor por carecer de un autor humano. En junio de 2022, Stephen Thaler demandó a la Oficina de Derechos de Autor por denegar una solicitud de registro de una obra de arte visual que, según él, era obra de un programa de IA llamado Creativity Machine. Thaler afirma que la imagen fue creada «de forma autónoma por una máquina» y sostiene que la Ley de Propiedad Intelectual no exige la autoría humana. La demanda está pendiente.

Aun suponiendo que una obra sujeta a derechos de autor requiera un autor humano, las obras creadas mediante IA generativa podrían tener derecho a la protección de los derechos de autor, dependiendo de la naturaleza de la participación humana en el proceso creativo. Un reciente procedimiento de derechos de autor muestra que la Oficina de Derechos de Autor puede mostrarse escéptica ante este argumento. En septiembre de 2022, la escritora Kristina Kashtanova registró los derechos de autor de su novela gráfica, ilustrada íntegramente con imágenes generadas por Midjourney en respuesta a sus textos. En octubre, sin embargo, la Oficina de Derechos de Autor inició un procedimiento de cancelación, señalando que la Sra. Kashtanova no había revelado su uso de la IA. Kashtanova respondió alegando que había creado las imágenes mediante «un proceso creativo e iterativo» que implicaba «múltiples rondas de composición, selección, arreglo, recorte y edición de cada imagen». Contrastó su proceso creativo con la imagen «generada autónomamente» que el Dr. Thaler intentó registrar. Sin embargo, el 21 de febrero de 2023, la Oficina de Derechos de Autor determinó que las imágenes no tenían un autor humano y, por tanto, no eran susceptibles de derechos de autor.

Algunos expertos afirman que al menos algunas obras generadas por IA deberían recibir protección de derechos de autor, argumentando que los programas de IA son análogos a otras herramientas que los seres humanos han utilizado para crear obras protegidas por derechos de autor. obras protegidas. Por ejemplo, el Tribunal Supremo ha sostenido desde el caso de 1884 Burrow-Giles Lithographic Co. v. Sarony que las fotografías pueden tener derecho a la protección de los derechos de autor cuando el fotógrafo toma decisiones sobre elementos creativos como la composición, la disposición y la iluminación. Los programas de IA generativa podrían considerarse como otra herramienta, similar a un equipo fotográfico, que puede ser utilizada por autores humanos. La Sra. Kashtanova argumentó que su propio proceso creativo era similar al de un fotógrafo.

Otros especialistas y la Oficina de Derechos de Autor, cuestionando la analogía con la fotografía, ponen en duda que los usuarios de IA ejerzan un control creativo suficiente para que la IA pueda considerarse una mera herramienta. En el caso de la Sra. Kashtanova, la Oficina de Derechos de Autor razonó que, en lugar de ser «una herramienta que la Sra. Kashtanova controlaba y guiaba para alcanzar la imagen deseada, Midjourney genera imágenes de forma impredecible». Así pues, la Oficina de Derechos de Autor comparó al usuario de la IA con «un cliente que contrata a un artista», en contraposición a un artista por derecho propio.

Del mismo modo, un profesor de Derecho ha sugerido que el usuario de IA crea únicamente una «idea» abstracta no sujeta a derechos de autor, en lugar de una obra sujeta a derechos de autor que exprese la idea: «Si le pido a Dall-E que produzca un cuadro de erizos tomando el té en la playa, no he aportado nada más que una idea». Según este argumento, la obra de arte carece de autor y, por tanto, es de dominio público.

En resumen, es difícil predecir si la legislación sobre derechos de autor reconocerá algún tipo de protección a los resultados generativos de la IA. Aunque la forma en que la Oficina de Derechos de Autor ha tratado el caso de la Sra. Kashtanova hasta la fecha indica escepticismo respecto a la protección de los derechos de autor para las obras generadas por IA, la Oficina de Derechos de Autor no tiene ni la única ni la última palabra en la legislación estadounidense sobre derechos de autor. Por ejemplo, los solicitantes pueden pedir que se reconsideren las decisiones adversas de la Oficina de Derechos de Autor y, en última instancia, pueden impugnar esas decisiones ante los tribunales de distrito de EE.UU., como ha hecho el Dr. Thaler. Queda por ver cómo tratarán los tribunales federales estas impugnaciones y otros casos relacionados con los derechos de autor de obras generadas por IA.

¿A quién pertenecen los derechos de autor de los resultados de la IA generativa?

Suponiendo que algunas obras creadas por IA puedan acogerse a la protección de los derechos de autor, ¿a quién pertenecen esos derechos? En general, la Ley de Propiedad Intelectual confiere la propiedad «inicialmente al autor o autores de la obra». Dada la falta de de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA, no ha Sin embargo, dada la falta de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA hasta la fecha, no ha surgido ninguna norma clara que identifique quién podría ser el «autor o autores» de estas obras. Volviendo a la de la fotografía, el creador de la IA podría compararse con el fabricante de la cámara, mientras que el usuario de la IA que que impulsa la creación de una obra concreta podría compararse con el fotógrafo que utiliza esa cámara para capturar una imagen concreta. Desde este punto de vista, el usuario de la IA sería considerado el autor y, por tanto, el propietario inicial de los derechos de autor. Por otro lado, las decisiones creativas implicadas en la codificación y el entrenamiento de la IA, podrían dar al creador de una IA un derecho de autor más fuerte que el del fabricante de una cámara.

Independientemente de quién sea el propietario inicial de los derechos de autor de un producto de IA, las empresas que proporcionan software de IA pueden intentar asignar los respectivos derechos de propiedad de la empresa y sus usuarios mediante un contrato, como las condiciones de servicio de la empresa. Las actuales condiciones de uso de OpenAI, por ejemplo, parecen asignar los derechos de autor al usuario: «OpenAI le cede por la presente todos sus derechos, títulos e intereses sobre las obras generadas». Una versión anterior de estas condiciones, por el contrario, pretendía otorgar a OpenAI tales derechos. En cualquier caso, OpenAI no parece abordar la cuestión de quién sería el propietario de los derechos de autor en ausencia de dichos términos. Como comentó un académico, OpenAI parece «eludir la mayoría de las cuestiones de derechos de autor a través de un contrato».

Infracción de los derechos de autor por la IA generativa

La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden infringir los derechos de autor de obras existentes, ya sea haciendo copias de obras existentes para entrenar la IA o generando resultados que se parezcan a esas obras existentes. ¿Infringe el proceso de entrenamiento de la IA los derechos de autor de otras obras? Los sistemas de IA se «entrenan» para crear obras literarias, visuales y artísticas exponiendo el programa a grandes cantidades de datos, que pueden consistir en obras existentes como textos e imágenes de Internet.

Este proceso de entrenamiento puede implicar la realización de copias digitales de obras existentes, lo que conlleva un riesgo de infracción de los derechos de autor. Como ha descrito la Oficina de Patentes y Marcas de EE.UU., este proceso «implicará casi por definición la reproducción de obras completas o de partes sustanciales de las mismas». OpenAI, por ejemplo, reconoce que sus programas se entrenan con «grandes conjuntos de datos de acceso público que incluyen obras protegidas por derechos de autor» y que este proceso «necesariamente implica la reproducción de obras completas o partes sustanciales de las mismas». obras» y que este proceso «implica necesariamente hacer primero copias de los datos a analizar». La creación de dichas copias, sin el permiso expreso o implícito de los distintos titulares de los derechos de autor, puede infringir el derecho exclusivo de los titulares a realizar reproducciones de su obra.

Las empresas de IA pueden alegar que sus procesos de formación constituyen un uso legítimo y que, por tanto, no infringen la ley.

El hecho de que la copia constituya o no un uso legítimo depende de cuatro factores establecidos en el artículo 107 del Título 17 del Código de los Estados Unidos:

  1. El propósito y el carácter del uso, incluyendo si dicho uso es de naturaleza comercial o tiene fines educativos sin ánimo de lucro. comercial o con fines educativos no lucrativos;
  2. La naturaleza de la obra protegida por derechos de autor;
  3. la cantidad y sustancialidad de la parte utilizada en relación con la obra protegida en su conjunto; y en su conjunto; y
  4. el efecto del uso sobre el mercado potencial o el valor de la obra protegida.

Algunas partes interesadas sostienen que el uso de obras protegidas por derechos de autor para entrenar programas de IA debería considerarse un uso justo en virtud de estos factores. En cuanto al primer factor, OpenAI argumenta que su propósito es «transformador» en contraposición a «expresivo» porque el proceso de formación crea «un sistema de IA generativo útil». OpenAI también sostiene que el tercer factor apoya el uso leal porque las copias no se ponen a disposición del público sino que se utilizan únicamente para entrenar el programa. En su apoyo, OpenAI cita el caso The Authors Guild, Inc. contra Google, Inc, en el que el Tribunal de Apelación del Segundo Circuito de los EE.UU. sostuvo que la copia por parte de Google de libros enteros para crear una base de datos de búsqueda que mostraba extractos de esos libros constituía uso legítimo.

Es posible que estos argumentos se pongan pronto a prueba en los tribunales, ya que los demandantes han presentado recientemente múltiples demandas alegando infracción de derechos de autor mediante procesos de formación de IA. El 13 de enero de 2023, varios artistas presentaron una demanda colectiva putativa alegando que sus derechos de autor fueron infringidos en el entrenamiento de programas de imagen de IA, incluido Stable Diffusion. En la demanda colectiva se alega que los demandados «descargaron o de otro modo adquirieron sin permiso copias de miles de millones de imágenes protegidas por derechos de autor» para utilizarlas como «imágenes de entrenamiento», «haciendo y almacenando copias de esas imágenes» sin el consentimiento de los artistas. Del mismo modo, el 3 de febrero de 2023 Getty Images presentó una demanda alegando que «Stability AI ha copiado al menos 12 millones de imágenes protegidas por derechos de autor…» de los sitios web de Getty Images … para entrenar su modelo de difusión estable». Ambas demandas parecen de uso leal, argumentando que Stable Diffusion es un producto comercial, lo que pesa el primer factor legal, y que el programa socava el mercado de las obras originales, lo que pesa en contra del uso legítimo de obras originales, lo que es contrario al uso legítimo según el cuarto factor.

¿Los resultados de la IA infringen los derechos de autor de otras obras?

Los programas de IA también pueden infringir los derechos de autor al generar resultados que se asemejan a obras existentes. Según la jurisprudencia estadounidense, los titulares de derechos de autor pueden demostrar que tales resultados infringen sus derechos de autor si el programa de IA (1) tuvo acceso a sus obras y (2) creó resultados «sustancialmente similares».

En primer lugar, para demostrar la infracción de los derechos de autor, el demandante debe probar que el infractor «copió realmente» la obra subyacente. Esto a veces se prueba circunstancialmente mediante pruebas de que el infractor «tuvo acceso a la obra». En el caso de los productos de IA, el acceso puede demostrarse con pruebas de que el programa de IA fue entrenado utilizando la obra subyacente. Por ejemplo, la obra subyacente podría formar parte de un sitio de Internet de acceso público que fue descargado para entrenar el programa de IA.

En segundo lugar, un demandante debe demostrar que la nueva obra es «sustancialmente similar» a la obra subyacente para establecer la infracción. La prueba de la similitud sustancial es difícil de definir y varía según los tribunales estadounidenses. Los tribunales han descrito la prueba de diversas maneras, por ejemplo, exigiendo que las obras tengan «un concepto y una sensación totales sustancialmente similares» o «un aspecto y una sensación generales» o que «una persona razonable ordinaria no diferenciaría entre las dos obras». La jurisprudencia también ha declarado que esta determinación tiene en cuenta tanto «la importancia cualitativa como cuantitativa de la parte copiada en relación con la obra del demandante en su conjunto». En el caso de los resultados generados por IA, al igual que en el de las obras tradicionales, el análisis de la «similitud sustancial» puede requerir que los tribunales realicen este tipo de comparaciones entre el resultado de la IA y la obra subyacente.

Existe un desacuerdo significativo en cuanto a la probabilidad de que los programas generativos de IA copien obras existentes en sus resultados. OpenAI argumenta que «los sistemas de IA bien construidos no suelen regenerar, en ninguna porción no trivial, datos inalterados de ninguna obra concreta de su corpus de entrenamiento». Por lo tanto, afirma OpenAI, la infracción «es un resultado accidental poco probable». Por el contrario, la demanda de Getty Images alega que «Stable Diffusion a veces produce imágenes que son altamente similares y derivadas de las Getty Images.» Un estudio ha encontrado «una cantidad significativa de copias» en un pequeño porcentaje (menos del 2%) de las imágenes creadas por Stable Diffusion. Sin embargo, la otra demanda colectiva contra Stable Diffusion parece argumentar que todos los productos de Stable Diffusion son potencialmente infractores, alegando que son «generados exclusivamente a partir de una combinación de … copias de imágenes protegidas por derechos de autor».

Hay dos tipos de resultados de IA que pueden plantear problemas especiales. En primer lugar, algunos programas de IA pueden utilizarse para crear obras con personajes de ficción ya existentes. Estas obras pueden correr un mayor riesgo de infracción de los derechos de autor en la medida en que los personajes a veces gozan de protección de los derechos de autor en sí mismos. En segundo lugar, algunos programas de IA pueden utilizarse para crear obras artísticas o literarias «al estilo» de un artista o autor concreto.

Estos resultados no son necesariamente infractores, ya que la ley de derechos de autor prohíbe generalmente la copia de obras específicas en lugar del estilo general de un artista. Sin embargo, a algunos artistas les preocupa que los programas de IA generativa sean los únicos capaces de producir en masa obras que copien su estilo, lo que podría socavar el valor de su trabajo. En la demanda colectiva contra Stable Diffusion, por ejemplo, los demandantes afirman que pocos artistas humanos pueden imitar con éxito el estilo de otro artista, mientras que «AI Image Products lo hace con facilidad». Una complicación de los programas de IA es que es posible que el usuario no sepa o no tenga acceso a un trabajo que se copió en respuesta a la indicación del usuario. Según la ley actual, esto puede dificultar el análisis de si el usuario es responsable de la infracción de derechos de autor.

Consideraciones para el Congreso

Es posible que el Congreso desee considerar si alguna de las cuestiones de derecho de autor planteadas por los programas de IA generativa requieren enmiendas a la Ley de Propiedad Intelectual u otra legislación. Por ejemplo, el Congreso podría considerar una legislación que aclare si las obras generadas por IA son susceptibles de derechos de autor, quién debe ser autor de dichas obras, o cuándo el proceso de formación de programas de IA generativa constituye un uso justo. uso legítimo.

Dada la escasa oportunidad que han tenido los tribunales y la Oficina de Derechos de Autor para abordar estas cuestiones, el Congreso el Congreso puede adoptar una postura de espera. A medida que los tribunales adquieran experiencia casos relacionados con la IA generativa, podrán proporcionar una mayor orientación y previsibilidad en este ámbito a través de opiniones judiciales. judiciales. Sobre la base de los resultados de los primeros casos en este ámbito, como los resumidos anteriormente, el Congreso puede reconsiderar la necesidad de adoptar medidas legislativas.

Christopher T. Zirpoli

Legislative Attorney

Descargo de responsabilidad

Este documento ha sido elaborado por el Servicio de Investigación del Congreso (CRS). El CRS presta servicios como personal compartido no partidista a los comités y miembros del Congreso. Funciona exclusivamente a instancias del Congreso y bajo su dirección. del Congreso. La información contenida en un informe del CRS no debe utilizarse para fines distintos de la comprensión pública de la información facilitada por el CRS. información proporcionada por CRS a los miembros del Congreso en el marco de su función institucional. Los informes de CRS, como obra del Gobierno de los Estados Unidos, no están sujetos a la protección de los derechos de autor en los Estados Unidos. Estados Unidos. Cualquier informe de CRS puede ser reproducido y distribuido en su totalidad sin permiso de CRS. No obstante Sin embargo, dado que un Informe CRS puede incluir imágenes o material de terceros protegidos por derechos de autor, es posible que deba obtener el permiso del titular de los derechos de autor si desea utilizarlos. permiso del titular de los derechos de autor si desea copiar o utilizar de otro modo material protegido por derechos de autor.

Según una encuesta un 17% de los estudiantes de la Universidad de Stanford utilizaron ChatGPT en los exámenes y trabajos de clase

«Scores of Stanford Students Used ChatGPT on Final Exams», 22 de enero de 2023. https://stanforddaily.com/2023/01/22/scores-of-stanford-students-used-chatgpt-on-final-exams-survey-suggests/.

El estudio informa sobre el uso de ChatGPT por parte de un gran número de estudiantes de Stanford durante los exámenes finales, según indica una encuesta. El artículo destaca que el uso de esta herramienta de inteligencia artificial se realizó sin el conocimiento ni la aprobación de los profesores, lo que está generado preocupaciones sobre la integridad académica y se están tomando medidas para abordar esta situación.

ChatGPT es un modelo de lenguaje basado en inteligencia artificial desarrollado por OpenAI que puede responder preguntas y generar texto en función de las instrucciones proporcionadas.

Según una encuesta del Pew Research Center realizada en marzo de 2023, mucha gente dice haber utilizado ChatGPT por curiosidad o entretenimiento. Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida. ChatGPT marca el comienzo de una nueva ola de IA, una ola que está a punto de trastornar la educación. El estudio de Intelligent.com muestra cómo la aplicación de inteligencia artificial está omnipresente en los planes de estudio escolares, ya que los profesores la utilizan cada vez más para impartir sus lecciones, y los estudiantes la adoptan para hacer sus deberes.

Así, los estudiantes dicen haber utilizado esta herramienta para obtener ayuda y obtener respuestas rápidas durante los exámenes, sin el conocimiento ni la aprobación de los profesores, tal como pone de relieve la encuesta realizada por The Daily de la Universidad de Stanford (segunda universidad más importante del mundo), a la que respondieron 4.497 personas, y que estuvo abierta del 9 al 15 de enero, alrededor del 17% de los estudiantes de encuestados afirmaron haber utilizado ChatGPT para ayudarse con sus tareas y exámenes del primer trimestre del curso. De ese 17%, la mayoría afirmó haber utilizado la IA sólo para realizar lluvias de ideas y esquemas. Según la encuesta, sólo un 5% dijo que había entrehgado material escrito directamente desde ChatGPT con pocos o ningún cambio.

El estudio menciona que el uso de ChatGPT plantea preocupaciones sobre la integridad académica y equidad en la evaluación de los estudiantes. Los profesores y la universidad están investigando el alcance de esta situación y considerando medidas para evitar futuros casos de uso no autorizado de inteligencia artificial durante los exámenes. Algunas facultades y universidades ya han incorporado la nueva tecnología a sus políticas de integridad académica. La Universidad de Washington en San Luis y la Universidad de Vermont en Burlington son algunas de las instituciones que han modificado sus políticas de integridad para incluir el uso de herramientas de IA como ChatGPT.

A principios de enero, los colegios públicos de Nueva York prohibieron ChatGPT en sus dispositivos y redes. A los educadores les preocupaba que los alumnos que recurrieran a ella no aprendieran a pensar de forma crítica y a resolver problemas. También les preocupaba que las respuestas de la herramienta pudieran no ser precisas o seguras. Muchos otros sistemas escolares de Estados Unidos y de todo el mundo han impuesto prohibiciones similares. Sin embargo hace unos días los colegios públicos de Nueva York revocaron la prohibición del ChatGPT y admitieron que hubo un «miedo instintivo». El gobierno de Italia también bloqueó temporalmente el software de inteligencia artificial ChatGPT a raíz de una filtración de datos privados de empresas, mientras investiga una posible violación de las normas de protección de datos de la Unión Europea.

La misma encuesta también reveló que más de la mitad de los estudiantes afirmaron que el uso de ChatGPT para las tareas infringía o podría infringir en el futuro el código ético de su centro. Sin embargo, las normas sobre cuánto uso se considera una violación difieren según el estudiante. El 31,5% respondió que sería una infracción si «el uso va más allá de la generación de la idea», y el 22,7% «se utiliza de cualquier forma». El 21% respondió «si se presenta sin editar».

Algunos profesores añadieron advertencias al plan de estudios de que «el uso de ChatGPT es un tipo de plagio», mientras que otros intentaron cambiar a un método más tradicional y eliminar toda la tecnología. En una clase se afirma que las herramientas de IA, incluido ChatGPT, «generalmente no se recomiendan» y que, cuando se utilicen, debe especificarse la fuente del mismo modo que se citan las fuentes externas.

La noticia de que algunos estudiantes ya están utilizando ChatGPT en sus tareas se ha extendido a los profesores, algunos de los cuales están renovando sus cursos como consecuencia de ello. El 97% de los maestros estadounidenses dicen utilizar ChatGPT como herramienta para impartir sus clases. Esto indica una alta adopción y dependencia de esta tecnología en el ámbito educativo.

Sin embargo, a pesar de todo ello, ChatGPT y sus herramientas afines también podrían proporcionar un buen servicio para los estudiantes de todo el mundo. Al igual que las calculadoras para las matemáticas o Google para verificar los hechos, la IA puede ayudar positivamente a los profesores y estudiantes del futuro.

La mayoría de los estadounidenses ha oído hablar del ChatGPT, pero pocos lo han probado

Vogels, Emily a. «A Majority of Americans Have Heard of ChatGPT, but Few Have Tried It Themselves». Pew Research Center (blog). Accedido 25 de mayo de 2023. https://www.pewresearch.org/short-reads/2023/05/24/a-majority-of-americans-have-heard-of-chatgpt-but-few-have-tried-it-themselves/.

Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado, según una encuesta del Pew Research Center realizada en marzo. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida.

El uso de ChatGPT ha sido muy discutido. Algunos lo consideran una herramienta útil para fines educativos y laborales, mientras que otros opinan que sólo debe utilizarse como entretenimiento.

Sin embargo, pocos adultos estadounidenses han utilizado ChatGPT con algún fin. Sólo el 14% de los adultos estadounidenses afirma haberlo utilizado para entretenerse, aprender algo nuevo o trabajar. Esta falta de aceptación coincide con una encuesta del Pew Research Center de 2021, según la cual los estadounidenses se mostraban más preocupados que entusiasmados por el aumento del uso de la inteligencia artificial en la vida cotidiana.

Entre el subconjunto de estadounidenses que han oído hablar de ChatGPT, el 19% dice que lo ha utilizado para entretenerse y el 14% para aprender algo nuevo. Aproximadamente uno de cada diez adultos que han oído hablar de ChatGPT y que actualmente trabajan a sueldo lo han utilizado en el trabajo.

Las opiniones de los estadounidenses sobre la utilidad de ChatGPT son algo dispares. A las personas que lo han utilizado se les preguntó por su experiencia con este chatbot. Aproximadamente un tercio dice que ha sido extremadamente útil (15%) o muy útil (20%), mientras que el 39% dice que ha sido algo útil. Alrededor de una cuarta parte de los que lo han probado dicen que no ha sido muy (21%) o nada útil (6%).

Los adultos más jóvenes tienden a encontrar el ChatGPT más útil que los mayores. Alrededor de cuatro de cada diez adultos menores de 50 años que lo han utilizado (38%) dicen que ha sido extremadamente o muy útil, mientras que sólo una cuarta parte de los usuarios de 50 años o más (24%) dicen lo mismo.

El 97% de los maestros utilizan ChatGPT para impartir sus clases

Intelligent. «8 in 10 Teachers Approve of Student Use of ChatGPT, Nearly All Use It Themselves». Accedido 24 de mayo de 2023. https://www.intelligent.com/8-in-10-teachers-approve-of-student-use-of-chatgpt-nearly-all-use-it-themselves/.

Un nuevo estudio de Intelligent.com muestra cómo la aplicación de inteligencia artificial llamada ChatGPT está omnipresente en los planes de estudio escolares, ya que los profesores la utilizan cada vez más para desarrollar planes de lecciones, y los estudiantes la adoptan para hacer sus deberes.

La empresa afirma que ha encuestado a 1.000 profesores y ha descubierto que 8 de cada 10 docentes aprueban que los alumnos utilicen ChatGPT, y que casi todos los profesores lo utilizan para ayudarles a gestionar su trabajo.

Las principales conclusiones de la encuesta son las siguientes

El 95% de los profesores conoce ChatGPT
El 98% de los profesores utiliza ChatGPT
El 79% aprueba su uso
El 84% de los profesores que aprueban su uso han dedicado tiempo a enseñar a sus alumnos a utilizarlo
El 35% cree que la mayoría o la totalidad de sus alumnos entregan las tareas para las que utilizaron ChatGPT.
El 71% afirma que su centro no tiene una política sobre el uso de ChatGPT.

Según la encuesta, el 97% de los maestros utilizan ChatGPT como herramienta para impartir sus clases. Esto indica una alta adopción y dependencia de esta tecnología en el ámbito educativo.

  • Beneficios del uso de ChatGPT: Los maestros citan varias ventajas al utilizar ChatGPT en la planificación de lecciones. Entre ellas se encuentran la generación de ideas creativas, la obtención de recursos y materiales relevantes, la personalización de los planes de lecciones según las necesidades de los estudiantes y el ahorro de tiempo en la preparación.
  • Apoyo en la elaboración de contenidos: Los maestros encuentran que ChatGPT les brinda asistencia en la creación de contenido para las lecciones. Pueden solicitar ideas, sugerencias de actividades, ejercicios y explicaciones claras sobre conceptos difíciles.
  • Complemento a la experiencia docente: Aunque ChatGPT es una herramienta útil, los maestros enfatizan que no reemplaza la experiencia y el conocimiento pedagógico del educador. Es importante utilizar ChatGPT como un recurso adicional para enriquecer la enseñanza, pero siempre tomando decisiones educativas fundamentadas.
  • Consideraciones éticas: Al utilizar ChatGPT, los maestros deben ser conscientes de las consideraciones éticas y el potencial de sesgos en los resultados generados por el modelo. Es importante supervisar y revisar la información proporcionada por ChatGPT antes de utilizarla en el aula.
  • Perspectivas futuras: Los resultados de la encuesta sugieren que el uso de tecnologías basadas en IA, como ChatGPT, seguirá creciendo en el ámbito educativo. Se espera que estas herramientas continúen siendo utilizadas para mejorar la eficiencia y la calidad de la planificación de lecciones.

En resumen, la encuesta revela que una gran mayoría de maestros utilizan ChatGPT para desarrollar sus planes de lecciones. Esta tecnología les brinda beneficios en la generación de ideas, la personalización de los contenidos y el ahorro de tiempo. Sin embargo, se enfatiza que ChatGPT debe utilizarse como complemento a la experiencia docente y con consideraciones éticas en mente.