Archivo de la categoría: Tecnologías de la información

ChatGPT: la inteligencia artificial y la generación de textos académicos. Planeta biblioteca 2023/05/31

ChatGPT: la inteligencia artificial y la generación de textos académicos.

Planeta biblioteca 2023/05/31

ESCUCHAR EL PROGRAMA

Ir a descargar

Video Conferencia Argentina

Video «Cómo funciona CHATGPT»

ChatGPT es un modelo de lenguaje basado en IA desarrollado por OpenAI que puede ser una herramienta valiosa para los educadores. Permite interactuar con un asistente virtual inteligente para obtener respuestas y generar ideas sobre tendencias. Sin embargo, su uso plantea preocupaciones éticas y de privacidad, como el acceso y uso indebido a datos personales, el sesgo algorítmico, el plagio académico y las implicaciones de la toma de decisiones automatizada en temas sensibles.

Inteligencia Artificial, Ética y Creatividad Artística: actividades

Inteligencia Artificial, Ética y Creatividad Artística: actividades. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

Programa de inteligencia artificial para 7° básico a I medio: fundamentos, ética y creatividad artística, desarrollado para fomentar el trabajo y reforzar la capacidad creativa e imaginativa de niñas, niños y adolescentes.

Promueve la discusión sobre temas éticos en torno a la Inteligencia Artificial generativa, junto al plan de estudios del MIT “Creative AI: A middle school curriculum about Creativity, Generative AI and Ethics” (Inteligencia artificial creativa: un currículum sobre creatividad, inteligencia artificial generativa y ética para la enseñanza media), en español.

Compuesto por 6 módulos con actividades autoexplicativas y recursos para el trabajo teórico y práctico (suma equivalente a 14 clases de 45 minutos). Está desarrollado para las asignaturas de Tecnología e Historia, Geografía y Ciencias Sociales de 7° básico a I medio, con oportunidades de integración curricular con Artes Visuales, Historia, Geografía y Ciencias Sociales y Orientación. Estas actividades son perfectamente adaptables, a otras asignaturas o niveles, así como a talleres y actividades extracurriculares.

Guía para Docentes – Cómo usar ChatGPT para potenciar el aprendizaje activo

Guía para Docentes – Cómo usar ChatGPT para potenciar el aprendizaje activo. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

En el marco del fortalecimiento de la Ciudadanía Digital impulsado por el Mineduc, este documento ofrece una guía práctica para que los y las docentes exploren cómo aprovechar estas nuevas herramientas para potenciar el aprendizaje activo de los y las estudiantes.

El 85% de los trabajadores estadounidenses han utilizado herramientas de IA para realizar tareas en el trabajo

«Insights from American Workers: A Survey on AI in the Workplace». Checkr. Accedido 30 de mayo de 2023. https://checkr.com/resources/articles/ai-workplace-survey-2023.

En el panorama tecnológico en rápida evolución, ha surgido una tendencia que ha cambiado las reglas del juego para las empresas de todo el mundo: la adopción generalizada de la Inteligencia Artificial (IA) en el lugar de trabajo. A medida que nos adentramos en 2023, la IA ha pasado de ser una palabra de moda a una fuerza transformadora que está revolucionando la forma en que las organizaciones operan, innovan e interactúan con sus clientes.

Checkr encuestó a trabajadores estadounidenses de cuatro generaciones para conocer sus opiniones sobre la adopción de herramientas de IA generativa en el trabajo; si los trabajadores creen que la IA podría sustituirles algún día; su uso de herramientas de IA en el trabajo; cómo podría afectar la IA a los puestos de trabajo y a la remuneración en 2023; el impacto de la IA en el equilibrio entre la vida laboral y personal; qué generación de trabajadores teme más el papel de la IA en el lugar de trabajo, y mucho más.

  • El 85% de los trabajadores estadounidenses han utilizado herramientas de IA para realizar tareas en el trabajo. Los Millennials lideran el grupo con un 89% que afirma haber utilizado la IA en el trabajo.
  • El 69% de los trabajadores estadounidenses -el 63% de los Boomers, el 65% de los Gen Xers, el 76% de los Millennials y el 71% de los Gen Zers- afirman estar de acuerdo o dudar si contar a sus jefes el uso de la IA en el trabajo por miedo a ser sustituidos por las herramientas que utilizan.
  • El 79% de los trabajadores estadounidenses se sienten presionados para aprender más sobre las herramientas de IA. Los Millennials lideran el grupo con un 85% sintiendo la mayor presión en el trabajo.
  • El 57% de los trabajadores estadounidenses -el 53% de los Boomers, el 49% de los Gen Xers, el 59% de los Millennials y el 65% de los Gen Xers- afirman que aceptarían un recorte salarial a cambio de una semana laboral de cuatro días con IA.
  • El 86% de los trabajadores estadounidenses -85% de los Boomers, 82% de los Gen Xers, 84% de los Millennials y 92% de los Gen Zers- afirmaron que aceptarían un recorte salarial para trabajar menos, en general, si la IA pudiera ayudarles a realizar todo su trabajo.
  • El 79% de los trabajadores estadounidenses -el 75% de los Boomers, el 81% de los Gen Xers, el 82% de los Millennials y el 76% de los Gen Zers- afirmaron tener miedo o estar indecisos sobre si la IA podría suponer una reducción salarial para las personas en sus puestos.
  • El 74% de los trabajadores estadounidenses -el 71% de los Boomers, el 70% de los Gen Xers, el 81% de los Millennials y el 73% de los Gen Zers- afirmaron estar de acuerdo o indecisos sobre la posibilidad de que la adopción de herramientas de IA les lleve a perder sus puestos de trabajo.
  • El 67% de los trabajadores estadounidenses -el 59% de los Boomers, el 61% de los Gen Xers, el 77% de los Millennials y el 69% de los Gen Zers- afirmaron que gastarían su propio dinero en mejorar sus conocimientos sobre IA para evitar ser sustituidos.
  • El 74% de los estadounidenses -el 70% de los Boomers, el 69% de los Gen Xers, el 78% de los Millennials y el 79% de los Gen Zers- dijeron que creen que se van a producir despidos por IA en los próximos seis meses a dos años.

En conclusión: la IA se utiliza cada vez más en diversos aspectos del trabajo, desde la automatización de tareas repetitivas hasta el análisis avanzado de datos y la toma de decisiones.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Guía del bibliotecario para el aprendizaje práctico de ChatGPT: creación y evaluación de citas

«Librarian Guide to Hands-on Learning ChatGPT Activities for Bibliographic Instruction: Citation Creation and Evaluation». Accedido 29 de mayo de 2023. https://www.chatgptlibrarian.com/2023/04/librarian-guide-to-hands-on-learning.html.

La enseñanza de habilidades bibliográficas es fundamental para que los estudiantes desarrollen competencias en la investigación y la escritura académica. Una herramienta cada vez más popular para brindar instrucción bibliográfica interactiva es ChatGPT, un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Este artículo presenta una guía práctica para los bibliotecarios que deseen utilizar ChatGPT como una herramienta de aprendizaje práctico en la creación y evaluación de citas.

Desarrollo:

  1. Breve introducción a ChatGPT: Se proporciona una descripción general de ChatGPT y cómo puede ser utilizado como recurso para la enseñanza bibliográfica.
  2. Actividad 1: Creación de citas: Se ofrece una actividad práctica en la cual los estudiantes pueden interactuar con ChatGPT para aprender a crear citas bibliográficas correctamente utilizando diferentes estilos de citación (APA, MLA, Chicago, etc.). Se brindan ejemplos y se resuelven dudas comunes.
  3. Actividad 2: Evaluación de citas: Se presenta una actividad en la cual los estudiantes deben evaluar la calidad y precisión de diferentes citas bibliográficas generadas por ChatGPT. Se discuten los criterios para evaluar una cita adecuada y se promueve la reflexión crítica sobre la información utilizada.
  4. Consejos para la implementación: Se ofrecen sugerencias y recomendaciones prácticas para los bibliotecarios que deseen incorporar estas actividades en sus sesiones de instrucción bibliográfica, incluyendo el tiempo estimado, las mejores prácticas y las posibles adaptaciones.

I. Introducción

  • Explicar la importancia de crear citas precisas y con el formato adecuado
  • Discutir las ventajas de utilizar ChatGPT para la creación y evaluación de citas


II. Creación de citas

  • Discutir los diferentes estilos de citación (por ejemplo, APA, MLA, Chicago)
  • Proporcionar recursos para aprender las normas y directrices de cada estilo de citación
  • Demostrar cómo utilizar ChatGPT para generar citas en diferentes estilos
  • Proporcionar ejemplos de citas influyentes y precisas

III. Evaluación de citas

  • Discutir la importancia de evaluar la precisión y el formato de las citas
  • Explicar cómo utilizar ChatGPT para evaluar la precisión y el formato de las citas.
  • Demostrar cómo introducir citas en ChatGPT para su evaluación
  • Proporcionar ejemplos de citas con formato correcto y citas con errores

IV. Buenas prácticas

  • Proporcionar consejos para la creación y evaluación de citas, como el uso de fuentes fiables y la comprobación del formato.
  • Discutir los errores comunes que deben evitarse al crear citas, como la información inexacta o incompleta.
  • Ofrecer recursos para aprender más sobre la creación y evaluación de citas

V. Ejercicios prácticos

  • Proporcione ejercicios de práctica para que los estudiantes generen y evalúen citas utilizando ChatGPT.
  • Proporcionar comentarios sobre los ejercicios y ofrecer sugerencias para mejorarlos
    VI. Conclusión

Recapitule los puntos principales de la guía

  • Animar a los alumnos a seguir practicando la creación y evaluación de citas mediante ChatGPT.
  • Ofrécete para ayudarles con cualquier pregunta o problema que puedan tener al utilizar ChatGPT para la creación y evaluación de citas.

La utilización de ChatGPT como herramienta de aprendizaje práctico en la instrucción bibliográfica puede ser una forma efectiva y atractiva de ayudar a los estudiantes a desarrollar habilidades en la creación y evaluación de citas. Esta guía del bibliotecario proporciona actividades concretas y consejos útiles para aprovechar al máximo esta herramienta en el proceso de enseñanza y aprendizaje.

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

Inteligencia Artificial Generativa y Ley de Propiedad Intelectual

Generative Artificial Intelligence and Copyright Law. Congressional Research Service (CRS). Legal Sidebar Prepared for Members and Committees of Congress Updated May 11, 2023

Descargar

Las recientes innovaciones en el campo de la inteligencia artificial (IA) plantean nuevos interrogantes sobre como la autoría, la infracción y el uso justo se aplicarán a los contenidos creados o utilizados por la IA.

Los denominados programas informáticos de «IA generativa», como los programas DALL-E 2 y ChatGPT de Open AI, el programa Stable Diffusion de Stability AI y el programa autotitulado Midjourney, son capaces de generar nuevas imágenes, textos y otros contenidos (o «salidas») en respuesta a las indicaciones textuales de un usuario (o «entradas»). Estos programas de IA generativa se entrenan para generar esos resultados en parte exponiéndolos a grandes cantidades de de obras existentes, como escritos, fotografías, pinturas y otras obras de arte. Este documento explora las cuestiones que los tribunales y la Oficina de Derechos de Autor de EE.UU. han empezado a plantearse sobre si los resultados de los programas de IA generativa tienen derecho a ser protegidos por los derechos de autor así como la forma en que el programas pueden infringir los derechos de autor de otras obras.

Derechos de autor de obras creadas con IA generativa

El uso generalizado de programas de IA generativa plantea la cuestión de quién, si es que alguien, puede tener los los derechos de autor de los contenidos creados con estos programas, dado que el usuario de la IA, el programador de la IA y el propio programa de IA desempeñan un papel en la creación de estas obras.

¿Están protegidos por derechos de autor los resultados de la IA?

La cuestión de si los productos de la IA -como las imágenes creadas por DALL-E o los textos creados por ChatGPT- depende, al menos en parte, del concepto de «autoría». La Constitución de EE.UU. autoriza al Congreso a «asegurar a los autores, por tiempo limitado… el derecho exclusivo a sus … escritos». Sobre la base de esta autoridad, la Ley de Derechos de Autor otorga protección de derechos de autor a «obras originales de autoría». Aunque la Constitución y la Ley de Propiedad Intelectual no definen explícitamente quién (o qué) puede ser un «autor», la Oficina de Derechos de Autor de EE.UU. sólo reconoce los derechos de autor en obras «creadas por un ser humano». Los tribunales también se han negado a ampliar la protección de los derechos de autor a los autores no humanos. Por ejemplo, los tribunales de apelación han sostenido en varios casos que un mono que tomó una serie de fotos carecía de legitimación para demandar en virtud de la Ley de Propiedad Intelectual; que era necesaria cierta creatividad humana un libro supuestamente inspirado en seres celestiales; y que un jardín vivo no podía ser objeto de derechos de autor por carecer de un autor humano. En junio de 2022, Stephen Thaler demandó a la Oficina de Derechos de Autor por denegar una solicitud de registro de una obra de arte visual que, según él, era obra de un programa de IA llamado Creativity Machine. Thaler afirma que la imagen fue creada «de forma autónoma por una máquina» y sostiene que la Ley de Propiedad Intelectual no exige la autoría humana. La demanda está pendiente.

Aun suponiendo que una obra sujeta a derechos de autor requiera un autor humano, las obras creadas mediante IA generativa podrían tener derecho a la protección de los derechos de autor, dependiendo de la naturaleza de la participación humana en el proceso creativo. Un reciente procedimiento de derechos de autor muestra que la Oficina de Derechos de Autor puede mostrarse escéptica ante este argumento. En septiembre de 2022, la escritora Kristina Kashtanova registró los derechos de autor de su novela gráfica, ilustrada íntegramente con imágenes generadas por Midjourney en respuesta a sus textos. En octubre, sin embargo, la Oficina de Derechos de Autor inició un procedimiento de cancelación, señalando que la Sra. Kashtanova no había revelado su uso de la IA. Kashtanova respondió alegando que había creado las imágenes mediante «un proceso creativo e iterativo» que implicaba «múltiples rondas de composición, selección, arreglo, recorte y edición de cada imagen». Contrastó su proceso creativo con la imagen «generada autónomamente» que el Dr. Thaler intentó registrar. Sin embargo, el 21 de febrero de 2023, la Oficina de Derechos de Autor determinó que las imágenes no tenían un autor humano y, por tanto, no eran susceptibles de derechos de autor.

Algunos expertos afirman que al menos algunas obras generadas por IA deberían recibir protección de derechos de autor, argumentando que los programas de IA son análogos a otras herramientas que los seres humanos han utilizado para crear obras protegidas por derechos de autor. obras protegidas. Por ejemplo, el Tribunal Supremo ha sostenido desde el caso de 1884 Burrow-Giles Lithographic Co. v. Sarony que las fotografías pueden tener derecho a la protección de los derechos de autor cuando el fotógrafo toma decisiones sobre elementos creativos como la composición, la disposición y la iluminación. Los programas de IA generativa podrían considerarse como otra herramienta, similar a un equipo fotográfico, que puede ser utilizada por autores humanos. La Sra. Kashtanova argumentó que su propio proceso creativo era similar al de un fotógrafo.

Otros especialistas y la Oficina de Derechos de Autor, cuestionando la analogía con la fotografía, ponen en duda que los usuarios de IA ejerzan un control creativo suficiente para que la IA pueda considerarse una mera herramienta. En el caso de la Sra. Kashtanova, la Oficina de Derechos de Autor razonó que, en lugar de ser «una herramienta que la Sra. Kashtanova controlaba y guiaba para alcanzar la imagen deseada, Midjourney genera imágenes de forma impredecible». Así pues, la Oficina de Derechos de Autor comparó al usuario de la IA con «un cliente que contrata a un artista», en contraposición a un artista por derecho propio.

Del mismo modo, un profesor de Derecho ha sugerido que el usuario de IA crea únicamente una «idea» abstracta no sujeta a derechos de autor, en lugar de una obra sujeta a derechos de autor que exprese la idea: «Si le pido a Dall-E que produzca un cuadro de erizos tomando el té en la playa, no he aportado nada más que una idea». Según este argumento, la obra de arte carece de autor y, por tanto, es de dominio público.

En resumen, es difícil predecir si la legislación sobre derechos de autor reconocerá algún tipo de protección a los resultados generativos de la IA. Aunque la forma en que la Oficina de Derechos de Autor ha tratado el caso de la Sra. Kashtanova hasta la fecha indica escepticismo respecto a la protección de los derechos de autor para las obras generadas por IA, la Oficina de Derechos de Autor no tiene ni la única ni la última palabra en la legislación estadounidense sobre derechos de autor. Por ejemplo, los solicitantes pueden pedir que se reconsideren las decisiones adversas de la Oficina de Derechos de Autor y, en última instancia, pueden impugnar esas decisiones ante los tribunales de distrito de EE.UU., como ha hecho el Dr. Thaler. Queda por ver cómo tratarán los tribunales federales estas impugnaciones y otros casos relacionados con los derechos de autor de obras generadas por IA.

¿A quién pertenecen los derechos de autor de los resultados de la IA generativa?

Suponiendo que algunas obras creadas por IA puedan acogerse a la protección de los derechos de autor, ¿a quién pertenecen esos derechos? En general, la Ley de Propiedad Intelectual confiere la propiedad «inicialmente al autor o autores de la obra». Dada la falta de de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA, no ha Sin embargo, dada la falta de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA hasta la fecha, no ha surgido ninguna norma clara que identifique quién podría ser el «autor o autores» de estas obras. Volviendo a la de la fotografía, el creador de la IA podría compararse con el fabricante de la cámara, mientras que el usuario de la IA que que impulsa la creación de una obra concreta podría compararse con el fotógrafo que utiliza esa cámara para capturar una imagen concreta. Desde este punto de vista, el usuario de la IA sería considerado el autor y, por tanto, el propietario inicial de los derechos de autor. Por otro lado, las decisiones creativas implicadas en la codificación y el entrenamiento de la IA, podrían dar al creador de una IA un derecho de autor más fuerte que el del fabricante de una cámara.

Independientemente de quién sea el propietario inicial de los derechos de autor de un producto de IA, las empresas que proporcionan software de IA pueden intentar asignar los respectivos derechos de propiedad de la empresa y sus usuarios mediante un contrato, como las condiciones de servicio de la empresa. Las actuales condiciones de uso de OpenAI, por ejemplo, parecen asignar los derechos de autor al usuario: «OpenAI le cede por la presente todos sus derechos, títulos e intereses sobre las obras generadas». Una versión anterior de estas condiciones, por el contrario, pretendía otorgar a OpenAI tales derechos. En cualquier caso, OpenAI no parece abordar la cuestión de quién sería el propietario de los derechos de autor en ausencia de dichos términos. Como comentó un académico, OpenAI parece «eludir la mayoría de las cuestiones de derechos de autor a través de un contrato».

Infracción de los derechos de autor por la IA generativa

La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden infringir los derechos de autor de obras existentes, ya sea haciendo copias de obras existentes para entrenar la IA o generando resultados que se parezcan a esas obras existentes. ¿Infringe el proceso de entrenamiento de la IA los derechos de autor de otras obras? Los sistemas de IA se «entrenan» para crear obras literarias, visuales y artísticas exponiendo el programa a grandes cantidades de datos, que pueden consistir en obras existentes como textos e imágenes de Internet.

Este proceso de entrenamiento puede implicar la realización de copias digitales de obras existentes, lo que conlleva un riesgo de infracción de los derechos de autor. Como ha descrito la Oficina de Patentes y Marcas de EE.UU., este proceso «implicará casi por definición la reproducción de obras completas o de partes sustanciales de las mismas». OpenAI, por ejemplo, reconoce que sus programas se entrenan con «grandes conjuntos de datos de acceso público que incluyen obras protegidas por derechos de autor» y que este proceso «necesariamente implica la reproducción de obras completas o partes sustanciales de las mismas». obras» y que este proceso «implica necesariamente hacer primero copias de los datos a analizar». La creación de dichas copias, sin el permiso expreso o implícito de los distintos titulares de los derechos de autor, puede infringir el derecho exclusivo de los titulares a realizar reproducciones de su obra.

Las empresas de IA pueden alegar que sus procesos de formación constituyen un uso legítimo y que, por tanto, no infringen la ley.

El hecho de que la copia constituya o no un uso legítimo depende de cuatro factores establecidos en el artículo 107 del Título 17 del Código de los Estados Unidos:

  1. El propósito y el carácter del uso, incluyendo si dicho uso es de naturaleza comercial o tiene fines educativos sin ánimo de lucro. comercial o con fines educativos no lucrativos;
  2. La naturaleza de la obra protegida por derechos de autor;
  3. la cantidad y sustancialidad de la parte utilizada en relación con la obra protegida en su conjunto; y en su conjunto; y
  4. el efecto del uso sobre el mercado potencial o el valor de la obra protegida.

Algunas partes interesadas sostienen que el uso de obras protegidas por derechos de autor para entrenar programas de IA debería considerarse un uso justo en virtud de estos factores. En cuanto al primer factor, OpenAI argumenta que su propósito es «transformador» en contraposición a «expresivo» porque el proceso de formación crea «un sistema de IA generativo útil». OpenAI también sostiene que el tercer factor apoya el uso leal porque las copias no se ponen a disposición del público sino que se utilizan únicamente para entrenar el programa. En su apoyo, OpenAI cita el caso The Authors Guild, Inc. contra Google, Inc, en el que el Tribunal de Apelación del Segundo Circuito de los EE.UU. sostuvo que la copia por parte de Google de libros enteros para crear una base de datos de búsqueda que mostraba extractos de esos libros constituía uso legítimo.

Es posible que estos argumentos se pongan pronto a prueba en los tribunales, ya que los demandantes han presentado recientemente múltiples demandas alegando infracción de derechos de autor mediante procesos de formación de IA. El 13 de enero de 2023, varios artistas presentaron una demanda colectiva putativa alegando que sus derechos de autor fueron infringidos en el entrenamiento de programas de imagen de IA, incluido Stable Diffusion. En la demanda colectiva se alega que los demandados «descargaron o de otro modo adquirieron sin permiso copias de miles de millones de imágenes protegidas por derechos de autor» para utilizarlas como «imágenes de entrenamiento», «haciendo y almacenando copias de esas imágenes» sin el consentimiento de los artistas. Del mismo modo, el 3 de febrero de 2023 Getty Images presentó una demanda alegando que «Stability AI ha copiado al menos 12 millones de imágenes protegidas por derechos de autor…» de los sitios web de Getty Images … para entrenar su modelo de difusión estable». Ambas demandas parecen de uso leal, argumentando que Stable Diffusion es un producto comercial, lo que pesa el primer factor legal, y que el programa socava el mercado de las obras originales, lo que pesa en contra del uso legítimo de obras originales, lo que es contrario al uso legítimo según el cuarto factor.

¿Los resultados de la IA infringen los derechos de autor de otras obras?

Los programas de IA también pueden infringir los derechos de autor al generar resultados que se asemejan a obras existentes. Según la jurisprudencia estadounidense, los titulares de derechos de autor pueden demostrar que tales resultados infringen sus derechos de autor si el programa de IA (1) tuvo acceso a sus obras y (2) creó resultados «sustancialmente similares».

En primer lugar, para demostrar la infracción de los derechos de autor, el demandante debe probar que el infractor «copió realmente» la obra subyacente. Esto a veces se prueba circunstancialmente mediante pruebas de que el infractor «tuvo acceso a la obra». En el caso de los productos de IA, el acceso puede demostrarse con pruebas de que el programa de IA fue entrenado utilizando la obra subyacente. Por ejemplo, la obra subyacente podría formar parte de un sitio de Internet de acceso público que fue descargado para entrenar el programa de IA.

En segundo lugar, un demandante debe demostrar que la nueva obra es «sustancialmente similar» a la obra subyacente para establecer la infracción. La prueba de la similitud sustancial es difícil de definir y varía según los tribunales estadounidenses. Los tribunales han descrito la prueba de diversas maneras, por ejemplo, exigiendo que las obras tengan «un concepto y una sensación totales sustancialmente similares» o «un aspecto y una sensación generales» o que «una persona razonable ordinaria no diferenciaría entre las dos obras». La jurisprudencia también ha declarado que esta determinación tiene en cuenta tanto «la importancia cualitativa como cuantitativa de la parte copiada en relación con la obra del demandante en su conjunto». En el caso de los resultados generados por IA, al igual que en el de las obras tradicionales, el análisis de la «similitud sustancial» puede requerir que los tribunales realicen este tipo de comparaciones entre el resultado de la IA y la obra subyacente.

Existe un desacuerdo significativo en cuanto a la probabilidad de que los programas generativos de IA copien obras existentes en sus resultados. OpenAI argumenta que «los sistemas de IA bien construidos no suelen regenerar, en ninguna porción no trivial, datos inalterados de ninguna obra concreta de su corpus de entrenamiento». Por lo tanto, afirma OpenAI, la infracción «es un resultado accidental poco probable». Por el contrario, la demanda de Getty Images alega que «Stable Diffusion a veces produce imágenes que son altamente similares y derivadas de las Getty Images.» Un estudio ha encontrado «una cantidad significativa de copias» en un pequeño porcentaje (menos del 2%) de las imágenes creadas por Stable Diffusion. Sin embargo, la otra demanda colectiva contra Stable Diffusion parece argumentar que todos los productos de Stable Diffusion son potencialmente infractores, alegando que son «generados exclusivamente a partir de una combinación de … copias de imágenes protegidas por derechos de autor».

Hay dos tipos de resultados de IA que pueden plantear problemas especiales. En primer lugar, algunos programas de IA pueden utilizarse para crear obras con personajes de ficción ya existentes. Estas obras pueden correr un mayor riesgo de infracción de los derechos de autor en la medida en que los personajes a veces gozan de protección de los derechos de autor en sí mismos. En segundo lugar, algunos programas de IA pueden utilizarse para crear obras artísticas o literarias «al estilo» de un artista o autor concreto.

Estos resultados no son necesariamente infractores, ya que la ley de derechos de autor prohíbe generalmente la copia de obras específicas en lugar del estilo general de un artista. Sin embargo, a algunos artistas les preocupa que los programas de IA generativa sean los únicos capaces de producir en masa obras que copien su estilo, lo que podría socavar el valor de su trabajo. En la demanda colectiva contra Stable Diffusion, por ejemplo, los demandantes afirman que pocos artistas humanos pueden imitar con éxito el estilo de otro artista, mientras que «AI Image Products lo hace con facilidad». Una complicación de los programas de IA es que es posible que el usuario no sepa o no tenga acceso a un trabajo que se copió en respuesta a la indicación del usuario. Según la ley actual, esto puede dificultar el análisis de si el usuario es responsable de la infracción de derechos de autor.

Consideraciones para el Congreso

Es posible que el Congreso desee considerar si alguna de las cuestiones de derecho de autor planteadas por los programas de IA generativa requieren enmiendas a la Ley de Propiedad Intelectual u otra legislación. Por ejemplo, el Congreso podría considerar una legislación que aclare si las obras generadas por IA son susceptibles de derechos de autor, quién debe ser autor de dichas obras, o cuándo el proceso de formación de programas de IA generativa constituye un uso justo. uso legítimo.

Dada la escasa oportunidad que han tenido los tribunales y la Oficina de Derechos de Autor para abordar estas cuestiones, el Congreso el Congreso puede adoptar una postura de espera. A medida que los tribunales adquieran experiencia casos relacionados con la IA generativa, podrán proporcionar una mayor orientación y previsibilidad en este ámbito a través de opiniones judiciales. judiciales. Sobre la base de los resultados de los primeros casos en este ámbito, como los resumidos anteriormente, el Congreso puede reconsiderar la necesidad de adoptar medidas legislativas.

Christopher T. Zirpoli

Legislative Attorney

Descargo de responsabilidad

Este documento ha sido elaborado por el Servicio de Investigación del Congreso (CRS). El CRS presta servicios como personal compartido no partidista a los comités y miembros del Congreso. Funciona exclusivamente a instancias del Congreso y bajo su dirección. del Congreso. La información contenida en un informe del CRS no debe utilizarse para fines distintos de la comprensión pública de la información facilitada por el CRS. información proporcionada por CRS a los miembros del Congreso en el marco de su función institucional. Los informes de CRS, como obra del Gobierno de los Estados Unidos, no están sujetos a la protección de los derechos de autor en los Estados Unidos. Estados Unidos. Cualquier informe de CRS puede ser reproducido y distribuido en su totalidad sin permiso de CRS. No obstante Sin embargo, dado que un Informe CRS puede incluir imágenes o material de terceros protegidos por derechos de autor, es posible que deba obtener el permiso del titular de los derechos de autor si desea utilizarlos. permiso del titular de los derechos de autor si desea copiar o utilizar de otro modo material protegido por derechos de autor.

Según una encuesta un 17% de los estudiantes de la Universidad de Stanford utilizaron ChatGPT en los exámenes y trabajos de clase

«Scores of Stanford Students Used ChatGPT on Final Exams», 22 de enero de 2023. https://stanforddaily.com/2023/01/22/scores-of-stanford-students-used-chatgpt-on-final-exams-survey-suggests/.

El estudio informa sobre el uso de ChatGPT por parte de un gran número de estudiantes de Stanford durante los exámenes finales, según indica una encuesta. El artículo destaca que el uso de esta herramienta de inteligencia artificial se realizó sin el conocimiento ni la aprobación de los profesores, lo que está generado preocupaciones sobre la integridad académica y se están tomando medidas para abordar esta situación.

ChatGPT es un modelo de lenguaje basado en inteligencia artificial desarrollado por OpenAI que puede responder preguntas y generar texto en función de las instrucciones proporcionadas.

Según una encuesta del Pew Research Center realizada en marzo de 2023, mucha gente dice haber utilizado ChatGPT por curiosidad o entretenimiento. Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida. ChatGPT marca el comienzo de una nueva ola de IA, una ola que está a punto de trastornar la educación. El estudio de Intelligent.com muestra cómo la aplicación de inteligencia artificial está omnipresente en los planes de estudio escolares, ya que los profesores la utilizan cada vez más para impartir sus lecciones, y los estudiantes la adoptan para hacer sus deberes.

Así, los estudiantes dicen haber utilizado esta herramienta para obtener ayuda y obtener respuestas rápidas durante los exámenes, sin el conocimiento ni la aprobación de los profesores, tal como pone de relieve la encuesta realizada por The Daily de la Universidad de Stanford (segunda universidad más importante del mundo), a la que respondieron 4.497 personas, y que estuvo abierta del 9 al 15 de enero, alrededor del 17% de los estudiantes de encuestados afirmaron haber utilizado ChatGPT para ayudarse con sus tareas y exámenes del primer trimestre del curso. De ese 17%, la mayoría afirmó haber utilizado la IA sólo para realizar lluvias de ideas y esquemas. Según la encuesta, sólo un 5% dijo que había entrehgado material escrito directamente desde ChatGPT con pocos o ningún cambio.

El estudio menciona que el uso de ChatGPT plantea preocupaciones sobre la integridad académica y equidad en la evaluación de los estudiantes. Los profesores y la universidad están investigando el alcance de esta situación y considerando medidas para evitar futuros casos de uso no autorizado de inteligencia artificial durante los exámenes. Algunas facultades y universidades ya han incorporado la nueva tecnología a sus políticas de integridad académica. La Universidad de Washington en San Luis y la Universidad de Vermont en Burlington son algunas de las instituciones que han modificado sus políticas de integridad para incluir el uso de herramientas de IA como ChatGPT.

A principios de enero, los colegios públicos de Nueva York prohibieron ChatGPT en sus dispositivos y redes. A los educadores les preocupaba que los alumnos que recurrieran a ella no aprendieran a pensar de forma crítica y a resolver problemas. También les preocupaba que las respuestas de la herramienta pudieran no ser precisas o seguras. Muchos otros sistemas escolares de Estados Unidos y de todo el mundo han impuesto prohibiciones similares. Sin embargo hace unos días los colegios públicos de Nueva York revocaron la prohibición del ChatGPT y admitieron que hubo un «miedo instintivo». El gobierno de Italia también bloqueó temporalmente el software de inteligencia artificial ChatGPT a raíz de una filtración de datos privados de empresas, mientras investiga una posible violación de las normas de protección de datos de la Unión Europea.

La misma encuesta también reveló que más de la mitad de los estudiantes afirmaron que el uso de ChatGPT para las tareas infringía o podría infringir en el futuro el código ético de su centro. Sin embargo, las normas sobre cuánto uso se considera una violación difieren según el estudiante. El 31,5% respondió que sería una infracción si «el uso va más allá de la generación de la idea», y el 22,7% «se utiliza de cualquier forma». El 21% respondió «si se presenta sin editar».

Algunos profesores añadieron advertencias al plan de estudios de que «el uso de ChatGPT es un tipo de plagio», mientras que otros intentaron cambiar a un método más tradicional y eliminar toda la tecnología. En una clase se afirma que las herramientas de IA, incluido ChatGPT, «generalmente no se recomiendan» y que, cuando se utilicen, debe especificarse la fuente del mismo modo que se citan las fuentes externas.

La noticia de que algunos estudiantes ya están utilizando ChatGPT en sus tareas se ha extendido a los profesores, algunos de los cuales están renovando sus cursos como consecuencia de ello. El 97% de los maestros estadounidenses dicen utilizar ChatGPT como herramienta para impartir sus clases. Esto indica una alta adopción y dependencia de esta tecnología en el ámbito educativo.

Sin embargo, a pesar de todo ello, ChatGPT y sus herramientas afines también podrían proporcionar un buen servicio para los estudiantes de todo el mundo. Al igual que las calculadoras para las matemáticas o Google para verificar los hechos, la IA puede ayudar positivamente a los profesores y estudiantes del futuro.

La mayoría de los estadounidenses ha oído hablar del ChatGPT, pero pocos lo han probado

Vogels, Emily a. «A Majority of Americans Have Heard of ChatGPT, but Few Have Tried It Themselves». Pew Research Center (blog). Accedido 25 de mayo de 2023. https://www.pewresearch.org/short-reads/2023/05/24/a-majority-of-americans-have-heard-of-chatgpt-but-few-have-tried-it-themselves/.

Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado, según una encuesta del Pew Research Center realizada en marzo. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida.

El uso de ChatGPT ha sido muy discutido. Algunos lo consideran una herramienta útil para fines educativos y laborales, mientras que otros opinan que sólo debe utilizarse como entretenimiento.

Sin embargo, pocos adultos estadounidenses han utilizado ChatGPT con algún fin. Sólo el 14% de los adultos estadounidenses afirma haberlo utilizado para entretenerse, aprender algo nuevo o trabajar. Esta falta de aceptación coincide con una encuesta del Pew Research Center de 2021, según la cual los estadounidenses se mostraban más preocupados que entusiasmados por el aumento del uso de la inteligencia artificial en la vida cotidiana.

Entre el subconjunto de estadounidenses que han oído hablar de ChatGPT, el 19% dice que lo ha utilizado para entretenerse y el 14% para aprender algo nuevo. Aproximadamente uno de cada diez adultos que han oído hablar de ChatGPT y que actualmente trabajan a sueldo lo han utilizado en el trabajo.

Las opiniones de los estadounidenses sobre la utilidad de ChatGPT son algo dispares. A las personas que lo han utilizado se les preguntó por su experiencia con este chatbot. Aproximadamente un tercio dice que ha sido extremadamente útil (15%) o muy útil (20%), mientras que el 39% dice que ha sido algo útil. Alrededor de una cuarta parte de los que lo han probado dicen que no ha sido muy (21%) o nada útil (6%).

Los adultos más jóvenes tienden a encontrar el ChatGPT más útil que los mayores. Alrededor de cuatro de cada diez adultos menores de 50 años que lo han utilizado (38%) dicen que ha sido extremadamente o muy útil, mientras que sólo una cuarta parte de los usuarios de 50 años o más (24%) dicen lo mismo.