Archivo de la etiqueta: ChatGPT

Inteligencia Artificial Generativa y Ley de Propiedad Intelectual

Generative Artificial Intelligence and Copyright Law. Congressional Research Service (CRS). Legal Sidebar Prepared for Members and Committees of Congress Updated May 11, 2023

Descargar

Las recientes innovaciones en el campo de la inteligencia artificial (IA) plantean nuevos interrogantes sobre como la autoría, la infracción y el uso justo se aplicarán a los contenidos creados o utilizados por la IA.

Los denominados programas informáticos de «IA generativa», como los programas DALL-E 2 y ChatGPT de Open AI, el programa Stable Diffusion de Stability AI y el programa autotitulado Midjourney, son capaces de generar nuevas imágenes, textos y otros contenidos (o «salidas») en respuesta a las indicaciones textuales de un usuario (o «entradas»). Estos programas de IA generativa se entrenan para generar esos resultados en parte exponiéndolos a grandes cantidades de de obras existentes, como escritos, fotografías, pinturas y otras obras de arte. Este documento explora las cuestiones que los tribunales y la Oficina de Derechos de Autor de EE.UU. han empezado a plantearse sobre si los resultados de los programas de IA generativa tienen derecho a ser protegidos por los derechos de autor así como la forma en que el programas pueden infringir los derechos de autor de otras obras.

Derechos de autor de obras creadas con IA generativa

El uso generalizado de programas de IA generativa plantea la cuestión de quién, si es que alguien, puede tener los los derechos de autor de los contenidos creados con estos programas, dado que el usuario de la IA, el programador de la IA y el propio programa de IA desempeñan un papel en la creación de estas obras.

¿Están protegidos por derechos de autor los resultados de la IA?

La cuestión de si los productos de la IA -como las imágenes creadas por DALL-E o los textos creados por ChatGPT- depende, al menos en parte, del concepto de «autoría». La Constitución de EE.UU. autoriza al Congreso a «asegurar a los autores, por tiempo limitado… el derecho exclusivo a sus … escritos». Sobre la base de esta autoridad, la Ley de Derechos de Autor otorga protección de derechos de autor a «obras originales de autoría». Aunque la Constitución y la Ley de Propiedad Intelectual no definen explícitamente quién (o qué) puede ser un «autor», la Oficina de Derechos de Autor de EE.UU. sólo reconoce los derechos de autor en obras «creadas por un ser humano». Los tribunales también se han negado a ampliar la protección de los derechos de autor a los autores no humanos. Por ejemplo, los tribunales de apelación han sostenido en varios casos que un mono que tomó una serie de fotos carecía de legitimación para demandar en virtud de la Ley de Propiedad Intelectual; que era necesaria cierta creatividad humana un libro supuestamente inspirado en seres celestiales; y que un jardín vivo no podía ser objeto de derechos de autor por carecer de un autor humano. En junio de 2022, Stephen Thaler demandó a la Oficina de Derechos de Autor por denegar una solicitud de registro de una obra de arte visual que, según él, era obra de un programa de IA llamado Creativity Machine. Thaler afirma que la imagen fue creada «de forma autónoma por una máquina» y sostiene que la Ley de Propiedad Intelectual no exige la autoría humana. La demanda está pendiente.

Aun suponiendo que una obra sujeta a derechos de autor requiera un autor humano, las obras creadas mediante IA generativa podrían tener derecho a la protección de los derechos de autor, dependiendo de la naturaleza de la participación humana en el proceso creativo. Un reciente procedimiento de derechos de autor muestra que la Oficina de Derechos de Autor puede mostrarse escéptica ante este argumento. En septiembre de 2022, la escritora Kristina Kashtanova registró los derechos de autor de su novela gráfica, ilustrada íntegramente con imágenes generadas por Midjourney en respuesta a sus textos. En octubre, sin embargo, la Oficina de Derechos de Autor inició un procedimiento de cancelación, señalando que la Sra. Kashtanova no había revelado su uso de la IA. Kashtanova respondió alegando que había creado las imágenes mediante «un proceso creativo e iterativo» que implicaba «múltiples rondas de composición, selección, arreglo, recorte y edición de cada imagen». Contrastó su proceso creativo con la imagen «generada autónomamente» que el Dr. Thaler intentó registrar. Sin embargo, el 21 de febrero de 2023, la Oficina de Derechos de Autor determinó que las imágenes no tenían un autor humano y, por tanto, no eran susceptibles de derechos de autor.

Algunos expertos afirman que al menos algunas obras generadas por IA deberían recibir protección de derechos de autor, argumentando que los programas de IA son análogos a otras herramientas que los seres humanos han utilizado para crear obras protegidas por derechos de autor. obras protegidas. Por ejemplo, el Tribunal Supremo ha sostenido desde el caso de 1884 Burrow-Giles Lithographic Co. v. Sarony que las fotografías pueden tener derecho a la protección de los derechos de autor cuando el fotógrafo toma decisiones sobre elementos creativos como la composición, la disposición y la iluminación. Los programas de IA generativa podrían considerarse como otra herramienta, similar a un equipo fotográfico, que puede ser utilizada por autores humanos. La Sra. Kashtanova argumentó que su propio proceso creativo era similar al de un fotógrafo.

Otros especialistas y la Oficina de Derechos de Autor, cuestionando la analogía con la fotografía, ponen en duda que los usuarios de IA ejerzan un control creativo suficiente para que la IA pueda considerarse una mera herramienta. En el caso de la Sra. Kashtanova, la Oficina de Derechos de Autor razonó que, en lugar de ser «una herramienta que la Sra. Kashtanova controlaba y guiaba para alcanzar la imagen deseada, Midjourney genera imágenes de forma impredecible». Así pues, la Oficina de Derechos de Autor comparó al usuario de la IA con «un cliente que contrata a un artista», en contraposición a un artista por derecho propio.

Del mismo modo, un profesor de Derecho ha sugerido que el usuario de IA crea únicamente una «idea» abstracta no sujeta a derechos de autor, en lugar de una obra sujeta a derechos de autor que exprese la idea: «Si le pido a Dall-E que produzca un cuadro de erizos tomando el té en la playa, no he aportado nada más que una idea». Según este argumento, la obra de arte carece de autor y, por tanto, es de dominio público.

En resumen, es difícil predecir si la legislación sobre derechos de autor reconocerá algún tipo de protección a los resultados generativos de la IA. Aunque la forma en que la Oficina de Derechos de Autor ha tratado el caso de la Sra. Kashtanova hasta la fecha indica escepticismo respecto a la protección de los derechos de autor para las obras generadas por IA, la Oficina de Derechos de Autor no tiene ni la única ni la última palabra en la legislación estadounidense sobre derechos de autor. Por ejemplo, los solicitantes pueden pedir que se reconsideren las decisiones adversas de la Oficina de Derechos de Autor y, en última instancia, pueden impugnar esas decisiones ante los tribunales de distrito de EE.UU., como ha hecho el Dr. Thaler. Queda por ver cómo tratarán los tribunales federales estas impugnaciones y otros casos relacionados con los derechos de autor de obras generadas por IA.

¿A quién pertenecen los derechos de autor de los resultados de la IA generativa?

Suponiendo que algunas obras creadas por IA puedan acogerse a la protección de los derechos de autor, ¿a quién pertenecen esos derechos? En general, la Ley de Propiedad Intelectual confiere la propiedad «inicialmente al autor o autores de la obra». Dada la falta de de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA, no ha Sin embargo, dada la falta de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA hasta la fecha, no ha surgido ninguna norma clara que identifique quién podría ser el «autor o autores» de estas obras. Volviendo a la de la fotografía, el creador de la IA podría compararse con el fabricante de la cámara, mientras que el usuario de la IA que que impulsa la creación de una obra concreta podría compararse con el fotógrafo que utiliza esa cámara para capturar una imagen concreta. Desde este punto de vista, el usuario de la IA sería considerado el autor y, por tanto, el propietario inicial de los derechos de autor. Por otro lado, las decisiones creativas implicadas en la codificación y el entrenamiento de la IA, podrían dar al creador de una IA un derecho de autor más fuerte que el del fabricante de una cámara.

Independientemente de quién sea el propietario inicial de los derechos de autor de un producto de IA, las empresas que proporcionan software de IA pueden intentar asignar los respectivos derechos de propiedad de la empresa y sus usuarios mediante un contrato, como las condiciones de servicio de la empresa. Las actuales condiciones de uso de OpenAI, por ejemplo, parecen asignar los derechos de autor al usuario: «OpenAI le cede por la presente todos sus derechos, títulos e intereses sobre las obras generadas». Una versión anterior de estas condiciones, por el contrario, pretendía otorgar a OpenAI tales derechos. En cualquier caso, OpenAI no parece abordar la cuestión de quién sería el propietario de los derechos de autor en ausencia de dichos términos. Como comentó un académico, OpenAI parece «eludir la mayoría de las cuestiones de derechos de autor a través de un contrato».

Infracción de los derechos de autor por la IA generativa

La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden infringir los derechos de autor de obras existentes, ya sea haciendo copias de obras existentes para entrenar la IA o generando resultados que se parezcan a esas obras existentes. ¿Infringe el proceso de entrenamiento de la IA los derechos de autor de otras obras? Los sistemas de IA se «entrenan» para crear obras literarias, visuales y artísticas exponiendo el programa a grandes cantidades de datos, que pueden consistir en obras existentes como textos e imágenes de Internet.

Este proceso de entrenamiento puede implicar la realización de copias digitales de obras existentes, lo que conlleva un riesgo de infracción de los derechos de autor. Como ha descrito la Oficina de Patentes y Marcas de EE.UU., este proceso «implicará casi por definición la reproducción de obras completas o de partes sustanciales de las mismas». OpenAI, por ejemplo, reconoce que sus programas se entrenan con «grandes conjuntos de datos de acceso público que incluyen obras protegidas por derechos de autor» y que este proceso «necesariamente implica la reproducción de obras completas o partes sustanciales de las mismas». obras» y que este proceso «implica necesariamente hacer primero copias de los datos a analizar». La creación de dichas copias, sin el permiso expreso o implícito de los distintos titulares de los derechos de autor, puede infringir el derecho exclusivo de los titulares a realizar reproducciones de su obra.

Las empresas de IA pueden alegar que sus procesos de formación constituyen un uso legítimo y que, por tanto, no infringen la ley.

El hecho de que la copia constituya o no un uso legítimo depende de cuatro factores establecidos en el artículo 107 del Título 17 del Código de los Estados Unidos:

  1. El propósito y el carácter del uso, incluyendo si dicho uso es de naturaleza comercial o tiene fines educativos sin ánimo de lucro. comercial o con fines educativos no lucrativos;
  2. La naturaleza de la obra protegida por derechos de autor;
  3. la cantidad y sustancialidad de la parte utilizada en relación con la obra protegida en su conjunto; y en su conjunto; y
  4. el efecto del uso sobre el mercado potencial o el valor de la obra protegida.

Algunas partes interesadas sostienen que el uso de obras protegidas por derechos de autor para entrenar programas de IA debería considerarse un uso justo en virtud de estos factores. En cuanto al primer factor, OpenAI argumenta que su propósito es «transformador» en contraposición a «expresivo» porque el proceso de formación crea «un sistema de IA generativo útil». OpenAI también sostiene que el tercer factor apoya el uso leal porque las copias no se ponen a disposición del público sino que se utilizan únicamente para entrenar el programa. En su apoyo, OpenAI cita el caso The Authors Guild, Inc. contra Google, Inc, en el que el Tribunal de Apelación del Segundo Circuito de los EE.UU. sostuvo que la copia por parte de Google de libros enteros para crear una base de datos de búsqueda que mostraba extractos de esos libros constituía uso legítimo.

Es posible que estos argumentos se pongan pronto a prueba en los tribunales, ya que los demandantes han presentado recientemente múltiples demandas alegando infracción de derechos de autor mediante procesos de formación de IA. El 13 de enero de 2023, varios artistas presentaron una demanda colectiva putativa alegando que sus derechos de autor fueron infringidos en el entrenamiento de programas de imagen de IA, incluido Stable Diffusion. En la demanda colectiva se alega que los demandados «descargaron o de otro modo adquirieron sin permiso copias de miles de millones de imágenes protegidas por derechos de autor» para utilizarlas como «imágenes de entrenamiento», «haciendo y almacenando copias de esas imágenes» sin el consentimiento de los artistas. Del mismo modo, el 3 de febrero de 2023 Getty Images presentó una demanda alegando que «Stability AI ha copiado al menos 12 millones de imágenes protegidas por derechos de autor…» de los sitios web de Getty Images … para entrenar su modelo de difusión estable». Ambas demandas parecen de uso leal, argumentando que Stable Diffusion es un producto comercial, lo que pesa el primer factor legal, y que el programa socava el mercado de las obras originales, lo que pesa en contra del uso legítimo de obras originales, lo que es contrario al uso legítimo según el cuarto factor.

¿Los resultados de la IA infringen los derechos de autor de otras obras?

Los programas de IA también pueden infringir los derechos de autor al generar resultados que se asemejan a obras existentes. Según la jurisprudencia estadounidense, los titulares de derechos de autor pueden demostrar que tales resultados infringen sus derechos de autor si el programa de IA (1) tuvo acceso a sus obras y (2) creó resultados «sustancialmente similares».

En primer lugar, para demostrar la infracción de los derechos de autor, el demandante debe probar que el infractor «copió realmente» la obra subyacente. Esto a veces se prueba circunstancialmente mediante pruebas de que el infractor «tuvo acceso a la obra». En el caso de los productos de IA, el acceso puede demostrarse con pruebas de que el programa de IA fue entrenado utilizando la obra subyacente. Por ejemplo, la obra subyacente podría formar parte de un sitio de Internet de acceso público que fue descargado para entrenar el programa de IA.

En segundo lugar, un demandante debe demostrar que la nueva obra es «sustancialmente similar» a la obra subyacente para establecer la infracción. La prueba de la similitud sustancial es difícil de definir y varía según los tribunales estadounidenses. Los tribunales han descrito la prueba de diversas maneras, por ejemplo, exigiendo que las obras tengan «un concepto y una sensación totales sustancialmente similares» o «un aspecto y una sensación generales» o que «una persona razonable ordinaria no diferenciaría entre las dos obras». La jurisprudencia también ha declarado que esta determinación tiene en cuenta tanto «la importancia cualitativa como cuantitativa de la parte copiada en relación con la obra del demandante en su conjunto». En el caso de los resultados generados por IA, al igual que en el de las obras tradicionales, el análisis de la «similitud sustancial» puede requerir que los tribunales realicen este tipo de comparaciones entre el resultado de la IA y la obra subyacente.

Existe un desacuerdo significativo en cuanto a la probabilidad de que los programas generativos de IA copien obras existentes en sus resultados. OpenAI argumenta que «los sistemas de IA bien construidos no suelen regenerar, en ninguna porción no trivial, datos inalterados de ninguna obra concreta de su corpus de entrenamiento». Por lo tanto, afirma OpenAI, la infracción «es un resultado accidental poco probable». Por el contrario, la demanda de Getty Images alega que «Stable Diffusion a veces produce imágenes que son altamente similares y derivadas de las Getty Images.» Un estudio ha encontrado «una cantidad significativa de copias» en un pequeño porcentaje (menos del 2%) de las imágenes creadas por Stable Diffusion. Sin embargo, la otra demanda colectiva contra Stable Diffusion parece argumentar que todos los productos de Stable Diffusion son potencialmente infractores, alegando que son «generados exclusivamente a partir de una combinación de … copias de imágenes protegidas por derechos de autor».

Hay dos tipos de resultados de IA que pueden plantear problemas especiales. En primer lugar, algunos programas de IA pueden utilizarse para crear obras con personajes de ficción ya existentes. Estas obras pueden correr un mayor riesgo de infracción de los derechos de autor en la medida en que los personajes a veces gozan de protección de los derechos de autor en sí mismos. En segundo lugar, algunos programas de IA pueden utilizarse para crear obras artísticas o literarias «al estilo» de un artista o autor concreto.

Estos resultados no son necesariamente infractores, ya que la ley de derechos de autor prohíbe generalmente la copia de obras específicas en lugar del estilo general de un artista. Sin embargo, a algunos artistas les preocupa que los programas de IA generativa sean los únicos capaces de producir en masa obras que copien su estilo, lo que podría socavar el valor de su trabajo. En la demanda colectiva contra Stable Diffusion, por ejemplo, los demandantes afirman que pocos artistas humanos pueden imitar con éxito el estilo de otro artista, mientras que «AI Image Products lo hace con facilidad». Una complicación de los programas de IA es que es posible que el usuario no sepa o no tenga acceso a un trabajo que se copió en respuesta a la indicación del usuario. Según la ley actual, esto puede dificultar el análisis de si el usuario es responsable de la infracción de derechos de autor.

Consideraciones para el Congreso

Es posible que el Congreso desee considerar si alguna de las cuestiones de derecho de autor planteadas por los programas de IA generativa requieren enmiendas a la Ley de Propiedad Intelectual u otra legislación. Por ejemplo, el Congreso podría considerar una legislación que aclare si las obras generadas por IA son susceptibles de derechos de autor, quién debe ser autor de dichas obras, o cuándo el proceso de formación de programas de IA generativa constituye un uso justo. uso legítimo.

Dada la escasa oportunidad que han tenido los tribunales y la Oficina de Derechos de Autor para abordar estas cuestiones, el Congreso el Congreso puede adoptar una postura de espera. A medida que los tribunales adquieran experiencia casos relacionados con la IA generativa, podrán proporcionar una mayor orientación y previsibilidad en este ámbito a través de opiniones judiciales. judiciales. Sobre la base de los resultados de los primeros casos en este ámbito, como los resumidos anteriormente, el Congreso puede reconsiderar la necesidad de adoptar medidas legislativas.

Christopher T. Zirpoli

Legislative Attorney

Descargo de responsabilidad

Este documento ha sido elaborado por el Servicio de Investigación del Congreso (CRS). El CRS presta servicios como personal compartido no partidista a los comités y miembros del Congreso. Funciona exclusivamente a instancias del Congreso y bajo su dirección. del Congreso. La información contenida en un informe del CRS no debe utilizarse para fines distintos de la comprensión pública de la información facilitada por el CRS. información proporcionada por CRS a los miembros del Congreso en el marco de su función institucional. Los informes de CRS, como obra del Gobierno de los Estados Unidos, no están sujetos a la protección de los derechos de autor en los Estados Unidos. Estados Unidos. Cualquier informe de CRS puede ser reproducido y distribuido en su totalidad sin permiso de CRS. No obstante Sin embargo, dado que un Informe CRS puede incluir imágenes o material de terceros protegidos por derechos de autor, es posible que deba obtener el permiso del titular de los derechos de autor si desea utilizarlos. permiso del titular de los derechos de autor si desea copiar o utilizar de otro modo material protegido por derechos de autor.

Según una encuesta un 17% de los estudiantes de la Universidad de Stanford utilizaron ChatGPT en los exámenes y trabajos de clase

«Scores of Stanford Students Used ChatGPT on Final Exams», 22 de enero de 2023. https://stanforddaily.com/2023/01/22/scores-of-stanford-students-used-chatgpt-on-final-exams-survey-suggests/.

El estudio informa sobre el uso de ChatGPT por parte de un gran número de estudiantes de Stanford durante los exámenes finales, según indica una encuesta. El artículo destaca que el uso de esta herramienta de inteligencia artificial se realizó sin el conocimiento ni la aprobación de los profesores, lo que está generado preocupaciones sobre la integridad académica y se están tomando medidas para abordar esta situación.

ChatGPT es un modelo de lenguaje basado en inteligencia artificial desarrollado por OpenAI que puede responder preguntas y generar texto en función de las instrucciones proporcionadas.

Según una encuesta del Pew Research Center realizada en marzo de 2023, mucha gente dice haber utilizado ChatGPT por curiosidad o entretenimiento. Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida. ChatGPT marca el comienzo de una nueva ola de IA, una ola que está a punto de trastornar la educación. El estudio de Intelligent.com muestra cómo la aplicación de inteligencia artificial está omnipresente en los planes de estudio escolares, ya que los profesores la utilizan cada vez más para impartir sus lecciones, y los estudiantes la adoptan para hacer sus deberes.

Así, los estudiantes dicen haber utilizado esta herramienta para obtener ayuda y obtener respuestas rápidas durante los exámenes, sin el conocimiento ni la aprobación de los profesores, tal como pone de relieve la encuesta realizada por The Daily de la Universidad de Stanford (segunda universidad más importante del mundo), a la que respondieron 4.497 personas, y que estuvo abierta del 9 al 15 de enero, alrededor del 17% de los estudiantes de encuestados afirmaron haber utilizado ChatGPT para ayudarse con sus tareas y exámenes del primer trimestre del curso. De ese 17%, la mayoría afirmó haber utilizado la IA sólo para realizar lluvias de ideas y esquemas. Según la encuesta, sólo un 5% dijo que había entrehgado material escrito directamente desde ChatGPT con pocos o ningún cambio.

El estudio menciona que el uso de ChatGPT plantea preocupaciones sobre la integridad académica y equidad en la evaluación de los estudiantes. Los profesores y la universidad están investigando el alcance de esta situación y considerando medidas para evitar futuros casos de uso no autorizado de inteligencia artificial durante los exámenes. Algunas facultades y universidades ya han incorporado la nueva tecnología a sus políticas de integridad académica. La Universidad de Washington en San Luis y la Universidad de Vermont en Burlington son algunas de las instituciones que han modificado sus políticas de integridad para incluir el uso de herramientas de IA como ChatGPT.

A principios de enero, los colegios públicos de Nueva York prohibieron ChatGPT en sus dispositivos y redes. A los educadores les preocupaba que los alumnos que recurrieran a ella no aprendieran a pensar de forma crítica y a resolver problemas. También les preocupaba que las respuestas de la herramienta pudieran no ser precisas o seguras. Muchos otros sistemas escolares de Estados Unidos y de todo el mundo han impuesto prohibiciones similares. Sin embargo hace unos días los colegios públicos de Nueva York revocaron la prohibición del ChatGPT y admitieron que hubo un «miedo instintivo». El gobierno de Italia también bloqueó temporalmente el software de inteligencia artificial ChatGPT a raíz de una filtración de datos privados de empresas, mientras investiga una posible violación de las normas de protección de datos de la Unión Europea.

La misma encuesta también reveló que más de la mitad de los estudiantes afirmaron que el uso de ChatGPT para las tareas infringía o podría infringir en el futuro el código ético de su centro. Sin embargo, las normas sobre cuánto uso se considera una violación difieren según el estudiante. El 31,5% respondió que sería una infracción si «el uso va más allá de la generación de la idea», y el 22,7% «se utiliza de cualquier forma». El 21% respondió «si se presenta sin editar».

Algunos profesores añadieron advertencias al plan de estudios de que «el uso de ChatGPT es un tipo de plagio», mientras que otros intentaron cambiar a un método más tradicional y eliminar toda la tecnología. En una clase se afirma que las herramientas de IA, incluido ChatGPT, «generalmente no se recomiendan» y que, cuando se utilicen, debe especificarse la fuente del mismo modo que se citan las fuentes externas.

La noticia de que algunos estudiantes ya están utilizando ChatGPT en sus tareas se ha extendido a los profesores, algunos de los cuales están renovando sus cursos como consecuencia de ello. El 97% de los maestros estadounidenses dicen utilizar ChatGPT como herramienta para impartir sus clases. Esto indica una alta adopción y dependencia de esta tecnología en el ámbito educativo.

Sin embargo, a pesar de todo ello, ChatGPT y sus herramientas afines también podrían proporcionar un buen servicio para los estudiantes de todo el mundo. Al igual que las calculadoras para las matemáticas o Google para verificar los hechos, la IA puede ayudar positivamente a los profesores y estudiantes del futuro.

La mayoría de los estadounidenses ha oído hablar del ChatGPT, pero pocos lo han probado

Vogels, Emily a. «A Majority of Americans Have Heard of ChatGPT, but Few Have Tried It Themselves». Pew Research Center (blog). Accedido 25 de mayo de 2023. https://www.pewresearch.org/short-reads/2023/05/24/a-majority-of-americans-have-heard-of-chatgpt-but-few-have-tried-it-themselves/.

Alrededor de seis de cada diez adultos estadounidenses (58%) conocen ChatGPT, aunque son relativamente pocos los que lo han probado, según una encuesta del Pew Research Center realizada en marzo. La mayoría de los que han probado ChatGPT afirman que les ha resultado útil al menos en cierta medida.

El uso de ChatGPT ha sido muy discutido. Algunos lo consideran una herramienta útil para fines educativos y laborales, mientras que otros opinan que sólo debe utilizarse como entretenimiento.

Sin embargo, pocos adultos estadounidenses han utilizado ChatGPT con algún fin. Sólo el 14% de los adultos estadounidenses afirma haberlo utilizado para entretenerse, aprender algo nuevo o trabajar. Esta falta de aceptación coincide con una encuesta del Pew Research Center de 2021, según la cual los estadounidenses se mostraban más preocupados que entusiasmados por el aumento del uso de la inteligencia artificial en la vida cotidiana.

Entre el subconjunto de estadounidenses que han oído hablar de ChatGPT, el 19% dice que lo ha utilizado para entretenerse y el 14% para aprender algo nuevo. Aproximadamente uno de cada diez adultos que han oído hablar de ChatGPT y que actualmente trabajan a sueldo lo han utilizado en el trabajo.

Las opiniones de los estadounidenses sobre la utilidad de ChatGPT son algo dispares. A las personas que lo han utilizado se les preguntó por su experiencia con este chatbot. Aproximadamente un tercio dice que ha sido extremadamente útil (15%) o muy útil (20%), mientras que el 39% dice que ha sido algo útil. Alrededor de una cuarta parte de los que lo han probado dicen que no ha sido muy (21%) o nada útil (6%).

Los adultos más jóvenes tienden a encontrar el ChatGPT más útil que los mayores. Alrededor de cuatro de cada diez adultos menores de 50 años que lo han utilizado (38%) dicen que ha sido extremadamente o muy útil, mientras que sólo una cuarta parte de los usuarios de 50 años o más (24%) dicen lo mismo.

El 97% de los maestros utilizan ChatGPT para impartir sus clases

Intelligent. «8 in 10 Teachers Approve of Student Use of ChatGPT, Nearly All Use It Themselves». Accedido 24 de mayo de 2023. https://www.intelligent.com/8-in-10-teachers-approve-of-student-use-of-chatgpt-nearly-all-use-it-themselves/.

Un nuevo estudio de Intelligent.com muestra cómo la aplicación de inteligencia artificial llamada ChatGPT está omnipresente en los planes de estudio escolares, ya que los profesores la utilizan cada vez más para desarrollar planes de lecciones, y los estudiantes la adoptan para hacer sus deberes.

La empresa afirma que ha encuestado a 1.000 profesores y ha descubierto que 8 de cada 10 docentes aprueban que los alumnos utilicen ChatGPT, y que casi todos los profesores lo utilizan para ayudarles a gestionar su trabajo.

Las principales conclusiones de la encuesta son las siguientes

El 95% de los profesores conoce ChatGPT
El 98% de los profesores utiliza ChatGPT
El 79% aprueba su uso
El 84% de los profesores que aprueban su uso han dedicado tiempo a enseñar a sus alumnos a utilizarlo
El 35% cree que la mayoría o la totalidad de sus alumnos entregan las tareas para las que utilizaron ChatGPT.
El 71% afirma que su centro no tiene una política sobre el uso de ChatGPT.

Según la encuesta, el 97% de los maestros utilizan ChatGPT como herramienta para impartir sus clases. Esto indica una alta adopción y dependencia de esta tecnología en el ámbito educativo.

  • Beneficios del uso de ChatGPT: Los maestros citan varias ventajas al utilizar ChatGPT en la planificación de lecciones. Entre ellas se encuentran la generación de ideas creativas, la obtención de recursos y materiales relevantes, la personalización de los planes de lecciones según las necesidades de los estudiantes y el ahorro de tiempo en la preparación.
  • Apoyo en la elaboración de contenidos: Los maestros encuentran que ChatGPT les brinda asistencia en la creación de contenido para las lecciones. Pueden solicitar ideas, sugerencias de actividades, ejercicios y explicaciones claras sobre conceptos difíciles.
  • Complemento a la experiencia docente: Aunque ChatGPT es una herramienta útil, los maestros enfatizan que no reemplaza la experiencia y el conocimiento pedagógico del educador. Es importante utilizar ChatGPT como un recurso adicional para enriquecer la enseñanza, pero siempre tomando decisiones educativas fundamentadas.
  • Consideraciones éticas: Al utilizar ChatGPT, los maestros deben ser conscientes de las consideraciones éticas y el potencial de sesgos en los resultados generados por el modelo. Es importante supervisar y revisar la información proporcionada por ChatGPT antes de utilizarla en el aula.
  • Perspectivas futuras: Los resultados de la encuesta sugieren que el uso de tecnologías basadas en IA, como ChatGPT, seguirá creciendo en el ámbito educativo. Se espera que estas herramientas continúen siendo utilizadas para mejorar la eficiencia y la calidad de la planificación de lecciones.

En resumen, la encuesta revela que una gran mayoría de maestros utilizan ChatGPT para desarrollar sus planes de lecciones. Esta tecnología les brinda beneficios en la generación de ideas, la personalización de los contenidos y el ahorro de tiempo. Sin embargo, se enfatiza que ChatGPT debe utilizarse como complemento a la experiencia docente y con consideraciones éticas en mente.

Beneficios de ChatGPT en la educación: algunas ideas prácticas para educadores

ASCD. «Leveraging ChatGPT: Practical Ideas for Educators». Accedido 24 de mayo de 2023. https://www.ascd.org/blogs/leveraging-chatgpt-practical-ideas-for-educators?amp=&amp=%25.

En el mundo de la educación, las nuevas tecnologías continúan presentando oportunidades emocionantes para mejorar la enseñanza y el aprendizaje. Una de estas innovaciones es ChatGPT, un modelo de lenguaje basado en IA desarrollado por OpenAI. ChatGPT puede ser una herramienta valiosa para los educadores, ya que les permite interactuar con un asistente virtual inteligente para obtener respuestas, generar ideas y colaborar en diversas actividades. En este artículo, exploraremos algunas ideas prácticas sobre cómo los educadores pueden aprovechar ChatGPT en el aula.

Uso de ChatGPT para fomentar la escritura: Uno de los desafíos comunes en la educación es motivar a los estudiantes a escribir. ChatGPT puede ser utilizado como un compañero de escritura virtual que brinda sugerencias y comentarios a los estudiantes mientras redactan sus ensayos o trabajos. Los estudiantes pueden interactuar con ChatGPT para obtener ideas, mejorar su estructura de párrafos o incluso trabajar en la gramática y la puntuación.

Apoyo para estudiantes de idiomas: Los estudiantes que están aprendiendo un nuevo idioma pueden beneficiarse del uso de ChatGPT como una herramienta de apoyo. Pueden practicar la conversación en el idioma objetivo interactuando con ChatGPT, que puede proporcionar correcciones y sugerencias en tiempo real. Esto les brinda a los estudiantes la oportunidad de practicar y mejorar su fluidez en un entorno seguro y sin la presión de interactuar con un hablante nativo.

Generación de ideas y debates: ChatGPT puede ser utilizado como un recurso para generar ideas y estimular debates en el aula. Los educadores pueden plantear preguntas o temas de discusión a ChatGPT y utilizar las respuestas generadas como punto de partida para la participación de los estudiantes. Esto puede ser especialmente útil en asignaturas como literatura, historia o ciencias sociales, donde se pueden explorar diferentes perspectivas y puntos de vista.

Apoyo a la resolución de problemas: Los educadores pueden utilizar ChatGPT como una herramienta para ayudar a los estudiantes a resolver problemas complejos. Los estudiantes pueden describir un problema o una situación y solicitar ideas o enfoques para resolverlo. ChatGPT puede generar sugerencias creativas y estimular el pensamiento crítico al proporcionar diferentes perspectivas y estrategias.

Conclusión: ChatGPT ofrece un potencial para los educadores que buscan integrar la IA en sus prácticas pedagógicas. Desde apoyar la escritura hasta fomentar el aprendizaje de idiomas y estimular debates en el aula, ChatGPT puede ser una herramienta versátil y valiosa. Sin embargo, es importante recordar que ChatGPT es una herramienta complementaria y no debe reemplazar la interacción humana y la retroalimentación. Al aprovechar de manera adecuada esta tecnología, los educadores pueden enriquecer la experiencia de aprendizaje de sus estudiantes y fomentar su creatividad y pensamiento crítico.

Los colegios públicos de Nueva York revocan su prohibición del ChatGPT y admiten que hubo un «miedo instintivo»

Business Insider. «New York City’s public schools reverse their ban on ChatGPT — admitting it had been “knee-jerk fear”». Accedido 23 de mayo de 2023.

Ver noticia

El sistema de escuelas públicas de la ciudad de Nueva York está revirtiendo su prohibición de ChatGPT. El Departamento de Educación de la Ciudad de Nueva York prohibió inicialmente el bot de IA en enero, menos de dos meses después del lanzamiento de la herramienta, citando su potencial de «impactos negativos en el aprendizaje de los estudiantes y preocupaciones sobre la seguridad y precisión del contenido»,

Varios otros distritos escolares en todo el país también impusieron restricciones a ChatGPT a principios de este año, incluidas las Escuelas Públicas del Condado de Baltimore, el Distrito Escolar Unificado de Los Ángeles y las Escuelas Públicas de Seattle.
Ahora, el sistema escolar de la ciudad de Nueva York dice que está listo para adoptar la IA en el aula.

En un artículo de opinión publicado el jueves en el sitio de noticias sobre educación Chalkbeat, David Banks, director de las escuelas públicas de Nueva York, admitió que el bot fue prohibido, en parte, por «miedo instintivo».

Banks, quien es canciller del Departamento de Educación de la ciudad, sostuvo que la respuesta inicial aún estaba «justificada», ya que le dio tiempo al sistema escolar para comprender cómo la herramienta podría mejorar la educación. Banks señaló que su equipo llevó a cabo conversaciones con líderes de la industria tecnológica y educadores de toda la ciudad como parte de este proceso de aprendizaje.

Agregó que los educadores recibirán un conjunto de herramientas de recursos a medida que comiencen las discusiones y lecciones sobre IA en el aula. También se les darán «ejemplos de la vida real» de cómo la IA se ha implementado con éxito en las escuelas para facilitar las tareas administrativas, la comunicación y la enseñanza. «También nos aseguraremos de que nuestros estudiantes reciban el apoyo de las oportunidades de AI y estén preparados para los trabajos de hoy y del futuro».

La inteligencia artificial y su impacto en el empleo: La clave para sobrevivir es adaptarse

News18. «Artificial Intelligence And Its Impact On Jobs: The Key To Survival Is To Adapt», 15 de mayo de 2023.

Texto completo

La inteligencia artificial está transformando el panorama laboral y que adaptarse a estos cambios es esencial. Si bien algunos trabajos pueden ser reemplazados por la inteligencia artificial, se enfatiza que las habilidades humanas únicas seguirán siendo valiosas y que la educación y la adaptabilidad son clave para aprovechar las oportunidades que ofrece la inteligencia artificial en el mundo laboral.

La Inteligencia Artificial (IA) ha irrumpido en el mundo como una tormenta, transformando sectores y profesiones. Imagínate un escenario en el que eres un ingeniero que desarrolla software para operaciones de almacén. Encontrarás cómo los robots de las fábricas están sustituyendo a los trabajadores humanos, que temen perder su empleo, y te pedirán tu opinión. La cruda verdad que tienes que decirles es que los robots pronto sustituirán sus puestos de trabajo y que el cambio de la automatización humana a la automatización de las máquinas ya ha comenzado. ¿Qué hay detrás de esta tendencia imparable? Es la IA, el cerebro de los robots.

Hay una preocupación similar entre muchas personas por su seguridad laboral, y tienen una buena razón. Hay muchos informes sobre despidos y automatización por herramientas de IA: un informe de Goldman Sachs predice que hasta 300 millones de empleos a tiempo completo en todo el mundo podrían verse afectados por la nueva ola de IA que incluye plataformas como ChatGPT. El principal detonante de este reciente auge de la IA es la IA generativa, especialmente los grandes modelos lingüísticos (LLM) que pueden realizar tareas basadas en comandos conversacionales y actuar como ayudantes personales, ayudándonos a escribir software, redactar correos electrónicos y resumir textos.

Las capacidades creativas de los modelos multimodales de IA Generativa, que trabajan con múltiples modalidades como texto, imágenes y vídeos, también son fascinantes. Desde la creación de arte digital a la carta hasta ayudar a un arquitecto con sugerencias de planos en 3D generados automáticamente, las posibilidades son infinitas. Por eso es tan importante hablar de la IA y de sus posibles efectos en el mercado laboral.

La IA está afectando a distintos empleos y regiones de maneras diferentes. Mientras que algunos empleos están en peligro debido a la aparición de la IA, sobre todo los que pueden automatizarse, otros que requieren pensamiento crítico y capacidad de gestión están a salvo por el momento. Por ejemplo, los empleos en la industria manufacturera, el transporte y la atención al cliente corren peligro a medida que la IA es cada vez más capaz de realizar estas tareas.

Ámbitos como la abogacía, la medicina y la educación requieren un juicio y una experiencia humanos que no pueden reproducirse fácilmente con herramientas de IA, aunque estas herramientas pueden ayudar a los expertos en su trabajo. Además, el auge de la IA creará nuevos puestos de trabajo en el desarrollo y la gestión de la IA. Con la creciente integración de la IA en nuestra vida cotidiana, habrá una necesidad cada vez mayor de expertos que puedan desarrollar y gestionar estos sistemas. Además, también habrá oportunidades laborales para el trabajo colaborativo entre humanos e IA, como con los cobots, o robots colaborativos, un tipo de robot diseñado para trabajar junto a humanos en un espacio de trabajo compartido.

Algunos procesos empresariales que han avanzado mucho en la adopción de la IA son la investigación y el desarrollo, la atención al cliente, el marketing y la publicidad. Sin embargo, muchos otros procesos aún se encuentran en las primeras fases de adopción, como los recursos humanos, las ventas y el área jurídica. A medida que avance la adopción de la IA, tendrá un impacto significativo en el mercado laboral, ya que cada vez más tareas se automatizarán o aumentarán gracias a la IA.

La IA es una habilidad muy solicitada en el siglo XXI, pero encontrar talentos cualificados en este campo es todo un reto. Los profesionales de la IA necesitan una base sólida en matemáticas, programación y conocimientos especializados. Un artículo de Forbes sostiene que la escasez de talentos en IA es un problema, debido a la falta de inversión en programas de educación y formación en IA. Para superar este reto, los trabajadores y los empresarios necesitan adquirir nuevas habilidades y competencias que sean relevantes para la era de la IA, como la alfabetización en datos, la alfabetización digital, la programación, el pensamiento crítico y la inteligencia emocional, como sugiere un informe del Boston Consulting Group.

En todo el mundo se han emprendido numerosas iniciativas para impartir conocimientos de IA a personas de distintas edades y perfiles profesionales. Estas iniciativas incluyen la creación de nuevos planes de estudios en institutos de enseñanza superior centrados en la ciencia de datos y la IA y la oferta de recursos en línea que permiten un aprendizaje cómodo y a ritmo propio de la IA. Además, los profesionales en activo también están realizando cursos de formación en IA para prepararse para carreras o transiciones laborales relacionadas con la IA.

Sin embargo, también es esencial introducir la educación en IA en la escuela primaria o secundaria para ayudar a los estudiantes a desarrollar un interés temprano y aptitud para la IA y equiparlos para la futura fuerza de trabajo. En la India, la New Education Policy 2020 reconoce la importancia de la inteligencia artificial e integra la educación en IA a todos los niveles. Los escolares aprenderán habilidades cruciales como alfabetización digital, codificación y pensamiento computacional a través de asignaturas contemporáneas como Inteligencia Artificial y Design Thinking.

Estos esfuerzos e iniciativas pueden ayudarnos a salvar la brecha entre la oferta y la demanda de talento en IA y a crear una mano de obra más inclusiva y diversa que pueda aprovechar el potencial de la IA en beneficio de la sociedad.

¿Es posible usar ChatGPT para escribir cuentos infantiles?

I Used ChatGPT To Write Bedtime Stories For My Kid. It’s Not What I Expected. By Marie Holmes. HuffPost, Mayo 19, 2023, 05:06 PM

Ver original

El artículo «I Used ChatGPT To Write Bedtime Stories For My Kid. It’s Not What I Expected.» relata la experiencia de Marie Holmes que decidió utilizar el modelo de lenguaje ChatGPT para crear cuentos para su hijo antes de dormir, pero los resultados no fueron los esperados.

Holmes comienza explicando su motivación para probar esta idea, mencionando que quería aprovechar la tecnología y la inteligencia artificial para crear historias personalizadas para su hijo. Con la ayuda de ChatGPT, pensó que podría generar cuentos únicos y creativos que cautivarían la imaginación de su hijo.

Sin embargo, pronto descubrió que las historias generadas por ChatGPT no cumplían sus expectativas. Aunque el modelo tenía un amplio conocimiento de vocabulario y estructuras gramaticales, carecía de la capacidad de crear tramas coherentes y emocionalmente impactantes. Las historias resultantes eran en su mayoría incoherentes, confusas y carentes de sentido.

Marie describe cómo su hijo, en lugar de sentirse intrigado y emocionado por las historias, se mostraba aburrido y desconcertado. Las tramas incoherentes y los personajes sin desarrollo no lograban captar su atención ni estimular su imaginación.

Tras el experimento Marie reflexiona sobre las limitaciones de la inteligencia artificial y reconoce que, aunque ChatGPT es un modelo impresionante en términos de habilidades lingüísticas, todavía está lejos de poder reemplazar la creatividad y la sensibilidad humana necesarias para contar historias cautivadoras.

Finalmente, concluye que, si bien la tecnología puede ser útil en muchos aspectos de nuestras vidas, todavía hay ciertas áreas en las que la intervención humana es insustituible. Aunque ChatGPT puede ayudar con la generación de ideas o brindar información, la creación de historias emocionantes y significativas sigue siendo un arte humano que no puede ser completamente replicado por una máquina.

El CEO de OpenAI, Sam Altman, empresa creadora de ChatGPT, pide una mayor regulación de la inteligencia artificial

«Si la inteligencia artificial sale mal, puede salir muy mal… para prever que realmente no podamos hacer daño en el mundo“

Sam Altman, ‘padre’ de ChatGPT

«OpenAI CEO Sam Altman Agrees AI Must Be Regulated», Time. 16 de mayo de 2023. https://time.com/6280372/sam-altman-chatgpt-regulate-ai/.

El CEO de OpenAI, Sam Altman, hizo un llamamiento a los miembros del Congreso bajo juramento: Regular la inteligencia artificial. Altman, cuya empresa está en la vanguardia extrema de la tecnología de Inteligencia Artificial generativa con su herramienta ChatGPT, testificó ante el Comité Judicial del Senado por primera vez en una audiencia celebrada el martes. Y aunque dijo que en última instancia es optimista respecto a que la innovación beneficiará a las personas a gran escala, Altman se hizo eco de su afirmación anterior de que los legisladores deberían crear parámetros para que los creadores de IA eviten causar «daños significativos al mundo.» «Creemos que puede ser el momento de la imprenta», dijo Altman. «Tenemos que trabajar juntos para que así sea».

Junto a Altman testificaron ante la comisión otros dos expertos en IA, el catedrático de Psicología y Ciencias Neuronales de la Universidad de Nueva York Gary Marcus y la Directora de Privacidad y Confianza de IBM Christina Montgomery. Los tres testigos apoyaron la gobernanza de la IA tanto a nivel federal como mundial, con planteamientos ligeramente distintos.

«Hemos construido máquinas que son como elefantes en una cacharrería: Potentes, temerarias y difíciles de controlar», dijo Marcus. Para hacer frente a esto, sugirió el modelo de una agencia de supervisión como la Administración de Alimentos y Medicamentos, de modo que los creadores tuvieran que demostrar la seguridad de su IA y demostrar por qué los beneficios superan a los posibles daños.

Sin embargo, los senadores que dirigieron las preguntas se mostraron más escépticos sobre la rápida evolución de la industria de la IA y compararon su impacto potencial no con la imprenta, sino con otras innovaciones, sobre todo la bomba atómica.

La sesión duró casi tres horas y las preguntas del senador abordaron una amplia gama de preocupaciones sobre la IA, desde cuestiones de derechos de autor hasta aplicaciones militares. Tanto Altman como los senadores expresaron sus temores sobre cómo la IA podría «salir bastante mal».

Cuando se le preguntó cuál era su peor temor sobre la IA, Altman fue franco sobre los riesgos de su trabajo.

«Mi peor temor es que nosotros -el campo, la tecnología, la industria- causemos un daño significativo al mundo. Creo que eso puede ocurrir de muchas maneras», dijo Altman. No dio más detalles, pero las advertencias de los críticos van desde la difusión de información errónea y tendenciosa hasta la destrucción total de la vida biológica. «Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser claros al respecto», continuó Altman. «Queremos trabajar con el gobierno para evitar que eso ocurra».

La preocupación por la IA llevó a cientos de grandes nombres de la tecnología, entre ellos Elon Musk, a firmar en marzo una carta abierta en la que instaban a los laboratorios de IA a pausar durante seis meses el entrenamiento de sistemas superpotentes debido a los riesgos que suponen para «la sociedad y la humanidad». Y a principios de este mes, Geoffry Hinton, al que se ha llamado el «padrino» de la IA, renunció a su puesto en Google, diciendo que se arrepentía de su trabajo y advirtiendo de los peligros de la tecnología.

Altman expuso un plan general de tres puntos sobre cómo podría regular el Congreso a los creadores de IA.

  • En primer lugar, apoyó la creación de una agencia federal que pueda conceder licencias para crear modelos de IA por encima de un determinado umbral de capacidades, y que también pueda revocar esas licencias si los modelos no cumplen las directrices de seguridad establecidas por el gobierno. La idea no era nueva para los legisladores. Al menos cuatro senadores, tanto demócratas como republicanos, abordaron o apoyaron la idea de crear una nueva agencia de supervisión durante sus preguntas.
  • En segundo lugar, Altman dijo que el gobierno debería crear normas de seguridad para los modelos de IA de alta capacidad (como prohibir que un modelo se autorreproduzca) y crear pruebas de funcionalidad específicas que los modelos tengan que superar, como verificar la capacidad del modelo para producir información precisa o garantizar que no genera contenidos peligrosos.
  • Y en tercer lugar, instó a los legisladores a exigir auditorías independientes de expertos no afiliados a los creadores o al gobierno para garantizar que las herramientas de IA funcionen dentro de las directrices legislativas.

Los legisladores europeos están más avanzados en la regulación de las aplicaciones de IA, y la UE está decidiendo si clasifica la tecnología de IA de propósito general (en la que se basan herramientas como ChatGPT) como de «alto riesgo». Dado que esto sometería a la tecnología al nivel más estricto de regulación, muchas grandes empresas tecnológicas como Google y Microsoft -el mayor inversor de OpenAI- han presionado en contra de esta clasificación, argumentando que ahogaría la innovación.

Encuesta ARL sobre el impacto de la Inteligencia Artificial generativa en bibliotecas

ARL, Leo S. Lo, University of New Mexico, and Cynthia Hudson Vitale. «Quick Poll Results: ARL Member Representatives on Generative AI in Libraries». Association of Research Libraries (blog), 9 de mayo de 2023.

Ver completo

A medida que las tecnologías de IA generativa siguen evolucionando, su potencial para afectar a los servicios bibliotecarios, las operaciones y las experiencias de los usuarios es cada vez más evidente. En abril de 2023 se realizó una encuesta rápida entre los representantes de los miembros de la Asociación de Bibliotecas de Investigación (ARL) para conocer sus perspectivas actuales sobre la adopción de la IA generativa, sus posibles implicaciones y el papel de las bibliotecas en los entornos impulsados por la IA. En esta entrada de blog, se dan recomendaciones basadas en las respuestas de la encuesta, con el objetivo de ofrecer información valiosa para los directores de bibliotecas que navegan por el panorama de la IA.

Se compartió el enlace de la encuesta con los representantes de los miembros de la ARL en abril de 2023; 19 miembros de ARL completaron la encuesta.

  1. Perspectivas sobre la IA generativa: La mayoría de los representantes de los miembros de la ARL que respondieron a la encuesta tienen una opinión algo positiva (53%) o muy positiva (11%) sobre el potencial de la IA generativa para mejorar los servicios bibliotecarios en los próximos 12 meses. Sin embargo, también reconocen las limitaciones y los retos asociados a estas tecnologías. El 37% restante se muestra neutral sobre el potencial de la IA generativa.
  2. Etapas de adopción: Mientras que algunas bibliotecas están implementando activamente soluciones de IA generativa (11%), muchas están explorando aplicaciones potenciales (32%) o considerando la adopción en un futuro próximo (32%). Unas pocas bibliotecas tienen un interés limitado (16%) o no tienen previsto explorar las tecnologías de IA (11%) en los próximos 12 meses.
  3. Impacto en el funcionamiento y los servicios de las bibliotecas: Los directores de bibliotecas prevén que la IA generativa tendrá un impacto transformador en las operaciones y servicios de las bibliotecas, incluida la generación de metadatos, las herramientas de búsqueda y los servicios al usuario. También prevén posibles retos relacionados con el uso indebido, los prejuicios y los derechos de autor.
  4. Conversaciones institucionales y organizativas: Las bibliotecas están participando en debates en toda la organización sobre el impacto de la IA generativa en la integridad académica, la publicación, la autoría y la integridad de la investigación. Participan en foros interdisciplinarios, grupos de trabajo y colaboraciones con diversos socios institucionales.
  5. Alfabetización informacional: Las respuestas a la encuesta sugieren que las bibliotecas pueden mejorar los programas de alfabetización informacional para ayudar a los usuarios a comprender y evaluar la información generada por la IA a través de la colaboración, las asociaciones interdisciplinarias y la incorporación de la alfabetización en IA a una alfabetización informacional más amplia. Hacer hincapié en el conocimiento de la IA por parte de los bibliotecarios, desarrollar nuevas alfabetizaciones relacionadas con la IA, reciclar al personal y ofrecer talleres son oportunidades para que las bibliotecas ejerzan su liderazgo a medida que las instituciones de investigación navegan por la era de la IA.

Entre las ideas concretas reflejadas en los resultados de la encuesta rápida se incluyen:

  • Elaborar guías de colaboración y/o sesiones informativas sobre IA generativa, dirigidas a investigadores y a la comunidad en general.
  • Aprovechar la IA para ayudar a identificar la desinformación.
  • Destacar la importancia del pensamiento crítico para los investigadores, incluidos los miembros de la comunidad, los profesores y el personal, para que puedan evaluar la fuente de información y su fiabilidad. Afirmar que la forma en que se genera la información (IA o de otro tipo) es menos importante que la capacidad de reconocer qué es fiable, qué no lo es y cómo se toman esas decisiones.
  • Colaborar con colegas en la enseñanza y el aprendizaje, así como en áreas de investigación, para compartir experiencias y desarrollar iniciativas conjuntas centradas en educar a los estudiantes y a la comunidad sobre el uso eficaz y responsable de las herramientas de IA generativa en el aprendizaje, la investigación y el compromiso con la comunidad.
  • Trabajar con los equipos de seguridad/privacidad de TI para enseñar a detectar y evaluar los contenidos generados por IA y a utilizar esta y otra información de forma responsable, especialmente dentro de las bibliotecas públicas de investigación.