Archivo de la categoría: Legislación

Las campañas de prohibición de libros han cambiado la vida y la educación de los bibliotecarios, que ahora deben aprender a planificar su seguridad y a protegerse legalmente

Cooke, Nicole A. «How Book-Banning Campaigns Have Changed the Lives and Education of Librarians – They Now Need to Learn How to Plan for Safety and Legally Protect Themselves». The Conversation, 20 de julio de 2023.

Ver completo

La campaña para cuestionar, prohibir o censurar libros en Estados Unidos no sólo ha cambiado la vida de los bibliotecarios de todo el país. También está cambiando la forma en que se educa ahora a los bibliotecarios que acceden a la profesión. Como educadora de bibliotecarios, escucho las anécdotas, preguntas y preocupaciones de los trabajadores de las bibliotecas que están en primera línea de la lucha actual y no están seguros de cómo reaccionar o responder.

Las amenazas actuales que se ciernen sobre los bibliotecarios y los libros que ponen en circulación hacen necesario un cambio en el contenido de la formación de postgrado en biblioteconomía. Es evidente que los bibliotecarios necesitan conocer el contenido de los libros. Pero los educadores como yo sabemos ahora que tenemos que proporcionar a los estudiantes de posgrado información sobre cómo protegerse física y legalmente a sí mismos y a sus organizaciones.

Cuando enseñamos libertad intelectual, también enseñamos a los estudiantes a prepararse para las protestas y las reuniones polémicas de las juntas directivas. Cuando enseñamos a los profesionales de la información a seleccionar materiales para sus bibliotecas, hacemos hincapié en su necesidad de saber articular, por escrito, las razones para tener un determinado libro, película o material en su colección.

Creo que ahora nuestros estudiantes tienen que plantearse contratar un seguro de responsabilidad profesional por si les demandan por comprar un libro cuestionado. Y cuando enseñemos a planificar el tiempo de los cuentos, podemos combinarlo con estrategias para idear un plan de seguridad en caso de que se vean amenazados o reciban una amenaza de bomba a causa de su trabajo.

Dos autores afirman que OpenAI «ingirió» sus libros para entrenar a ChatGPT, y es posible que se produzca una «oleada» de casos judiciales similares.

Rivera, Gabriel. «2 Authors Say OpenAI “ingested” Their Books to Train ChatGPT. Now They’re Suing, and a “Wave” of Similar Court Cases May Follow.» Business Insider. Accedido 19 de julio de 2023. https://www.businessinsider.com/openai-copyright-lawsuit-authors-chatgpt-trained-on-books-2023-7.

OpenAI se enfrenta a una demanda interpuesta por dos autores de renombre, Mona Awad y Paul Tremblay. Los autores acusan a OpenAI de violar la ley de propiedad intelectual al utilizar sus libros publicados para entrenar ChatGPT, el modelo de lenguaje de OpenAI, sin obtener su consentimiento.

La demanda, presentada a finales de junio, sostiene que el extenso modelo de lenguaje de ChatGPT «ingirió» el contenido protegido por derechos de autor de Mona Awad y Paul Tremblay. Los autores sostienen que la capacidad de ChatGPT para generar resúmenes detallados de sus obras sugiere que sus libros se incluyeron en los conjuntos de datos utilizados para entrenar la tecnología de IA.

Esta acción legal ejemplifica la tensión existente entre los creadores y las herramientas de IA generativa, que tienen la capacidad de producir texto e imágenes en cuestión de segundos. Muchos profesionales que trabajan en campos creativos expresan su preocupación por el impacto potencial del rápido avance de la tecnología en sus carreras y medios de vida. En consecuencia, estas preocupaciones están dando lugar cada vez más a desafíos legales.

Daniel Gervais, profesor de Derecho de la Universidad de Vanderbilt, señaló a Insider que la demanda presentada por los autores es uno de los varios casos de derechos de autor que han surgido en todo el país relacionados con herramientas de IA generativa. Sugiere que pueden surgir disputas legales similares en el futuro.

Gervais espera que muchos más autores demanden a las empresas que desarrollan grandes modelos de lenguaje y generative AI a medida que estos programas avancen y mejoren en la replicación del estilo de escritores y artistas. Él cree que es inminente una avalancha de desafíos legales que apuntan a la producción de herramientas como ChatGPT en todo el país.

Demostrar que los autores en el caso sufrieron daños económicos debido a las prácticas de recolección de datos de OpenAI, como alega la demanda, puede ser un desafío. Gervais dijo a Insider que ChatGPT podría haber obtenido el trabajo de Awad y Tremblay de fuentes alternativas distintas al material original de los autores, pero que era posible que el bot «ingiriera» sus libros como afirma la demanda.

Andres Guadamuz, experto en IA y derechos de autor en la Universidad de Sussex, expresó la misma preocupación, al decir a Insider que incluso si los libros están en los conjuntos de datos de entrenamiento de OpenAI, la compañía podría haber obtenido el trabajo a través de la recopilación legal de otro conjunto de datos.

Y demostrar que ChatGPT se habría comportado de manera diferente si nunca hubiera recopilado el trabajo de los autores es poco probable debido a la gran cantidad de datos que obtiene de la web, según afirmó Guadamuz a The Guardian.

The Authors Guild, un grupo de defensa con sede en Estados Unidos que apoya los derechos laborales de los escritores, publicó una carta abierta la semana pasada instando a los directores ejecutivos de las grandes empresas de tecnología y de IA a «obtener permiso» de los escritores para utilizar su trabajo con derechos de autor en la formación de programas de generative AI y «compensar justamente a los escritores». La organización informó a Insider que su carta ha recibido más de 2,000 firmas.

La demanda de Awad y Tremblay se presentó el mismo día en que OpenAI recibió otra denuncia legal, alegando que la compañía se apropió de «enormes cantidades de datos personales» que luego alimentó a ChatGPT. La denuncia de 157 páginas, que excluye los nombres completos de los 16 demandantes, critica a la compañía por absorber «prácticamente cada pieza de datos intercambiada en Internet que pudo obtener».

En cuanto a la demanda de Awad y Tremblay, presentada en un tribunal de distrito en el norte de California, los autores buscan daños y la restitución de lo que consideran ganancias perdidas.

El archivo de la demanda también presentó documentos que contenían resúmenes producidos por ChatGPT de las novelas de Awad «13 Ways of Looking at a Fat Girl» y «Bunny», así como de la novela de Tremblay «The Cabin at the End of the World». La novela de Tremblay fue adaptada a la película «Knock at the Cabin» dirigida por M. Night Shyamalan.

OpenAI y Awad no respondieron a las solicitudes de comentarios por parte de Insider. Un representante de Tremblay se negó a hacer comentarios.

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

La Ley de Propiedad Intelectual de EE.UU. puede regular la IA sin enmiendas

Klosek, Katherine. «US Copyright Act Can Address AI without Amendment». Association of Research Libraries (blog), 7 de julio de 2023. https://www.arl.org/blog/us-copyright-act-can-address-ai-without-amendment/.

La inteligencia artificial generativa (IA) es una tecnología que puede ayudar a los autores y otros creadores a generar ideas, editar obras originales y realizar investigaciones. Pero en lugar de depender de la legislación existente para abordar preguntas como si el uso de obras para entrenar modelos de IA es uso legítimo, o si las obras que incluyen contenido generado por IA son elegibles para la protección de derechos de autor, algunos legisladores en Estados Unidos parecen estar decididos a desarrollar nuevos marcos legales o regímenes de licencias. Este mes, Library Copyright Alliance (LCA) emitió unos principios para guiar a los legisladores en sus conversaciones sobre la ley de derechos de autor y la IA. La LCA es la voz de la comunidad bibliotecaria en política de derechos de autor; sus miembros, la Asociación de Bibliotecas de Estados Unidos (ALA) y la Asociación de Bibliotecas de Investigación (ARL), representan a más de 300,000 profesionales de la información y miles de bibliotecas.

Los principios de la LCA sostienen que la legislación de derechos de autor de Estados Unidos es totalmente capaz de abordar preguntas sobre los resultados generados por la IA. Por ejemplo, en marzo de este año, US Copyright Office emitió orientación de registro reiterando el requisito de larga data de que una obra sea creada por un ser humano para recibir protección de derechos de autor. En un seminario web reciente, la Oficina de Derechos de Autor aclaró que los solicitantes deben revelar los elementos generados por IA de una obra utilizando el mismo proceso que otros elementos no reclamables (como obras en dominio público o obras registradas previamente). Sin embargo, no se requiere que los solicitantes revelen cuando las obras contienen una cantidad mínima de autoría aportada por IA, por ejemplo, cuando se utiliza la IA para editar o difuminar una obra original. Para determinar si la contribución de la IA a una obra es mínima, la oficina alentó a los posibles solicitantes a considerar si ese elemento de la obra sería elegible para registro si fuera producido por un autor humano.

Las preocupaciones sobre la ingesta de una obra con derechos de autor original por parte de la IA y la producción de un resultado sustancialmente similar a la obra original también pueden abordarse mediante la legislación existente; el titular de los derechos de autor de una obra original puede demandar tanto al proveedor de la IA como al usuario que instigó a la IA a producir una obra sustancialmente similar.

En cuanto al aspecto de entrada, la ingesta de obras con derechos de autor para crear modelos de lenguaje extensos u otras bases de datos de entrenamiento de IA es un uso legítimo establecido, en línea con el precedente establecido en el caso Authors Guild v. HathiTrust y respaldado en el caso Authors Guild v. Google. En esos casos, el Tribunal de Apelaciones de Estados Unidos para el Segundo Circuito determinó que la ingesta de grandes cantidades de obras con el propósito de realizar usos no expresivos de esas obras, como la extracción de texto y datos, era un uso legítimo. Por supuesto, la copia y visualización de elementos no protegidos de las obras, como hechos, no constituye una infracción, según el caso Feist Publications v. Rural Telephone Service Company.

Los principios de la LCA se derivaron de los puntos que la LCA presentó durante la participación en la sesión de escucha de la Oficina de Derechos de Autor sobre la IA generativa y los derechos de autor en relación con las obras literarias. El 5 de julio, la LCA presentó los principios a la Oficina de Política Científica y Tecnológica de Estados Unidos (OSTP, por sus siglas en inglés) en respuesta a su solicitud de información para actualizar las prioridades nacionales de Estados Unidos y las acciones futuras sobre la IA. La LCA continuará participando en la iniciativa de la Oficina de Derechos de Autor sobre derechos de autor y IA, con la administración de Biden-Harris en el desarrollo de una Estrategia Nacional de Inteligencia Artificial (IA), y con otros legisladores federales para garantizar que la legislación y la regulación no obstaculicen el poder de la IA para expresar la creatividad y que los creadores puedan utilizar la IA para lograr los objetivos del sistema de derechos de autor. Estos principios también pueden guiar nuestra participación en la coordinación internacional y el establecimiento de políticas relacionadas con la IA y los derechos de autor.

¿Cómo sería la regulación de la IA?

Anjana Susarla, The. «What Would AI Regulation Look Like?» Gizmodo, 4 de junio de 2023. https://gizmodo.com/chatgpt-ai-what-would-ai-regulation-look-like-altman-1850501332.

Durante su testimonio en el Senado el 16 de mayo de 2023, el CEO de OpenAI, Sam Altman, hizo un llamado a los legisladores para considerar la regulación de la inteligencia artificial (IA). Altman propuso la creación de una agencia reguladora de la IA y la implementación de licencias para las empresas que trabajan en este campo. Estas propuestas son interesantes, pero es igualmente importante tener en cuenta las recomendaciones de otros expertos que participaron en el mismo panel.

Entre las sugerencias de los expertos se destaca la necesidad de exigir transparencia en relación con los datos de entrenamiento utilizados en los sistemas de IA, así como establecer marcos claros para abordar los riesgos asociados con esta tecnología. Estos aspectos son cruciales para garantizar la responsabilidad y la ética en el desarrollo y despliegue de la IA.

Además, se plantea la preocupación de que el sector de la IA pueda estar presenciando la aparición de un nuevo tipo de monopolio tecnológico, dada la naturaleza económica de la creación de modelos de IA a gran escala. Este aspecto debe ser considerado en cualquier esfuerzo de regulación, ya que el poder económico y la influencia política de las empresas en este campo pueden tener un impacto significativo.

Si bien las sugerencias de Altman y las discusiones sobre la regulación de la IA son importantes, es necesario profundizar en los detalles sobre cómo se implementaría la regulación y qué formas específicas tomarían las licencias. Además, cualquier enfoque regulatorio debe tener en cuenta las complejidades del poder económico y la influencia política de las empresas de IA.

En este sentido es crucial abordar estas cuestiones importantes, pero también es necesario llevar a cabo un debate amplio y colaborativo para encontrar respuestas efectivas. La regulación de la IA puede ser útil para proteger los intereses públicos y garantizar la seguridad y la equidad, pero su implementación requerirá un enfoque cuidadoso y una consideración detallada de los diversos aspectos involucrados.


Los legisladores y líderes políticos de todo el mundo han comenzado a abordar las cuestiones planteadas en el testimonio de Sam Altman. En la Unión Europea, se ha implementado la Ley de IA, la cual se basa en un modelo de riesgo que clasifica las aplicaciones de IA en tres categorías: inaceptable, alto riesgo y riesgo bajo o mínimo. Esta clasificación reconoce que las herramientas de puntuación social utilizadas por los gobiernos y las herramientas automatizadas de contratación plantean riesgos diferentes a los asociados con el uso de la IA en filtros de spam, por ejemplo.


En lugar de establecer una nueva agencia que pueda verse influenciada por la industria tecnológica que debe regular, el Congreso puede considerar respaldar la adopción tanto en el ámbito privado como público del marco de gestión de riesgos del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) y aprobar proyectos de ley como la Algorithmic Accountability Act. Estas acciones tendrían el efecto de imponer la rendición de cuentas, de manera similar a cómo la Ley Sarbanes-Oxley y otras regulaciones transformaron los requisitos de información para las empresas. Además, el Congreso puede aprobar leyes integrales en relación a la privacidad de los datos.

La regulación de la IA debe implicar la colaboración entre el ámbito académico, la industria, los expertos políticos y las agencias internacionales. Se ha comparado este enfoque con organizaciones internacionales como el CERN (Organización Europea para la Investigación Nuclear) y el Grupo Intergubernamental de Expertos sobre el Cambio Climático, que han logrado éxitos significativos en sus respectivos campos. En el ámbito de Internet, se ha adoptado un enfoque similar a través de organismos no gubernamentales que involucran a organizaciones sin ánimo de lucro, la sociedad civil, la industria y los responsables políticos. Ejemplos notables incluyen la Corporación de Internet para la Asignación de Nombres y Números y la Asamblea Mundial de Normalización de las Telecomunicaciones. Estos ejemplos pueden servir como modelos para la industria y los responsables políticos al abordar la regulación de la IA.

Aunque Sam Altman de OpenAI planteó la posibilidad de otorgar licencias a empresas para el despliegue de tecnologías de inteligencia artificial (IA), es importante destacar que se refería específicamente a la inteligencia artificial general, es decir, sistemas de IA futuros con un nivel de inteligencia similar al humano que podrían plantear riesgos para la humanidad. Este enfoque sería similar a la concesión de licencias para el manejo de otras tecnologías potencialmente peligrosas, como la energía nuclear. Sin embargo, la concesión de licencias podría desempeñar un papel mucho antes de que se llegue a ese escenario futurista.

La auditoría algorítmica requeriría credenciales, estándares de práctica y una formación extensa. La exigencia de responsabilidades no se limita únicamente a otorgar licencias a individuos, sino que también implica establecer estándares y prácticas en toda la empresa.

Los expertos en imparcialidad de la IA argumentan que las cuestiones de parcialidad e imparcialidad en la IA no pueden abordarse únicamente mediante métodos técnicos, sino que requieren prácticas más amplias de mitigación de riesgos, como la adopción de juntas de revisión institucional para la IA. Un ejemplo de esto se encuentra en el ámbito médico, donde las juntas de revisión institucional ayudan a salvaguardar los derechos individuales de los pacientes.

Además, los organismos académicos y las sociedades profesionales han desarrollado normas para el uso responsable de la IA, ya sea en términos de atribución en textos generados por IA o en el intercambio de datos en el ámbito de la medicina a través de los pacientes. Estas normas buscan promover prácticas éticas y mitigar los riesgos asociados con el uso de la IA en diversas áreas.

El testimonio de Altman también omitió abordar la cuestión de los posibles monopolios en el campo de la IA. Una observación importante es la significativa inversión necesaria para entrenar modelos de IA a gran escala, como GPT-4, que es uno de los fundamentos de ChatGPT, o el generador de texto a imagen Stable Diffusion. Estos modelos son desarrollados principalmente por un reducido número de empresas, como Google, Meta, Amazon y Microsoft.

La falta de transparencia en los datos de entrenamiento utilizados por estas empresas ha sido motivo de preocupación. Expertos en ética de la IA, como Timnit Gebru, Emily Bender y otros, han advertido que la adopción generalizada de estas tecnologías sin una supervisión adecuada puede amplificar el sesgo de las máquinas a una escala social.

Además, es importante reconocer que los datos de entrenamiento de herramientas como ChatGPT incluyen el trabajo intelectual de numerosas personas, como colaboradores de Wikipedia, blogueros y autores de libros digitalizados. Sin embargo, los beneficios económicos derivados de estas herramientas recaen únicamente en las empresas tecnológicas.

Legislación de 2023 de interés para las bibliotecas estadounidenses

«Unpacking 2023 Legislation of Concern for Libraries«, EveryLibrary, 2023

Texto completo

EveryLibrary publica un informe exhaustivo sobre la legislación estatal de 2023 que afecta a las bibliotecas. El informe, «Unpacking 2023 Legislation of Concern for Libraries», está diseñado para apoyar y ayudar a las asociaciones de bibliotecas estatales en futuras campañas de promoción legislativa.

La reciente oleada de legislación estatal que afecta a las bibliotecas de todo Estados Unidos ha sido en gran medida negativa, y se ha centrado en restringir el acceso a determinados materiales, en particular los considerados nocivos o inapropiados para los menores. Hasta el 17 de junio de 2023, se han aprobado veinticuatro proyectos de ley en las legislaturas estatales. Dos fueron vetados, y 22 se encuentran en diversas fases de promulgación. Estos proyectos de ley se han promulgado en catorce estados: Arkansas, Florida, Iowa, Indiana, Kentucky, Luisiana, Maine, Mississippi, Montana, Dakota del Norte, Oklahoma, Tennessee, Texas y Utah. Los proyectos de ley abarcan varios temas recurrentes que plantean posibles retos para el funcionamiento y los servicios de las bibliotecas.

Este informe ofrece una revisión puntual de la legislación estatal que afecta a las bibliotecas y a la educación, a la vez que examina temas clave entre los distintos estados. El informe ofrece recomendaciones estratégicas para que los líderes de las asociaciones de bibliotecas estatales y los defensores legislativos formen coaliciones, activen a los electores y trabajen durante todo el ciclo de vida de un proyecto de ley, incluidas las comunicaciones previas a la sesión y las acciones posteriores a la sesión.

Se aprueba el Acta de Inteligencia Artificial de la Unión Europea

«The Artificial Intelligence Act» European Union, 2023

Acceder

Texto completo

Los legisladores de la UE aprueban una ley histórica sobre la IA. La Ley de Inteligencia Artificial establece normas de protección de la intimidad más estrictas, leyes de transparencia más rigurosas y multas más elevadas en caso de falta de cooperación.

«The Artificial Intelligence Act» (El Acta de Inteligencia Artificial), aprobada en junio de 2023 tiene como objetivo es establecer un marco regulatorio que promueva la confianza y la seguridad en el desarrollo y uso de la IA en la UE. El Acta busca lograr un equilibrio entre la promoción de la innovación y el desarrollo de la inteligencia artificial (IA) y la protección de los derechos fundamentales, la seguridad y la transparencia. Esta legislación aborda diversos aspectos de la IA y propone regulaciones específicas para distintos tipos de sistemas de alto riesgo.

Entre los sistemas de IA considerados de alto riesgo se encuentran aquellos utilizados en la vigilancia masiva, en infraestructuras críticas, aquellos que afectan la seguridad y la salud, así como los empleados en la educación y el empleo, entre otros ámbitos. El objetivo es establecer requisitos y medidas específicas para estos sistemas, garantizando su seguridad, precisión y responsabilidad.

El Acta también pone énfasis en la transparencia, exigiendo que los proveedores de sistemas de IA brinden información clara sobre cómo funcionan y los datos utilizados. Además, se propone la implementación de evaluaciones de riesgos para los sistemas de IA de alto riesgo, así como la creación de una estructura de gobernanza y supervisión a nivel de la UE, en colaboración con las autoridades nacionales.

Algunos de los puntos clave del Acta incluyen:

  1. Requisitos de transparencia: Los proveedores de sistemas de IA deben proporcionar información clara sobre cómo funcionan sus sistemas y los datos utilizados, para que los usuarios puedan comprender y evaluar su funcionamiento.
  2. Evaluación de riesgos: Los sistemas de IA de alto riesgo deben pasar por una evaluación de riesgos y cumplir con requisitos específicos antes de poder ser utilizados. Esto incluye la implementación de medidas técnicas y organizativas para garantizar su seguridad y precisión.
  3. Supervisión y gobernanza: Se propone la creación de un sistema de gobernanza y supervisión para la IA a nivel de la UE, con la participación de las autoridades nacionales competentes. También se establecerá una red de coordinación para facilitar la cooperación entre los Estados miembros.
  4. Sanciones: El acto establece posibles sanciones por incumplimiento de las regulaciones, incluyendo multas significativas.

la Ley de IA de la UE obligaría a las empresas que ofrecen sistemas de IA, incluido ChatGPT, a dar explicaciones claras sobre el funcionamiento de la tecnología, revelar cualquier sesgo o limitación y garantizar la privacidad y la protección de datos de los usuarios. Subraya la importancia de la transparencia en los sistemas de IA para generar confianza y permitir a los usuarios entender cómo se toman las decisiones.

Además, el Acta propone un marco de supervisión para garantizar el cumplimiento de la normativa, que podría implicar auditorías de terceros y la creación de un Consejo Europeo de Inteligencia Artificial.

En conjunto, la Ley de Inteligencia Artificial de la UE pretende equilibrar el fomento de la innovación en este campo con la protección de los derechos fundamentales y el tratamiento de los riesgos potenciales asociados a las tecnologías de IA. Su objetivo es establecer normativas que mejoren la transparencia, la responsabilidad y la privacidad, y el ChatGPT y otros sistemas de IA entran en su ámbito de aplicación.


ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

Infracción y observancia de la propiedad intelectual

Intellectual property infringement and enforcement – Tech Watch Discussion Paper 2023, European Union Intellectual Property Office, 2023, 

Texto completo

La EUIPO, a través del Observatorio Europeo de las Vulneraciones de los Derechos de Propiedad Intelectual, desarrolla herramientas y promueve las mejores prácticas para mejorar la protección de la propiedad intelectual (PI), que es un activo fundamental para empresas y particulares. Las tecnologías emergentes y disruptivas han adquirido, especialmente en los últimos 30 años y con una velocidad acelerada en la última década, una importancia cada vez mayor en la protección de la PI, como herramientas utilizadas tanto para infringir como para hacer cumplir la PI. Para fortalecer el trabajo del Observatorio sobre tecnologías emergentes y disruptivas, en 2019 se creó un Grupo de Expertos en Impacto de la Tecnología para: apoyar el trabajo del Observatorio que implica cuestiones tecnológicas; identificar nuevas tecnologías con potencial para impactar en la protección de la PI, la infracción y la aplicación; definir posibles casos de uso y llevar a cabo estudios o lanzar iniciativas para comprender mejor estos impactos; aumentar el conocimiento de las partes interesadas sobre los desarrollos tecnológicos con potencial para impactar en la protección de la PI, la infracción y la aplicación.