Archivo de la categoría: Tecnologías de la información

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

Diferencias entre Inteligencia Artificial, Aprendizaje Automático, Aprendizaje Profundo e Inteligencia Artificial Generativa

La Inteligencia Artificial (IA), el Aprendizaje Automático (Machine Learning), el Aprendizaje Profundo (Deep Learning) y la Inteligencia Artificial Generativa son conceptos relacionados pero distintos en el campo de la tecnología y la ciencia de datos. Aquí tienes una descripción de cada uno de ellos:

Inteligencia Artificial (IA) La IA se refiere a la creación de sistemas o programas informáticos capaces de realizar tareas que normalmente requieren de inteligencia humana y que imitan el comportamiento humano al utilizar máquinas para aprender y ejecutar tareas sin instrucciones explícitas sobre qué producir como resultado.

Aprendizaje Automático (Machine Learning) El Aprendizaje Automático es una rama de la IA que se centra en desarrollar algoritmos y modelos que permiten a las máquinas aprender de los datos y mejorar su rendimiento sin ser programadas explícitamente. Estos modelos toman datos, como por ejemplo las condiciones climáticas, y los ajustan a un algoritmo para realizar predicciones, como cuánto dinero puede generar una tienda en un día determinado.

Aprendizaje Profundo (Deep Learning) El Aprendizaje Profundo es una subárea del Aprendizaje Automático que se basa en redes neuronales artificiales con múltiples capas. Estas redes neuronales profundas son capaces de aprender representaciones jerárquicas y complejas de los datos de entrada, para ello utilizan capas de algoritmos en forma de redes neuronales artificiales para ofrecer resultados en casos de uso más complejos.

Inteligencia Artificial Generativa (Generative AI) son un subconjunto de los modelos de aprendizaje profundo que pueden generar nuevo contenido basado en datos de entrenamiento. Estos modelos utilizan técnicas de Aprendizaje Profundo para crear nuevos ejemplos que se asemejan a los datos de entrenamiento. Pueden generar imágenes, música, texto u otros tipos de contenido. La Inteligencia Artificial Generativa se utiliza en aplicaciones como la creación de arte generativo, la síntesis de voz y la generación de texto automático.

En conclusión, la IA busca replicar la inteligencia humana, el Aprendizaje Automático se basa en algoritmos para aprender de los datos, el Aprendizaje Profundo utiliza redes neuronales profundas para extraer representaciones complejas, y la Inteligencia Artificial Generativa se enfoca en la generación de contenido nuevo y original. Estas áreas se complementan entre sí y tienen aplicaciones en diversos campos de la tecnología y la investigación.

Las herramientas de IA generativa se están quedando rápidamente ‘sin texto’ para entrenarse advierte un experto de la UC Berkeley

Rivera, Gabriel. «Generative AI Tools Are Quickly “running out of Text” to Train Themselves on, UC Berkeley Professor Warns». Business Insider. Accedido 14 de julio de 2023. https://www.businessinsider.com/ai-could-run-out-text-train-chatbots-chatgpt-llm-2023-7.

Según el profesor Stuart Russell, experto en inteligencia artificial y profesor de la Universidad de California en Berkeley, existe una preocupación creciente de que los modelos de inteligencia artificial, como ChatGPT, estén alcanzando un límite en cuanto a la cantidad de texto disponible en el universo que los entrena para generar respuestas.

Los LLM (modelos lingüísticos de gran escala) que impulsan las herramientas de IA generativa más populares en la actualidad se entrenaron con cantidades masivas de texto publicado extraído de fuentes en línea públicas, incluidas fuentes de noticias digitales y sitios de redes sociales. Elon Musk, por ejemplo, ha mencionado que la «extracción de datos» de estos últimos es lo que lo llevó a limitar la cantidad de tweets que los usuarios pueden ver diariamente.

Un estudio realizado en noviembre pasado por Epoch, un grupo de investigadores de IA, estima que es probable que los conjuntos de datos de aprendizaje automático agoten todo el «texto de alta calidad» antes de 2026. Según el estudio, los conjuntos de datos de «alta calidad» provienen de fuentes como «libros, artículos de noticias, papers científicos, Wikipedia y contenido web filtrado».

Russell afirma en una entrevista que la tecnología utilizada para entrenar a estos bots de inteligencia artificial está empezando a enfrentarse a un desafío significativo. En otras palabras, estos bots no pueden absorber todo el texto digital necesario para su entrenamiento, lo cual fue mencionado en una entrevista con la Unión Internacional de Telecomunicaciones, una agencia de comunicaciones de la ONU, la semana pasada.

Este problema podría tener implicaciones en la forma en que los desarrolladores de inteligencia artificial generativa recopilen datos y entrenen sus tecnologías en el futuro. Sin embargo, Russell sigue sosteniendo la opinión de que la inteligencia artificial reemplazará a los humanos en muchas tareas relacionadas con el lenguaje, según lo describió en la entrevista como «lenguaje dentro, lenguaje fuera».

Russell afirmó en la entrevista que OpenAI, en particular, tuvo que «complementar» sus datos de lenguaje público con «fuentes de archivos privados» para crear GPT-4, el modelo de IA más avanzado y sólido de la compañía hasta la fecha. Sin embargo, reconoció en el correo electrónico a Insider que OpenAI aún no ha detallado los conjuntos de datos exactos utilizados en el entrenamiento de GPT-4. Varias demandas presentadas contra OpenAI en las últimas semanas alegan que la compañía utilizó conjuntos de datos que contenían información personal y materiales con derechos de autor para entrenar a ChatGPT. Una de las demandas más importantes fue presentada por 16 demandantes no identificados, quienes afirman que OpenAI utilizó datos sensibles como conversaciones privadas y registros médicos.

El último desafío legal, presentado por los abogados de la comediante Sarah Silverman y otros dos autores, acusa a OpenAI de infracción de derechos de autor debido a la capacidad de ChatGPT para escribir resúmenes precisos de su trabajo. Mona Awad y Paul Tremblay, dos autores adicionales, presentaron una demanda contra OpenAI a finales de junio que hace acusaciones similares. OpenAI ha evitado hacer comentarios públicos sobre el conjunto de demandas presentadas en su contra. Su CEO, Sam Altman, también se ha abstenido de discutir las acusaciones, aunque en el pasado ha expresado su deseo de evitar problemas legales.

El nuevo «trabajo híbrido» es «IA + humanos»

Samuel, Alexandra. «The New “Hybrid Work” Is “AI + Humans”». JSTOR Daily, 7 de julio de 2023. https://daily.jstor.org/the-new-hybrid-work-is-ai-plus-humans/.

Herramientas como ChatGPT, DALL-E y Bing Chat han aparecido justo después de un periodo de tres años en el que los profesionales de cuello blanco han experimentado una dislocación masiva de dónde y cómo trabajan. El cambio de la noche a la mañana hacia el trabajo a distancia que tuvo lugar durante el cierre de COVID-19 ha madurado hasta convertirse en un cambio duradero en la estructura del trabajo: Entre el 40% de los trabajadores estadounidenses que tienen empleos que pueden realizarse a distancia, un tercio trabaja ahora desde casa a tiempo completo, mientras que otro 40% trabaja a distancia parte o la mayor parte del tiempo.

Esto significa que el 30% de la población activa estadounidense pasa ahora una parte significativa de su vida laboral fuera de un lugar de trabajo convencional, y que el 70% de las empresas estadounidenses tienen ahora una plantilla híbrida, en la que algunos (si no todos) los empleados pasan parte (si no todos) de sus días trabajando a distancia. Si tenemos en cuenta que menos del 3% de la población activa estadounidense trabajaba a distancia a tiempo completo antes de la pandemia, esto representa una transición asombrosamente grande y rápida en la estructura social del trabajo.

Esta transformación en el lugar de nuestra vida laboral está a punto de chocar con una transición en quién realiza ese trabajo. Esta colisión es el nuevo trabajo híbrido, en el que las organizaciones se componen de una mezcla de trabajadores presenciales y remotos, y los equipos se componen de una mezcla de colegas humanos y artificiales.

La próxima década de la vida laboral estará marcada por el doble reto que plantean estas dos transiciones simultáneas. Es absurdo hablar de la automatización del trabajo o del impacto de la inteligencia artificial en el empleo sin tener en cuenta la forma en que nuestros supuestos sobre el trabajo y el empleo ya han sido transformados, recientemente y de forma masiva, por la adopción del trabajo a distancia, así como la reacción en su contra. Y tampoco tiene sentido hablar de cómo conseguir que los trabajadores vuelvan a la oficina, o cómo crear cultura y colaboración entre equipos distribuidos, sin tener en cuenta cómo la IA ya está transformando nuestra vida laboral diaria y los temores de los empleados ante el futuro.

.

La IA destapa la caja de Pandora: ChatGPT genera artículos científicos falsos y convincentes

Májovský, Martin, Martin Černý, Matěj Kasal, Martin Komarc, y David Netuka. «Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened». Journal of Medical Internet Research 25, n.o 1 (31 de mayo de 2023): e46924. https://doi.org/10.2196/46924.


Un estudio publicado en el Journal of Medical Internet Research por Martin Májovský y sus colegas revela que los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), pueden generar artículos científicos fraudulentos que parecen notablemente auténticos. Este descubrimiento plantea preocupaciones críticas sobre la integridad de la investigación científica y la confiabilidad de los documentos publicados.

Investigadores de la Universidad Charles, República Checa, se propusieron investigar las capacidades de los modelos actuales de lenguaje de IA para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot de IA, ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente ficticio en el campo de la neurocirugía. Las preguntas y sugerencias se refinaron a medida que ChatGPT generaba respuestas, lo que permitió mejorar iterativamente la calidad del resultado.

Los resultados de este estudio de concepto fueron sorprendentes: el modelo de lenguaje de IA produjo con éxito un artículo fraudulento que se asemejaba estrechamente a un documento científico genuino en cuanto al uso de palabras, estructura de las oraciones y composición general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin necesidad de ningún entrenamiento especial por parte del usuario humano.

Si bien el artículo generado por IA parecía sofisticado e impecable, al examinarlo más detenidamente, los lectores expertos pudieron identificar inexactitudes y errores semánticos, especialmente en las referencias; algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y métodos de detección mejorados para combatir el posible mal uso de la IA en la investigación científica.

Los hallazgos de este estudio destacan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en la escritura e investigación científica genuina. Modelos como ChatGPT tienen el potencial de mejorar la eficiencia y precisión en la creación de documentos, el análisis de resultados y la edición de lenguaje. Al utilizar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder al tiempo que minimizan el riesgo de mal uso o abuso.

En un comentario sobre el artículo del Dr. Májovský, el Dr. Pedro Ballester habla sobre la necesidad de priorizar la reproducibilidad y visibilidad de las obras científicas, ya que estas sirven como salvaguardias esenciales contra la proliferación de investigaciones fraudulentas.

A medida que la IA continúa avanzando, es crucial que la comunidad científica verifique la precisión y autenticidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que se necesita una mejor manera de verificar la precisión y autenticidad del contenido generado por IA, cómo se puede lograr esto es menos claro. «Deberíamos al menos declarar en qué medida la IA ha ayudado en la escritura y análisis de un artículo», sugiere el Dr. Ballester como punto de partida. Otra posible solución propuesta por Májovský y sus colegas es hacer obligatoria la presentación de datos para respaldar los resultados de la investigación, lo cual podría aumentar la transparencia y la verificabilidad de los estudios.

¿Es posible usar ChatGPT para escribir un artículo científico de calidad?


Conroy, Gemma. «Scientists Used ChatGPT to Generate an Entire Paper from Scratch — but Is It Any Good?» Nature, 7 de julio de 2023. https://doi.org/10.1038/d41586-023-02218-z.

Un par de científicos produjeron un artículo de investigación en menos de una hora con la ayuda de ChatGPT, una herramienta impulsada por inteligencia artificial (IA) que puede entender y generar texto similar a como lo haría humano. El artículo era fluido, perspicaz y presentado en la estructura esperada para un artículo científico, pero los investigadores señalan que hay muchos obstáculos por superar antes de que la herramienta pueda ser realmente útil.

El objetivo era explorar las capacidades de ChatGPT como un «copiloto» de investigación y generar debate sobre sus ventajas y desventajas, según Roy Kishony, biólogo y científico de datos en el Technion, Instituto de Tecnología de Israel en Haifa. «Necesitamos una discusión sobre cómo obtener los beneficios con menos inconvenientes», dice.

Kishony y su estudiante Tal Ifargan, también científico de datos en el Technion, descargaron un conjunto de datos disponible públicamente del Behavioral Risk Factor Surveillance System de los Centros para el Control y la Prevención de Enfermedades de Estados Unidos, una base de datos de encuestas telefónicas relacionadas con la salud. El conjunto de datos incluye información recopilada de más de 250,000 personas sobre su estado de diabetes, consumo de frutas y verduras y actividad física.

Los componentes básicos de un artículo

Los investigadores pidieron a ChatGPT que escribiera código que pudieran usar para descubrir patrones en los datos que pudieran analizar más a fondo. En su primer intento, el chatbot generó código lleno de errores y que no funcionaba. Pero cuando los científicos transmitieron los mensajes de error y le pidieron que corrigiera los errores, finalmente produjo código que se podía utilizar para explorar el conjunto de datos.

Con un conjunto de datos más estructurado en mano, Kishony e Ifargan pidieron a ChatGPT que los ayudara a desarrollar un objetivo de estudio. La herramienta sugirió que investigaran cómo la actividad física y la dieta afectan el riesgo de diabetes. Una vez que generó más código, ChatGPT entregó los resultados: consumir más frutas y verduras y hacer ejercicio se asocia con un menor riesgo de diabetes. Luego, se le pidió a ChatGPT que resumiera los hallazgos clave en una tabla y escribiera toda la sección de resultados. Paso a paso, pidieron a ChatGPT que escribiera el resumen, la introducción, los métodos y las secciones de discusión de un manuscrito. Finalmente, pidieron a ChatGPT que refinara el texto. «Compusimos [el artículo] a partir de la salida de muchas indicaciones», dice Kishony. «Cada paso se basa en los productos de los pasos anteriores».

Aunque ChatGPT generó un manuscrito claramente escrito con un análisis de datos sólido, el artículo estaba lejos de ser perfecto, según Kishony. Un problema que encontraron los investigadores fue la tendencia de ChatGPT a llenar los vacíos inventando cosas, un fenómeno conocido como alucinación. En este caso, generó citas falsas e información inexacta. Por ejemplo, el artículo afirma que el estudio «aborda una brecha en la literatura», una frase común en los artículos, pero inexacta en este caso, según Tom Hope, científico de la computación en la Universidad Hebrea de Jerusalén. El hallazgo «no es algo que sorprenderá a los expertos médicos», dice. «Está lejos de ser novedoso».

Beneficios y preocupaciones

Kishony también se preocupa de que estas herramientas puedan facilitar que los investigadores participen en prácticas deshonestas, como el «P-hacking», en el que los científicos prueban varias hipótesis en un conjunto de datos, pero solo informan aquellas que producen un resultado significativo.

Otra preocupación es que la facilidad para producir artículos con herramientas generativas de IA pueda resultar en una inundación de revistas con documentos de baja calidad, agrega. Afirma que su enfoque de datos a artículo, con una supervisión humana central en cada paso, podría ser una forma de garantizar que los investigadores puedan comprender, verificar y replicar fácilmente los métodos y los hallazgos.

Vitomir Kovanović, quien desarrolla tecnologías de IA para la educación en la Universidad de Australia del Sur en Adelaide, señala que es necesario tener una mayor visibilidad de las herramientas de IA en los artículos de investigación. De lo contrario, será difícil evaluar si los hallazgos de un estudio son correctos, dice. «Es probable que tengamos que hacer más en el futuro si la producción de documentos falsos se vuelve tan fácil».

Las herramientas de IA generativas tienen el potencial de acelerar el proceso de investigación al llevar a cabo tareas sencillas pero que consumen mucho tiempo, como escribir resúmenes y generar código, dice Shantanu Singh, biólogo computacional en el Broad Institute del MIT y Harvard en Cambridge, Massachusetts. Podrían utilizarse para generar artículos a partir de conjuntos de datos o para desarrollar hipótesis, dice. Sin embargo, debido a que las alucinaciones y los sesgos son difíciles de detectar para los investigadores, Singh dice: «No creo que escribir artículos completos, al menos en el futuro previsible, sea un uso particularmente bueno».

En conclusión. ChatGpt no puede escribir un trabajo de investigación científica completamente solo. El conocimiento científico, la experiencia humana, el pensamiento crítico y el análisis son esenciales para la redacción de un trabajo de investigación. ChatGPT puede utilizarse como asistente en la generación de contenidos para un trabajo de investigación científica.

La Ley de Propiedad Intelectual de EE.UU. puede regular la IA sin enmiendas

Klosek, Katherine. «US Copyright Act Can Address AI without Amendment». Association of Research Libraries (blog), 7 de julio de 2023. https://www.arl.org/blog/us-copyright-act-can-address-ai-without-amendment/.

La inteligencia artificial generativa (IA) es una tecnología que puede ayudar a los autores y otros creadores a generar ideas, editar obras originales y realizar investigaciones. Pero en lugar de depender de la legislación existente para abordar preguntas como si el uso de obras para entrenar modelos de IA es uso legítimo, o si las obras que incluyen contenido generado por IA son elegibles para la protección de derechos de autor, algunos legisladores en Estados Unidos parecen estar decididos a desarrollar nuevos marcos legales o regímenes de licencias. Este mes, Library Copyright Alliance (LCA) emitió unos principios para guiar a los legisladores en sus conversaciones sobre la ley de derechos de autor y la IA. La LCA es la voz de la comunidad bibliotecaria en política de derechos de autor; sus miembros, la Asociación de Bibliotecas de Estados Unidos (ALA) y la Asociación de Bibliotecas de Investigación (ARL), representan a más de 300,000 profesionales de la información y miles de bibliotecas.

Los principios de la LCA sostienen que la legislación de derechos de autor de Estados Unidos es totalmente capaz de abordar preguntas sobre los resultados generados por la IA. Por ejemplo, en marzo de este año, US Copyright Office emitió orientación de registro reiterando el requisito de larga data de que una obra sea creada por un ser humano para recibir protección de derechos de autor. En un seminario web reciente, la Oficina de Derechos de Autor aclaró que los solicitantes deben revelar los elementos generados por IA de una obra utilizando el mismo proceso que otros elementos no reclamables (como obras en dominio público o obras registradas previamente). Sin embargo, no se requiere que los solicitantes revelen cuando las obras contienen una cantidad mínima de autoría aportada por IA, por ejemplo, cuando se utiliza la IA para editar o difuminar una obra original. Para determinar si la contribución de la IA a una obra es mínima, la oficina alentó a los posibles solicitantes a considerar si ese elemento de la obra sería elegible para registro si fuera producido por un autor humano.

Las preocupaciones sobre la ingesta de una obra con derechos de autor original por parte de la IA y la producción de un resultado sustancialmente similar a la obra original también pueden abordarse mediante la legislación existente; el titular de los derechos de autor de una obra original puede demandar tanto al proveedor de la IA como al usuario que instigó a la IA a producir una obra sustancialmente similar.

En cuanto al aspecto de entrada, la ingesta de obras con derechos de autor para crear modelos de lenguaje extensos u otras bases de datos de entrenamiento de IA es un uso legítimo establecido, en línea con el precedente establecido en el caso Authors Guild v. HathiTrust y respaldado en el caso Authors Guild v. Google. En esos casos, el Tribunal de Apelaciones de Estados Unidos para el Segundo Circuito determinó que la ingesta de grandes cantidades de obras con el propósito de realizar usos no expresivos de esas obras, como la extracción de texto y datos, era un uso legítimo. Por supuesto, la copia y visualización de elementos no protegidos de las obras, como hechos, no constituye una infracción, según el caso Feist Publications v. Rural Telephone Service Company.

Los principios de la LCA se derivaron de los puntos que la LCA presentó durante la participación en la sesión de escucha de la Oficina de Derechos de Autor sobre la IA generativa y los derechos de autor en relación con las obras literarias. El 5 de julio, la LCA presentó los principios a la Oficina de Política Científica y Tecnológica de Estados Unidos (OSTP, por sus siglas en inglés) en respuesta a su solicitud de información para actualizar las prioridades nacionales de Estados Unidos y las acciones futuras sobre la IA. La LCA continuará participando en la iniciativa de la Oficina de Derechos de Autor sobre derechos de autor y IA, con la administración de Biden-Harris en el desarrollo de una Estrategia Nacional de Inteligencia Artificial (IA), y con otros legisladores federales para garantizar que la legislación y la regulación no obstaculicen el poder de la IA para expresar la creatividad y que los creadores puedan utilizar la IA para lograr los objetivos del sistema de derechos de autor. Estos principios también pueden guiar nuestra participación en la coordinación internacional y el establecimiento de políticas relacionadas con la IA y los derechos de autor.

Inteligencia Artificial en la Ciencia: retos, oportunidades y futuro de la investigación

OECD. Artificial Intelligence in Science: Challenges, Opportunities and the Future of Research, Paris: OECD Publishing, 2023, https://doi.org/10.1787/a8d820bd-en

PDF

ePUB

Los rápidos avances de la inteligencia artificial (IA) en los últimos años han dado lugar a numerosas aplicaciones creativas en la ciencia. Acelerar la productividad de la ciencia podría ser el más valioso económica y socialmente de todos los usos de la IA. Utilizar la IA para acelerar la productividad científica apoyará la capacidad de los países de la OCDE para crecer, innovar y hacer frente a los retos mundiales, desde el cambio climático hasta los nuevos contagios.

Esta publicación está dirigida a un público amplio, que incluye a los responsables políticos, el público y las partes interesadas en todos los ámbitos de la ciencia. Está escrita en un lenguaje no técnico y recoge las perspectivas de destacados investigadores y profesionales. El libro examina diversos temas, como los usos actuales, emergentes y posibles usos futuros de la IA en la ciencia, dónde es necesario progresar para servir mejor a los avances científicos y los cambios en la productividad científica.

Además, explora medidas para acelerar la integración de la IA en la investigación en los países en desarrollo.

Una contribución distintiva del libro es el examen de las políticas para la IA en la ciencia. Los responsables políticos y los agentes de los sistemas de investigación pueden hacer mucho para profundizar en el uso de la IA en la ciencia, magnificando sus efectos positivos y adaptándose al mismo tiempo a las cambiantes implicaciones de la IA para la gobernanza de la investigación.

Lo que los bibliotecarios deben saber sobre la IA generativa: alfabetización informacional para la era ChatGPT

American Libraries Magazine. «Information Literacy for the ChatGPT Age». Accedido 4 de julio de 2023. https://americanlibrariesmagazine.org/blogs/the-scoop/information-literacy-chatgpt/.

El uso de la IA generativa, ejemplificado especialmente por ChatGPT, se ha convertido en una importante tendencia tecnológica que ha acaparado la atención debido a su accesibilidad y a las cuestiones éticas que plantea. La tecnología, que utiliza algoritmos predictivos entrenados en grandes conjuntos de datos, incluidos los extraídos de Internet, se ha generalizado y tiene implicaciones para diversos campos, incluidas las bibliotecas.

Durante una mesa redonda celebrada en la Conferencia Anual 2023 de la Asociación Estadounidense de Bibliotecarios, los profesionales del sector subrayaron la necesidad de que los bibliotecarios comprendan y adopten la IA generativa. Los estudiantes, en particular, ya han integrado las herramientas de IA en sus prácticas de búsqueda de información y en su trabajo académico. Por lo tanto, las bibliotecas corren el riesgo de volverse irrelevantes si ignoran esta tecnología. Integrar la IA generativa en las oportunidades de aprendizaje, como las aulas, es crucial, ya que se espera que desempeñe un papel importante en la vida de los estudiantes.

Al introducir a los estudiantes en ChatGPT y herramientas similares, es importante comenzar con los fundamentos de la alfabetización informacional. De este modo, los bibliotecarios pueden complementar las habilidades de pensamiento crítico y asegurarse de que los estudiantes entienden el papel de la herramienta como un complemento y no como un sustituto del pensamiento crítico. Puede ser beneficioso demostrar cómo ChatGPT responde a una pregunta de ensayo, analizando críticamente sus puntos fuertes y débiles. Cabe señalar que algunas personas han intentado utilizar ChatGPT como una fuente citable, pero los bibliotecarios desaconsejan esta práctica, haciendo hincapié en la importancia de la autoridad y aclarando que ChatGPT es una herramienta, no una fuente en sí.

Para utilizar eficazmente las herramientas de IA generativa, los usuarios deben comprender cómo generan las respuestas. Los panelistas sugirieron que los bibliotecarios experimenten ellos mismos con las herramientas de IA, especialmente cuando utilicen preguntas relacionadas con temas sobre los que tengan conocimientos. Esta experimentación permite comprender las fuentes y las limitaciones de la tecnología. Además, los panelistas recomendaron asistir a cursos de ingeniería de avisos para crear avisos eficaces y comprender mejor la tecnología. Organizar eventos como «Chat GPT listening parties» (Chat GPT grupos de escucha) también puede facilitar el debate y la exploración de las capacidades de la tecnología.

Las bibliotecas no sólo deberían centrarse en ayudar a los estudiantes y usuarios a comprender y utilizar las herramientas de IA generativa, sino también participar en los debates sobre las consideraciones éticas y las implicaciones futuras de la tecnología. Dada su experiencia en la acción colectiva en favor de la información, las bibliotecas tienen un papel que desempeñar en la configuración del discurso sobre la regulación de la IA. Los ponentes destacaron que, aunque el Congreso de los EE.UU. ha celebrado audiencias sobre la IA, todavía no está clara la regulación. Las bibliotecas pueden contribuir a estos debates y ayudar a abordar el problema de la acción colectiva asociada al uso indebido o la militarización de la IA.

En conclusión, las bibliotecas deberían reconocer la creciente importancia de las herramientas de IA generativa como ChatGPT, integrarlas en entornos educativos y asegurarse de que los estudiantes entienden su papel como herramientas y no como fuentes. Los bibliotecarios también deberían explorar y experimentar ellos mismos con herramientas de IA, comprender las limitaciones de la tecnología y participar activamente en debates sobre las implicaciones éticas y la regulación de la IA.

¿Cómo sería la regulación de la IA?

Anjana Susarla, The. «What Would AI Regulation Look Like?» Gizmodo, 4 de junio de 2023. https://gizmodo.com/chatgpt-ai-what-would-ai-regulation-look-like-altman-1850501332.

Durante su testimonio en el Senado el 16 de mayo de 2023, el CEO de OpenAI, Sam Altman, hizo un llamado a los legisladores para considerar la regulación de la inteligencia artificial (IA). Altman propuso la creación de una agencia reguladora de la IA y la implementación de licencias para las empresas que trabajan en este campo. Estas propuestas son interesantes, pero es igualmente importante tener en cuenta las recomendaciones de otros expertos que participaron en el mismo panel.

Entre las sugerencias de los expertos se destaca la necesidad de exigir transparencia en relación con los datos de entrenamiento utilizados en los sistemas de IA, así como establecer marcos claros para abordar los riesgos asociados con esta tecnología. Estos aspectos son cruciales para garantizar la responsabilidad y la ética en el desarrollo y despliegue de la IA.

Además, se plantea la preocupación de que el sector de la IA pueda estar presenciando la aparición de un nuevo tipo de monopolio tecnológico, dada la naturaleza económica de la creación de modelos de IA a gran escala. Este aspecto debe ser considerado en cualquier esfuerzo de regulación, ya que el poder económico y la influencia política de las empresas en este campo pueden tener un impacto significativo.

Si bien las sugerencias de Altman y las discusiones sobre la regulación de la IA son importantes, es necesario profundizar en los detalles sobre cómo se implementaría la regulación y qué formas específicas tomarían las licencias. Además, cualquier enfoque regulatorio debe tener en cuenta las complejidades del poder económico y la influencia política de las empresas de IA.

En este sentido es crucial abordar estas cuestiones importantes, pero también es necesario llevar a cabo un debate amplio y colaborativo para encontrar respuestas efectivas. La regulación de la IA puede ser útil para proteger los intereses públicos y garantizar la seguridad y la equidad, pero su implementación requerirá un enfoque cuidadoso y una consideración detallada de los diversos aspectos involucrados.


Los legisladores y líderes políticos de todo el mundo han comenzado a abordar las cuestiones planteadas en el testimonio de Sam Altman. En la Unión Europea, se ha implementado la Ley de IA, la cual se basa en un modelo de riesgo que clasifica las aplicaciones de IA en tres categorías: inaceptable, alto riesgo y riesgo bajo o mínimo. Esta clasificación reconoce que las herramientas de puntuación social utilizadas por los gobiernos y las herramientas automatizadas de contratación plantean riesgos diferentes a los asociados con el uso de la IA en filtros de spam, por ejemplo.


En lugar de establecer una nueva agencia que pueda verse influenciada por la industria tecnológica que debe regular, el Congreso puede considerar respaldar la adopción tanto en el ámbito privado como público del marco de gestión de riesgos del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) y aprobar proyectos de ley como la Algorithmic Accountability Act. Estas acciones tendrían el efecto de imponer la rendición de cuentas, de manera similar a cómo la Ley Sarbanes-Oxley y otras regulaciones transformaron los requisitos de información para las empresas. Además, el Congreso puede aprobar leyes integrales en relación a la privacidad de los datos.

La regulación de la IA debe implicar la colaboración entre el ámbito académico, la industria, los expertos políticos y las agencias internacionales. Se ha comparado este enfoque con organizaciones internacionales como el CERN (Organización Europea para la Investigación Nuclear) y el Grupo Intergubernamental de Expertos sobre el Cambio Climático, que han logrado éxitos significativos en sus respectivos campos. En el ámbito de Internet, se ha adoptado un enfoque similar a través de organismos no gubernamentales que involucran a organizaciones sin ánimo de lucro, la sociedad civil, la industria y los responsables políticos. Ejemplos notables incluyen la Corporación de Internet para la Asignación de Nombres y Números y la Asamblea Mundial de Normalización de las Telecomunicaciones. Estos ejemplos pueden servir como modelos para la industria y los responsables políticos al abordar la regulación de la IA.

Aunque Sam Altman de OpenAI planteó la posibilidad de otorgar licencias a empresas para el despliegue de tecnologías de inteligencia artificial (IA), es importante destacar que se refería específicamente a la inteligencia artificial general, es decir, sistemas de IA futuros con un nivel de inteligencia similar al humano que podrían plantear riesgos para la humanidad. Este enfoque sería similar a la concesión de licencias para el manejo de otras tecnologías potencialmente peligrosas, como la energía nuclear. Sin embargo, la concesión de licencias podría desempeñar un papel mucho antes de que se llegue a ese escenario futurista.

La auditoría algorítmica requeriría credenciales, estándares de práctica y una formación extensa. La exigencia de responsabilidades no se limita únicamente a otorgar licencias a individuos, sino que también implica establecer estándares y prácticas en toda la empresa.

Los expertos en imparcialidad de la IA argumentan que las cuestiones de parcialidad e imparcialidad en la IA no pueden abordarse únicamente mediante métodos técnicos, sino que requieren prácticas más amplias de mitigación de riesgos, como la adopción de juntas de revisión institucional para la IA. Un ejemplo de esto se encuentra en el ámbito médico, donde las juntas de revisión institucional ayudan a salvaguardar los derechos individuales de los pacientes.

Además, los organismos académicos y las sociedades profesionales han desarrollado normas para el uso responsable de la IA, ya sea en términos de atribución en textos generados por IA o en el intercambio de datos en el ámbito de la medicina a través de los pacientes. Estas normas buscan promover prácticas éticas y mitigar los riesgos asociados con el uso de la IA en diversas áreas.

El testimonio de Altman también omitió abordar la cuestión de los posibles monopolios en el campo de la IA. Una observación importante es la significativa inversión necesaria para entrenar modelos de IA a gran escala, como GPT-4, que es uno de los fundamentos de ChatGPT, o el generador de texto a imagen Stable Diffusion. Estos modelos son desarrollados principalmente por un reducido número de empresas, como Google, Meta, Amazon y Microsoft.

La falta de transparencia en los datos de entrenamiento utilizados por estas empresas ha sido motivo de preocupación. Expertos en ética de la IA, como Timnit Gebru, Emily Bender y otros, han advertido que la adopción generalizada de estas tecnologías sin una supervisión adecuada puede amplificar el sesgo de las máquinas a una escala social.

Además, es importante reconocer que los datos de entrenamiento de herramientas como ChatGPT incluyen el trabajo intelectual de numerosas personas, como colaboradores de Wikipedia, blogueros y autores de libros digitalizados. Sin embargo, los beneficios económicos derivados de estas herramientas recaen únicamente en las empresas tecnológicas.