Archivo de la categoría: Tecnologías de la información

Escritores demandan a OpenAI y Microsoft por supuesto uso no autorizado de libros en inteligencia artificial

Brittain, Blake, y Blake Brittain. 2023. «Pulitzer-Winning Authors Join OpenAI, Microsoft Copyright Lawsuit». Reuters, 21 de diciembre de 2023, sec. Legal. https://www.reuters.com/legal/pulitzer-winning-authors-join-openai-microsoft-copyright-lawsuit-2023-12-20/.

Un grupo de 11 autores de no ficción se ha unido a una demanda en la corte federal de Manhattan que acusa a OpenAI y Microsoft de utilizar indebidamente libros escritos por los autores para entrenar los modelos detrás del popular chatbot ChatGPT de OpenAI y otros programas basados en inteligencia artificial.

Los escritores, incluyendo a los ganadores del Premio Pulitzer Taylor Branch, Stacy Schiff y Kai Bird, argumentan que las compañías infringieron sus derechos de autor al usar sus obras para entrenar los modelos de lenguaje GPT de OpenAI.

Representantes de OpenAI y Microsoft no respondieron de inmediato a las solicitudes de comentarios el miércoles.

El abogado de los escritores, Rohit Nath, afirmó que «los acusados están obteniendo miles de millones de dólares de su uso no autorizado de libros de no ficción, y los autores de estos libros merecen una compensación justa y un trato adecuado por ello».

La demanda, presentada por el escritor y editor de Hollywood Reporter, Julian Sancton, alega que OpenAI «raspó» los trabajos de los autores junto con gran cantidad de otro material con derechos de autor de Internet sin permiso para enseñar a sus modelos GPT a responder a instrucciones de texto humano.

La demanda también afirma que Microsoft ha estado «profundamente involucrado» en el entrenamiento y desarrollo de los modelos y es responsable de la infracción de derechos de autor. Los autores piden daños monetarios no especificados y una orden para que las compañías dejen de infringir sus derechos de autor.

OpenAI y Axel Springer firman un acuerdo que permite que ChatGPT se entrene con datos de la editorial

Knibbs, Kate. s. f. «Journalists Had “No Idea” About OpenAI’s Deal to Use Their Stories». Wired. Accedido 22 de diciembre de 2023. https://www.wired.com/story/openai-axel-springer-news-licensing-deal-whats-in-it-for-writers/.

OpenAI y el conglomerado mediático alemán Axel Springer firmaron la semana pasada un acuerdo de licencia a largo plazo que permite a OpenAI incorporar artículos de los medios de Axel Springer, como Business Insider y Politico, en sus productos, incluido ChatGPT. Aunque el acuerdo se centra en el uso de trabajos periodísticos, los periodistas cuyas historias se compartirán como parte del acuerdo no fueron consultados previamente.

Empleados de Business Insider revelaron que se enteraron del acuerdo de inteligencia artificial al mismo tiempo que se anunció públicamente. PEN Guild, el sindicato estadounidense que representa a alrededor de 280 trabajadores de Politico y E&E News, otra publicación de Axel Springer, afirmó que «no fue consultado ni informado sobre la decisión de que los robots resumieran nuestro trabajo».

Este acuerdo destaca la tendencia emergente de empresas de inteligencia artificial que buscan acuerdos con empresas de medios en lugar de recopilar datos de entrenamiento mediante el rastreo no autorizado de contenido con derechos de autor en Internet. Mientras algunas asociaciones de escritores ven estos acuerdos como una alternativa positiva al rastreo de datos, hay dudas sobre si realmente beneficiarán a los periodistas.

El editor de Techdirt, Mike Masnick, cuestiona la efectividad de estos acuerdos y sugiere que podrían ser estrategias para evitar demandas de las editoras a cambio de cierto acceso a la tecnología. Además, se desconoce cómo afectará financieramente a los periodistas individuales el acuerdo entre OpenAI y Axel Springer.

El acuerdo, que implica que OpenAI pagará a Axel Springer millones de euros, según Bloomberg, plantea preguntas sobre si los periodistas recibirán alguna compensación. Aunque Axel Springer considera que el acuerdo beneficia a los periodistas y a la industria del periodismo, algunos críticos dudan de que el acceso indirecto a la tecnología realmente mejore las condiciones laborales de los periodistas.

En el contexto de la creciente automatización en la industria de los medios, sindicatos y líderes laborales están vigilando de cerca estos acuerdos para proteger los derechos e integridad del trabajo de los periodistas. La cuestión de si estos acuerdos serán beneficiosos a largo plazo y cómo afectarán a la industria de los medios sigue siendo objeto de debate.

El uso de la IA generativa por parte de los estudiantes: la amenaza de las alucinaciones

«Students’ Use of Generative AI: The Threat of Hallucinations». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/students-use-of-generative-ai-the-threat-of-hallucinations/.


Los sistemas de inteligencia artificial generativa entrenados con grandes cantidades de datos existentes utilizan el aprendizaje automático para producir nuevo contenido (como texto o imágenes) en respuesta a las indicaciones de los usuarios. En educación, la inteligencia artificial generativa se menciona con mayor frecuencia en el contexto de la integridad académica, con profesores expresando temores sobre el fraude en el aula.

Sin embargo, la encuesta a profesores, padres y estudiantes muestra que el 45 por ciento de los estudiantes que dicen haber utilizado inteligencia artificial generativa informan haberlo hecho por razones personales, mientras que solo el 23 por ciento informa haberlo utilizado para la escuela. De aquellos que han utilizado la tecnología por razones personales, muchas de las aplicaciones son de gran importancia: el 29 por ciento la ha utilizado para lidiar con la ansiedad o problemas de salud mental, el 22 por ciento para lidiar con problemas con amigos y el 16 por ciento para lidiar con problemas familiares. Como resultado, incluso en el contexto de uso personal, los sistemas de inteligencia artificial generativa que producen información incorrecta pueden tener consecuencias perjudiciales significativas.

¿Qué son las alucinaciones y por qué ocurren? Por su estilo de escritura y la forma en que proporcionan información, los sistemas de inteligencia artificial generativa pueden parecer fuentes confiables y autorizadas de información. Sin embargo, estos sistemas a menudo producen texto que es factualmente incorrecto. Estos errores factuales se conocen como «alucinaciones». Las alucinaciones son una consecuencia tanto del diseño como de la estructura operativa de los sistemas de inteligencia artificial generativa.

Desde el punto de vista del diseño, los sistemas de inteligencia artificial generativa están construidos con la intención de imitar el texto producido por humanos. Para lograr esto, generalmente se entrenan con enormes conjuntos de datos de texto a partir de los cuales el sistema aprende sobre la estructura de oraciones y párrafos, y luego produce texto que parece tener sentido para los lectores humanos al predecir repetidamente la siguiente palabra más lógica. Este proceso no está diseñado para crear contenido que sea verdadero o correcto, sino que tenga sentido.

Estructuralmente, la mayoría de los sistemas de inteligencia artificial generativa operan «desconectados», lo que significa que no están obteniendo activamente datos de internet para responder a indicaciones. Por lo tanto, están limitados a los datos contenidos en sus conjuntos de datos de entrenamiento. Esto hace que los sistemas de inteligencia artificial generativa sean particularmente poco confiables cuando se trata de eventos actuales que no aparecen en sus conjuntos de datos de entrenamiento.

Los posibles impactos perjudiciales de las alucinaciones en los estudiantes La realidad de las alucinaciones de inteligencia artificial generativa, junto con los altos niveles de uso personal por parte de los estudiantes para asuntos importantes, plantea grandes preocupaciones sobre el acceso a información precisa en momentos de crisis. Por ejemplo, los estudiantes podrían estar haciendo preguntas a ChatGPT (u otra herramienta de inteligencia artificial generativa) sobre cómo lidiar con un problema de salud mental en curso, que podría ser potencialmente una situación de vida o muerte. Dado que la mayoría de los sistemas de inteligencia artificial generativa probablemente utilizados por los estudiantes se entrenan con información recopilada de internet, podrían replicar malentendidos comunes sobre problemas sensibles como desafíos de salud mental, roles de género y orientación sexual.

Además de las alucinaciones tradicionales, que son simplemente información incorrecta, la inteligencia artificial generativa también puede tener impactos emocionales significativos en los estudiantes que utilizan la herramienta por razones personales al replicar prejuicios sociales contra poblaciones marginadas, incluidas cuestiones de raza, género u orientación sexual. Los estudiantes, especialmente durante las etapas vitales de desarrollo de la educación K-12, pueden internalizar estos prejuicios, ya sea contra ellos mismos o contra otros.

Las alucinaciones también son motivo de preocupación significativa cuando los estudiantes utilizan plataformas de inteligencia artificial generativa con fines académicos. La posibilidad de que los estudiantes reciban información inexacta puede ir en contra directa del objetivo de las escuelas de proporcionar información confiable y de calidad a los estudiantes. Los estudiantes que no comprenden las posibilidades de alucinaciones de estas herramientas pueden usarlas de manera ineficaz y perder usos beneficiosos. Sin comprender las limitaciones de la inteligencia artificial generativa, los estudiantes pueden no poder aprovechar de manera efectiva su potencial como herramienta para complementar su aprendizaje y habilidades de pensamiento crítico.

¿Cómo deben abordar las escuelas el problema de las alucinaciones?

Para combatir las posibles consecuencias devastadoras de las alucinaciones de inteligencia artificial generativa tanto en contextos personales como académicos, las escuelas deben:

  • Comprender las limitaciones de la inteligencia artificial generativa y asegurarse de que los maestros estén adecuadamente capacitados. Aunque los beneficios potenciales de estas herramientas para mejorar el aprendizaje pueden ser emocionantes, es imperativo que los funcionarios escolares estén completamente familiarizados con las deficiencias tecnológicas e impartan ese conocimiento a los educadores. Los maestros desempeñan un papel crucial para garantizar que la inteligencia artificial generativa se utilice de manera responsable y apropiada en el aula. Pero para hacerlo, necesitan acceso a recursos y capacitación.
  • Continuar invirtiendo en consejeros y otros apoyos de salud mental. Las escuelas deben tener cuidado de no dirigir a los estudiantes hacia el uso de inteligencia artificial generativa como recurso sobre temas tan sensibles como su salud mental. Los problemas de salud mental en curso requieren empatía y experiencia humanas, por lo que las escuelas no deben adquirir herramientas de inteligencia artificial generativa para reemplazar o incluso triar el cuidado que de otro modo proporcionaría un ser humano. Si las escuelas van a adquirir una herramienta para complementar a los consejeros y apoyos de salud mental ya existentes, deberían hacer referencia a nuestra guía sobre principios de adquisición responsables, ya que incluso como herramienta complementaria, los sistemas de inteligencia artificial generativa pueden causar daño si no se prueban y regulan adecuadamente.
  • Brindar educación a los estudiantes sobre qué es la inteligencia artificial generativa, cómo funciona y por qué ocurren las alucinaciones. Para combatir la exageración no controlada del público en torno a la inteligencia artificial generativa, las escuelas deben dotar a los estudiantes con conocimientos básicos sobre la tecnología, sus capacidades y limitaciones, y cómo puede salir mal tanto en usos académicos como personales.
  • Brindar educación a los estudiantes sobre la alfabetización mediática y las habilidades de investigación. El lanzamiento de ChatGPT en noviembre pasado subrayó la necesidad de que los estudiantes comprendan cómo ser consumidores responsables y efectivos del conocimiento a través de nuevas herramientas tecnológicas. El uso de la inteligencia artificial generativa es cada vez más inevitable de la misma manera que el uso de internet, por lo que es vital que las escuelas proporcionen a los estudiantes capacitación y recursos sobre cómo evaluar la precisión y confiabilidad de la información obtenida a través de ChatGPT y otras plataformas de inteligencia artificial generativa.
  • Asegurarse de que maestros y estudiantes comprendan cuándo es apropiado usar la inteligencia artificial generativa. La inteligencia artificial generativa no está destinada a reemplazar la enseñanza y el aprendizaje tradicionales en ningún caso; no es un reemplazo del conocimiento y no es un terapeuta o consejero efectivo para problemas personales. Sin embargo, puede usarse, por ejemplo, como una herramienta de apoyo para mejorar la escritura o como una herramienta novedosa para la investigación al explorar un nuevo tema. Las escuelas deben proporcionar orientación y capacitación tanto a maestros como a estudiantes sobre cómo hacer un uso efectivo de la inteligencia artificial generativa.

El índice de transparencia de los principales modelos de Inteligencia Artificial revela que la gran mayoría son opacos

Índice de Transparencia de Modelos Fundamentales

«New Index Finds AI Models Are Murky, Not Transparent At All». 2023. Accedido 21 de diciembre de 2023. https://www.darkreading.com/cyber-risk/new-index-finds-ai-models-are-murky-not-transparent-at-all.


El Índice de Transparencia de Modelos Fundamentales de la Inteligencia Artificial es una evaluación que se realiza a los principales modelos de IA para medir la transparencia en su desarrollo y funcionamiento. Cuando se menciona que la gran mayoría de estos modelos son opacos, significa que existe una falta significativa de claridad y divulgación sobre cómo se entrenan, las fuentes de datos que utilizan, y cómo toman decisiones.


La nueva orden ejecutiva sobre inteligencia artificial (IA) firmada por el presidente de Estados Unidos, Joe Biden, detalla cómo la industria debe asegurarse de que la IA sea confiable y útil. La orden sigue a discusiones destacadas en julio y septiembre entre empresas de IA y la Casa Blanca, que resultaron en promesas sobre cómo las empresas de IA serán más transparentes acerca de las capacidades y limitaciones de la tecnología.

Hacer promesas de transparencia es un paso positivo, pero es necesario contar con un método para medir cuán bien se están cumpliendo esas promesas. Un método podría ser el Model Transparency Index desarrollado por el Centro de Investigación sobre Modelos Fundamentales de la Universidad de Stanford. El índice calificó 10 modelos de IA en función de 100 métricas diferentes, incluyendo cómo se entrenan los modelos, información sobre las propiedades y funciones del modelo, y cómo se distribuyen y utilizan los modelos. Las puntuaciones se calcularon en base a datos disponibles públicamente, aunque las empresas tuvieron la oportunidad de proporcionar información adicional para cambiar la puntuación.

¿Cómo se ve la transparencia al hablar de algunos de los modelos fundamentales más utilizados? No es buena. «Ningún desarrollador importante de modelos fundamentales se acerca a proporcionar transparencia adecuada, revelando una falta fundamental de transparencia en la industria de la IA», escribieron los investigadores de Stanford en el resumen de sus hallazgos.

Llama 2 de Meta recibió la puntuación total más alta en el índice, con 54 sobre 100.

El GPT-4 de OpenAI obtuvo 48, lo cual no es sorprendente, ya que OpenAI decidió retener detalles «sobre la arquitectura (incluido el tamaño del modelo), hardware, ordenador de entrenamiento, construcción del conjunto de datos [y] método de entrenamiento» al pasar de GPT-3 a GPT-4 a principios de este año.

En su mayor parte, los sistemas de IA potentes, como el GPT-4 de OpenAI y el PaLM2 de Google, son sistemas de caja negra. Estos modelos se entrenan con grandes volúmenes de datos y se pueden adaptar para su uso en una amplia variedad de aplicaciones. Pero para un creciente grupo de personas preocupadas por cómo se utiliza la IA y cómo podría afectar a las personas, el hecho de que haya poca información disponible sobre cómo se entrenan y utilizan estos modelos es un problema.

Según los investigadores, hay un poco más de transparencia en torno a la protección de datos de usuario y la funcionalidad básica del modelo. Los modelos de IA obtuvieron buenos resultados en indicadores relacionados con la protección de datos de usuario (67%), detalles básicos sobre cómo se desarrollan sus modelos fundamentales (63%), las capacidades de sus modelos (62%) y sus limitaciones (60%).

La nueva orden ejecutiva describe varias cosas que deben suceder para mejorar la transparencia. Los desarrolladores de IA deberán compartir los resultados de las pruebas de seguridad y otra información con el gobierno. El Instituto Nacional de Estándares y Tecnología tiene la tarea de crear estándares para garantizar que las herramientas de IA sean seguras y seguras antes de su lanzamiento público.

Las empresas que desarrollen modelos que representen riesgos serios para la salud y seguridad públicas, la economía o la seguridad nacional deberán notificar al gobierno federal cuando estén entrenando el modelo y compartir los resultados de las pruebas de seguridad antes de hacer públicos los modelos.

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

Alfabetización informacional y sociedad: Un informe para presentar los resultados de una revisión de la literatura sobre el impacto de la alfabetización informacional en la sociedad.

Ryan, B., Cruickshank, P., & Milosheva, M. (2023). Information literacy and society: A report to present findings from a review of literature on the impact of information literacy on society. Media and Information Literacy Alliance

Texto completo



Este informe presenta los hallazgos derivados de una revisión de la literatura que informa sobre el impacto de la alfabetización informacional (AI) en la sociedad. Su objetivo es proporcionar consideraciones sobre cómo la investigación académica sobre la AI puede afectar positivamente a la sociedad, basándose en el informe del proyecto Marco de Impacto de la Alfabetización Informacional (ILIF) de 2022

El equipo del proyecto llevó a cabo las siguientes acciones:

  • A partir de un conjunto filtrado de más de 4000 resultados, desarrollaron listas largas correspondientes a los cinco temas en la definición de AI de CILIP (2018), totalizando 197 elementos para una posible revisión adicional.
  • Señalaron temas de investigación, barreras para la investigación de la AI, barreras y facilitadores para la formación de poblaciones con alfabetización informacional emergentes de las listas largas.
  • Filtraron las listas largas a listas cortas, totalizando 35 elementos, para una revisión detallada.
  • Clasificaron las listas largas y cortas en dos dimensiones: geografía y método de estudio.
  • Realizaron un análisis detallado de los elementos de la lista corta.
  • Extrajeron conclusiones sobre el papel de la alfabetización informacional en la sociedad.

La investigación central que examina el papel de la alfabetización informacional (AI) en la sociedad tiene un sesgo geográfico hacia el ámbito anglosajón y el primer mundo. Los factores que causan este sesgo no están claros, pero un sesgo aparente adicional puede haber resultado del enfoque de este proyecto en publicaciones revisadas por pares en inglés. La educación, especialmente la educación terciaria, está significativamente sobrerrepresentada en la literatura de investigación sobre AI. Se plantean barreras para la formación de poblaciones con alfabetización informacional debido a problemas relacionados con la enseñanza de la AI y las estructuras que podrían respaldarla, incluida la (in)acción gubernamental.

Otros hallazgos clave son:

  • La investigación sobre la alfabetización informacional abarca una amplia variedad de temas y contextos.
  • La formación/educación en AI debe ser impartida mediante la colaboración entre bibliotecarios y maestros/profesores, continuar a lo largo de la educación y reforzarse durante las carreras y vidas.
  • La investigación sobre la alfabetización informacional puede tener un impacto indirecto, por ejemplo, la investigación para mejorar la AI de los profesionales médicos no solo afecta a estos profesionales sino también a la sociedad en general, es decir, a sus pacientes.
  • Existen oportunidades perdidas para dicho impacto social, por ejemplo, cuando los profesionales médicos carecen de habilidades de alfabetización informacional y, por lo tanto, pueden no brindar el mejor tratamiento posible a sus pacientes; si los ciudadanos no tienen alfabetización en información de salud, su salud puede verse afectada.
  • Muchos de los hallazgos del proyecto ILIF están validados.

Urban Libraries Council y la Universidad de Albany se asocian para estudiar el impacto de la IA en bibliotecas

«RELEASE: Public Libraries Set the Stage for Integration of Artificial Intelligence in Their Services and Resources». s. f. Urban Libraries Council. Accedido 20 de diciembre de 2023. https://www.urbanlibraries.org/newsroom/release-public-libraries-set-the-stage-for-integration-of-artificial-intelligence-in-their-services-and-resources-1-1.


El Urban Libraries Council (ULC) y el Center for Technology in Government (CTG UAlbany) de la Universidad de Albany se han asociado para analizar cómo las bibliotecas pueden capacitar a las comunidades para comprender mejor la Inteligencia Artificial y garantizar su diseño y aplicación éticos. Este proyecto de investigación de tres años, financiado mediante una subvención del Instituto de Servicios de Museos y Bibliotecas, incluirá encuestas e entrevistas a las bibliotecas miembros del ULC, estudios de caso, un informe integral y una guía para profesionales de bibliotecas.

«Estar en la primera línea de la nueva tecnología es una posición común para las bibliotecas, y el rápido crecimiento de la IA ha convertido esto en un tema urgente para los líderes bibliotecarios», dijo Brooks Rainwater, Presidente y CEO de ULC. «Estamos emocionados de asociarnos con CTG UAlbany para demostrar cómo las bibliotecas públicas pueden actuar como catalizadores que fortalezcan la comprensión, el uso y el avance de la IA en nuestras vidas».

La investigación de CTG UAlbany abordará tres preguntas:

  1. ¿Qué papel pueden desempeñar las bibliotecas públicas en aumentar el conocimiento sobre la IA en la comunidad?
  2. ¿Cómo pueden las bibliotecas públicas fomentar la participación cívica inclusiva en iniciativas de IA?
  3. ¿Cuáles son las oportunidades, amenazas, beneficios y desafíos de que las bibliotecas públicas lideren la participación cívica inclusiva en iniciativas de IA?

«Aunque académicos y profesionales recomiendan la participación pública en la IA para identificar posibles perjuicios, mejorar la calidad de los conjuntos de datos y abordar mejor las necesidades de la comunidad, no hay estrategias claras para involucrar a las comunidades en iniciativas de IA ni espacios disponibles donde pueda tener lugar este compromiso», dijo Mila Gascó-Hernández, Directora de Investigación de CTG UAlbany. «Creemos que las bibliotecas públicas, como espacios de aprendizaje y socios comunitarios de confianza, pueden desempeñar un papel crucial en la promoción y el avance de la participación cívica inclusiva en iniciativas de IA».

La investigación se basará en el trabajo realizado por ambos socios. La iniciativa sigue a la investigación anterior de CTG UAlbany sobre el papel de las bibliotecas públicas en mejorar los ecosistemas de gobiernos abiertos y en el desarrollo de comunidades inteligentes. En octubre de 2023, ULC lanzó un informe de liderazgo sobre cómo las bibliotecas públicas pueden prepararse para una rápida integración de la IA en los servicios, recursos y operaciones de la biblioteca. Desde aprovechar las habilidades de ingeniería de los miembros del personal hasta utilizar la IA para avanzar en la alfabetización informacional, ULC recomienda que las bibliotecas deben estar preparadas para una rápida integración de la IA en sus servicios, recursos y operaciones.

¿Qué es Copilot de Microsoft? ¿Es mejor que ChatGPT? 

Acceder a Coplitot

El año pasado, Microsoft presentó una versión especial de su motor de búsqueda Bing impulsada por inteligencia artificial (IA). A lo largo del último año y algunos meses, la compañía ha continuado expandiendo sus ofertas, utilizando el mismo servicio de motor de búsqueda como un chatbot de IA llamado Bing Chat, que ahora ha sido renombrado como Copilot. ¿Qué es exactamente Copilot y cómo se compara con otros chatbots de IA como ChatGPT y Claude? Aquí tienes lo que necesitas saber.

Microsoft Copilot es una herramienta de colaboración inteligente que utiliza técnicas de lenguaje natural y aprendizaje automático para proporcionar sugerencias útiles y personalizadas en tiempo real mientras trabajas.

¿Qué es Copilot? Esencialmente, Copilot es la versión de Microsoft de ChatGPT, utilizando el mismo lenguaje. Puedes hacerle preguntas similares y utilizarlo para resolver tareas complejas, como problemas matemáticos y crear imágenes. Copilot se basa en GPT-4, con acceso a internet para proporcionar información actualizada sobre las consultas.

¿Cuánto cuesta Copilot? Copilot es gratuito y es la única forma de acceder gratuitamente a GPT-4. Solo necesitas una cuenta de Microsoft, también gratuita.

¿Por qué hay múltiples aplicaciones Copilot? Hay varias ofertas bajo el paraguas de Copilot, como el chatbot Copilot, Windows Copilot, Copilot for Microsoft 365, Copilot for service, Copilot for Sales, entre otros. Aunque existen múltiples versiones, Copilot es el chatbot principal y es gratuito.

¿Qué modelo de lenguaje utiliza Copilot? Copilot se basa en la última versión del modelo GPT de OpenAI, GPT-4, que es el mismo modelo al que acceden los usuarios de ChatGPT Plus.

¿Cuál es el límite de chat de Copilot? Actualmente, Copilot tiene un límite de 2.000 caracteres por chat, menor que el límite de 4.096 de ChatGPT.

¿Cómo se accede a Copilot? Copilot es accesible de forma gratuita con una cuenta de Microsoft. Puedes ingresar a través del sitio web de Copilot. Microsoft no ha anunciado una opción premium para Copilot hasta ahora.

¿Hay una aplicación Copilot? Si no deseas usar el sitio web, puedes acceder a Copilot a través de la aplicación Bing en dispositivos iPhone y Android.

¿Es Copilot mejor que ChatGPT? Ambos operan de manera similar, ya que utilizan los mismos modelos de lenguaje. Copilot puede ser más eficiente y preciso que la versión gratuita de ChatGPT (GPT-3.5). Copilot se destaca en su integración con la búsqueda en línea, aprovechando la conexión a Internet a través de Bing, lo que lo hace eficiente para acceder a información actualizada. Ambos responderán de manera similar ya que utilizan el mismo modelo de lenguaje. Copilot también proporciona el enlace al contenido del que ha tomado la información.

FUENTE

ACRL y CNI designan un grupo de trabajo conjunto sobre planificación de escenarios para futuros de IA y aprendizaje automático en bibliotecas

«Association of Research Libraries and Coalition for Networked Information Appoint Joint Task Force on Scenario Planning for AI and Machine-Learning Futures». s. f. Association of Research Libraries (blog). Accedido 19 de diciembre de 2023.

Texto completo

La planificación de escenarios para los futuros de la inteligencia artificial (IA) y el aprendizaje automático implica desarrollar varios escenarios plausibles y diversos para ayudar a las organizaciones y personas a anticipar posibles desafíos y oportunidades. Dada la rápida innovación en estos campos, considerar diferentes futuros es crucial para la planificación estratégica y la toma de decisiones.

Un grupo de trabajo conjunto, representando a los miembros de la Asociación de Bibliotecas de Investigación (ARL) y la Coalición para la Información en Red (CNI), ha comenzado a trabajar en una iniciativa de seis meses para desarrollar un conjunto de posibles escenarios futuros que examinen cómo la inteligencia artificial (IA) y el aprendizaje automático podrían transformar la empresa de investigación. Esperamos que estos escenarios sean útiles para nuestras instituciones miembros y la comunidad en general para comprender, planificar y explorar las implicaciones de estas tecnologías.

Las oportunidades para contribuir al desarrollo de estos escenarios se llevarán a cabo a través de reuniones que coincidan con las reuniones de ARL y CNI, y mediante grupos de enfoque virtuales abiertos a la comunidad en general. ARL y CNI han contratado a Stratus, Inc. para facilitar el desarrollo del conjunto de escenarios. Susan Stickley, CEO de Stratus, trabajó anteriormente con ARL en los Escenarios 2030, publicados en 2010.

Principios para unas tecnologías de IA generativa responsables, fiables y que protejan la intimidad

Canada, Office of the Privacy Commissioner of. 2023. «Principles for Responsible, Trustworthy and Privacy-Protective Generative AI Technologies». 7 de diciembre de 2023. https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/.

En el contexto general de los avances continuos en las tecnologías de inteligencia artificial, una versión de la tecnología ha experimentado un desarrollo particularmente rápido, una proliferación de casos de uso y un aumento en la adopción en los últimos tiempos: la inteligencia artificial generativa. La inteligencia artificial generativa es un subconjunto del aprendizaje automático en el que los sistemas se entrenan en conjuntos masivos de información, a menudo incluyendo información personal, para generar contenido como texto, código informático, imágenes, video o audio en respuesta a una solicitud del usuario. Este contenido es probabilístico y puede variar incluso en respuesta a múltiples usos de solicitudes similares.

Las autoridades en múltiples campos en todo el mundo están reconociendo los riesgos potenciales planteados por esta tecnología, como se evidencia en la declaración conjunta de las autoridades de protección de datos y privacidad del G7 en junio de 2023 sobre las tecnologías de inteligencia artificial generativa, la Declaración de los líderes del G7 en noviembre de 2023 que incluyó principios rectores y un código de conducta para organizaciones que desarrollan sistemas de inteligencia artificial avanzados, y la resolución de la Asamblea Global de Privacidad en octubre de 2023 sobre sistemas de inteligencia artificial generativa. El Comisionado de Privacidad de Canadá (OPC) y sus homólogos en Columbia Británica, Quebec y Alberta también tienen una investigación abierta relacionada con un servicio específico de inteligencia artificial generativa. Las autoridades de privacidad de todo el mundo han instado recientemente a las organizaciones a ejercer gran precaución antes de recopilar información personal «accesible públicamente», que aún está sujeta a leyes de protección de datos y privacidad en la mayoría de las jurisdicciones. Esta práctica es común al entrenar sistemas de inteligencia artificial generativa. Las autoridades de privacidad también han estado trabajando con sus homólogos en campos relacionados, como los comisionados de derechos humanos, para pedir fuertes salvaguardias que aseguren que los sistemas de inteligencia artificial sean seguros, protectores de la privacidad, transparentes, responsables y afirmativos de los derechos humanos .

Si bien las herramientas de inteligencia artificial generativa pueden plantear riesgos novedosos para la privacidad y plantear nuevas preguntas e inquietudes sobre la recopilación, uso y divulgación de información personal, no se encuentran fuera de los marcos legislativos actuales. Las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa tienen la obligación de garantizar que sus actividades cumplan con las leyes y regulaciones de privacidad aplicables en Canadá. Las organizaciones también deben reconocer que, para construir y mantener una sociedad digital en la que la innovación sea socialmente beneficiosa y la dignidad humana esté protegida, el desarrollo y uso de la inteligencia artificial deben ser responsables y confiables.

En este documento, se identifican consideraciones para la aplicación de los principios clave de privacidad a las tecnologías de inteligencia artificial generativa. Reconocemos que la inteligencia artificial generativa es un campo emergente y que nuestra comprensión de ella evolucionará con el tiempo. Los comisionados de privacidad federales, provinciales y territoriales de Canadá continuarán explorando este tema complejo y pueden proporcionar orientación u otros recursos a medida que aprendamos más sobre la tecnología y sus riesgos potenciales, incluso a medida que se completen investigaciones formales relacionadas con la tecnología.

Las obligaciones bajo la legislación de privacidad en Canadá variarán según la naturaleza de la organización (si se encuentra en el sector privado, de la salud o público) y las actividades que realice. Como tal, aunque utilizamos «debería» a lo largo de este documento, muchas de las consideraciones enumeradas serán necesarias para que una organización cumpla con la ley de privacidad aplicable. Las organizaciones son responsables de comprender y cumplir con estas leyes. También señalamos que los principios establecidos a continuación no reflejan exhaustivamente todos los requisitos de cumplimiento bajo las leyes de privacidad y otras leyes y no vinculan a investigaciones o fallos específicos llevados a cabo por los comisionados federales, provinciales o territoriales de privacidad de Canadá, según las circunstancias individuales de cada caso.

El documento tiene como objetivo ayudar a las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa a aplicar los principales principios de privacidad canadienses. Para este documento, utilizamos la siguiente terminología:

Desarrolladores y Proveedores: Individuos u organizaciones que desarrollan (incluido el entrenamiento) modelos básicos o sistemas de inteligencia artificial generativa, o que ponen dichos servicios en el mercado. En resumen, aquellas organizaciones que determinan cómo opera un sistema de inteligencia artificial generativa, cómo se entrena y prueba inicialmente, y cómo puede utilizarse.

Organizaciones que utilizan inteligencia artificial generativa: Organizaciones (o individuos que actúan en nombre de una organización) que utilizan un sistema de inteligencia artificial generativa como parte de sus actividades. Esto podría incluir usos dirigidos al público (por ejemplo, un chatbot basado en inteligencia artificial generativa para interactuar con clientes) o uso privado (por ejemplo, el uso de inteligencia artificial generativa como parte de un sistema de toma de decisiones). Las organizaciones que ajustan un modelo básico para un propósito específico (como al entrenarlo aún más en un conjunto de datos propio de la organización) están incluidas en esta categoría.

Una organización puede cambiar entre roles o desempeñar múltiples roles al mismo tiempo. Las actividades realizadas (incluida la recopilación, el uso o la divulgación de información personal) por una organización también variarán dentro de cada grupo. Sin embargo, la división en «desarrolladores y proveedores» y «organizaciones que utilizan inteligencia artificial generativa» es una forma útil de examinar la aplicación de los principios de privacidad a múltiples elementos del ecosistema de inteligencia artificial generativa.

Para mayor claridad, estos principios se centran en la legislación y regulación de privacidad, y cómo pueden aplicarse a las organizaciones. Sin embargo, reconocemos que las personas u organizaciones pueden tener más obligaciones, restricciones o responsabilidades según otras leyes, regulaciones o políticas.