Archivo de la categoría: Tecnologías de la información

La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

CANGURU: directrices éticas y de divulgación para el uso de inteligencia artificial generativa en la investigación académica

Cacciamani, Giovanni, Michael Eppler, Conner Ganjavi, Asli Pekcan, Brett Biedermann, Gary Collins, y Inderbir Gill. «Development of the ChatGPT and generative artificial intelligence natural large language models for accountable reporting and use (cangaru) guidelines», 27 de junio de 2023. https://doi.org/10.17605/OSF.IO/9Y5NW.

Ver guidelines

CANGARU es una iniciativa interdisciplinaria que busca establecer estándares éticos y de divulgación para el uso de inteligencia artificial generativa y modelos de lenguaje natural en la investigación académica. Su objetivo es promover el uso responsable de estas tecnologías mediante la colaboración con instituciones y desarrollar directrices coherentes y universales. Se enfoca en crear criterios para prácticas éticas y transparentes en el ámbito académico.

La iniciativa ChatGPT, Inteligencia Artificial Generativa y Modelos de Lenguaje Natural para el Reporte y Uso Responsable (CANGARU) con el objetivo de establecer un consenso interdisciplinario sobre el uso responsable, divulgación y guía para el reporte del uso de GAI/GPTs/LLM en el ámbito académico. Trabajando colaborativamente con individuos, organizaciones regulatorias académicas y editoriales, se mitigará de manera efectiva la posible confusión o guías conflictivas que podrían surgir cuando varios grupos trabajan independientemente en la misma tarea. A su vez, esto asegurará que cualquier recomendación sea coherente, completa y universalmente aplicable, promoviendo el uso responsable de esta poderosa tecnología.

El objetivo general de las directrices CANGARU es establecer prácticas recomendadas comúnmente compartidas y transdisciplinares para el uso de GAI/GPTs/LLM en el ámbito académico de la siguiente manera:

a. La Lista de Criterios ‘NO HACER’: Será una guía integral que tiene como objetivo asegurar el uso ético y adecuado de GAI/GPTs/LLM en la investigación académica. Cubrirá cada paso del proceso académico, desde (pero no limitado a) la generación de hipótesis de investigación, la conducción del estudio y el análisis de datos (incluida la codificación), la creación de imágenes, la interpretación de hallazgos y la redacción, revisión, refinamiento y edición del manuscrito. Esta lista servirá como un recurso valioso para los investigadores, proporcionando orientación sobre qué evitar a lo largo de las diferentes etapas del proceso de investigación. Al identificar y resaltar posibles obstáculos y preocupaciones éticas, la Lista de Criterios ‘NO HACER’ ayudará a los investigadores a navegar el uso de GAI/GPTs/LLM de manera responsable y con integridad.

b. La Lista de Criterios de Divulgación: Proporcionará orientación para que los investigadores divulguen de manera transparente su uso de GAI/GPTs/LLM en la investigación académica, mejorando la transparencia, la responsabilidad y permitiendo una mejor evaluación de los hallazgos de investigación. Se enfatiza la importancia de qué y cómo divulgar, fomentando la responsabilidad y abordando los posibles riesgos y limitaciones asociados con esta tecnología.

c. La Lista de Criterios de Reporte: Proporcionará una lista de verificación de recomendaciones para garantizar el reporte completo y transparente de GAI/GPTs/LLM cuando se utilicen como intervenciones en estudios científicos. Considerará todos los aspectos importantes que deben reportarse en el manuscrito científico para mejorar la transparencia, mejorar la reproducibilidad, estandarizar las prácticas de reporte, reducir la interpretación errónea, apoyar los procesos de revisión por pares y editoriales, y facilitar la síntesis de investigación y la traducción del conocimiento.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.

Inteligencia Artificial y Brecha Digital ¿Cómo se pueden reducir las disparidades con el conocimiento de las herramientas de IA generativa?

Madeleine I. G. Daepp, Scott Counts (2024). Bridging the Gap: Spatial Disparities in Knowledge of Generative AI Tooling [Documento técnico]. ArXiv. Recuperado de https://arxiv.org/abs/2404.11988

La brecha digital, que representa discrepancias en el acceso y la utilización de herramientas digitales entre diferentes grupos socioeconómicos, plantea desafíos significativos. Con la aparición de herramientas de inteligencia artificial (IA) generativa, que impactan enormemente en la productividad, estas disparidades podrían exacerbarse. Sin embargo, la asequibilidad, versatilidad y capacidades multilingües de estas herramientas también podrían mejorar la accesibilidad en comparación con tecnologías digitales anteriores.

Este estudio examina la distribución geográfica del conocimiento y uso de una nueva herramienta de IA generativa, ChatGPT, entre los residentes de Estados Unidos. Al analizar datos de consultas de búsqueda a nivel estatal y de condado durante los primeros seis meses posteriores al lanzamiento, observamos tasas de búsqueda más altas en estados de la Costa Oeste, en contraste con tasas consistentemente bajas en estados de los Apalaches y del Golfo. Los condados con tasas de búsqueda elevadas tienden a ser más urbanizados y tener proporciones más altas de residentes educados, económicamente favorecidos y asiáticos en comparación con los promedios nacionales.

Al emplear modelos multinivel que consideran factores socioeconómicos, demográficos e industriales, encontramos que la educación es el predictor positivo más significativo de las tasas de búsqueda de herramientas de IA generativa. A pesar de la novedad de la IA generativa, las disparidades tempranas en los patrones de adopción parecen reflejar tendencias familiares de desigualdad digital.

Udio.com permite a los usuarios crear música a partir de simples indicaciones de texto

https://www.udio.com

La IA tiene el potencial de expandir horizontes musicales y permitir que cualquiera pueda crear música extraordinaria. Udio ha surgido como un destacado ejemplo de cómo la IA puede transformar la industria musical. Su capacidad para generar música de alta calidad a partir de simples indicaciones de texto ha sorprendido a músicos de todo el mundo. La plataforma no solo ha ampliado las posibilidades creativas de los artistas, sino que también ha permitido que aquellos sin experiencia musical formal puedan expresarse a través de la música de manera sorprendente.

Ejemplo 1 canción creada con Udio

Ejemplo 2 de canción creada con Udio

Ejemplo 3 canción creada por Udio


La integración de inteligencia artificial en el ámbito musical representa un cambio transformador que trasciende las barreras tradicionales de la creatividad. La IA ofrece una gama de posibilidades ilimitadas al permitir que incluso aquellos sin experiencia musical formal puedan participar activamente en la creación de música. Este potencial disruptivo es lo que impulsa a Udio en su misión de construir herramientas que democratizan el proceso creativo musical.

La plataforma ofrece a los usuarios una plataforma accesible donde pueden convertir simples indicaciones de texto en pistas musicales de calidad profesional. La capacidad de especificar temas, géneros y otros descriptores permite a los usuarios moldear su visión musical sin la necesidad de conocimientos técnicos avanzados. Con solo una melodía, algunas letras o incluso una idea casual, cualquiera puede ahora materializar su expresión artística en forma de música.

Udio basa las canciones que crea en indicaciones de texto, que pueden incluir su género (incluyendo cuarteto de barberos, country, clásica, hip hop, pop alemán y hard rock, entre otros), letras, dirección de la historia y otros artistas en los que basar su sonido. El programa genera dos canciones basadas en las indicaciones y los usuarios pueden «remeclar» (Remix) sus canciones con más indicaciones de texto. Las canciones se generan primero con una duración de 30 segundos y pueden extenderse, pulsando «Extend» a una duración máxima de 90 segundos. Puedes escribir tu la letra, decir que sea en español, que sea instrumental o autogenerada. También te la puede autogenerar diciendo el estilo de un artista determinado o sobre que tema. Las canciones creadas se pueden descargar o compartir por redes sociales.

El equipo creador de esta plataforma está compuesto por líderes en el campo de la inteligencia artificial, respaldadas por la guía y la colaboración de algunos de los músicos más innovadores y creativos de la actualidad. Esta combinación de experiencia técnica y visión artística garantiza que las herramientas desarrolladas por Udio estén en la vanguardia de la innovación musical.

Los críticos de Udio han cuestionado qué datos se utilizaron para entrenarlo y si esos datos consistían en música con derechos de autor. Rolling Stone escribió que había «razones sustanciales para creer» que tanto Udio como Suno AI fueron entrenados con música con derechos de autor, mientras que Benj Edwards de Ars Technica escribió que sus datos de entrenamiento «probablemente estaban llenos de material con derechos de autor». Udio no recrea directamente canciones con derechos de autor si se le solicita.

Regulación de la inteligencia artificial en bibliotecas: desarrollo de políticas y cumplimiento legal

Tanzi, Nick. «AI & the Library: Looking for Rules!» The Digital Librarian, 21 de agosto de 2023. https://the-digital-librarian.com/2023/08/21/ai-the-library-looking-for-rules/.

En la era de la inteligencia artificial, las bibliotecas deben establecer políticas que regulen su uso, considerando tanto las leyes existentes como los términos de servicio de los desarrolladores. Aunque la regulación específica sobre IA es incipiente, las normativas bibliotecarias sobre confidencialidad de registros de usuarios son relevantes. Es esencial garantizar la privacidad de los usuarios y cumplir con la ley al interactuar con sistemas de IA. Además, se destacan eventos y recursos para bibliotecarios interesados en esta área.


En la era de la inteligencia artificial, es crucial que las bibliotecas desarrollen políticas y procedimientos que regulen el uso de esta tecnología en nuestras instituciones. Dos pilares fundamentales al escribir estas políticas son las leyes federales/estatales/locales y los términos de servicio de los fabricantes o desarrolladores. Aunque la regulación legal específica sobre IA aún está en sus primeras etapas en Estados Unidos, existen leyes y regulaciones bibliotecarias que debemos considerar, como las relacionadas con la confidencialidad de los registros de los usuarios. Es esencial garantizar que nuestras interacciones con sistemas de IA no comprometan la privacidad de los usuarios ni contravengan la ley existente.

Al considerar los términos de servicio de una plataforma de IA, es crucial tener en cuenta las restricciones de edad y el consentimiento parental que pueden afectar a los servicios ofrecidos por la biblioteca. Aunque la regulación de la IA puede ser incipiente, hay reglas y regulaciones establecidas en el ámbito bibliotecario que podemos aplicar a esta tecnología emergente. Es importante desarrollar políticas y procedimientos adecuados y luego experimentar de manera segura con la IA en nuestras bibliotecas. Por ejemplo, en Nueva York, la Ley y Reglas de Práctica Civil del Estado de Nueva York (CPLR) 4509 establece que los registros de la biblioteca deben ser confidenciales y no deben divulgarse, excepto en circunstancias específicas.


Es importante tener en cuenta los términos de servicio (ToS) de una plataforma de inteligencia artificial al tomar decisiones en su biblioteca. Por ejemplo, la regulación de la plataforma ChatGPT de OpenAI en relación con la ley estatal existente indica que los usuarios deben tener al menos 13 años para utilizar el servicio, y que aquellos menores de 18 años necesitan el consentimiento de un padre o tutor legal.

Aunque estemos operando en un vacío regulatorio de IA, está claro que existen reglas y regulaciones establecidas en las bibliotecas que podemos aplicar a esta tecnología emergente. Así que salgan y hagan el importante y necesario trabajo de desarrollo de políticas y procedimientos, luego experimenten de manera segura.

Las tendencias tecnológicas en bibliotecas para 2024: Impacto de la Inteligencia Artificial

Tanzi, N. «Library Tech Trends for 2024.» Publicado el 28 de diciembre de 2023. The Digital Librarian. Disponible en: https://the-digital-librarian.com/2023/12/28/library-tech-trends-for-2024/.

Tendencias tecnológicas en 2024 las bibliotecas enfrentarán desafíos financieros al invertir en colecciones digitales y streaming, mientras abordan el uso de inteligencia artificial en la censura y en el lugar de trabajo. También destaca la importancia del entrenamiento del personal y la evaluación de herramientas AI específicas para bibliotecas.

Las tendencias tecnológicas en bibliotecas para 2024 están profundamente influenciadas por la inteligencia artificial (IA) y nuestra reacción ante ella.

Perspectivas para las Colecciones Digitales de Bibliotecas

Restricciones Financieras: Las bibliotecas continuarán invirtiendo considerablemente en sus colecciones de libros electrónicos, audiolibros, películas/música en streaming, revistas electrónicas y otros contenidos digitales en 2024. Sin embargo, los aumentos en los costos de los libros electrónicos, la postura cada vez más hostil de los principales editores hacia el préstamo bibliotecario y la incertidumbre legislativa podrían llevar a soluciones insatisfactorias, como limitar el uso de los usuarios, enfocarse en títulos populares o emplear modelos de préstamo más rentables.

Oportunidades de Streaming: Se observa un aumento en la inversión de las bibliotecas en servicios de streaming de video, como Hoopla y Kanopy. Aunque estas opciones bibliotecarias a menudo luchan por igualar la cantidad y calidad de títulos ofrecidos por plataformas comerciales, recientes aumentos de precios y la introducción de anuncios podrían renovar el interés en las opciones gratuitas y sin publicidad.

Censura impulsada por IA: Existe el potencial de que la IA se utilice como herramienta de censura. Algunas organizaciones, como el Distrito Escolar Comunitario de Mason City en Iowa, ya están utilizando ChatGPT para determinar qué libros entran en conflicto con una nueva ley estatal y deben ser retirados.

IA y el Lugar de Trabajo de la Biblioteca

Política y Procedimiento de IA: Las bibliotecas crearán sus propias pautas y límites organizativos para definir el uso apropiado de la IA, guiadas por la ética profesional, mientras esperan un marco legal para la IA. Es importante llenar el vacío informativo para el personal, lo que a su vez ayudará a proteger a los usuarios.

Entorno de Trabajo Infundido con IA: Se espera una integración creciente de la IA en plataformas de colaboración en la nube utilizadas en el espacio de trabajo de la biblioteca, como Office 365, Google Workspace y Canva para Equipos.

Capacitación del Personal: Es fundamental invertir en la capacitación del personal en el uso de herramientas de búsqueda conversacional, generadores de imágenes a partir de texto y modelos de lenguaje de gran tamaño.

Evaluación de Herramientas de IA Específicas para Bibliotecas: Se anticipa que los vendedores de bibliotecas, así como nuevas empresas, ofrecerán herramientas potenciadas por IA, como bases de datos infundidas con IA y chatbots de bibliotecas. Tener políticas, procedimientos y personal capacitado permitirá evaluar estas herramientas con confianza.

Tendencias en Programación Bibliotecaria

IA y Programación Virtual: La IA tiene un gran potencial para romper barreras lingüísticas y mejorar la accesibilidad. La mejora en la subtitulación de programación en vivo y grabada, así como el desarrollo de un traductor universal de video por parte de Google, son ejemplos de cómo la IA puede mejorar las ofertas virtuales de la biblioteca.

Programas de Desmitificación de IA: A medida que las bibliotecas capacitan a su personal en IA, ese conocimiento se trasladará hacia afuera, donde hay un fuerte interés de los usuarios. Se pueden ofrecer primers sobre IA en general, ética de IA, privacidad y demostraciones prácticas de generadores de imágenes a partir de texto y chatbots.

Realidad Aumentada y Virtual en la Era de la IA: La adopción de la RA y RV en las bibliotecas ha avanzado de manera intermitente. Se espera que la IA infunda nueva vida en estas tecnologías al combinar generadores de imágenes a partir de texto, procesamiento de lenguaje natural de asistentes virtuales y tecnología portátil.

Algunas cosas a considerar al decidir si comenzar a construir con «IA» en bibliotecas y archivos.

«Some things to consider when deciding whether to start building with “AI” in libraries and archives.» Inkdroid. Accedido 16 de abril de 2024. https://inkdroid.org/2024/03/12/ai/.

Se destacan cinco áreas de preocupación: sesgo, propiedad intelectual, verificabilidad, impacto en el trabajo humano y sostenibilidad. Señala que los modelos de aprendizaje automático (ML) se construyen con datos, lo que puede perpetuar sesgos y problemas de privacidad. Además, plantea inquietudes sobre la propiedad intelectual y el impacto ambiental de la IA, especialmente en términos de consumo energético y seguridad cibernética.

En un panel de trabajo sobre inteligencia artificial (IA), el autor reflexiona sobre sus experiencias y preocupaciones en relación con el uso de IA en bibliotecas y archivos. Aunque ha trabajado con modelos de IA y herramientas como Hugging Face y Google, estas experiencias solo han reforzado sus preocupaciones sobre la aplicación de estas tecnologías en el sector del patrimonio cultural.

Para abordar estas preocupaciones, el autor sugiere tácticas como evaluar la transparencia en el entrenamiento de modelos de IA, considerar qué contenido compartir con herramientas de IA generativas y priorizar la participación de los trabajadores afectados en la implementación de IA en el trabajo. También insta a las bibliotecas y archivos a buscar formas de reducir el consumo energético y a mejorar la seguridad y la privacidad en el uso de IA.

Sesgo

Los modelos de ML se construyen utilizando datos. Los avances recientes en Aprendizaje Profundo han sido en gran medida el resultado de aplicar algoritmos de décadas pasadas a cantidades cada vez mayores de datos recopilados de la web. Los datos utilizados para entrenar estos modelos son significativos porque los modelos necesariamente reflejan los datos que se utilizaron para crearlos. Desafortunadamente, las corporaciones son cada vez más reservadas sobre los datos que se han utilizado para entrenar estos modelos

Algunos conjuntos de datos comúnmente utilizados como CommonCrawl representan colecciones significativamente grandes de datos web, pero la web es un lugar grande, y se han tomado decisiones sobre qué sitios web se recopilaron. CommonCrawl no es representativo de la web en su totalidad. Además, los LLM codifican sesgos que están presentes en la sociedad actual. Usar y depender ciegamente de LLMs corre el riesgo de afianzar aún más estos sesgos y participar en el racismo sistémico.

A medida que los LLMs se utilizan para generar cada vez más contenido web, también existe el riesgo de que estos datos se recopilen nuevamente y se utilicen para entrenar modelos futuros. Este proceso se ha llamado Colapso del Modelo y se ha demostrado que conduce a un proceso de olvido. OpenAI lanzó una herramienta para identificar contenido generado con un LLM y tuvo que cerrarla 6 meses después porque no funcionaba, y no está claro siquiera si se puede hacer con fiabilidad. ¿Qué significaría entrenar solo estos modelos con datos anteriores a 2023.

Propiedad Intelectual

Dado que los LLMs se han construido con datos recopilados de la web, esto incluye muchos tipos de contenido, desde conjuntos de datos con licencia abierta diseñados para ser compartidos, hasta libros con derechos de autor como los encontrados en los conjuntos de datos de libros, que se rumorea que se han ensamblado a partir de bibliotecas en la sombra como Library Genesis y SciHub. En el último año, hemos visto varios juicios, incluido uno del Gremio de Autores que desafía el uso de materiales con derechos de autor por parte de OpenAI en la construcción de sus modelos GPT.

En cierto modo, este tipo de demandas no son nuevas en la web. Napster fue demandado por la Recording Industry Association of American; Google Books fue demandado por la Authors Guild a mediados de la década de 2000; Internet Archive ha sido demandado recientemente por su plataforma Open Library. Pero lo que hace que las LLM sean un poco diferentes es la forma en que transforman el contenido que han recopilado, en lugar de ponerlo a disposición del público textualmente. La Oficina de Derechos de Autor de EE.UU. publicó el año pasado un aviso de investigación para recabar información sobre el uso de materiales protegidos por derechos de autor en herramientas de IA.

New York Times también ha interpuesto una demanda porque OpenAI utilizó millones de sus noticias publicadas abiertamente para entrenar sus modelos sin licencia. OpenAI está intentando negociar contratos de licencia a posteriori con muchas grandes empresas.

El funcionamiento de los LLM representa un gran cambio en la evolución del ecosistema web. Los motores de búsqueda como Google rastrean las páginas web para indexarlas y ofrecen a los usuarios resultados de búsqueda que enlazan con el sitio web original. Del mismo modo, las plataformas de redes sociales han proporcionado un lugar para debatir contenidos web compartiendo enlaces a los mismos, lo que lleva a otros usuarios al editor web.

En el paradigma LLM, los usuarios nunca abandonan la interfaz ChatGPT y el editor original queda completamente al margen del círculo virtuoso. Los LLM están recopilando los bienes comunes de la web y amenazan con ahogar las mismas fuentes de contenido que utilizaban. Los editores perderán la posibilidad de saber cómo se utilizan sus contenidos.

Verificabilidad

Una de las razones por las que ChatGPT no enlaza a sitios web como citas es que no sabe a qué enlazar. En los LLM, la red neuronal no registra información sobre la procedencia de un dato concreto. A medida que los LLM se integran en herramientas de búsqueda más tradicionales, el reto consiste en conseguir que el texto generado sea verificable, en el sentido de que los resultados incluyan citas en línea, que deberían respaldar la afirmación en la que se utilizan.

La verificabilidad es importante para entender cuándo el contenido generado no se ajusta al mundo, lo que se denomina una «alucinación». También es importante para explicar por qué el modelo generó la respuesta que generó, cuando se intenta depurar por qué alguna interacción salió mal. La explicabilidad es un área de investigación activa en la comunidad de ML/AI, y no está claro que, dado el tamaño del modelo y el tamaño de los datos de entrenamiento, se pueda hacer que los modelos sean explicables, porque a un nivel fundamental no entendemos por qué funcionan. Se ha demostrado que las aplicaciones de IA generativa que incluyen citas no son fiables y proporcionan una falsa sensación de seguridad.

La falta de explicabilidad de los LLM plantea verdaderos problemas a las bibliotecas y archivos, cuya razón de ser es proporcionar a los usuarios documentos, ya sean libros, mapas, fotografías, grabaciones sonoras, películas, cartas, etc. Describimos estos documentos y los conservamos para facilitar el acceso a ellos, de modo que los usuarios puedan deducir su significado. Si utilizamos un LLM para generar una respuesta a una consulta o petición, y no podemos respaldar la respuesta con citas de estos documentos, esto supone un problema. Por ello, los profesionales de bibliotecas y archivos tienen un papel que desempeñar en la evaluación de cómo las herramientas de IA citan documentos como prueba.

Empleo

Parte de la propuesta de valor detrás de herramientas recientes de IA como Copilot de GitHub, ChatGPT o DALL-E es que democratizan el acceso a alguna habilidad, ya sea escribir código, ser autor de noticias o crear ilustraciones. Pero, ¿es democrático socavar sistemáticamente a los trabajadores creativos, robándoles su contenido sin haberles pedido utilizarlo en primer lugar?

Cuando se toma la decisión de utilizar estas herramientas, se está sustituyendo potencialmente la habilidad de una persona por un servicio. Además, estás atando tu propia organización a los caprichos de una corporación a la que nada le gustaría más que te desprendieras de la experiencia de tu organización y te hicieras completamente dependiente de su servicio. Es una trampa.

Si el pasado sirve de guía, también podemos esperar que los empleos creativos cualificados sean sustituidos por trabajos peor pagados que impliquen la limpieza mundana de los desaguisados que ha provocado la automatización. O en palabras del guionista C. Robert Cargill : «El miedo inmediato a la IA no es que los guionistas veamos nuestro trabajo sustituido por contenidos generados artificialmente. Es que nos paguen mal por reescribir esa basura en algo que podríamos haber hecho mejor desde el principio. Esto es a lo que se opone el WGA y lo que quieren los estudios.»

Los LLM como ChatGPT se construyen utilizando una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). Lo importante aquí es la retroalimentación humana. ¿Quién proporciona esta información? ¿Son usuarios del sistema? ¿Qué tipos de sesgos sistemáticos introduce esta formación? ¿Se trata de «trabajadores fantasma» mal pagados?

Sostenibilidad

Probablemente, el aspecto más preocupante de la última oleada de tecnologías de IA es su impacto medioambiental. Los recientes avances en LLM no se han conseguido gracias a una mejor comprensión del funcionamiento de las redes neuronales, sino utilizando algoritmos ya existentes con cantidades ingentes de datos y recursos informáticos. Este entrenamiento puede llevar meses y debe repetirse para mantener los modelos actualizados.

Al parecer, el entrenamiento inicial de GPT-4 requirió 100 millones de dólares. El entrenamiento se basa en unidades de procesamiento gráfico (GPU), que son más rápidas que las CPU para los tipos de cálculo que exigen los LLM, pero requieren hasta cuatro veces más energía para funcionar. Los centros de datos necesitan agua para refrigerarse, a veces en entornos donde escasea. Esto no es sólo un problema para el entrenamiento de los modelos, es un problema mayor para su consulta, que se ha estimado entre 60 y 100 veces más en términos de utilización de energía. Otro problema que acecha aquí es la falta de datos de los centros de datos que proporcionen transparencia sobre lo que está ocurriendo.

¿Es esta realmente la dirección correcta en la que debemos dirigirnos cuando intentamos reducir los costes energéticos a nivel mundial para limitar el calentamiento global?

La industria tecnológica está incentivada para intentar que las infraestructuras de IA sean más eficientes. Pero es probable que se mantenga la paradoja de Jevons: el progreso tecnológico aumenta la eficiencia con la que se utiliza un recurso, pero la caída del coste de uso induce un aumento de la demanda suficiente como para que se incremente el uso del recurso.

Seguridad y privacidad

La IA generativa es una tecnología de doble uso. A los expertos les preocupa cada vez más que se utilice para crear desinformación, así como interacciones falsas en línea. Hemos tenido casos judiciales en los que los escritos presentados por abogados contenían citas de casos que no existían. Las robo-llamadas de voz generadas por IA han sido declaradas ilegales por el uso de herramientas de IA para suplantar la voz de Biden. Los malos actores pueden manipular imágenes y vídeos para dirigirse a grupos específicos porque las herramientas son más potentes y accesibles. Hay formas posibles de mitigar esto utilizando fuentes de información fiables y formas demostrables de compartir la procedencia de los medios.

Dado que los mecanismos de generación de contenidos de los LLM son inexplicables, son susceptibles de sufrir ataques como el que Simon Willison denomina «prompt injection«. En este caso, se crea un mensaje para subvertir el diseño original del sistema y generar la respuesta deseada. Esto tiene serias ramificaciones para el uso de la tecnología LLM como pegamento entre otros sistemas automatizados. De hecho, esto fue demostrado recientemente por investigadores que utilizaron las API de OpenAI y Google para ejecutar código arbitrario y filtrar información personal.

IA generativa y derechos humanos

Walsh, D. «Where Generative AI Meets Human Rights», 3 de abril de 2024. https://hai.stanford.edu/news/where-generative-ai-meets-human-rights.


En el debate sobre el cruce entre la inteligencia artificial generativa y los derechos humanos, expertos de diversas áreas han abordado las implicaciones únicas de esta tecnología y cómo canalizar su potencial para beneficiar a la humanidad. Se destacan preocupaciones sobre la opacidad y el potencial uso indebido de la IA generativa, así como la necesidad de una regulación inclusiva y transparente.

Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022, la inteligencia artificial generativa ha adquirido un papel central en la esfera pública y privada en menos de 18 meses. Esta tecnología ha sido objeto de discusión entre responsables políticos, economistas, científicos sociales, padres, maestros e inversores, y se ha destacado en eventos como «Human Rights Dimensions of Generative AI,», organizado por el Centro de Derechos Humanos y Justicia Internacional.

El Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Volker Türk, ha señalado los impactos sin precedentes de la inteligencia artificial avanzada, incluida la generativa, en los derechos humanos. Se destaca la necesidad de colocar a las personas en el centro de la tecnología para garantizar que los beneficios de la inteligencia artificial lleguen a todos. La discusión contó con la participación de expertos como Eileen Donahoe del Departamento de Estado de EE. UU., Alex Walden de Google, Peggy Hicks de la Oficina de Derechos Humanos de la ONU, Nate Persily de la Facultad de Derecho de Stanford y Raffi Krikorian de Emerson Collective.

La inteligencia artificial plantea desafíos únicos, como ser una tecnología fundamental que afecta a todas las demás, siendo más opaca y menos predecible. A pesar de su potencial para democratizar el acceso, la disponibilidad de algoritmos de código abierto ha generado preocupaciones sobre su uso indebido, como en el caso de la proliferación de pornografía infantil generada por IA.

Los panelistas expresaron preocupaciones sobre la capacidad de la sociedad y los responsables políticos para mantenerse al día con el rápido avance de la tecnología, así como sobre la regulación insuficiente en áreas donde es más probable que ocurran violaciones de derechos humanos. También se destacó el riesgo de que la desinformación generada por IA socave la confianza en la información verídica.

La regulación efectiva de la inteligencia artificial generativa debe incorporar consideraciones de derechos humanos y fomentar la transparencia en estas herramientas. Además, se enfatiza la importancia de la participación inclusiva en la elaboración de políticas y la necesidad de abordar los desafíos con matices en lugar de una visión polarizada.

A pesar de los desafíos planteados, los expertos mantienen una actitud optimista pero cautelosa sobre el futuro de la inteligencia artificial generativa y su impacto en los derechos humanos. Sin embargo, subrayan la necesidad de abordar los problemas actuales de la sociedad, como las divisiones sociales, para garantizar un desarrollo tecnológico que beneficie a todos.

Oscar es una innovadora aplicación de cuentos para niños que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras.

Oscar AI Kids Stories

https://oscarstories.com

Apple

Android

Oscar es una innovadora aplicación de cuentos para niños, desarrollada en Viena, que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras. Esta aplicación permite que los niños sean los protagonistas de sus propias aventuras, llevándolos a lugares como el espacio profundo, un castillo medieval o el fondo del mar, convirtiendo así sus sueños en historias personalizadas.


Los fundadores Dima Rubanov y Matthias Neumayer, dos emprendedores de Viena, crearon Oscar, una aplicación de cuentos inspirada en el ahijado de uno de ellos. La constante demanda de historias protagonizadas por Oscar y sus amigos impulsó la creación de esta aplicación, que ofrece una fuente inagotable de cuentos antes de dormir para padres e hijos.

Lo que distingue a Oscar es su capacidad para generar historias originales gracias a un algoritmo basado en ChatGPT, asegurando así una experiencia única en cada lectura y eliminando el contenido repetitivo. Además, las historias pueden adaptarse a la edad, intereses y nivel de lectura de cada niño, ofreciendo una experiencia más personalizada. Cada historia está acompañada de ilustraciones vibrantes que enriquecen la experiencia de lectura.

Oscar también se preocupa por la seguridad y la educación de los niños, por lo que todas las historias son cuidadosamente seleccionadas para incluir valiosas lecciones de vida, como honestidad, bondad, valentía y empatía.

La aplicación ofrece una versión de prueba gratuita y, si el usuario queda satisfecho, puede adquirir nuevas historias individualmente. Además, Oscar ofrece la posibilidad de convertir estas historias personalizadas en audiolibros, con voces calmantes que ayudan a conciliar el sueño.

Aunque la aplicación ofrece muchas ventajas, una característica que se echa en falta es la posibilidad de descargar las historias y convertirlas en libros físicos, lo que permitiría a familiares y amigos regalarlas como obsequios. En resumen, AI Kids Stories con su aplicación Oscar ofrece una experiencia única y enriquecedora para los niños, convirtiendo el momento de dormir en el momento más especial del día.