Archivo de la etiqueta: Inteligencia artificial

Regulación de la inteligencia artificial en bibliotecas: desarrollo de políticas y cumplimiento legal

Tanzi, Nick. «AI & the Library: Looking for Rules!» The Digital Librarian, 21 de agosto de 2023. https://the-digital-librarian.com/2023/08/21/ai-the-library-looking-for-rules/.

En la era de la inteligencia artificial, las bibliotecas deben establecer políticas que regulen su uso, considerando tanto las leyes existentes como los términos de servicio de los desarrolladores. Aunque la regulación específica sobre IA es incipiente, las normativas bibliotecarias sobre confidencialidad de registros de usuarios son relevantes. Es esencial garantizar la privacidad de los usuarios y cumplir con la ley al interactuar con sistemas de IA. Además, se destacan eventos y recursos para bibliotecarios interesados en esta área.


En la era de la inteligencia artificial, es crucial que las bibliotecas desarrollen políticas y procedimientos que regulen el uso de esta tecnología en nuestras instituciones. Dos pilares fundamentales al escribir estas políticas son las leyes federales/estatales/locales y los términos de servicio de los fabricantes o desarrolladores. Aunque la regulación legal específica sobre IA aún está en sus primeras etapas en Estados Unidos, existen leyes y regulaciones bibliotecarias que debemos considerar, como las relacionadas con la confidencialidad de los registros de los usuarios. Es esencial garantizar que nuestras interacciones con sistemas de IA no comprometan la privacidad de los usuarios ni contravengan la ley existente.

Al considerar los términos de servicio de una plataforma de IA, es crucial tener en cuenta las restricciones de edad y el consentimiento parental que pueden afectar a los servicios ofrecidos por la biblioteca. Aunque la regulación de la IA puede ser incipiente, hay reglas y regulaciones establecidas en el ámbito bibliotecario que podemos aplicar a esta tecnología emergente. Es importante desarrollar políticas y procedimientos adecuados y luego experimentar de manera segura con la IA en nuestras bibliotecas. Por ejemplo, en Nueva York, la Ley y Reglas de Práctica Civil del Estado de Nueva York (CPLR) 4509 establece que los registros de la biblioteca deben ser confidenciales y no deben divulgarse, excepto en circunstancias específicas.


Es importante tener en cuenta los términos de servicio (ToS) de una plataforma de inteligencia artificial al tomar decisiones en su biblioteca. Por ejemplo, la regulación de la plataforma ChatGPT de OpenAI en relación con la ley estatal existente indica que los usuarios deben tener al menos 13 años para utilizar el servicio, y que aquellos menores de 18 años necesitan el consentimiento de un padre o tutor legal.

Aunque estemos operando en un vacío regulatorio de IA, está claro que existen reglas y regulaciones establecidas en las bibliotecas que podemos aplicar a esta tecnología emergente. Así que salgan y hagan el importante y necesario trabajo de desarrollo de políticas y procedimientos, luego experimenten de manera segura.

Un distrito escolar de Iowa utilizó inteligencia artificial para determinar qué libros prohibir en las bibliotecas escolares

Sarah Kuta. «Why This School District Used A.I. to Help Determine Which Books to Ban». Smithsonian Magazine. Accedido 16 de abril de 2024. https://www.smithsonianmag.com/smart-news/why-this-school-district-used-ai-to-help-remove-library-books-180982762/.


El distrito escolar optó por emplear ChatGPT, un chatbot impulsado por inteligencia artificial, para discernir qué libros eliminar de sus bibliotecas. El procedimiento implicó inicialmente la creación de una lista de libros frecuentemente cuestionados, seguido por la consulta a ChatGPT sobre la presencia de descripciones o representaciones de actividades sexuales en dichas obras.

El Distrito Escolar de la Comunidad de Mason City de Iowa utilizó inteligencia artificial para determinar qué libros prohibir en las bibliotecas escolares, en respuesta a nuevas leyes estatales que prohíben libros que no son «apropiados para la edad».

La legislación estatal requiere que las escuelas ofrezcan libros «apropiados para la edad» que no incluyan «descripciones o representaciones visuales de un acto sexual». Ante estas restricciones, los educadores se encontraron con dificultades para cumplir con la normativa, ya que no recibieron orientación clara del estado y el Departamento de Educación de Iowa no tiene planes de ofrecer claridad adicional.

El distrito optó por utilizar ChatGPT, un chatbot alimentado por inteligencia artificial, para determinar qué libros eliminar. Hasta el momento, el distrito ha retirado 19 libros con la ayuda de la IA, incluyendo títulos como «El cuento de la criada» de Margaret Atwood, «Amada» de Toni Morrison y «Viernes de fútbol» de Buzz Bissinger.

El proceso implicó compilar una lista de libros comúnmente cuestionados y luego preguntar a ChatGPT si contenían descripciones o representaciones de actos sexuales. Sin embargo, se informa que los resultados de la IA no fueron consistentes cuando Popular Science repitió el proceso, lo que sugiere que el chatbot podría no ser la herramienta más precisa para el trabajo.

A pesar de las limitaciones de la IA, los líderes del distrito argumentan que era la mejor manera de cumplir con la ley dadas las limitaciones de tiempo y recursos disponibles. Aunque la determinación de la «apropiación para la edad» seguirá siendo responsabilidad de los educadores humanos.

El distrito también destacó que, en sus registros, no han encontrado desafíos formales a libros por parte de padres en los últimos 20 años, lo que sugiere confianza en la selección de materiales proporcionados por la escuela.

Finalmente, se señala que otros distritos escolares de Iowa están retirando más libros que el Distrito de Mason City, posiblemente debido a interpretaciones más amplias de la legislación. Sin embargo, el distrito se enfoca únicamente en cumplir con la regulación específica relacionada con contenido sexual, dejando otros libros fuera del alcance de la prohibición.

Las tendencias tecnológicas en bibliotecas para 2024: Impacto de la Inteligencia Artificial

Tanzi, N. «Library Tech Trends for 2024.» Publicado el 28 de diciembre de 2023. The Digital Librarian. Disponible en: https://the-digital-librarian.com/2023/12/28/library-tech-trends-for-2024/.

Tendencias tecnológicas en 2024 las bibliotecas enfrentarán desafíos financieros al invertir en colecciones digitales y streaming, mientras abordan el uso de inteligencia artificial en la censura y en el lugar de trabajo. También destaca la importancia del entrenamiento del personal y la evaluación de herramientas AI específicas para bibliotecas.

Las tendencias tecnológicas en bibliotecas para 2024 están profundamente influenciadas por la inteligencia artificial (IA) y nuestra reacción ante ella.

Perspectivas para las Colecciones Digitales de Bibliotecas

Restricciones Financieras: Las bibliotecas continuarán invirtiendo considerablemente en sus colecciones de libros electrónicos, audiolibros, películas/música en streaming, revistas electrónicas y otros contenidos digitales en 2024. Sin embargo, los aumentos en los costos de los libros electrónicos, la postura cada vez más hostil de los principales editores hacia el préstamo bibliotecario y la incertidumbre legislativa podrían llevar a soluciones insatisfactorias, como limitar el uso de los usuarios, enfocarse en títulos populares o emplear modelos de préstamo más rentables.

Oportunidades de Streaming: Se observa un aumento en la inversión de las bibliotecas en servicios de streaming de video, como Hoopla y Kanopy. Aunque estas opciones bibliotecarias a menudo luchan por igualar la cantidad y calidad de títulos ofrecidos por plataformas comerciales, recientes aumentos de precios y la introducción de anuncios podrían renovar el interés en las opciones gratuitas y sin publicidad.

Censura impulsada por IA: Existe el potencial de que la IA se utilice como herramienta de censura. Algunas organizaciones, como el Distrito Escolar Comunitario de Mason City en Iowa, ya están utilizando ChatGPT para determinar qué libros entran en conflicto con una nueva ley estatal y deben ser retirados.

IA y el Lugar de Trabajo de la Biblioteca

Política y Procedimiento de IA: Las bibliotecas crearán sus propias pautas y límites organizativos para definir el uso apropiado de la IA, guiadas por la ética profesional, mientras esperan un marco legal para la IA. Es importante llenar el vacío informativo para el personal, lo que a su vez ayudará a proteger a los usuarios.

Entorno de Trabajo Infundido con IA: Se espera una integración creciente de la IA en plataformas de colaboración en la nube utilizadas en el espacio de trabajo de la biblioteca, como Office 365, Google Workspace y Canva para Equipos.

Capacitación del Personal: Es fundamental invertir en la capacitación del personal en el uso de herramientas de búsqueda conversacional, generadores de imágenes a partir de texto y modelos de lenguaje de gran tamaño.

Evaluación de Herramientas de IA Específicas para Bibliotecas: Se anticipa que los vendedores de bibliotecas, así como nuevas empresas, ofrecerán herramientas potenciadas por IA, como bases de datos infundidas con IA y chatbots de bibliotecas. Tener políticas, procedimientos y personal capacitado permitirá evaluar estas herramientas con confianza.

Tendencias en Programación Bibliotecaria

IA y Programación Virtual: La IA tiene un gran potencial para romper barreras lingüísticas y mejorar la accesibilidad. La mejora en la subtitulación de programación en vivo y grabada, así como el desarrollo de un traductor universal de video por parte de Google, son ejemplos de cómo la IA puede mejorar las ofertas virtuales de la biblioteca.

Programas de Desmitificación de IA: A medida que las bibliotecas capacitan a su personal en IA, ese conocimiento se trasladará hacia afuera, donde hay un fuerte interés de los usuarios. Se pueden ofrecer primers sobre IA en general, ética de IA, privacidad y demostraciones prácticas de generadores de imágenes a partir de texto y chatbots.

Realidad Aumentada y Virtual en la Era de la IA: La adopción de la RA y RV en las bibliotecas ha avanzado de manera intermitente. Se espera que la IA infunda nueva vida en estas tecnologías al combinar generadores de imágenes a partir de texto, procesamiento de lenguaje natural de asistentes virtuales y tecnología portátil.

Algunas cosas a considerar al decidir si comenzar a construir con «IA» en bibliotecas y archivos.

«Some things to consider when deciding whether to start building with “AI” in libraries and archives.» Inkdroid. Accedido 16 de abril de 2024. https://inkdroid.org/2024/03/12/ai/.

Se destacan cinco áreas de preocupación: sesgo, propiedad intelectual, verificabilidad, impacto en el trabajo humano y sostenibilidad. Señala que los modelos de aprendizaje automático (ML) se construyen con datos, lo que puede perpetuar sesgos y problemas de privacidad. Además, plantea inquietudes sobre la propiedad intelectual y el impacto ambiental de la IA, especialmente en términos de consumo energético y seguridad cibernética.

En un panel de trabajo sobre inteligencia artificial (IA), el autor reflexiona sobre sus experiencias y preocupaciones en relación con el uso de IA en bibliotecas y archivos. Aunque ha trabajado con modelos de IA y herramientas como Hugging Face y Google, estas experiencias solo han reforzado sus preocupaciones sobre la aplicación de estas tecnologías en el sector del patrimonio cultural.

Para abordar estas preocupaciones, el autor sugiere tácticas como evaluar la transparencia en el entrenamiento de modelos de IA, considerar qué contenido compartir con herramientas de IA generativas y priorizar la participación de los trabajadores afectados en la implementación de IA en el trabajo. También insta a las bibliotecas y archivos a buscar formas de reducir el consumo energético y a mejorar la seguridad y la privacidad en el uso de IA.

Sesgo

Los modelos de ML se construyen utilizando datos. Los avances recientes en Aprendizaje Profundo han sido en gran medida el resultado de aplicar algoritmos de décadas pasadas a cantidades cada vez mayores de datos recopilados de la web. Los datos utilizados para entrenar estos modelos son significativos porque los modelos necesariamente reflejan los datos que se utilizaron para crearlos. Desafortunadamente, las corporaciones son cada vez más reservadas sobre los datos que se han utilizado para entrenar estos modelos

Algunos conjuntos de datos comúnmente utilizados como CommonCrawl representan colecciones significativamente grandes de datos web, pero la web es un lugar grande, y se han tomado decisiones sobre qué sitios web se recopilaron. CommonCrawl no es representativo de la web en su totalidad. Además, los LLM codifican sesgos que están presentes en la sociedad actual. Usar y depender ciegamente de LLMs corre el riesgo de afianzar aún más estos sesgos y participar en el racismo sistémico.

A medida que los LLMs se utilizan para generar cada vez más contenido web, también existe el riesgo de que estos datos se recopilen nuevamente y se utilicen para entrenar modelos futuros. Este proceso se ha llamado Colapso del Modelo y se ha demostrado que conduce a un proceso de olvido. OpenAI lanzó una herramienta para identificar contenido generado con un LLM y tuvo que cerrarla 6 meses después porque no funcionaba, y no está claro siquiera si se puede hacer con fiabilidad. ¿Qué significaría entrenar solo estos modelos con datos anteriores a 2023.

Propiedad Intelectual

Dado que los LLMs se han construido con datos recopilados de la web, esto incluye muchos tipos de contenido, desde conjuntos de datos con licencia abierta diseñados para ser compartidos, hasta libros con derechos de autor como los encontrados en los conjuntos de datos de libros, que se rumorea que se han ensamblado a partir de bibliotecas en la sombra como Library Genesis y SciHub. En el último año, hemos visto varios juicios, incluido uno del Gremio de Autores que desafía el uso de materiales con derechos de autor por parte de OpenAI en la construcción de sus modelos GPT.

En cierto modo, este tipo de demandas no son nuevas en la web. Napster fue demandado por la Recording Industry Association of American; Google Books fue demandado por la Authors Guild a mediados de la década de 2000; Internet Archive ha sido demandado recientemente por su plataforma Open Library. Pero lo que hace que las LLM sean un poco diferentes es la forma en que transforman el contenido que han recopilado, en lugar de ponerlo a disposición del público textualmente. La Oficina de Derechos de Autor de EE.UU. publicó el año pasado un aviso de investigación para recabar información sobre el uso de materiales protegidos por derechos de autor en herramientas de IA.

New York Times también ha interpuesto una demanda porque OpenAI utilizó millones de sus noticias publicadas abiertamente para entrenar sus modelos sin licencia. OpenAI está intentando negociar contratos de licencia a posteriori con muchas grandes empresas.

El funcionamiento de los LLM representa un gran cambio en la evolución del ecosistema web. Los motores de búsqueda como Google rastrean las páginas web para indexarlas y ofrecen a los usuarios resultados de búsqueda que enlazan con el sitio web original. Del mismo modo, las plataformas de redes sociales han proporcionado un lugar para debatir contenidos web compartiendo enlaces a los mismos, lo que lleva a otros usuarios al editor web.

En el paradigma LLM, los usuarios nunca abandonan la interfaz ChatGPT y el editor original queda completamente al margen del círculo virtuoso. Los LLM están recopilando los bienes comunes de la web y amenazan con ahogar las mismas fuentes de contenido que utilizaban. Los editores perderán la posibilidad de saber cómo se utilizan sus contenidos.

Verificabilidad

Una de las razones por las que ChatGPT no enlaza a sitios web como citas es que no sabe a qué enlazar. En los LLM, la red neuronal no registra información sobre la procedencia de un dato concreto. A medida que los LLM se integran en herramientas de búsqueda más tradicionales, el reto consiste en conseguir que el texto generado sea verificable, en el sentido de que los resultados incluyan citas en línea, que deberían respaldar la afirmación en la que se utilizan.

La verificabilidad es importante para entender cuándo el contenido generado no se ajusta al mundo, lo que se denomina una «alucinación». También es importante para explicar por qué el modelo generó la respuesta que generó, cuando se intenta depurar por qué alguna interacción salió mal. La explicabilidad es un área de investigación activa en la comunidad de ML/AI, y no está claro que, dado el tamaño del modelo y el tamaño de los datos de entrenamiento, se pueda hacer que los modelos sean explicables, porque a un nivel fundamental no entendemos por qué funcionan. Se ha demostrado que las aplicaciones de IA generativa que incluyen citas no son fiables y proporcionan una falsa sensación de seguridad.

La falta de explicabilidad de los LLM plantea verdaderos problemas a las bibliotecas y archivos, cuya razón de ser es proporcionar a los usuarios documentos, ya sean libros, mapas, fotografías, grabaciones sonoras, películas, cartas, etc. Describimos estos documentos y los conservamos para facilitar el acceso a ellos, de modo que los usuarios puedan deducir su significado. Si utilizamos un LLM para generar una respuesta a una consulta o petición, y no podemos respaldar la respuesta con citas de estos documentos, esto supone un problema. Por ello, los profesionales de bibliotecas y archivos tienen un papel que desempeñar en la evaluación de cómo las herramientas de IA citan documentos como prueba.

Empleo

Parte de la propuesta de valor detrás de herramientas recientes de IA como Copilot de GitHub, ChatGPT o DALL-E es que democratizan el acceso a alguna habilidad, ya sea escribir código, ser autor de noticias o crear ilustraciones. Pero, ¿es democrático socavar sistemáticamente a los trabajadores creativos, robándoles su contenido sin haberles pedido utilizarlo en primer lugar?

Cuando se toma la decisión de utilizar estas herramientas, se está sustituyendo potencialmente la habilidad de una persona por un servicio. Además, estás atando tu propia organización a los caprichos de una corporación a la que nada le gustaría más que te desprendieras de la experiencia de tu organización y te hicieras completamente dependiente de su servicio. Es una trampa.

Si el pasado sirve de guía, también podemos esperar que los empleos creativos cualificados sean sustituidos por trabajos peor pagados que impliquen la limpieza mundana de los desaguisados que ha provocado la automatización. O en palabras del guionista C. Robert Cargill : «El miedo inmediato a la IA no es que los guionistas veamos nuestro trabajo sustituido por contenidos generados artificialmente. Es que nos paguen mal por reescribir esa basura en algo que podríamos haber hecho mejor desde el principio. Esto es a lo que se opone el WGA y lo que quieren los estudios.»

Los LLM como ChatGPT se construyen utilizando una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). Lo importante aquí es la retroalimentación humana. ¿Quién proporciona esta información? ¿Son usuarios del sistema? ¿Qué tipos de sesgos sistemáticos introduce esta formación? ¿Se trata de «trabajadores fantasma» mal pagados?

Sostenibilidad

Probablemente, el aspecto más preocupante de la última oleada de tecnologías de IA es su impacto medioambiental. Los recientes avances en LLM no se han conseguido gracias a una mejor comprensión del funcionamiento de las redes neuronales, sino utilizando algoritmos ya existentes con cantidades ingentes de datos y recursos informáticos. Este entrenamiento puede llevar meses y debe repetirse para mantener los modelos actualizados.

Al parecer, el entrenamiento inicial de GPT-4 requirió 100 millones de dólares. El entrenamiento se basa en unidades de procesamiento gráfico (GPU), que son más rápidas que las CPU para los tipos de cálculo que exigen los LLM, pero requieren hasta cuatro veces más energía para funcionar. Los centros de datos necesitan agua para refrigerarse, a veces en entornos donde escasea. Esto no es sólo un problema para el entrenamiento de los modelos, es un problema mayor para su consulta, que se ha estimado entre 60 y 100 veces más en términos de utilización de energía. Otro problema que acecha aquí es la falta de datos de los centros de datos que proporcionen transparencia sobre lo que está ocurriendo.

¿Es esta realmente la dirección correcta en la que debemos dirigirnos cuando intentamos reducir los costes energéticos a nivel mundial para limitar el calentamiento global?

La industria tecnológica está incentivada para intentar que las infraestructuras de IA sean más eficientes. Pero es probable que se mantenga la paradoja de Jevons: el progreso tecnológico aumenta la eficiencia con la que se utiliza un recurso, pero la caída del coste de uso induce un aumento de la demanda suficiente como para que se incremente el uso del recurso.

Seguridad y privacidad

La IA generativa es una tecnología de doble uso. A los expertos les preocupa cada vez más que se utilice para crear desinformación, así como interacciones falsas en línea. Hemos tenido casos judiciales en los que los escritos presentados por abogados contenían citas de casos que no existían. Las robo-llamadas de voz generadas por IA han sido declaradas ilegales por el uso de herramientas de IA para suplantar la voz de Biden. Los malos actores pueden manipular imágenes y vídeos para dirigirse a grupos específicos porque las herramientas son más potentes y accesibles. Hay formas posibles de mitigar esto utilizando fuentes de información fiables y formas demostrables de compartir la procedencia de los medios.

Dado que los mecanismos de generación de contenidos de los LLM son inexplicables, son susceptibles de sufrir ataques como el que Simon Willison denomina «prompt injection«. En este caso, se crea un mensaje para subvertir el diseño original del sistema y generar la respuesta deseada. Esto tiene serias ramificaciones para el uso de la tecnología LLM como pegamento entre otros sistemas automatizados. De hecho, esto fue demostrado recientemente por investigadores que utilizaron las API de OpenAI y Google para ejecutar código arbitrario y filtrar información personal.

IA generativa y derechos humanos

Walsh, D. «Where Generative AI Meets Human Rights», 3 de abril de 2024. https://hai.stanford.edu/news/where-generative-ai-meets-human-rights.


En el debate sobre el cruce entre la inteligencia artificial generativa y los derechos humanos, expertos de diversas áreas han abordado las implicaciones únicas de esta tecnología y cómo canalizar su potencial para beneficiar a la humanidad. Se destacan preocupaciones sobre la opacidad y el potencial uso indebido de la IA generativa, así como la necesidad de una regulación inclusiva y transparente.

Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022, la inteligencia artificial generativa ha adquirido un papel central en la esfera pública y privada en menos de 18 meses. Esta tecnología ha sido objeto de discusión entre responsables políticos, economistas, científicos sociales, padres, maestros e inversores, y se ha destacado en eventos como «Human Rights Dimensions of Generative AI,», organizado por el Centro de Derechos Humanos y Justicia Internacional.

El Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Volker Türk, ha señalado los impactos sin precedentes de la inteligencia artificial avanzada, incluida la generativa, en los derechos humanos. Se destaca la necesidad de colocar a las personas en el centro de la tecnología para garantizar que los beneficios de la inteligencia artificial lleguen a todos. La discusión contó con la participación de expertos como Eileen Donahoe del Departamento de Estado de EE. UU., Alex Walden de Google, Peggy Hicks de la Oficina de Derechos Humanos de la ONU, Nate Persily de la Facultad de Derecho de Stanford y Raffi Krikorian de Emerson Collective.

La inteligencia artificial plantea desafíos únicos, como ser una tecnología fundamental que afecta a todas las demás, siendo más opaca y menos predecible. A pesar de su potencial para democratizar el acceso, la disponibilidad de algoritmos de código abierto ha generado preocupaciones sobre su uso indebido, como en el caso de la proliferación de pornografía infantil generada por IA.

Los panelistas expresaron preocupaciones sobre la capacidad de la sociedad y los responsables políticos para mantenerse al día con el rápido avance de la tecnología, así como sobre la regulación insuficiente en áreas donde es más probable que ocurran violaciones de derechos humanos. También se destacó el riesgo de que la desinformación generada por IA socave la confianza en la información verídica.

La regulación efectiva de la inteligencia artificial generativa debe incorporar consideraciones de derechos humanos y fomentar la transparencia en estas herramientas. Además, se enfatiza la importancia de la participación inclusiva en la elaboración de políticas y la necesidad de abordar los desafíos con matices en lugar de una visión polarizada.

A pesar de los desafíos planteados, los expertos mantienen una actitud optimista pero cautelosa sobre el futuro de la inteligencia artificial generativa y su impacto en los derechos humanos. Sin embargo, subrayan la necesidad de abordar los problemas actuales de la sociedad, como las divisiones sociales, para garantizar un desarrollo tecnológico que beneficie a todos.

Oscar es una innovadora aplicación de cuentos para niños que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras.

Oscar AI Kids Stories

https://oscarstories.com

Apple

Android

Oscar es una innovadora aplicación de cuentos para niños, desarrollada en Viena, que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras. Esta aplicación permite que los niños sean los protagonistas de sus propias aventuras, llevándolos a lugares como el espacio profundo, un castillo medieval o el fondo del mar, convirtiendo así sus sueños en historias personalizadas.


Los fundadores Dima Rubanov y Matthias Neumayer, dos emprendedores de Viena, crearon Oscar, una aplicación de cuentos inspirada en el ahijado de uno de ellos. La constante demanda de historias protagonizadas por Oscar y sus amigos impulsó la creación de esta aplicación, que ofrece una fuente inagotable de cuentos antes de dormir para padres e hijos.

Lo que distingue a Oscar es su capacidad para generar historias originales gracias a un algoritmo basado en ChatGPT, asegurando así una experiencia única en cada lectura y eliminando el contenido repetitivo. Además, las historias pueden adaptarse a la edad, intereses y nivel de lectura de cada niño, ofreciendo una experiencia más personalizada. Cada historia está acompañada de ilustraciones vibrantes que enriquecen la experiencia de lectura.

Oscar también se preocupa por la seguridad y la educación de los niños, por lo que todas las historias son cuidadosamente seleccionadas para incluir valiosas lecciones de vida, como honestidad, bondad, valentía y empatía.

La aplicación ofrece una versión de prueba gratuita y, si el usuario queda satisfecho, puede adquirir nuevas historias individualmente. Además, Oscar ofrece la posibilidad de convertir estas historias personalizadas en audiolibros, con voces calmantes que ayudan a conciliar el sueño.

Aunque la aplicación ofrece muchas ventajas, una característica que se echa en falta es la posibilidad de descargar las historias y convertirlas en libros físicos, lo que permitiría a familiares y amigos regalarlas como obsequios. En resumen, AI Kids Stories con su aplicación Oscar ofrece una experiencia única y enriquecedora para los niños, convirtiendo el momento de dormir en el momento más especial del día.

La historia de 8 empleados de Google que inventaron la IA moderna

Levy, Steven. «8 Google Employees Invented Modern AI. Here’s the Inside Story». Wired. Accedido 16 de abril de 2024. https://www.wired.com/story/eight-google-employees-invented-modern-ai-transformers-paper/.

8 empleados de Google inventaron la IA moderna. Esta es su historia. Se conocieron por casualidad, se engancharon a una idea y escribieron el artículo «Transformers», el avance tecnológico más importante de la historia reciente.

El artículo narra la historia detrás del famoso paper «Attention Is All You Need», escrito en 2017 por ocho investigadores de Google. Este paper introdujo la arquitectura de los «transformers», parte del nombre del acrónimo del modelo GPT, que revolucionó el campo de la inteligencia artificial al proporcionar una forma más efectiva de procesar grandes cantidades de texto. El artículo destaca cómo este equipo de investigadores, liderado por Jakob Uszkoreit, Ashish Vaswani y Noam Shazeer, desarrolló la idea de utilizar la autoatención como un mecanismo fundamental en lugar de las redes neuronales recurrentes tradicionales.

El proceso de desarrollo implicó la colaboración de varios investigadores de diferentes orígenes y nacionalidades, como Illia Polosukhin, Niki Parmar y Llion Jones, entre otros. A medida que experimentaban con la autoatención, descubrieron que esta técnica superaba las limitaciones de las redes neuronales recurrentes, especialmente en la traducción de textos largos.

Noam Shazeer jugó un papel crucial al unirse al equipo y mejorar la implementación de la autoatención, llevando la arquitectura de los transformers a un nuevo nivel. Con su contribución, el equipo logró resultados prometedores en la traducción de textos y presentó el paper en la conferencia Neural Information Processing Systems en diciembre de 2017.

Aunque el paper inicialmente recibió críticas mixtas, generó un gran interés en la comunidad científica y fue aclamado como un hito en el campo de la inteligencia artificial. La arquitectura de los transformers ha sido ampliamente adoptada en Google y otras empresas, y ha demostrado ser fundamental en el desarrollo de modelos de lenguaje y sistemas de traducción automática más avanzados.

A punto de cumplirse su séptimo aniversario, el artículo «Attention» ha alcanzado un estatus legendario. Los autores partieron de una tecnología floreciente y en mejora -una variedad de IA llamada redes neuronales- y la convirtieron en algo más: un sistema digital tan potente que su resultado puede parecer el producto de una inteligencia extraterrestre. Esta arquitectura, denominada transformadores, es la salsa no tan secreta que se esconde detrás de todos esos alucinantes productos de IA, como ChatGPT y generadores gráficos como Dall-E y Midjourney. Shazeer bromea ahora diciendo que si hubiera sabido lo famoso que se iba a hacer el artículo, «quizá se habría preocupado más por el orden de los autores». Los ocho firmantes son ahora microcelebridades. «Hay gente que me pide selfies, ¡porque estoy en un periódico!», dice Llion Jones, que es (al azar, por supuesto) el nombre número cinco.

Índice de Inteligencia Artificial 2024

AI Index report 2024. Stanford Institute for Human-Centered Artificial Intelligence (HAI), abril 2024

Texto completo

Hace una década, los mejores sistemas de IA del mundo eran incapaces de clasificar imágenes a nivel humano. No entendían el lenguaje, tenían problemas de razonamiento visual y suspendían las pruebas más básicas de comprensión lectora. Hoy en día, los sistemas de IA superan con creces el rendimiento humano en las pruebas de referencia estándar.

Esta es sólo una de las nuevas conclusiones del Índice de Inteligencia Artificial 2024, un estudio anual de tendencias en IA del Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford. El Índice de Inteligencia Artificial, dirigido por un grupo independiente e interdisciplinar de líderes de la industria y el mundo académico, es uno de los informes anuales más completos sobre el progreso de la Inteligencia Artificial y analiza las tendencias en investigación y desarrollo, rendimiento técnico, Inteligencia Artificial responsable, economía, política y opinión pública, entre otros aspectos. El informe se basa en datos cuantitativos y está diseñado para que los principales responsables de la toma de decisiones, como los líderes políticos y los ejecutivos empresariales, puedan comprender mejor lo que está ocurriendo en el mundo de la IA.

«Este año vemos más modelos capaces de actuar en distintos ámbitos», afirma Vanessa Parli, directora de programas de investigación de Stanford HAI. «Los modelos pueden tomar un texto y generar audio o tomar una imagen y generar una descripción. Una de las vertientes de la investigación en IA que me parece más apasionante es la combinación de estos grandes modelos lingüísticos con la robótica o los agentes autónomos, lo que supone un paso importante para que los robots trabajen de forma más eficaz en el mundo real.»

Aumenta la regulación

Los responsables políticos también están respondiendo. En 2023 hubo 2.175 menciones a la IA en los procedimientos legislativos mundiales, casi el doble que el año anterior. Los reguladores estadounidenses aprobaron 25 normativas relacionadas con la IA en el último año, un nuevo récord. Algunas de estas normativas incluían orientaciones sobre derechos de autor para material de IA generativa y marcos de gestión de riesgos de ciberseguridad. En términos más generales, 2023 fue un año destacado para las principales políticas de IA; la UE propuso su Ley Integral de IA y el Presidente Biden dio a conocer la Orden Ejecutiva sobre IA.

La opinión pública cae en picado

El público en general también tomó nota de la IA y respondió con nerviosismo. Los datos de la encuesta de Pew sugieren que en 2022 sólo el 38% de los estadounidenses declararon sentirse más preocupados que entusiasmados por la tecnología de IA. En 2023, esa cifra aumentó al 52%. En todo el mundo, el 52% de los encuestados se sentían nerviosos por la IA, un aumento de 13 puntos porcentuales con respecto al año anterior.

La IA se encarece

Los costes de formación de los modelos, como se indicó por primera vez en el informe del Índice de IA del año pasado, también han seguido aumentando. Las nuevas estimaciones sugieren que el entrenamiento de algunos sistemas de vanguardia, como el GPT-4 de OpenAI, cuesta 78 millones de dólares. Google Gemini costó 191 millones de dólares. En comparación, algunos modelos de vanguardia lanzados hace media década más o menos, a saber, el modelo de transformador original (2017) y RoBERTa Large (2019), cuestan respectivamente alrededor de 900 y 160.000 dólares para entrenar.

Existe una correlación directa entre los costes de formación de los modelos AI y sus requisitos computacionales. Como se ilustra en la Figura 1.3.23, los modelos con mayores necesidades de computacionales cuestan mucho más

En todo el mundo, Estados Unidos domina

Por último, desde una perspectiva global, Estados Unidos continuó liderando la IA. En 2023, un número sustancialmente mayor de modelos de IA significativos (61) procedían de instituciones con sede en Estados Unidos, en comparación con la Unión Europea (21) y China (15). Estados Unidos también sigue siendo el principal lugar para invertir en IA. En 2023 se invirtieron 67.200 millones de dólares de forma privada en IA en Estados Unidos, casi nueve veces más que en China.

El nuevo índice muestra que China es el mayor competidor de Estados Unidos. China lidera el mundo en instalaciones robóticas, habiendo instalado más robots en 2023 que el resto del mundo junto. Asimismo, la mayoría de las patentes de IA del mundo (61%) proceden de China.

En definitiva, el informe del Índice de IA 2024 deja claro que esta tecnología sigue progresando rápidamente y que el mundo, incluidos los líderes empresariales, los responsables políticos y el público en general, está empezando a reaccionar.


Estos puntos clave del currículum proporcionan una visión integral del panorama actual de la inteligencia artificial:

  1. Rendimiento de la IA: Aunque la IA ha superado a los humanos en ciertas tareas, aún queda rezagada en otras más complejas como las matemáticas avanzadas y la planificación.
  2. Dominio de la Industria: La industria lidera en la investigación de IA, con más modelos notables producidos en comparación con la academia.
  3. Costo de Desarrollo: El costo de entrenar modelos de IA de vanguardia ha aumentado drásticamente, alcanzando niveles sin precedentes.
  4. Liderazgo Global: Estados Unidos lidera en la producción de los mejores modelos de IA, seguido por la UE y China.
  5. IA Responsable: Existe una falta de evaluación estandarizada para la IA responsable, lo que dificulta la comparación sistemática de riesgos y limitaciones.
  6. Financiamiento de IA Generativa: A pesar de una disminución general en la inversión en IA, el financiamiento para la IA generativa ha aumentado significativamente.
  7. Impacto en la Productividad: La IA mejora la productividad y la calidad del trabajo, aunque es necesaria una supervisión adecuada para evitar un deterioro en el rendimiento.
  8. Avances Científicos: La IA acelera el progreso científico, ayudando en tareas como la clasificación algorítmica y el descubrimiento de materiales.
  9. Aumento Regulatorio: Estados Unidos ha visto un aumento significativo en las regulaciones relacionadas con la IA en los últimos años.
  10. Percepción Pública: La conciencia del impacto de la IA está creciendo a nivel mundial, con un creciente nerviosismo sobre sus implicaciones.

Sam Altman dijo que «elegiría un nombre diferente» para OpenAI si pudiera volver atrás en el tiempo

Goodwin, Grace Eliza. «Sam Altman Said He’d “pick a Different Name” for OpenAI If He Could Go Back in Time». Business Insider. Accedido 15 de abril de 2024. https://www.businessinsider.com/sam-altman-openai-not-best-name-for-company-2024-3.

El CEO de OpenAI, Sam Altman, ha expresado que el nombre de su empresa puede que no sea apropiado. Esto surge después de que Elon Musk, quien ayudó a cofundar OpenAI, argumentara que no debería llamarse «open» si no es de código abierto. Altman indicó que, si bien la tecnología de la empresa puede que no sea completamente de código abierto, sí es abierta en otros aspectos.

El CEO de OpenAI, de 38 años —quien cofundó la compañía junto con Elon Musk y otros en 2015— explicó en el podcast de Lex Fridman que cuando la empresa recién estaba comenzando, no tenían muy claro qué iba a ser. «Empezamos pensando que solo íbamos a ser un laboratorio de investigación y sin tener ni idea de cómo iba a evolucionar esta tecnología», dijo Altman a Fridman.

«Esto fue antes de que tuviéramos idea alguna sobre una API o de ofrecer acceso a un chatbot», dijo Altman en el podcast. «Fue antes de que tuviéramos idea alguna de producto en absoluto.»

OpenAI fue establecida inicialmente como una organización sin fines de lucro cuya misión era beneficiar a la humanidad con la inteligencia artificial, pero abandonó ese estatus en 2019 cuando hizo la transición a un modelo de «lucro limitado».

Elon Musk —quien ha cuestionado el hecho de que OpenAI no sea completamente de código abierto— demandó a la compañía el mes pasado, alegando que había incumplido su «acuerdo fundacional» y violado su misión original sin fines de lucro. «Cambien su nombre… A CerradoAI y retiraré la demanda», escribió Musk en una serie de publicaciones en X, anteriormente Twitter, a principios de este mes.

Pero Altman le dijo a Fridman que realmente no entiende cuáles son las «motivaciones reales» de Musk. Defendió a la compañía, diciendo que pasó por un proceso de transición natural a medida que «quedó claro que íbamos a necesitar hacer cosas diferentes y también tener mucho más capital».

«Así que dijimos, ‘Bueno, la estructura no funciona del todo para eso. ¿Cómo parcheamos la estructura?'» añadió Altman. «Creo que con muchas cosas fundamentalmente nuevas, empiezas a tantearte en la oscuridad y haces algunas suposiciones, la mayoría de las cuales resultaron ser incorrectas».

Altman dijo que si pudiera retroceder en el tiempo con un Oráculo, podría haber hecho las cosas de manera diferente. «Hablando de volver con un Oráculo, escogería un nombre diferente», dijo Altman a Fridman.

Altman dijo que si bien OpenAI puede que no sea completamente de código abierto, es abierto en otras formas, como con la versión gratuita de su tecnología que es accesible para el público.

«Así que si podemos seguir poniendo herramientas de IA poderosas gratuitas o de bajo costo en el mundo, creo que eso es un gran avance en cómo cumplimos la misión», dijo Altman a Fridman.

El lado humano de la inteligencia artificial generativa


«The human side of generative AI: Creating a path to productivity | McKinsey». Accedido 15 de abril de 2024. https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/the-human-side-of-generative-ai-creating-a-path-to-productivity.

Desde que ChatGPT de OpenAI hizo su debut público a finales de 2022, las perspectivas de la inteligencia artificial generativa (IA gen) han cautivado la atención en el ámbito empresarial a nivel global.


Cuando se trata de elaborar una estrategia de talento efectiva, las organizaciones se han centrado principalmente en cómo la IA gen puede aumentar los niveles de productividad. Esta perspectiva es comprensible, dado el considerable valor en juego. Sin embargo, puede que no sea el enfoque más estratégico. Para alinear el talento adecuado con los puestos de trabajo, los líderes primero deben comprender cómo la IA gen está transformando la percepción de los empleados sobre su experiencia laboral.

Recientemente, McKinsey encuestó a una muestra representativa de empleados como parte de su investigación continua sobre cómo las organizaciones pueden mejorar el compromiso, la retención y la atracción de la fuerza laboral. Los encuestados ofrecieron ideas que pueden ayudar a las organizaciones mientras desarrollan capacidades de talento en IA gen.

En cualquier organización dada, es probable que el conjunto de talento en IA gen sea más amplio de lo que muchos líderes perciben, y está en camino de crecer rápidamente. Esta cohorte no se limita al talento técnico, como científicos de datos, ingenieros de software y especialistas en aprendizaje automático, aunque esos roles son importantes. De hecho, solo el 12 por ciento de los encuestados se encuentran en esta categoría técnica específica de talento en IA gen tradicional. El vasto resto de los encuestados, el 88 por ciento, se encuentran en trabajos no técnicos que utilizan IA gen para ayudar con tareas rutinarias. Estos trabajos incluyen gerentes intermedios, trabajadores de la salud, educadores y administradores, entre otros.

El cincuenta y uno por ciento de los encuestados en roles técnicos y no técnicos que se identifican como creadores y usuarios de IA gen dicen que planean renunciar a sus empleos en los próximos tres a seis meses. Esta es una noticia preocupante para los ejecutivos encuestados en la investigación que desean desarrollar talento en IA gen internamente; es difícil volver a capacitar y mejorar a las personas cuando están buscando dejar sus puestos de trabajo.

Aunque aquellos que se identifican como usuarios especializados y creadores de IA gen representan un grupo de empleados demandado, estos trabajadores no permanecen en los puestos de trabajo ni se sienten atraídos por ellos debido a la compensación. De hecho, la encuesta muestra que este grupo enfatiza fuertemente la flexibilidad y los factores relacionales, como el trabajo significativo, los líderes comprensivos y la salud y el bienestar, sobre el dinero.

Finalmente, y quizás lo más sorprendente, los usuarios especializados y creadores de IA gen sienten abrumadoramente que necesitan habilidades cognitivas y socioemocionales de nivel superior para realizar sus trabajos, más que para desarrollar habilidades tecnológicas. A medida que los trabajadores utilizan cada vez más la IA gen para abordar tareas más repetitivas, las habilidades centradas en el ser humano, como el pensamiento crítico y la toma de decisiones, se vuelven aún más importantes.

Estas revelaciones tienen amplias implicaciones para los empleadores mientras intentan atraer y comprometer a sus fuerzas laborales. Las organizaciones están al borde de un cambio positivo o negativo en la naturaleza del trabajo impulsado por la IA gen. Los líderes tienen la oportunidad de humanizar ese trabajo al decidir dónde, cuándo y cómo utilizan sus equipos la IA gen para liberar a las personas de las tareas rutinarias y fomentar un pensamiento más creativo, colaborativo e innovador. El talento en IA gen está de acuerdo.