Archivo de la etiqueta: Tecnologías de la información

Avances y limitaciones de la inteligencia artificial: una mirada más profunda

«.. estos sistemas de inteligencia artificial son lo que podríamos llamar tecnologías culturales, como la escritura, la impresión, las bibliotecas, los motores de búsqueda de Internet o incluso el propio lenguaje. Son nuevas técnicas para transmitir información de un grupo de personas a otro.»

Gopnik, Alison. «What AI Still Doesn’t Know How to Do». Wall Street Journal, 15 de julio de 2022, sec. Life. https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-11657891316.

El artículo del Wall Street Journal «What AI Still Doesn’t Know How to Do» ofrece una visión interesante sobre las limitaciones actuales de la inteligencia artificial (IA), a pesar de los avances significativos en los últimos años. Si bien la IA ha demostrado ser una herramienta poderosa en áreas como el reconocimiento de imágenes, la traducción automática y el análisis de datos, aún existen importantes desafíos que deben abordarse antes de que pueda alcanzar un nivel verdaderamente comparable a la inteligencia humana.

Limitaciones clave de la IA:

Comprensión del lenguaje y las emociones humanas: La IA aún lucha por comprender las complejidades del lenguaje natural, incluyendo el sarcasmo, la ironía y las sutilezas emocionales. Esta dificultad limita su capacidad para interactuar de manera efectiva con los humanos en entornos sociales y para comprender plenamente las intenciones y motivaciones humanas.

Aprendizaje autónomo: La mayoría de los sistemas de IA actuales dependen de grandes cantidades de datos etiquetados para aprender y mejorar su rendimiento. Sin embargo, esta dependencia limita su capacidad para aprender de forma autónoma y adaptarse a nuevas situaciones sin intervención humana. Un verdadero sistema de IA debería poder aprender de forma continua y generalizar sus conocimientos a nuevos escenarios sin necesidad de instrucciones explícitas.

Creatividad genuina: La IA ha demostrado ser capaz de generar contenido creativo, como poemas o composiciones musicales, pero a menudo se limita a imitar estilos y patrones existentes. La creación de contenido verdaderamente original e innovador que refleje la comprensión profunda del mundo y la experiencia humana sigue siendo un desafío para la IA.

Interacción segura y confiable en el mundo real: La implementación de sistemas de IA en el mundo real, como en vehículos autónomos o robots quirúrgicos, requiere un alto nivel de seguridad y confiabilidad. La IA debe ser capaz de tomar decisiones acertadas en situaciones complejas e impredecibles, incluso en presencia de errores o información incompleta.

Conclusión:

A pesar de las limitaciones actuales, la IA sigue siendo una tecnología en rápida evolución con un enorme potencial para transformar diversos aspectos de nuestras vidas. Es importante reconocer las limitaciones de la IA para desarrollar sistemas más responsables y éticos, pero también debemos seguir explorando su potencial para resolver problemas complejos y mejorar nuestra comprensión del mundo que nos rodea.

Recursos adicionales:

  • Christian, Brian. The Alignment Problem: Machine Learning and Human Values. 1st edition. New York, NY: W. W. Norton & Company, 2020.
  • Artificial Intelligence: A Modern Approach
  • Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. First Edition. New York: Knopf, 2017.

Normas de Internet

European Commission, Joint Research Centre, Kouliaridis, V., Internet standards – IPv6 standard – An analysis of uptake in the EU – March 2024, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2760/50109


La adopción del Protocolo de Internet versión 6 (IPv6), la siguiente versión del ampliamente utilizado IPv4, es clave para garantizar la interoperabilidad, escalabilidad, estabilidad y seguridad de Internet. Este informe ofrece una visión general del nivel actual de adopción del protocolo IPv6 en el primer trimestre de 2024 en los Estados miembros de la UE, en comparación con el estado de adopción mundial. El análisis utiliza un conjunto de fuentes de datos disponibles públicamente, así como datos recogidos a partir de nuestras propias mediciones, para estimar la tasa de adopción del IPv6 en dos dimensiones: (a) adopción por el usuario final, es decir, hosts de usuarios finales capaces de utilizar el IPv6 para conectarse a Internet, y (b) adopción por el servidor, es decir, servicios de Internet que pueden funcionar a través del IPv6.

Un Marco para la Alfabetización en Inteligencia Artificial

A Framework for AI Literacy. (2024.). EDUCAUSE Review. Recuperado 3 de junio de 2024, de https://er.educause.edu/articles/2024/6/a-framework-for-ai-literacy

Equipos académicos y tecnológicos en el Barnard College desarrollaron un marco de alfabetización en inteligencia artificial (IA) para proporcionar una base conceptual para la educación en IA y los esfuerzos de programación en contextos institucionales de educación superior.

El Barnard College es una universidad de artes liberales para mujeres y una institución distinguida dentro del amplio ecosistema de la Universidad de Columbia en la ciudad de Nueva York. Varios equipos campus, ágiles pero pequeños, están trabajando para avanzar en las conversaciones sobre temas de inteligencia artificial generativa (IA). Como miembros de los Servicios de Tecnología Académica y Multimedia Instruccional (IMATS) y el Centro de Pedagogía Comprometida (CEP), han desarrollado programas educativos sobre varios temas de IA para la comunidad de Barnard. Durante el último año, han realizado sesiones de laboratorio abiertas para probar diferentes herramientas de IA basadas en texto e imagen, han recibido oradores invitados sobre derechos de autor y uso justo, han facilitado talleres sobre declaraciones de programas de estudios generativos de IA para profesores, han realizado talleres de instrucción (GenAI 101) y han liderado sesiones de educación individualizadas para departamentos de profesores. Este proceso ha sido continuo e iterativo a medida que las herramientas cambian y las necesidades de los miembros de la comunidad del campus evolucionan. También han implementado encuestas internas, evaluaciones y mecanismos de retroalimentación para comprender mejor las necesidades del profesorado y el personal relacionadas con el uso de herramientas de IA generativas.

La necesidad de la Alfabetización en IA El Barnard College ha establecido varios grupos de trabajo y desarrollado tareas internas para discutir preguntas más grandes sobre el impacto de la IA en la institución. Actualmente, no hay un mandato o recomendación para que los profesores adopten o prohíban la IA en sus aulas. Sin embargo, se anima a los profesores a definir y discutir sus expectativas sobre el uso de la IA en sus tareas. (El CEP ha creado muchos recursos para profesores, incluidos árboles de decisiones para guiar la planificación de los profesores, declaraciones de programas de estudios de muestra, tareas que integran IA generativa y otros materiales, para ayudar a guiar la toma de decisiones sobre si y cómo incorporar IA generativa en el aula). Niveles más altos de alfabetización en IA pueden ayudar a los profesores a tomar decisiones informadas sobre el uso de IA en sus cursos y tareas. En cuanto a los servicios de tecnología académica, el equipo de IMATS ha decidido no implementar ni seguir tecnología de vigilancia de IA para monitorear la integridad académica debido al sesgo y la fiabilidad cuestionable de estas herramientas. Sin embargo, el panorama y las políticas correlativas podrían cambiar a medida que evolucionen las tecnologías de IA generativas.

Un Marco para la Alfabetización en IA


Un marco para la alfabetización en IA fue desarrollado por los miembros de IMATS y CEP para guiar el desarrollo y la expansión de la alfabetización en IA entre el profesorado, los estudiantes y el personal del Barnard College. El marco proporciona una estructura para aprender a utilizar la IA, incluyendo explicaciones de conceptos clave y preguntas a considerar al usarla. La estructura piramidal de cuatro partes fue adaptada del trabajo realizado por investigadores en la Universidad de Hong Kong y la Universidad de Ciencia y Tecnología de Hong Kong. El marco tiene como objetivo adaptarse al nivel actual de alfabetización en IA de las personas y se divide en cuatro niveles:

  • Comprender la IA
  • Usar y Aplicar la IA
  • Analizar y Evaluar la IA
  • Crear IA

Es importante tener en cuenta que la IA es un campo amplio con muchos tipos diferentes, y aunque este marco se centra en la IA generativa, puede aplicarse a otras formas de tecnología. Además, no es necesario dominar todos los conceptos de un nivel antes de pasar al siguiente. Por ejemplo, comprender cómo se entrenan los modelos de IA generativa puede ser útil para analizar su impacto en el mercado laboral, pero no es necesario entender todas las complejidades de las redes neuronales para hacerlo.

Nivel 1: Comprender la IA

La base de la pirámide abarca términos y conceptos básicos de IA. La mayor parte de la programación e instrucción en Barnard se ha centrado en los niveles uno y dos (comprender, usar y aplicar IA), ya que esta es una tecnología en rápida evolución y todavía hay mucha falta de familiaridad con ella.

Competencias Clave

  • Ser capaz de definir los términos «inteligencia artificial», «aprendizaje automático», «modelo de lenguaje grande» y «red neuronal»
  • Reconocer los beneficios y limitaciones de las herramientas de IA
  • Identificar y explicar las diferencias entre varios tipos de IA, definidos por sus capacidades y mecanismos computacionales

Conceptos Clave

  • Inteligencia artificial, aprendizaje automático, redes neuronales artificiales, modelos de lenguaje grande y modelos de difusión
  • Inteligencia artificial estrecha, inteligencia artificial general, inteligencia artificial super, máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia
  • Herramientas de IA, como ChatGPT (ver figura 2), Siri, Alexa, Deep Blue y texto predictivo
  • Marcos técnicos relacionados con la IA (modelos de código abierto versus modelos cerrados, APIs y cómo se usan)

Preguntas de Reflexión

  • ¿Qué tipo de IA es esta?
  • ¿Qué tecnologías utiliza esta herramienta de IA?
  • ¿Para qué fue diseñada esta herramienta? ¿Qué tipo de información acepta como entrada y devuelve como respuesta (texto, video, audio, etc.)?
  • ¿Para qué podría ser particularmente útil esta herramienta?
  • ¿Para qué no sería útil?

Nivel 2: Usar y Aplicar la IA

El segundo nivel de fluidez en IA indica que los usuarios pueden utilizar herramientas como ChatGPT para lograr sus objetivos; estos usuarios están familiarizados con las técnicas de ingeniería de solicitudes y saben cómo refinar, iterar y editar colaborativamente con herramientas de IA generativa. La programación diseñada para desarrollar la fluidez en el nivel dos en el Barnard College incluye laboratorios prácticos y la ingeniería colaborativa de solicitudes en tiempo real.

Competencias Clave

  • Utilizar con éxito herramientas de IA generativa para obtener respuestas deseadas
  • Experimentar con técnicas de solicitud e iterar en el lenguaje de la solicitud para mejorar la salida generada por IA
  • Revisar el contenido generado por IA con miras a posibles «alucinaciones», razonamientos incorrectos y sesgos

Conceptos Clave

  • Ingeniería de solicitudes, ventanas de contexto, alucinaciones, sesgos, solicitud sin disparador y solicitud con disparador
  • Técnicas de solicitud para IA generativa basada en texto, como agregar especificidad, usar contexto y detalles, y pedir al modelo que considere pros y contras o evalúe posiciones alternativas
  • Consideraciones de privacidad, confidencialidad y derechos de autor para la información alimentada en las herramientas de solicitud

Preguntas de Reflexión

  • ¿Por qué una solicitud generó una respuesta particular?
  • ¿Cómo se podría ajustar la solicitud para obtener una respuesta diferente?
  • ¿Qué estrategias se pueden utilizar para reducir el sesgo y las alucinaciones?
  • ¿Cómo se puede verificar el sesgo y las alucinaciones en la salida de la IA?

Nivel 3: Analizar y Evaluar la IA

Analizar y evaluar la IA implica una comprensión meta más compleja de la IA generativa. En este nivel, los usuarios deben poder reflexionar críticamente sobre resultados, sesgos, ética y otros temas más allá de la ventana de solicitud. Un ejemplo de programación en este nivel es un evento que contó con la participación de un experto que discutió las actuales preguntas sobre derechos de autor y propiedad intelectual en torno a la IA y los impactos ambientales y climáticos que la IA generativa podría tener. Por supuesto, uno puede participar en conversaciones sobre estas preguntas e ideas sin conocer todas las definiciones de IA. Sin embargo, la familiaridad con los niveles anteriores en la pirámide informa la comprensión básica y el vocabulario del individuo, ayudando a comprender cómo se intersecta la IA con otros campos.

Competencias Clave

Examinar la IA en un contexto más amplio, incorporando conocimientos de la disciplina o intereses de uno Critique herramientas de IA y ofrezca argumentos a favor o en contra de su creación, uso y aplicación Analizar consideraciones éticas en el desarrollo e implementación de IA

Conceptos Clave

Perspectivas críticas sobre la IA (Los siguientes ejemplos no pretenden ser exhaustivos.) Sostenibilidad ambiental Trabajo Privacidad Derechos de autor Sesgo de raza, género, clase y otros Desinformación

Preguntas de Reflexión

¿Qué otras perspectivas o marcos podrían ser útiles para evaluar las implicaciones del uso de herramientas de IA generativa? ¿De dónde podrían venir los sesgos en la IA? ¿De qué manera el uso de herramientas de IA generativa se alinea o diverge de tus valores personales?

Nivel 4: Crear IA

En este nivel de fluidez en IA, los usuarios pueden interactuar con la IA a nivel de creador. Por ejemplo, los usuarios pueden construir sobre APIs abiertas para crear su propio LLM o aprovechar la IA para desarrollar nuevos sistemas. Actualmente, Barnard ofrece menos programación en el nivel cuatro que en los otros tres niveles, pero ha habido talleres en el Centro de Ciencias Computacionales que proporcionan instrucción técnica relacionada con la construcción de modelos de IA y aprendizaje automático. Es importante involucrar a las personas en todos los niveles de fluidez en IA.

Competencias Clave

Sintetizar el aprendizaje para conceptualizar o crear nuevas ideas, tecnologías o estructuras relacionadas con la IA. Alcanzar este nivel de alfabetización podría incluir lo siguiente: Concebir nuevos usos para la IA Construir software que aproveche la tecnología de IA Proponer teorías sobre la IA

Preguntas de Reflexión

¿Qué es único y humano acerca de tus ideas, tecnologías o estructuras? ¿Cómo podrían diferir de lo que podría crear una IA? ¿Qué características específicas de IA otorgan ventajas únicas a las ideas, tecnologías o estructuras?


Conclusion y Próximos Pasos

Si bien este marco de alfabetización en IA no es exhaustivo, proporciona una base conceptual para los esfuerzos de educación y programación en IA, especialmente en contextos institucionales de educación superior. La intención es mantener la neutralidad con respecto al uso de IA, reconociendo que la alfabetización tecnológica puede llevar a la decisión de no usarla. El impacto de la IA en la educación superior probablemente será significativo, afectando las admisiones, la investigación y los planes de estudio. La educación y la alfabetización básica son los primeros pasos para que una comunidad se involucre productivamente con esta tecnología en rápida evolución.

Existen muchos posibles próximos pasos que el Barnard College podría tomar relacionados con la IA generativa, pero específicamente en relación con el marco de alfabetización en IA, los equipos de IMATS y CEP pueden explorar «ascender» en la pirámide de alfabetización en la programación, los recursos y los eventos a medida que crece la conciencia y la alfabetización básica. Actualmente, la mayoría de nuestras ofertas se encuentran en los niveles uno y dos, pero esperamos cambiar nuestro enfoque de programación a los niveles dos y tres. Una encuesta reciente reveló que un número significativo de profesores y estudiantes aún nunca han usado IA generativa y tienen percepciones negativas sobre estas herramientas, por lo que nuestros equipos también están explorando formas de facilitar mejor el compromiso práctico y crítico.

Otro objetivo de la iniciativa de alfabetización en IA es resaltar el aspecto humano de estas tecnologías. Si bien el uso de IA generativa puede sentirse casi como alquimia, convirtiendo el texto simple en oro a través de tecnología de caja negra, está muy construido sobre el conocimiento humano, que tiene sus propios sesgos e inequidades. Usar una lente crítica al interactuar con la IA generativa puede ayudar a los usuarios a identificar sesgos existentes y evitar que los usuarios los agraven.

Enanos sin gigantes: arquitectura descentralizada y servicios de Internet

Musiani, Francesca. Nains sans géants : Architecture décentralisée et services Internet. Presses des Mines, 2015. https://directory.doabooks.org/handle/20.500.12854/85751

La descentralización está en el corazón del origen de internet, cuyo objetivo principal era permitir la comunicación entre máquinas heterogéneas y distantes sin pasar por un único punto central. Hoy en día, la concentración domina, alrededor de macro-actores, estos «gigantes» cuyas inmensas granjas de servidores manejan la mayor parte del tráfico web. Sin embargo, el principio original no ha sido completamente abandonado y, en todos los ámbitos de aplicación, los desarrolladores exploran alternativas descentralizadas. Estos «enanos» ofrecen motores de búsqueda, redes sociales, espacios de almacenamiento que distribuyen recursos y competencias entre los miembros de la red. Este libro explora las formas de organización descentralizadas de internet: muestra cómo una red que distribuye la responsabilidad de su funcionamiento en sus márgenes, organizándose según un modelo no – o débilmente – jerárquico, puede desarrollarse en el internet contemporáneo, tan fuertemente estructurado.

Un dispositivo así plantea cuestiones sobre la organización de los mercados, la eficiencia de las técnicas, la durabilidad de los modelos, así como la protección de la privacidad y los derechos sobre los datos personales. Como señala Geoffrey Bowker en su prefacio, este libro nos lleva a cuestionar la gobernanza de internet, y, para comprender esta cuestión sociotécnica clave de nuestro tiempo, debemos analizar las alternativas al funcionamiento actual. Precisamente eso hace, de manera detallada e informada, Enanos sin gigantes.

¿Cuánto ganan los CEO de las más grandes empresas tecnológicas ‘The Magnificent 7’?»

Mann, Ana Altchek, Jyoti. «The Magnificent 7 Companies Are Worth a Combined $14 Trillion — Here’s How Much Their CEOs Make». Business Insider. Accedido 22 de mayo de 2024. https://www.businessinsider.com/ceo-pay-apple-nvidia-microsoft-alphabet-meta-amazon-tesla-2024-5.

Las siete empresas conocidas como los «The Magnificent 7» —Microsoft, Apple, Nvidia, Alphabet, Amazon, Meta y Tesla— tienen un valor combinado de casi 14 billones de dólares según datos de Business Insider. Sus directores ejecutivos reciben sustanciosas compensaciones económicas.

Dirigir una de estas empresas de tecnología también implica recibir un paquete de compensación bastante sustancioso. Por ejemplo, el CEO* de Apple, Tim Cook, recibió una compensación total de 63.2 millones de dólares el año pasado, mientras que Andy Jassy de Amazon recibió aproximadamente 1.3 millones.

Business Insider examinó la compensación total de estos CEOs el año pasado a través de las declaraciones de proxy más recientes de la SEC.

Aquí te mostramos cuánto ganan, quién recibe más y un desglose de su salario:

Tim Cook, CEO de Apple: Su compensación total ascendió a 63.2 millones de dólares el año pasado, incluyendo salario base, premios de acciones e incentivos no patrimoniales.

Satya Nadella, CEO de Microsoft: Su compensación total fue de 48.5 millones de dólares, que incluye salario, acciones y otros beneficios.

Jensen Huang, CEO de Nvidia: Recibió un paquete de compensación de 34.2 millones de dólares, compuesto por premios en acciones, bonificaciones en efectivo y otros gastos.

Mark Zuckerberg, CEO de Meta: Con un salario base simbólico de 1$, su compensación total en 2023 fue de 24.4 millones de dólares.

Sundar Pichai, CEO de Alphabet: Su compensación en 2023 fue de 8.8 millones de dólares, principalmente por salario y seguridad personal.

Andy Jassy, CEO de Amazon: Su compensación fue de 1.3 millones de dólares., con salario y gastos de seguridad.

Elon Musk, CEO de Tesla: Su compensación en 2023 está en espera después de que un juez rechazara su paquete de remuneración de56 mil millones de dólares. Sin embargo, su riqueza proviene principalmente de su participación en Tesla y otras empresas.

*»CEO» significa «Chief Executive Officer» en inglés, que traducido al español sería «Director Ejecutivo» o «Director General». Es el título de la persona que ocupa el cargo más alto en una organización o empresa y que tiene la máxima autoridad en la toma de decisiones.

TikTok comenzará a etiquetar el contenido generado por IA para combatir la desinformación


TikTok ha anunciado que comenzará a etiquetar contenido creado utilizando inteligencia artificial cuando se cargue desde fuera de su propia plataforma, como parte de su esfuerzo para combatir la desinformación.

La compañía afirma que si bien la IA ofrece oportunidades creativas increíbles, puede confundir o engañar a los espectadores si no saben que el contenido fue generado por IA. Por lo tanto, la etiqueta ayudará a proporcionar claridad sobre el origen del contenido. TikTok ya etiqueta contenido generado por IA creado con efectos de IA de TikTok, y ha requerido a los creadores que etiqueten contenido realista generado por IA durante más de un año.

Esta medida de TikTok forma parte de un esfuerzo más amplio en la industria tecnológica para proporcionar más salvaguardias para el uso de la IA. Meta anunció en febrero que estaba trabajando con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de inteligencia artificial. Los usuarios de Facebook e Instagram verían etiquetas en imágenes generadas por IA. Google también anunció el año pasado que las etiquetas de IA llegarían a YouTube y otras plataformas.

Este impulso hacia el «marcado de agua digital» y la etiquetación del contenido generado por IA también fue parte de una orden ejecutiva que el presidente de Estados Unidos, Joe Biden, firmó en octubre.

TikTok espera que esta medida ayude a fortalecer la confianza del usuario y a reducir la propagación de desinformación en su plataforma.

Llama 3 de Meta se ha entrenado con una cantidad récord de datos, lo que podría dar lugar a un replanteamiento de toda la industria de la IA y producir mejores modelos.

Schreiner, Maximilian. «Current LLMs “Undertrained by a Factor of Maybe 100-1000X or More” Says OpenAI Co-Founder». THE DECODER, 24 de abril de 2024. https://the-decoder.com/current-llms-undertrained-by-a-factor-of-maybe-100-1000x-or-more-says-openai-co-founder/.

El reciente lanzamiento del modelo de lenguaje Llama 3 por parte de Meta ha desencadenado una reflexión sobre el estado actual de los modelos de inteligencia artificial (IA). Este nuevo modelo, entrenado con una cantidad récord de datos, ha superado significativamente las capacidades de otros modelos en algunas áreas clave.

Según Meta, el aumento en el rendimiento se debe principalmente al considerable aumento en los datos de entrenamiento y al ajuste fino con 10 millones de ejemplos de alta calidad.

Mientras que ya se sabía que los datos de alta calidad pueden mejorar el rendimiento incluso de modelos de lenguaje más pequeños, la cantidad de datos utilizados para el preentrenamiento es sorprendente. Incluso el modelo de 8 mil millones de parámetros fue entrenado con alrededor de 15 billones de tokens. Esto no solo supera con creces la cantidad de datos utilizados para Llama 2, sino también la cantidad de datos considerada óptima según las leyes de escala de Chinchilla, desarrolladas por DeepMind.

Estas leyes establecen que, para un modelo de 8 mil millones de parámetros, alrededor de 200 mil millones de tokens de entrenamiento se consideran óptimos para utilizar eficientemente la potencia informática. Llama 3 fue entrenado con 75 veces esa cantidad de datos. A pesar de la enorme cantidad de datos de entrenamiento, Meta descubrió que los modelos de «8B y 70B de parámetros continuaron mejorando de manera logarítmica después de entrenarlos con hasta 15T de tokens», según una publicación en el blog de la compañía.

El investigador de IA Andrej Karpathy, miembro fundador de OpenAI y ex jefe de IA de Tesla, señala que esto podría sugerir que la mayoría de los modelos de lenguaje actualmente en uso «están significativamente subentrenados por un factor de tal vez 100-1000 veces o más, muy lejos de su punto de convergencia». Karpathy espera que otras empresas de IA sigan el ejemplo de Meta y lancen modelos más largos y entrenados, pero de menor tamaño.

Aunque aún no está claro hasta dónde se puede aumentar el rendimiento de un modelo de lenguaje a través de entrenamientos más largos antes de que las ganancias sean demasiado pequeñas, Meta ha demostrado que aún no se han alcanzado los límites de lo posible en este campo.

Las tendencias tecnológicas en bibliotecas para 2024: Impacto de la Inteligencia Artificial

Tanzi, N. «Library Tech Trends for 2024.» Publicado el 28 de diciembre de 2023. The Digital Librarian. Disponible en: https://the-digital-librarian.com/2023/12/28/library-tech-trends-for-2024/.

Tendencias tecnológicas en 2024 las bibliotecas enfrentarán desafíos financieros al invertir en colecciones digitales y streaming, mientras abordan el uso de inteligencia artificial en la censura y en el lugar de trabajo. También destaca la importancia del entrenamiento del personal y la evaluación de herramientas AI específicas para bibliotecas.

Las tendencias tecnológicas en bibliotecas para 2024 están profundamente influenciadas por la inteligencia artificial (IA) y nuestra reacción ante ella.

Perspectivas para las Colecciones Digitales de Bibliotecas

Restricciones Financieras: Las bibliotecas continuarán invirtiendo considerablemente en sus colecciones de libros electrónicos, audiolibros, películas/música en streaming, revistas electrónicas y otros contenidos digitales en 2024. Sin embargo, los aumentos en los costos de los libros electrónicos, la postura cada vez más hostil de los principales editores hacia el préstamo bibliotecario y la incertidumbre legislativa podrían llevar a soluciones insatisfactorias, como limitar el uso de los usuarios, enfocarse en títulos populares o emplear modelos de préstamo más rentables.

Oportunidades de Streaming: Se observa un aumento en la inversión de las bibliotecas en servicios de streaming de video, como Hoopla y Kanopy. Aunque estas opciones bibliotecarias a menudo luchan por igualar la cantidad y calidad de títulos ofrecidos por plataformas comerciales, recientes aumentos de precios y la introducción de anuncios podrían renovar el interés en las opciones gratuitas y sin publicidad.

Censura impulsada por IA: Existe el potencial de que la IA se utilice como herramienta de censura. Algunas organizaciones, como el Distrito Escolar Comunitario de Mason City en Iowa, ya están utilizando ChatGPT para determinar qué libros entran en conflicto con una nueva ley estatal y deben ser retirados.

IA y el Lugar de Trabajo de la Biblioteca

Política y Procedimiento de IA: Las bibliotecas crearán sus propias pautas y límites organizativos para definir el uso apropiado de la IA, guiadas por la ética profesional, mientras esperan un marco legal para la IA. Es importante llenar el vacío informativo para el personal, lo que a su vez ayudará a proteger a los usuarios.

Entorno de Trabajo Infundido con IA: Se espera una integración creciente de la IA en plataformas de colaboración en la nube utilizadas en el espacio de trabajo de la biblioteca, como Office 365, Google Workspace y Canva para Equipos.

Capacitación del Personal: Es fundamental invertir en la capacitación del personal en el uso de herramientas de búsqueda conversacional, generadores de imágenes a partir de texto y modelos de lenguaje de gran tamaño.

Evaluación de Herramientas de IA Específicas para Bibliotecas: Se anticipa que los vendedores de bibliotecas, así como nuevas empresas, ofrecerán herramientas potenciadas por IA, como bases de datos infundidas con IA y chatbots de bibliotecas. Tener políticas, procedimientos y personal capacitado permitirá evaluar estas herramientas con confianza.

Tendencias en Programación Bibliotecaria

IA y Programación Virtual: La IA tiene un gran potencial para romper barreras lingüísticas y mejorar la accesibilidad. La mejora en la subtitulación de programación en vivo y grabada, así como el desarrollo de un traductor universal de video por parte de Google, son ejemplos de cómo la IA puede mejorar las ofertas virtuales de la biblioteca.

Programas de Desmitificación de IA: A medida que las bibliotecas capacitan a su personal en IA, ese conocimiento se trasladará hacia afuera, donde hay un fuerte interés de los usuarios. Se pueden ofrecer primers sobre IA en general, ética de IA, privacidad y demostraciones prácticas de generadores de imágenes a partir de texto y chatbots.

Realidad Aumentada y Virtual en la Era de la IA: La adopción de la RA y RV en las bibliotecas ha avanzado de manera intermitente. Se espera que la IA infunda nueva vida en estas tecnologías al combinar generadores de imágenes a partir de texto, procesamiento de lenguaje natural de asistentes virtuales y tecnología portátil.

La historia de 8 empleados de Google que inventaron la IA moderna

Levy, Steven. «8 Google Employees Invented Modern AI. Here’s the Inside Story». Wired. Accedido 16 de abril de 2024. https://www.wired.com/story/eight-google-employees-invented-modern-ai-transformers-paper/.

8 empleados de Google inventaron la IA moderna. Esta es su historia. Se conocieron por casualidad, se engancharon a una idea y escribieron el artículo «Transformers», el avance tecnológico más importante de la historia reciente.

El artículo narra la historia detrás del famoso paper «Attention Is All You Need», escrito en 2017 por ocho investigadores de Google. Este paper introdujo la arquitectura de los «transformers», parte del nombre del acrónimo del modelo GPT, que revolucionó el campo de la inteligencia artificial al proporcionar una forma más efectiva de procesar grandes cantidades de texto. El artículo destaca cómo este equipo de investigadores, liderado por Jakob Uszkoreit, Ashish Vaswani y Noam Shazeer, desarrolló la idea de utilizar la autoatención como un mecanismo fundamental en lugar de las redes neuronales recurrentes tradicionales.

El proceso de desarrollo implicó la colaboración de varios investigadores de diferentes orígenes y nacionalidades, como Illia Polosukhin, Niki Parmar y Llion Jones, entre otros. A medida que experimentaban con la autoatención, descubrieron que esta técnica superaba las limitaciones de las redes neuronales recurrentes, especialmente en la traducción de textos largos.

Noam Shazeer jugó un papel crucial al unirse al equipo y mejorar la implementación de la autoatención, llevando la arquitectura de los transformers a un nuevo nivel. Con su contribución, el equipo logró resultados prometedores en la traducción de textos y presentó el paper en la conferencia Neural Information Processing Systems en diciembre de 2017.

Aunque el paper inicialmente recibió críticas mixtas, generó un gran interés en la comunidad científica y fue aclamado como un hito en el campo de la inteligencia artificial. La arquitectura de los transformers ha sido ampliamente adoptada en Google y otras empresas, y ha demostrado ser fundamental en el desarrollo de modelos de lenguaje y sistemas de traducción automática más avanzados.

A punto de cumplirse su séptimo aniversario, el artículo «Attention» ha alcanzado un estatus legendario. Los autores partieron de una tecnología floreciente y en mejora -una variedad de IA llamada redes neuronales- y la convirtieron en algo más: un sistema digital tan potente que su resultado puede parecer el producto de una inteligencia extraterrestre. Esta arquitectura, denominada transformadores, es la salsa no tan secreta que se esconde detrás de todos esos alucinantes productos de IA, como ChatGPT y generadores gráficos como Dall-E y Midjourney. Shazeer bromea ahora diciendo que si hubiera sabido lo famoso que se iba a hacer el artículo, «quizá se habría preocupado más por el orden de los autores». Los ocho firmantes son ahora microcelebridades. «Hay gente que me pide selfies, ¡porque estoy en un periódico!», dice Llion Jones, que es (al azar, por supuesto) el nombre número cinco.

OpenAI presenta Voice Engine: una nueva herramienta de audio capaz de clonar tu voz con solo 15 segundos de audio

«Navigating the Challenges and Opportunities of Synthetic Voices». Accedido 30 de marzo de 2024. https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices.

OpenAI ha compartido resultados preliminares de una prueba para una función que puede leer palabras en voz alta con una voz humana convincente, resaltando una nueva frontera para la inteligencia artificial y planteando el espectro de los riesgos de deepfake.

La compañía está compartiendo demos y casos de uso tempranos de una vista previa a pequeña escala del modelo de texto a voz, llamado Voice Engine, que ha compartido con aproximadamente 10 desarrolladores hasta ahora, según un portavoz. OpenAI decidió no ampliar el lanzamiento de la función, sobre la cual informó a los periodistas a principios de este mes.

Voice Engine de OpenAI tiene la capacidad de crear una réplica sintética de una voz después de escucharla durante solo 15 segundos, ya sea en tiempo real o a través de una grabación. Esta reproducción sintética imita el tono y las características distintivas de la voz original, permitiendo que cualquier frase se pueda «hablar» con una imitación fiel de la voz original.

Un portavoz de OpenAI dijo que la compañía decidió no hacer el lanzamiento después de recibir comentarios de partes interesadas como legisladores, expertos de la industria, educadores y creativos. Según la presentación de prensa anterior, la compañía había planeado inicialmente lanzar la herramienta a hasta 100 desarrolladores a través de un proceso de solicitud.

«Reconocemos que generar voz que se asemeje a las voces de las personas tiene riesgos serios, que están especialmente en primer plano en un año electoral», escribió la compañía en una publicación de blog el viernes. «Estamos interactuando con socios de EE. UU. e internacionales de todo el gobierno, medios de comunicación, entretenimiento, educación, sociedad civil y más allá para asegurarnos de que estamos incorporando sus comentarios mientras construimos».

Otra tecnología de IA ya se ha utilizado para falsificar voces en algunos contextos. En enero, una llamada telefónica falsa pero realista que pretendía ser del presidente Joe Biden alentó a las personas en New Hampshire a no votar en las primarias, un evento que avivó los temores de IA antes de elecciones globales críticas.

A diferencia de los esfuerzos anteriores de OpenAI para generar contenido de audio, Voice Engine puede crear voz que suena como personas individuales, completa con su cadencia e inflexiones específicas. Todo lo que necesita el software es 15 segundos de audio grabado de una persona hablando para recrear su voz.

Durante una demostración de la herramienta, Bloomberg escuchó un clip del CEO de OpenAI, Sam Altman, explicando brevemente la tecnología con una voz que sonaba indistinguible de su habla real, pero fue completamente generada por IA.

«Si tienes la configuración de audio correcta, es básicamente una voz de calidad humana», dijo Jeff Harris, líder de producto en OpenAI. «Es una calidad técnica bastante impresionante». Sin embargo, Harris dijo: «Obviamente, hay mucha delicadeza de seguridad en torno a la capacidad de imitar con precisión el habla humana».

Uno de los actuales socios desarrolladores de OpenAI que usa la herramienta, el Instituto de Neurociencias Norman Prince en el sistema de salud sin fines de lucro Lifespan, está utilizando la tecnología para ayudar a los pacientes a recuperar su voz. Por ejemplo, la herramienta se usó para restaurar la voz de una joven paciente que perdió su capacidad para hablar claramente debido a un tumor cerebral replicando su habla de una grabación anterior para un proyecto escolar, dijo la publicación del blog de la compañía.

El modelo de voz personalizado de OpenAI también puede traducir el audio que genera a diferentes idiomas. Eso lo hace útil para empresas en el negocio de audio, como Spotify Technology SA. Spotify ya ha utilizado la tecnología en su propio programa piloto para traducir los podcasts de presentadores populares como Lex Fridman. OpenAI también destacó otras aplicaciones beneficiosas de la tecnología, como crear una gama más amplia de voces para contenido educativo para niños.

En el programa de pruebas, OpenAI está exigiendo a sus socios que acepten sus políticas de uso, obtengan el consentimiento del hablante original antes de usar su voz y divulguen a los oyentes que las voces que están escuchando son generadas por IA. La compañía también está instalando una marca de agua de audio inaudible para permitirle distinguir si una pieza de audio fue creada por su herramienta.

Antes de decidir si lanzar más ampliamente la función, OpenAI dijo que está solicitando comentarios de expertos externos. «Es importante que las personas de todo el mundo entiendan hacia dónde se dirige esta tecnología, ya sea que finalmente la despleguemos ampliamente nosotros mismos o no», dijo la compañía en la publicación del blog.

OpenAI también expresó su esperanza de que la presentación preliminar de su software impulse la necesidad de fortalecer la resiliencia social frente a los desafíos planteados por las tecnologías de IA más avanzadas. Como ejemplo, la empresa instó a los bancos a eliminar la autenticación de voz como medida de seguridad para acceder a cuentas bancarias e información sensible. Además, está abogando por una mayor educación pública sobre el contenido engañoso generado por IA y el desarrollo de técnicas adicionales para detectar si el contenido de audio es auténtico o generado por IA.