Archivo de la etiqueta: Tecnologías de la información

TikTok comenzará a etiquetar el contenido generado por IA para combatir la desinformación


TikTok ha anunciado que comenzará a etiquetar contenido creado utilizando inteligencia artificial cuando se cargue desde fuera de su propia plataforma, como parte de su esfuerzo para combatir la desinformación.

La compañía afirma que si bien la IA ofrece oportunidades creativas increíbles, puede confundir o engañar a los espectadores si no saben que el contenido fue generado por IA. Por lo tanto, la etiqueta ayudará a proporcionar claridad sobre el origen del contenido. TikTok ya etiqueta contenido generado por IA creado con efectos de IA de TikTok, y ha requerido a los creadores que etiqueten contenido realista generado por IA durante más de un año.

Esta medida de TikTok forma parte de un esfuerzo más amplio en la industria tecnológica para proporcionar más salvaguardias para el uso de la IA. Meta anunció en febrero que estaba trabajando con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de inteligencia artificial. Los usuarios de Facebook e Instagram verían etiquetas en imágenes generadas por IA. Google también anunció el año pasado que las etiquetas de IA llegarían a YouTube y otras plataformas.

Este impulso hacia el «marcado de agua digital» y la etiquetación del contenido generado por IA también fue parte de una orden ejecutiva que el presidente de Estados Unidos, Joe Biden, firmó en octubre.

TikTok espera que esta medida ayude a fortalecer la confianza del usuario y a reducir la propagación de desinformación en su plataforma.

Llama 3 de Meta se ha entrenado con una cantidad récord de datos, lo que podría dar lugar a un replanteamiento de toda la industria de la IA y producir mejores modelos.

Schreiner, Maximilian. «Current LLMs “Undertrained by a Factor of Maybe 100-1000X or More” Says OpenAI Co-Founder». THE DECODER, 24 de abril de 2024. https://the-decoder.com/current-llms-undertrained-by-a-factor-of-maybe-100-1000x-or-more-says-openai-co-founder/.

El reciente lanzamiento del modelo de lenguaje Llama 3 por parte de Meta ha desencadenado una reflexión sobre el estado actual de los modelos de inteligencia artificial (IA). Este nuevo modelo, entrenado con una cantidad récord de datos, ha superado significativamente las capacidades de otros modelos en algunas áreas clave.

Según Meta, el aumento en el rendimiento se debe principalmente al considerable aumento en los datos de entrenamiento y al ajuste fino con 10 millones de ejemplos de alta calidad.

Mientras que ya se sabía que los datos de alta calidad pueden mejorar el rendimiento incluso de modelos de lenguaje más pequeños, la cantidad de datos utilizados para el preentrenamiento es sorprendente. Incluso el modelo de 8 mil millones de parámetros fue entrenado con alrededor de 15 billones de tokens. Esto no solo supera con creces la cantidad de datos utilizados para Llama 2, sino también la cantidad de datos considerada óptima según las leyes de escala de Chinchilla, desarrolladas por DeepMind.

Estas leyes establecen que, para un modelo de 8 mil millones de parámetros, alrededor de 200 mil millones de tokens de entrenamiento se consideran óptimos para utilizar eficientemente la potencia informática. Llama 3 fue entrenado con 75 veces esa cantidad de datos. A pesar de la enorme cantidad de datos de entrenamiento, Meta descubrió que los modelos de «8B y 70B de parámetros continuaron mejorando de manera logarítmica después de entrenarlos con hasta 15T de tokens», según una publicación en el blog de la compañía.

El investigador de IA Andrej Karpathy, miembro fundador de OpenAI y ex jefe de IA de Tesla, señala que esto podría sugerir que la mayoría de los modelos de lenguaje actualmente en uso «están significativamente subentrenados por un factor de tal vez 100-1000 veces o más, muy lejos de su punto de convergencia». Karpathy espera que otras empresas de IA sigan el ejemplo de Meta y lancen modelos más largos y entrenados, pero de menor tamaño.

Aunque aún no está claro hasta dónde se puede aumentar el rendimiento de un modelo de lenguaje a través de entrenamientos más largos antes de que las ganancias sean demasiado pequeñas, Meta ha demostrado que aún no se han alcanzado los límites de lo posible en este campo.

Las tendencias tecnológicas en bibliotecas para 2024: Impacto de la Inteligencia Artificial

Tanzi, N. «Library Tech Trends for 2024.» Publicado el 28 de diciembre de 2023. The Digital Librarian. Disponible en: https://the-digital-librarian.com/2023/12/28/library-tech-trends-for-2024/.

Tendencias tecnológicas en 2024 las bibliotecas enfrentarán desafíos financieros al invertir en colecciones digitales y streaming, mientras abordan el uso de inteligencia artificial en la censura y en el lugar de trabajo. También destaca la importancia del entrenamiento del personal y la evaluación de herramientas AI específicas para bibliotecas.

Las tendencias tecnológicas en bibliotecas para 2024 están profundamente influenciadas por la inteligencia artificial (IA) y nuestra reacción ante ella.

Perspectivas para las Colecciones Digitales de Bibliotecas

Restricciones Financieras: Las bibliotecas continuarán invirtiendo considerablemente en sus colecciones de libros electrónicos, audiolibros, películas/música en streaming, revistas electrónicas y otros contenidos digitales en 2024. Sin embargo, los aumentos en los costos de los libros electrónicos, la postura cada vez más hostil de los principales editores hacia el préstamo bibliotecario y la incertidumbre legislativa podrían llevar a soluciones insatisfactorias, como limitar el uso de los usuarios, enfocarse en títulos populares o emplear modelos de préstamo más rentables.

Oportunidades de Streaming: Se observa un aumento en la inversión de las bibliotecas en servicios de streaming de video, como Hoopla y Kanopy. Aunque estas opciones bibliotecarias a menudo luchan por igualar la cantidad y calidad de títulos ofrecidos por plataformas comerciales, recientes aumentos de precios y la introducción de anuncios podrían renovar el interés en las opciones gratuitas y sin publicidad.

Censura impulsada por IA: Existe el potencial de que la IA se utilice como herramienta de censura. Algunas organizaciones, como el Distrito Escolar Comunitario de Mason City en Iowa, ya están utilizando ChatGPT para determinar qué libros entran en conflicto con una nueva ley estatal y deben ser retirados.

IA y el Lugar de Trabajo de la Biblioteca

Política y Procedimiento de IA: Las bibliotecas crearán sus propias pautas y límites organizativos para definir el uso apropiado de la IA, guiadas por la ética profesional, mientras esperan un marco legal para la IA. Es importante llenar el vacío informativo para el personal, lo que a su vez ayudará a proteger a los usuarios.

Entorno de Trabajo Infundido con IA: Se espera una integración creciente de la IA en plataformas de colaboración en la nube utilizadas en el espacio de trabajo de la biblioteca, como Office 365, Google Workspace y Canva para Equipos.

Capacitación del Personal: Es fundamental invertir en la capacitación del personal en el uso de herramientas de búsqueda conversacional, generadores de imágenes a partir de texto y modelos de lenguaje de gran tamaño.

Evaluación de Herramientas de IA Específicas para Bibliotecas: Se anticipa que los vendedores de bibliotecas, así como nuevas empresas, ofrecerán herramientas potenciadas por IA, como bases de datos infundidas con IA y chatbots de bibliotecas. Tener políticas, procedimientos y personal capacitado permitirá evaluar estas herramientas con confianza.

Tendencias en Programación Bibliotecaria

IA y Programación Virtual: La IA tiene un gran potencial para romper barreras lingüísticas y mejorar la accesibilidad. La mejora en la subtitulación de programación en vivo y grabada, así como el desarrollo de un traductor universal de video por parte de Google, son ejemplos de cómo la IA puede mejorar las ofertas virtuales de la biblioteca.

Programas de Desmitificación de IA: A medida que las bibliotecas capacitan a su personal en IA, ese conocimiento se trasladará hacia afuera, donde hay un fuerte interés de los usuarios. Se pueden ofrecer primers sobre IA en general, ética de IA, privacidad y demostraciones prácticas de generadores de imágenes a partir de texto y chatbots.

Realidad Aumentada y Virtual en la Era de la IA: La adopción de la RA y RV en las bibliotecas ha avanzado de manera intermitente. Se espera que la IA infunda nueva vida en estas tecnologías al combinar generadores de imágenes a partir de texto, procesamiento de lenguaje natural de asistentes virtuales y tecnología portátil.

La historia de 8 empleados de Google que inventaron la IA moderna

Levy, Steven. «8 Google Employees Invented Modern AI. Here’s the Inside Story». Wired. Accedido 16 de abril de 2024. https://www.wired.com/story/eight-google-employees-invented-modern-ai-transformers-paper/.

8 empleados de Google inventaron la IA moderna. Esta es su historia. Se conocieron por casualidad, se engancharon a una idea y escribieron el artículo «Transformers», el avance tecnológico más importante de la historia reciente.

El artículo narra la historia detrás del famoso paper «Attention Is All You Need», escrito en 2017 por ocho investigadores de Google. Este paper introdujo la arquitectura de los «transformers», parte del nombre del acrónimo del modelo GPT, que revolucionó el campo de la inteligencia artificial al proporcionar una forma más efectiva de procesar grandes cantidades de texto. El artículo destaca cómo este equipo de investigadores, liderado por Jakob Uszkoreit, Ashish Vaswani y Noam Shazeer, desarrolló la idea de utilizar la autoatención como un mecanismo fundamental en lugar de las redes neuronales recurrentes tradicionales.

El proceso de desarrollo implicó la colaboración de varios investigadores de diferentes orígenes y nacionalidades, como Illia Polosukhin, Niki Parmar y Llion Jones, entre otros. A medida que experimentaban con la autoatención, descubrieron que esta técnica superaba las limitaciones de las redes neuronales recurrentes, especialmente en la traducción de textos largos.

Noam Shazeer jugó un papel crucial al unirse al equipo y mejorar la implementación de la autoatención, llevando la arquitectura de los transformers a un nuevo nivel. Con su contribución, el equipo logró resultados prometedores en la traducción de textos y presentó el paper en la conferencia Neural Information Processing Systems en diciembre de 2017.

Aunque el paper inicialmente recibió críticas mixtas, generó un gran interés en la comunidad científica y fue aclamado como un hito en el campo de la inteligencia artificial. La arquitectura de los transformers ha sido ampliamente adoptada en Google y otras empresas, y ha demostrado ser fundamental en el desarrollo de modelos de lenguaje y sistemas de traducción automática más avanzados.

A punto de cumplirse su séptimo aniversario, el artículo «Attention» ha alcanzado un estatus legendario. Los autores partieron de una tecnología floreciente y en mejora -una variedad de IA llamada redes neuronales- y la convirtieron en algo más: un sistema digital tan potente que su resultado puede parecer el producto de una inteligencia extraterrestre. Esta arquitectura, denominada transformadores, es la salsa no tan secreta que se esconde detrás de todos esos alucinantes productos de IA, como ChatGPT y generadores gráficos como Dall-E y Midjourney. Shazeer bromea ahora diciendo que si hubiera sabido lo famoso que se iba a hacer el artículo, «quizá se habría preocupado más por el orden de los autores». Los ocho firmantes son ahora microcelebridades. «Hay gente que me pide selfies, ¡porque estoy en un periódico!», dice Llion Jones, que es (al azar, por supuesto) el nombre número cinco.

OpenAI presenta Voice Engine: una nueva herramienta de audio capaz de clonar tu voz con solo 15 segundos de audio

«Navigating the Challenges and Opportunities of Synthetic Voices». Accedido 30 de marzo de 2024. https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices.

OpenAI ha compartido resultados preliminares de una prueba para una función que puede leer palabras en voz alta con una voz humana convincente, resaltando una nueva frontera para la inteligencia artificial y planteando el espectro de los riesgos de deepfake.

La compañía está compartiendo demos y casos de uso tempranos de una vista previa a pequeña escala del modelo de texto a voz, llamado Voice Engine, que ha compartido con aproximadamente 10 desarrolladores hasta ahora, según un portavoz. OpenAI decidió no ampliar el lanzamiento de la función, sobre la cual informó a los periodistas a principios de este mes.

Voice Engine de OpenAI tiene la capacidad de crear una réplica sintética de una voz después de escucharla durante solo 15 segundos, ya sea en tiempo real o a través de una grabación. Esta reproducción sintética imita el tono y las características distintivas de la voz original, permitiendo que cualquier frase se pueda «hablar» con una imitación fiel de la voz original.

Un portavoz de OpenAI dijo que la compañía decidió no hacer el lanzamiento después de recibir comentarios de partes interesadas como legisladores, expertos de la industria, educadores y creativos. Según la presentación de prensa anterior, la compañía había planeado inicialmente lanzar la herramienta a hasta 100 desarrolladores a través de un proceso de solicitud.

«Reconocemos que generar voz que se asemeje a las voces de las personas tiene riesgos serios, que están especialmente en primer plano en un año electoral», escribió la compañía en una publicación de blog el viernes. «Estamos interactuando con socios de EE. UU. e internacionales de todo el gobierno, medios de comunicación, entretenimiento, educación, sociedad civil y más allá para asegurarnos de que estamos incorporando sus comentarios mientras construimos».

Otra tecnología de IA ya se ha utilizado para falsificar voces en algunos contextos. En enero, una llamada telefónica falsa pero realista que pretendía ser del presidente Joe Biden alentó a las personas en New Hampshire a no votar en las primarias, un evento que avivó los temores de IA antes de elecciones globales críticas.

A diferencia de los esfuerzos anteriores de OpenAI para generar contenido de audio, Voice Engine puede crear voz que suena como personas individuales, completa con su cadencia e inflexiones específicas. Todo lo que necesita el software es 15 segundos de audio grabado de una persona hablando para recrear su voz.

Durante una demostración de la herramienta, Bloomberg escuchó un clip del CEO de OpenAI, Sam Altman, explicando brevemente la tecnología con una voz que sonaba indistinguible de su habla real, pero fue completamente generada por IA.

«Si tienes la configuración de audio correcta, es básicamente una voz de calidad humana», dijo Jeff Harris, líder de producto en OpenAI. «Es una calidad técnica bastante impresionante». Sin embargo, Harris dijo: «Obviamente, hay mucha delicadeza de seguridad en torno a la capacidad de imitar con precisión el habla humana».

Uno de los actuales socios desarrolladores de OpenAI que usa la herramienta, el Instituto de Neurociencias Norman Prince en el sistema de salud sin fines de lucro Lifespan, está utilizando la tecnología para ayudar a los pacientes a recuperar su voz. Por ejemplo, la herramienta se usó para restaurar la voz de una joven paciente que perdió su capacidad para hablar claramente debido a un tumor cerebral replicando su habla de una grabación anterior para un proyecto escolar, dijo la publicación del blog de la compañía.

El modelo de voz personalizado de OpenAI también puede traducir el audio que genera a diferentes idiomas. Eso lo hace útil para empresas en el negocio de audio, como Spotify Technology SA. Spotify ya ha utilizado la tecnología en su propio programa piloto para traducir los podcasts de presentadores populares como Lex Fridman. OpenAI también destacó otras aplicaciones beneficiosas de la tecnología, como crear una gama más amplia de voces para contenido educativo para niños.

En el programa de pruebas, OpenAI está exigiendo a sus socios que acepten sus políticas de uso, obtengan el consentimiento del hablante original antes de usar su voz y divulguen a los oyentes que las voces que están escuchando son generadas por IA. La compañía también está instalando una marca de agua de audio inaudible para permitirle distinguir si una pieza de audio fue creada por su herramienta.

Antes de decidir si lanzar más ampliamente la función, OpenAI dijo que está solicitando comentarios de expertos externos. «Es importante que las personas de todo el mundo entiendan hacia dónde se dirige esta tecnología, ya sea que finalmente la despleguemos ampliamente nosotros mismos o no», dijo la compañía en la publicación del blog.

OpenAI también expresó su esperanza de que la presentación preliminar de su software impulse la necesidad de fortalecer la resiliencia social frente a los desafíos planteados por las tecnologías de IA más avanzadas. Como ejemplo, la empresa instó a los bancos a eliminar la autenticación de voz como medida de seguridad para acceder a cuentas bancarias e información sensible. Además, está abogando por una mayor educación pública sobre el contenido engañoso generado por IA y el desarrollo de técnicas adicionales para detectar si el contenido de audio es auténtico o generado por IA.

Preparando los ecosistemas nacionales de investigación para la inteligencia artificial: estrategias y progreso en 2024

International Science Council. «Preparing National Research Ecosystems for AI: Strategies and Progress in 2024». Accedido 30 de marzo de 2024. https://council.science/publications/ai-science-systems/.

Descargar


El informe ofrece un análisis completo de la integración de la inteligencia artificial en la ciencia y la investigación en varios países. Aborda tanto los avances realizados como los desafíos enfrentados en este campo, lo que lo convierte en una lectura valiosa para líderes científicos, formuladores de políticas, profesionales de la IA y académicos.

Este documento de trabajo proporciona información fundamental y acceso a recursos de países de todo el mundo, en diversas etapas de integración de la IA en sus ecosistemas de investigación:

  • Australia: Preparándose para el uso centrado en el humano de la inteligencia artificial.
  • Benin: Anticipando los impactos de la inteligencia artificial en el aspirante a centro de servicios digitales de África Occidental.
  • Brasil: Aprovechando los beneficios de la inteligencia artificial con algunas notas de precaución.
  • Camboya: Buscando enfoques de inteligencia artificial para misiones nacionales de investigación.
  • Chile: Encontrando posibilidades para aplicar inteligencia artificial en un ecosistema de financiamiento de investigación existente.
  • China: Promoviendo el enfoque de Inteligencia Artificial para la Ciencia.
  • India: Obteniendo información sobre tecnologías transformadoras y su integración social.
  • Malasia: Facilitando la Cuarta Revolución Industrial.
  • México: Creando una agencia nacional líder en inteligencia artificial.
  • Omán: Fomentando la innovación a través de un Programa Ejecutivo.
  • Uruguay: Siguiendo una hoja de ruta para preparar los sistemas nacionales de ciencia para la inteligencia artificial.
  • Uzbekistán: Creando las condiciones y habilidades adecuadas para la inteligencia artificial.

Llamamos Inteligencia Artificial por lo que es y hace: un «software de plagio»

«Llamamos Inteligencia Artificial por lo que es y hace: un «software de plagio», porque no crea nada, sino copia obras existentes, de artistas existentes, alterándolos lo suficiente como para escapar de las leyes de derechos de autor.

Es el robo de propiedad intelectual más grande jamás registrado desde que los colonos europeos llegaron a tierras nativas americanas. «

NOAM CHOMSKI
New York Times, 8 de marzo de 2023

Derecho de las tecnologías y las tecnologías para el derecho

Flórez Rojas, María LorenaDerecho de las tecnologías y las tecnologías para el derecho. Ediciones Uniandes, 2022. https://muse.jhu.edu/pub/510/edited_volume/book/116622.

Derecho de las tecnologías y las tecnologías para el derecho conmemora el vigésimo aniversario de nuestro Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e Informática (GECTI), de la Facultad de Derecho de la Universidad de los Andes. Sin embargo, no es un producto aislado de una iniciativa tendiente solo a conmemorar este aniversario, sino que es fruto del esfuerzo continuado de nuestro grupo de miembros por compartir y discutir temas trascendentales en este mundo tan dinámico del derecho a partir del desarrollo de tecnologías disruptivas que hoy nos generan grandes retos.

El libro se destaca por contar con temas innovadores en materia de dichas tecnologías y su aplicación y visión en Colombia. Por un lado, se abordan las nuevas cibercompetencias con las que deben contar no solo los profesionales del derecho, sino también nuestros jueces y legisladores. Por otro, también se tratan temas imprescindibles como la inteligencia artificial, esta vez enfocada en los mercados y el régimen de competencia. La incursión de la inteligencia artificial en todos los ámbitos de la vida es innegable y, por ello, es crucial con-templar sus implicaciones en las normas existentes en materia de competencia, protección de datos y derecho del consumo. Finalmente, se discute sobre la tecnología aplicada a servicios financieros y modelos de negocios, que, si bien buscan la innovación y la competitividad, deben adelantarse bajo parámetros que logren no solo la estabilidad financiera sino también la protección a los consumidores.

¿Cómo abordar la inteligencia artificial en el aula?

¿Cómo abordar la inteligencia artificial en el aula?. CIESA, 2024

Texto completo


Las tecnologías generativas basadas en Inteligencia Artificial, como ChatGPT, están transformando nuestra manera de vivir, trabajar y consumir contenido, y la educación no escapa a esta revolución. Aunque algunas instituciones educativas han prohibido su uso debido a su capacidad para generar textos coherentes en segundos, en otros ámbitos se fomenta su integración como una herramienta que amplía las posibilidades creativas tanto para docentes como para estudiantes (Atlas, 2023; Sabzalieva y Valentini, 2023).

Sin embargo, surge la interrogante sobre cómo determinar si un estudiante realmente ha aprendido a partir de una pieza escrita cuando es difícil discernir si la ha creado de manera autónoma o con el apoyo de estas herramientas de IA. Además, se plantea la importancia de comprender estas tecnologías de generación textual más allá de su uso en el aula y en la vida cotidiana, así como abordar su uso de manera responsable y crítica.

En las siguientes páginas, exploraremos posibles enfoques para incorporar estas tecnologías en las propuestas de enseñanza en el nivel secundario y superior, reflexionando sobre cómo pueden potenciar el aprendizaje y la creatividad de los estudiantes, al tiempo que se promueve una utilización ética y reflexiva de estas herramientas.

Amazon presenta el modelo de inteligencia artificial de texto a voz más grande jamás creado

Łajszczak, Mateusz, Guillermo Cámbara, Yang Li, Fatih Beyhan, Arent van Korlaar, Fan Yang, Arnaud Joly, et al. «BASE TTS: Lessons from building a billion-parameter Text-to-Speech model on 100K hours of data». arXiv, 15 de febrero de 2024. https://doi.org/10.48550/arXiv.2402.08093.

Un equipo de investigadores de inteligencia artificial en Amazon AGI anunció el desarrollo de lo que describen como el modelo de texto a voz más grande jamás creado. Por «más grande», se refieren a tener la mayor cantidad de parámetros y utilizar el conjunto de datos de entrenamiento más grande. Han publicado un artículo en el servidor de preimpresión arXiv describiendo cómo se desarrolló y entrenó el modelo.

Los LLMs (modelos de lenguaje de largo alcance) como ChatGPT han llamado la atención por su capacidad parecida a la humana para responder preguntas inteligentemente y crear documentos de alto nivel. Pero la IA todavía está abriéndose paso en otras aplicaciones convencionales también. En este nuevo esfuerzo, los investigadores intentaron mejorar la capacidad de una aplicación de texto a voz aumentando su número de parámetros y agregando a su base de entrenamiento.

El nuevo modelo, llamado Big Adaptive Streamable TTS with Emergent abilities (BASE TTS para abreviar), tiene 980 millones de parámetros y fue entrenado utilizando 100.000 horas de voz grabada (encontrada en sitios públicos), la mayoría de las cuales estaba en inglés. El equipo también le dio ejemplos de palabras y frases habladas en otros idiomas para permitir que el modelo pronunciara correctamente frases conocidas cuando las encuentre, como «au contraire», por ejemplo, o «adiós, amigo».

El equipo en Amazon también probó el modelo en conjuntos de datos más pequeños, con la esperanza de aprender dónde desarrolla lo que se ha conocido en el campo de la IA como una calidad emergente, en la que una aplicación de IA, ya sea un LLM o una aplicación de texto a voz, parece repentinamente alcanzar un nivel más alto de inteligencia. Descubrieron que para su aplicación, un conjunto de datos de tamaño mediano fue donde ocurrió el salto a un nivel más alto, a 150 millones de parámetros.

También señalaron que el salto involucraba una serie de atributos lingüísticos, como la capacidad de usar sustantivos compuestos, expresar emociones, usar palabras extranjeras, aplicar paralingüística y puntuación, y hacer preguntas con énfasis en la palabra correcta en una oración.

El equipo dice que BASE TTS no será lanzado al público, temen que pueda ser utilizado de manera poco ética, en cambio, planean usarlo como una aplicación de aprendizaje. Esperan aplicar lo que han aprendido hasta ahora para mejorar la calidad de sonido humano de las aplicaciones de texto a voz en general.