Archivo de la etiqueta: Videos

VASA-1 de Microsoft puede transformar fotografías en animaciones sincronizadas en video que imitan el habla humana

VASA-1

Ejemplo 1

Ejemplo 2


Microsoft Research ha logrado un avance en tecnología de animación al desarrollar una aplicación de inteligencia artificial que convierte una imagen estática de una persona y una pista de audio en una animación realista con expresiones faciales adecuadas. El sistema, llamado VASA-1, puede transformar imágenes estáticas, como fotografías, dibujos o pinturas, en animaciones «exquisitamente sincronizadas» que imitan el habla humana y el canto.

VASA-1 está entrenado con miles de imágenes con una amplia variedad de expresiones faciales y puede producir imágenes de 512×512 píxeles a 45 cuadros por segundo. Sin embargo, debido al potencial de mal uso, el equipo de investigación actualmente no ha puesto el sistema disponible públicamente. Están dedicados a desarrollar la IA de manera responsable y no tienen planes de lanzar una demostración en línea, API, producto o detalles adicionales hasta estar seguros de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones adecuadas.

El modelo principal, VASA-1, es capaz no solo de producir movimientos de labios exquisitamente sincronizados con el audio, sino también de capturar un amplio espectro de matices faciales y movimientos naturales de la cabeza que contribuyen a la percepción de autenticidad y vivacidad. Las innovaciones principales incluyen un modelo holístico de generación de dinámicas faciales y movimientos de cabeza que funciona en un espacio latente facial, y el desarrollo de un espacio latente facial expresivo y disociado utilizando videos. A través de experimentos extensos, incluida la evaluación en un conjunto de nuevas métricas, se demuestra que el método supera significativamente a los métodos anteriores en diversas dimensiones de manera integral. El método no solo ofrece una alta calidad de video con dinámicas faciales y de cabeza realistas, sino que también admite la generación en línea de videos de 512×512 a hasta 40 FPS con una latencia inicial insignificante. Allana el camino para interacciones en tiempo real con avatares realistas que emulan comportamientos conversacionales humanos.

El enfoque de investigación se centra en generar habilidades visuales afectivas para avatares virtuales de IA, con el objetivo de aplicaciones positivas. No pretenden crear contenido que se utilice para engañar o malinterpretar. Sin embargo, como otras técnicas relacionadas de generación de contenido, aún podría ser potencialmente mal utilizado para suplantar a humanos. Se oponen a cualquier comportamiento que cree contenidos engañosos o perjudiciales de personas reales, y están interesados en aplicar la técnica para avanzar en la detección de falsificaciones. Actualmente, los videos generados por este método aún contienen artefactos identificables, y el análisis numérico muestra que aún hay una brecha para lograr la autenticidad de los videos reales.

Aunque reconocen la posibilidad de mal uso, es imperativo reconocer el sustancial potencial positivo de la técnica. Los beneficios, como mejorar la equidad educativa, mejorar la accesibilidad para personas con desafíos de comunicación, ofrecer compañía o apoyo terapéutico a quienes lo necesitan, entre muchos otros, subrayan la importancia de la investigación y otras exploraciones relacionadas. Están dedicados a desarrollar la IA de manera responsable, con el objetivo de avanzar en el bienestar humano.

Dado dicho contexto, no tienen planes de lanzar una demostración en línea, API, producto, detalles de implementación adicionales o cualquier oferta relacionada hasta estar seguros de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones adecuadas.

Los deepfakes : una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital


Los deepfakes, un término derivado de la combinación de «deep learning» (aprendizaje profundo) y «fakes» (falsificaciones), se han erigido como una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital. Estas tecnologías posibilitan la creación de contenido audiovisual extremadamente realista y manipulado, utilizando algoritmos de inteligencia artificial. Esta capacidad plantea implicaciones de gran envergadura para la seguridad, la privacidad y la confianza en la información en el entorno digital contemporáneo.

Con la proliferación de herramientas y software que facilitan la creación de deepfakes, se ha vuelto cada vez más fácil para cualquier persona con acceso a la tecnología generar videos falsos convincentes. Elaborar un deepfake implica el uso de técnicas avanzadas de inteligencia artificial y procesamiento de imágenes para manipular videos y crear contenido falso que parezca auténtico.

En primer lugar, los deepfakes presentan un riesgo significativo para la integridad de la información y la confianza pública. Al ser capaces de generar vídeos, audios e imágenes indistinguibles de los originales, estos medios manipulados pueden ser utilizados para difundir información falsa, calumnias o propaganda con un grado de credibilidad que puede engañar a los espectadores. Esto plantea un desafío sustancial para la verificación de la información y la capacidad del público para discernir entre lo real y lo falso.

Una de las preocupaciones principales relacionadas con los deepfakes es su capacidad para engañar a los espectadores y hacer que crean que están viendo a individuos reales diciendo o haciendo cosas que nunca ocurrieron. Esta capacidad de crear contenido falso con un nivel de realismo sorprendente plantea riesgos significativos para la seguridad y la privacidad de las personas. Por ejemplo, los deepfakes podrían utilizarse para fabricar vídeos comprometedores de figuras públicas o personas comunes y corrientes, lo que podría causar daño a su reputación y poner en peligro su seguridad personal.

Además de los riesgos individuales, los deepfakes también representan una amenaza para la sociedad en su conjunto. Con la capacidad de generar contenido falsificado convincente, los deepfakes pueden ser utilizados para difundir información falsa y desacreditar a personas o instituciones. Esto socava la confianza en la información y puede alimentar la polarización y la discordia en la sociedad. En el ámbito político, por ejemplo, los deepfakes podrían ser utilizados para crear vídeos manipulados de candidatos o líderes políticos con el objetivo de influir en el resultado de elecciones o desestabilizar gobiernos.

Dada la sofisticación de los deepfakes y su capacidad para engañar a los espectadores, es fundamental desarrollar técnicas efectivas para identificar y mitigar este tipo de contenido falso. Aquí se destacan algunas estrategias clave para detectar deepfakes:

  1. Análisis forense: Los investigadores han desarrollado métodos forenses para analizar la autenticidad de los videos, como la detección de artefactos visuales y anomalías en el contenido. Estos análisis pueden revelar pistas sutiles que indican la manipulación digital, como inconsistencias en la iluminación, la perspectiva o el movimiento facial.
  2. Modelos de aprendizaje automático: Se están utilizando modelos de aprendizaje automático para identificar patrones distintivos en los deepfakes. Estos modelos pueden entrenarse con conjuntos de datos de videos reales y deepfakes para aprender a distinguir entre ambos. Al detectar características específicas asociadas con la generación de deepfakes, estos modelos pueden identificar videos sospechosos y alertar a los usuarios.
  3. Verificación de metadatos: La verificación de metadatos, como la fecha, la hora y el lugar de grabación, puede proporcionar información importante sobre la autenticidad de un video. Los deepfakes a menudo carecen de metadatos coherentes o contienen inconsistencias que pueden ser detectadas mediante un análisis detallado.
  4. Colaboración entre la industria y la academia: La colaboración entre la industria tecnológica y la comunidad académica es crucial para desarrollar y mejorar continuamente las técnicas de detección de deepfakes. Al compartir datos, herramientas y conocimientos, los investigadores pueden avanzar en la capacidad de detectar y mitigar la propagación de contenido falso.
  5. Educación y concienciación: La educación pública sobre los deepfakes y su impacto en la desinformación es fundamental para combatir esta amenaza. Al aumentar la conciencia sobre los riesgos asociados con el consumo de contenido digital y proporcionar herramientas para identificar deepfakes, se puede empoderar a los usuarios para que sean más críticos y cautelosos al interactuar con medios digitales.

De este modo, los deepfakes plantean preocupaciones éticas y legales sobre el uso indebido de la imagen y la voz de las personas. La creación y difusión de deepfakes sin el consentimiento de los sujetos involucrados puede infringir sus derechos de privacidad y dignidad, lo que plantea preguntas sobre la responsabilidad y la regulación de estas tecnologías emergentes. A medida que los deepfakes se vuelven más accesibles y sofisticados, es crucial abordar estas preocupaciones para proteger los derechos y la seguridad de los individuos afectados.

Más de 400 expertos en IA, artistas y políticos firmaron la carta pidiendo regular la propagación de deepfakes dañinos

Shapero, Julia. «Facebook Whistleblower, AI Godfather Join Hundreds Calling for Deepfake Regulation». Text. The Hill (blog), 21 de febrero de 2024. https://thehill.com/policy/technology/4480812-facebook-whistleblower-ai-godfather-deepfake-regulation/.

Más de 400 expertos en IA, artistas y políticos firmaron la carta, que instaba a los gobiernos a aprobar leyes que criminalicen la pornografía infantil generada por deepfakes y establezcan sanciones penales para aquellos que creen o faciliten la propagación de deepfakes dañinos de manera consciente.

La carta también sugirió que los desarrolladores y distribuidores de software estén obligados a prevenir que sus productos creen deepfakes dañinos y sean responsables si sus medidas son fácilmente eludibles.

Los deepfakes, descritos en la carta como «voces, imágenes o videos generados por IA no consensuales y gravemente engañosos, que una persona razonable confundiría como reales», representan riesgos crecientes a medida que la tecnología de IA se ha vuelto más ampliamente disponible.

«Los deepfakes son una gran amenaza para la sociedad humana y ya están causando un daño creciente a individuos, comunidades y al funcionamiento de la democracia», dijo Andrew Critch, investigador de IA de la Universidad de California, Berkeley, y autor principal de la carta, en un comunicado.

«Necesitamos acción inmediata para combatir la proliferación de deepfakes, y mis colegas y yo creamos esta carta como una forma para que las personas de todo el mundo muestren su apoyo a los esfuerzos legislativos para detener los deepfakes», agregó.

Imágenes explícitas generadas por IA de la superestrella del pop Taylor Swift se volvieron virales el mes pasado, lo que llevó a la Casa Blanca a expresar preocupaciones.

«Estamos alarmados por los informes de la circulación de las … imágenes falsas», dijo en ese momento la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre.

«Aunque las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenido, creemos que tienen un papel importante que desempeñar en la aplicación de sus propias reglas para evitar la propagación de información errónea e imágenes íntimas no consensuales de personas reales», agregó.

También se enviaron mensajes que imitaban al presidente Biden a votantes de Nuevo Hampshire el mes pasado, instándolos a no emitir su voto en las primarias del estado y destacando preocupaciones sobre la posible desinformación electoral.

A principios de este mes, la Comisión Federal de Comunicaciones prohibió el uso de voces generadas por IA en llamadas automáticas. La Comisión Federal de Comercio también propuso una regla la semana pasada que prohibiría la suplantación de personas, señalando el reciente aumento de deepfakes generados por IA.

YouTube establece nuevas pautas para videos creados con inteligencia artificial (IA)

Hayes, Dade. «YouTube Issues New Guidelines For Videos Using AI». Deadline (blog), 14 de noviembre de 2023. https://deadline.com/2023/11/youtube-ai-artificial-intelligence-videos-shorts-deepfakes-1235611370/.

En una entrada de blog, el gigante del video digital indicó que el nuevo enfoque establecerá límites para videos que parecen realistas pero dependen de herramientas de inteligencia artificial. La empresa también está implementando nuevas etiquetas para informar a los espectadores cuando el video que están viendo ha sido alterado o creado sintéticamente.

«Esto es especialmente importante en casos en los que el contenido trata temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos», escribieron las vicepresidentas de Gestión de Productos, Jennifer Flannery O’Connor y Emily Moxley, en la entrada del blog. «Los creadores que elijan consistentemente no divulgar esta información pueden estar sujetos a la eliminación de contenido, la suspensión u otras sanciones. Trabajaremos con los creadores antes de implementar esto para asegurarnos de que comprendan estos nuevos requisitos». El auge de la IA ha inquietado a una gran parte de la sociedad, incluido Hollywood, donde actores y escritores recientemente estuvieron seis meses en huelga en parte por preocupaciones sobre el daño potencial que la tecnología podría causar.

La nueva postura de YouTube se produce aproximadamente un mes después de que la empresa presentara un conjunto de nuevas capacidades, incluido un caché de material de IA searchable llamado Dream Screen diseñado para la plataforma Shorts. Shorts, una respuesta a TikTok, ha atraído más de 70 mil millones de vistas diarias de más de 2 mil millones de usuarios registrados. Cuando se le preguntó en ese momento sobre el riesgo de propagar deepfakes u otro contenido engañoso, el CEO Neal Mohan admitió que «podría haber desafíos en torno a tecnologías como esta». Pero dijo que todos los videos mejorados con IA estarían sujetos a las pautas de la comunidad de YouTube. «Las reglas que se aplican al contenido de video en YouTube se aplican a todo lo que viste hoy».

La entrada del blog también menciona que los usuarios que tengan problemas con algún video que encuentren en YouTube pueden participar en un proceso de solicitud de privacidad recientemente ampliado. Este proceso permite a cualquiera solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que simule a una persona identificable, incluyendo su rostro o voz. Esta opción se extiende al ámbito de los videos musicales, donde la IA puede permitir que imitaciones de la voz o estilo único de un artista o rapero se difundan potencialmente.

Webinar “La inteligencia artificial y su impacto en la escritura académica»

 Webinar «LA INTELIGENCIA ARTIFICIAL Y SU IMPACTO EN LA ESCRITURA ACADÉMICA”, dictado por el Lic. Julio Alonso Arévalo, Universidad de Guayaquil, dia 23 de junio de 2023

VER VIDEO

La IA generativa ha demostrado ser una herramienta poderosa para la creatividad y la innovación. A pesar de esta preocupación que suscita entre investigadores y educadores, la capacidad de la tecnología de utilizar consultas y comandos en lenguaje normal para producir resultados aparentemente personalizados la convierte en una herramienta valiosa para la educación y la investigación. Sin embargo, también plantea desafíos éticos y sociales, como la atribución adecuada de obras generadas por máquinas y la posibilidad de la difusión de contenido falso o manipulado. Por lo tanto, es importante abordar estos desafíos y utilizar la IA generativa de manera responsable y ética. La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden ncumplir los derechos de autor de obras existentes.

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto?

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo

Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

VIDEO

Quienes llevamos publicando durante años, a veces no somos conscientes de la importancia que tienen algunos conceptos básicos en torno a la publicación científica. Este video-tutorial tiene como finalidad servir de ayuda a aquellas personas e investigadores noveles que se enfrentan a como publicar.

ChatGPT : la creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica

ChatGPT : la creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica. Buenos Aires (Argentina) 22 de abril de 2023.

VIDEO DE LA CONFERENCIA

Ver Presentación

Ver además ¿Cómo funciona ChatGPT? Guía básica

Pocos temas han generado más tinta en los últimos meses que la aparición de los sistemas de respuesta Generative Pre-trained Transformer (GPT) basados en Inteligencia Artificial (IA) que a través de modelos de aprendizaje automático están revolucionando la capacidad de crear textos. Especialmente desde la aparición a finales de año de ChatGPT de la empresa OpenAI, un chatbot de código abierto lanzado en noviembre de 2022 que utiliza el modelo de lenguaje GPT-3 para generar respuestas a las entradas del usuario. Puede utilizarse para crear chatbots de atención al cliente, marketing u otras aplicaciones. Pero también sirve para generar textos por inteligencia artificial a partir de datos estructurados

Oficios: Restauradora de libros y encuadernadora

OFICIOS: RESTAURADORA DE LIBROS Y ENCUADERNADORA | Episodio 1 | Eugenia Melle | Booktube Argentina 2020

Eugenia Melle creó Colores Santos Taller donde ejerce su profesión como restauradora de libros y encuadernadora. En este primer episodio de la serie OFICIOS (la primera serie documental de Por qué leer) conoceremos el trabajo que la apasiona: reparar libros, darles una segunda vida respetando la que ya tienen.