Archivo de la etiqueta: Imágenes

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

Una revista científica publica una rata generada por inteligencia artificial con un pene gigantesco que se aprobó por un comité de revisión científica de Frontiers

Pearson, J. «Scientific Journal Publishes AI-Generated Rat with Gigantic Penis In Worrying Incident». Vice. February 15, 2024. https://www.vice.com/en/article/dy3jbz/scientific-journal-frontiers-publishes-ai-generated-rat-with-gigantic-penis-in-worrying-incident

Una revista científica publicó esta semana un artículo lleno de imágenes generadas por inteligencia artificial (IA) que carecían de sentido, incluyendo un diagrama erróneo de un pene de rata, en un episodio preocupante que refleja cómo la IA generativa está ingresando en la academia con efectos preocupantes.

El artículo, titulado «Funciones celulares de las células madre espermatogénicas en relación con la vía de señalización JAK/STAT«, fue publicado en la revista de acceso abierto Frontiers in Cell Development and Biology por investigadores de la Hospital de Hong Hui y la Universidad Jiaotong en China. Aunque el contenido del artículo en sí podría ser de interés específico para aquellos con un interés particular en las células madre de mamíferos pequeños, las figuras publicadas con el artículo son otra historia completamente diferente.

Una de las figuras incluye un diagrama de un pene de rata disecado, con texto garabateado y etiquetas incorrectas que sugieren que el pene de la rata es más del doble del tamaño de su cuerpo. Otras figuras generadas por IA en el artículo también presentan un abundante sinsentido textual y visual, como diagramas celulares que parecen más pizzas alienígenas que cualquier cosa relacionada con la biología. Es incierto cómo estas imágenes pudieron pasar por el proceso de edición, revisión por pares y publicación.

A pesar de que uno de los revisores del artículo señaló que no era su responsabilidad evaluar la precisión de las imágenes generadas por IA, la política de la revista Frontiers establece que el autor es responsable de verificar la precisión factual de cualquier contenido creado por la tecnología IA generativa. Esta discrepancia resalta la creciente preocupación sobre el manejo de la IA generativa en la investigación académica.

La tendencia creciente de la IA generativa en la academia preocupa a científicos y observadores, y algunas publicaciones, como Nature, han comenzado a adoptar políticas para abordar este problema. Nature, por ejemplo, prohibió el uso de IA generativa para imágenes y figuras en artículos el año pasado, citando riesgos para la integridad científica. Este incidente subraya la necesidad de que la comunidad científica establezca estándares claros y políticas efectivas para abordar los desafíos éticos y de calidad relacionados con el uso de la IA en la investigación.

DALL-E: la herramienta de Open AI para generar imágenes por IA

DALL-E

https://openai.com/dall-e-2

DALL-E es un modelo generativo desarrollado por OpenAI que se basa en la arquitectura GPT (Generative Pre-trained Transformer). La particularidad de DALL-E es su capacidad para generar imágenes a partir de descripciones textuales. Fue presentado por OpenAI en enero de 2021.

A diferencia de otros modelos generativos que trabajan con texto, como GPT-3, DALL-E está diseñado específicamente para generar imágenes realistas a partir de descripciones textuales. Puede crear imágenes completamente nuevas y originales que se ajustan a las descripciones dadas como entrada. Por ejemplo, si se le proporciona un texto que dice «un elefante rosa con alas», DALL-E intentará generar una imagen que coincida con esa descripción. La herramienta es de pago, y se necesitan comprar créditos

DALL-E se entrena en grandes conjuntos de datos que contienen imágenes y sus descripciones correspondientes. Luego, se puede utilizar para generar imágenes nuevas a partir de descripciones textuales que no formaron parte de los datos de entrenamiento.


La función de edición de DALL·E ya permite realizar cambios dentro de una imagen generada o cargada, una capacidad conocida como «Inpainting». Ahora, con «Outpainting», los usuarios pueden ampliar la imagen original, creando imágenes a gran escala en cualquier relación de aspecto. «Outpainting» tiene en cuenta los elementos visuales existentes en la imagen, incluyendo sombras, reflejos y texturas, para mantener el contexto de la imagen original.

Este enfoque tiene aplicaciones en la generación de contenido visual, diseño gráfico, y en general, en cualquier situación en la que se desee convertir descripciones textuales en imágenes de manera automatizada y creativa.

Estamos en 2023 y la inteligencia artificial te permite crear una imagen a partir de una descripción.

Estamos en 2023 y la inteligencia artificial te permite crear una imagen a partir de una descripción. Es asombroso. (Via Neuron)

Dos preguntas:

  • ¿Qué generadores de imágenes deberías utilizar?
  • ¿Para qué utilizarlos?

Midjourney era y sigue siendo la mejor opción para imágenes hiperrealistas y abstractas. Pero hay una curva de aprendizaje empinada


Hay dos promesas dignas de mención:


DALL-E 3 de OpenAI: Merece la pena usarlo cuando la imagen necesita elementos de texto, como dibujos animados, marcas, memes, etc.

Adobe Firefly Image 2: este modelo acaba de subir de nivel: puede hacer cosas como la textura de la piel y las manos bastante bien.

La gran ventaja es que Adobe es una apuesta segura para las empresas. Adobe no entrena a su IA con arte no autorizado y acaba de lanzar Content Credentials, una «etiqueta digital» que muestra cómo se hizo una imagen y quién la hizo. Firefly ha recibido un montón de mejoras esta semana, como la ampliación de fotos y la alineación de estilos con tu marca.

Estos generadores de imágenes resultan muy útiles para cualquier proyecto que incluya elementos visuales:
– Imágenes para blogs, redes sociales o marketing digital.

– diseños de productos.

– moda/diseño de interiores.

– diagramas/ilustraciones para contenido educativo.

– miniaturas (que ahora puedes probar A/B con ChatGPT-4V)».

Stable Diffusion permite que cualquiera pueda generar casi cualquier realidad visual que pueda imaginar con Inteligencia Artificial

Stable Diffusion

La generación de imágenes mediante inteligencia artificial ha alcanzado un nivel impresionante. Gracias a un modelo de síntesis de imágenes de código abierto llamado «Stable Diffusion», prácticamente cualquier persona con un ordenador personal y una GPU competente puede materializar casi cualquier imagen visual que pueda concebir. Este modelo tiene la habilidad de emular una amplia gama de estilos visuales y, al proporcionar una simple descripción, los resultados parecen surgir en la pantalla como por arte de magia.

Esta innovación ha suscitado diversas reacciones entre los artistas, algunos de los cuales están entusiasmados con las posibilidades que ofrece, mientras que otros se sienten preocupados. La sociedad en general todavía no es plenamente consciente de la revolución tecnológica que se está gestando en las comunidades de Twitter, Discord y Github. Podría argumentarse que la síntesis de imágenes posee implicaciones tan trascendentales como la invención de la cámara fotográfica, o incluso la creación misma de las artes visuales. Incluso nuestra comprensión de la historia podría verse afectada por el curso que tomen estos acontecimientos. En cualquier caso, Stable Diffusion lidera una nueva ola de herramientas creativas basadas en el aprendizaje profundo que están a punto de transformar la creación de contenido visual de manera significativa.

Una imagen manipulada por IA del Pentágono explotando en llamas causó que bajara el mercado de valores de Estados Unidos

Una imagen con humo negro que se eleva al lado de un edificio de aspecto burocrático se difundió por las redes sociales el lunes por la mañana, con la afirmación de que mostraba una explosión cerca del Pentágono. En cuestión de minutos, una ola de cuentas de redes sociales, incluyendo algunas cuentas verificadas, compartieron la imagen falsa, amplificando aún más la confusión.

La publicación causó un breve sobresalto en el mercado de valores cuando rápidamente fueron recogidas por medios de comunicación fuera de Estados Unidos, antes de que los funcionarios intervinieran para aclarar que en realidad no había ocurrido ninguna explosión y que la foto era falsa.

Los expertos afirman que la imagen viral tenía señales evidentes de ser una falsificación generada por IA, y su popularidad subraya el caos cotidiano que estos programas, cada vez más sofisticados y de fácil acceso, pueden causar.

Hay muchas herramientas de IA generativa, como Midjourney, Dall-e 2 y Stable Diffusion, que pueden crear imágenes realistas con muy poco esfuerzo. Estas herramientas se entrenan observando grandes volúmenes de imágenes reales, pero rellenan los huecos con su propia interpretación cuando faltan datos de entrenamiento. Esto puede dar lugar a personas con extremidades adicionales y objetos que se transforman con su entorno.

Este incidente destaca las posibles amenazas que las imágenes generadas por IA pueden presentar en el ámbito de las redes sociales, donde se comparten rápidamente, así como la necesidad de un sistema de verificación en Twitter.

Con el auge de las imágenes generadas por inteligencia artificial, distinguir lo real de lo falso va a ser mucho más difícil.

Con la nueva versión de Photoshop lanzada la semana pasada, los usuarios ahora pueden manipular o agregar elementos a una imagen en cuestión de segundos, simplemente dando una instrucción al programa. La versión beta de la nueva función «Generative Fill» de Adobe llega después de varios avances en software de generación de imágenes durante el último año.

Se espera que esta función esté disponible para el público en general en la segunda mitad de 2023, lo que significa que podemos esperar estar inundados de imágenes cada falsas (Adobe cuenta con millones de usuarios de productos creativos).

«Nos estamos adentrando en un mundo en el que tú y yo ya no podemos creer que si vemos una imagen del Papa usando una chaqueta hinchada y caminando fuera del Vaticano, realmente sea él», dijo Maura Grossman, profesora investigadora en la escuela de ciencias de la computación de la Universidad de Waterloo, quien ha estado estudiando las implicaciones del mundo real de las imágenes generadas por IA. Ver video

La inteligencia artificial plantea un «riesgo de extinción», advierten ejecutivos y expertos en tecnología. En marzo, se creó una imagen del Papa con otro programa, Midjourney, y se publicó en Reddit. La imagen se compartió ampliamente en línea y muchos inicialmente creyeron que era real, ilustrando el poder y el peligro de esta tecnología.

Riesgos y recompensas

Esta tecnología tiene posibilidades emocionantes para aquellos en campos creativos (aunque hay obstáculos en esta etapa temprana y algunas de las imágenes claramente parecen manipuladas).

Sin embargo, también hará cada vez más difícil distinguir entre lo que es real y lo que no lo es. Justo la semana pasada, una imagen manipulada del Pentágono explotando en llamas causó que el mercado de valores de Estados Unidos bajara brevemente después de que varios medios internacionales la difundieran. Se alienta a los usuarios de la función de IA de Photoshop a utilizar lo que llaman «credenciales de contenido». Adobe describe las credenciales como una «etiqueta nutricional» para las imágenes, diseñada para dejar claro si un contenido fue generado o editado por IA.

Iconclass: tesauro para indexar imágenes

Iconclass

https://iconclass.org/

Iconclass es un sistema internacional de clasificación de la iconografía, utilizado en museos de todo el mundo. Iconclass proporciona acceso temático a las colecciones de muchos museos y bibliotecas, pero su vocabulario abarca un espectro de comunicación visual más amplio que el del ámbito tradicional del patrimonio cultural.

Iconclass comenzó como una idea de Henri van de Waal, profesor de Historia del Arte en la Universidad de Leiden. Él sentó las bases a partir de los años 40. Primero se publicó en forma impresa y luego se digitalizó. La Fundación Henri van de Waal se encarga de su mantenimiento y desarrollo, pero para un futuro estable y sostenible la Fundación necesita el apoyo activo de la comunidad de usuarios de Iconclass.

La visión del mundo de Iconclass se subdivide en 10 categorías principales. El alcance de cada una de estas categorías se demuestra aquí con una selección aleatoria de imágenes etiquetadas con conceptos Iconclass. Un concepto Iconclass consta de un número de clase alfanumérico («notación») y de una definición de contenido correspondiente («correlato textual»). Un objeto puede ser etiquetado con tantos conceptos como el usuario considere oportuno. Las muestras de nuestro conjunto de demostración están etiquetadas con un solo concepto.

Instagram y la imagen contemporánea

Manovich, Lev. Instagram y la imagen contemporánea– Ciudad de México: Universidad Autónoma Metropolitana, 2020

Texto completo

Las opiniones son, a menudo, excepciones altamente atípicas que eclipsan la masa de imágenes más ordinarias

Alise Tifentale, Art of the Masses: From Kodak Brownie to Instagram, 2015.

¿Qué comparte la gente en Instagram? ¿Y por qué hoy en día Instagram es una plataforma perfecta para estudiar la fotografía popular alrededor del mundo? La mayoría de las discusiones acerca de Instagram en medios populares se dedican sólo a algunos casos: autorretratos, celebridades, estrellas de instagram y blogueros de moda.

PimEyes: herramienta de reconocimiento facial por aprendizaje automático

 

ef4ee21f-pim

 

PimEyes

 

PimEyes es una herramienta avanzada que te ayudará a encontrar la cara que busca en Internet. Esto es posible gracias a la última tecnología: reconocimiento facial combinado con el poder del aprendizaje automático.

Puede enviar una imagen de la cara a PimEyes para encontrar a la persona en Internet. PimEyes utiliza algoritmos modernos de reconocimiento facial y el poder del aprendizaje automático para generar resultados de búsqueda de la más alta calidad. La aplicación se centra solo en reconocimiento de caras, la composición y los colores de la imagen no son importantes. El  motor de búsqueda no compara el corte de pelo, solo importan los rasgos faciales.

Según la información que proporciona la página, la imagen que envías a PimEyes se guarda temporalmente durante 48 horas. No almacena ningún dato privado de los usuarios. Buscar con PimEyes es seguro y está protegido. Si desea eliminar su imagen, utilice el botón especial «Informar abuso» en la esquina inferior derecha de cada resultado de búsqueda. Luego complete el formulario y envíe su solicitud.

Con la versión gratuita de PimEyes, puedes buscar en toda la base de datos de PimEyes. Sin embargo, si no es un miembro premium, no podrás averiguar dónde se encuentra una imagen específica. Los miembros Premium también tienen acceso a funciones adicionales, por ejemplo, filtros de búsqueda, y mayores límites de alertas de PimEyes.