Archivo de la etiqueta: Video

Estrategias prácticas para impulsar la alfabetización en inteligencia artificial (IA)

EDUCAUSE Shop Talk, “A Practical Guide to AI Literacy,” con Sophie White y Jenay Robert, con Leo S. Lo, Jeanne Beatrix Law y Anissa Vega (episodio de podcast), 11 de agosto de 2025, YouTube, https://www.youtube.com/watch?v=m8xnGS1bli8.

El video plantea un enfoque realista y flexible para promover la alfabetización en IA en el ámbito universitario: ofrecer diversas vías de acceso a la formación, iniciar proyectos pequeños y escalables, fomentar la experimentación conjunta, aplicar una mirada crítica, dar opciones al profesorado y motivar el aprendizaje auténtico por encima de la mera obtención de resultados.

Sophie White y Jenay Robert conversan con Leo S. Lo, Jeanne Beatrix Law y Anissa Vega sobre estrategias prácticas para impulsar la alfabetización en inteligencia artificial (IA) entre estudiantes y docentes. La conversación parte de la idea de que ofrecer múltiples puntos de entrada para que el profesorado se forme y experimente con IA es esencial para generar confianza y permitir que guíen a sus estudiantes.

Los invitados coinciden en que es clave comenzar en pequeño y avanzar de forma iterativa. No se trata de esperar a tener el modelo perfecto, sino de poner en marcha experiencias iniciales que puedan mejorarse con el tiempo. Leo S. Lo describe cómo en su universidad han organizado programas de varias semanas para personal bibliotecario, combinando introducción, diseño de proyectos, comunidades de práctica y presentaciones finales. Además, se destaca la utilidad de marcos prácticos que sirvan como referencia inicial para organizar la enseñanza de IA, aunque puedan ajustarse después según la experiencia.

Otro aspecto central es el tinkering, es decir, experimentar y probar herramientas junto a los estudiantes. Jeanne Beatrix Law insiste en que esta práctica fomenta la curiosidad y el pensamiento crítico, especialmente cuando se incorporan elementos como datos de impacto ambiental en los resultados generados por IA. En Kennesaw State University, el profesorado también tiene libertad para decidir cómo incluir la IA en sus clases, lo que ha facilitado la aceptación y la confianza. Esta flexibilidad se complementa con un comité institucional que define políticas claras y orientaciones para el uso de IA.

La alfabetización en IA no implica solo saber usar herramientas, sino también entenderlas críticamente. Incluso quienes deciden no incorporarlas pueden beneficiarse de conocer su funcionamiento y sus implicaciones. Anissa Vega subraya que, igual que al enseñar a conducir se busca evitar riesgos reales más allá de las sanciones, en IA se debe motivar a los estudiantes a aprender por el valor del conocimiento, no solo por la calificación.

Finalmente, los ponentes comparten consejos prácticos: Leo S. Lo recomienda aprender a través de recursos accesibles como YouTube o LinkedIn; Jeanne Beatrix Law aconseja no temer al fracaso, confiar en el alumnado y reutilizar recursos educativos abiertos (OER); Anissa Vega sugiere leer Co-Intelligence de Ethan Mollick y organizar sesiones de experimentación colaborativa con colegas. Sophie White cierra recordando que el aprendizaje académico no siempre proviene de publicaciones revisadas por pares y que, a menudo, probar y ajustar es la mejor vía para aprender en profundidad.

Kling AI puede crear videos impresionantes con inteligencia artificial en segundos

KlingAI

Kling AI es una herramienta de generación de videos mediante inteligencia artificial que está ganando mucha popularidad por su capacidad de crear videos fluidos y realistas a partir de diferentes entradas, ya sea texto o imágenes. Actualmente, la herramienta funciona con su modelo avanzado Kling 2.0 Master, que ofrece resultados de alta calidad y múltiples opciones creativas.

Kling AI es un software que permite generar videos utilizando técnicas avanzadas de inteligencia artificial. Al igual que otras herramientas similares (como Sora), ofrece la posibilidad de crear videos animados a partir de textos o imágenes, además de editar videos ya existentes con funciones especiales.

Al acceder a Kling, el usuario se encuentra con un panel de control con varias opciones. En la barra lateral izquierda se pueden explorar videos creados por otros usuarios, revisar los propios proyectos y modificar configuraciones. El área más importante es la de generación con IA, donde se puede elegir entre crear imágenes, editarlas, producir videos o generar sonidos.

Esta función es probablemente la más fácil para empezar. El usuario escribe una descripción o prompt tan detallado como quiera, y Kling genera un video basado en esa descripción. Además, incorpora presets que ayudan con ideas para prompts, como “Una mujer mira a la cámara y se pasa la mano por el cabello” o “Un cachorro leyendo un libro en una cafetería”. También permite agregar “prompts negativos” para eliminar elementos no deseados del video. Con solo ingresar el texto y hacer clic en generar, se obtiene el video inicial que luego se puede modificar.

Para aquellos que quieran animar memes u otras imágenes, Kling ofrece una función para transformar imágenes estáticas en videos animados. Puedes usar imágenes predefinidas o subir las tuyas propias, combinando con prompts para ajustar la animación y eliminando elementos no deseados con los prompts negativos.

Mult-Elements es una función avanzada que permite subir una imagen o video para luego modificar elementos específicos dentro de ellos. Por ejemplo, se puede insertar digitalmente a alguien que no estaba presente en un video familiar, eliminar a personas no deseadas que aparecen en el fondo o reemplazar objetos dentro de la escena. Kling facilita esta tarea generando automáticamente los prompts necesarios para estas modificaciones, y permite obtener hasta cuatro resultados diferentes por cada edición.

Los videos creados con Kling 2.0 suelen ser detallados y con bastante movimiento. Sin embargo, la calidad puede variar dependiendo de la complejidad del prompt. La recomendación es centrarse en una idea clara para evitar resultados confusos. Usar una foto clara como base o un sujeto bien definido en el texto mejora notablemente la calidad del video generado.

Kling ofrece diferentes planes de suscripción. La versión más económica cuesta 10 dólares al mes e incluye eliminación de marcas de agua y créditos para videos cortos (hasta 10 segundos). El siguiente nivel cuesta 37 dólares al mes y ofrece mayor control y calidad hasta Full HD. Finalmente, el plan Premier cuesta 92 dólares al mes y brinda créditos adicionales y funciones avanzadas.

También hay una versión gratuita disponible, pero con acceso limitado a créditos y sin acceso al modelo más reciente.

OpenAI lleva el vídeo al modo de voz avanzado de ChatGPT

Mauran, Cecily. «OpenAI Brings Video to ChatGPT Advanced Voice ModeMashable, December 12, 2024. https://mashable.com/article/openai-brings-video-to-chatgpt-advanced-voice-mode.

A partir del 12 de diciembre de 2024, OpenAI ha incorporado nuevas capacidades visuales al Modo de Voz Avanzado (AVM) de ChatGPT, que ahora incluye funciones de video y compartición de pantalla. Ahora, los usuarios pueden interactuar con ChatGPT utilizando la cámara de su teléfono, permitiendo que el modelo «vea» lo que ellos ven en tiempo real.

la actualización de Advanced Voice Mode (AVM) se había anticipado en mayo con el lanzamiento de GPT-4o, pero hasta ahora solo estaba disponible la modalidad de audio.Durante una demostración en vivo, el equipo de OpenAI, encabezado por el CPO Kevin Weil, mostró cómo ChatGPT puede asistir en tareas como preparar café con un filtro de goteo. Al apuntar la cámara hacia el proceso, ChatGPT comprendió el principio de la máquina y guió al equipo paso a paso en la preparación del café. También se mostró cómo la función de compartición de pantalla permite que ChatGPT entienda lo que aparece en la pantalla de un teléfono, como un mensaje abierto.

Este anuncio se produjo justo después de que Google presentara la próxima generación de su modelo insignia Gemini 2.0, que también tiene la capacidad de procesar entradas visuales y auditivas, con mayores capacidades de agente, permitiendo realizar tareas complejas en nombre del usuario.

En cuanto a la demostración de OpenAI, se destacó cómo ChatGPT, con su modalidad visual, pudo identificar objetos con precisión e incluso ser interrumpido en medio de la interacción. Además, se añadió una opción de voz de Santa Claus en el Modo de Voz, con una voz profunda y alegre que decía «ho-ho-ho». Esta función se activa tocando el ícono de copo de nieve en la aplicación de ChatGPT, aunque los usuarios son advertidos de que está destinada solo a mayores de 13 años. Aún no se ha confirmado si la voz de Santa Claus fue proporcionada por el propio Santa o si OpenAI la utilizó sin su consentimiento previo.

A partir de hoy, las funciones de video y compartición de pantalla están disponibles para los usuarios de ChatGPT Plus y Pro, y se espera que estén disponibles para Enterprise y Edu en enero de 2025.

Aplicaciones móviles en bibliotecas


Alonso-Arévalo, J. (2017). Aplicaciones móviles en bibliotecas. VIII Congreso Nacional de Bibliotecas Públicas, Palacio de Congresos de Toledo, 16 y 17 de noviembre de 2016, pp.: 24-35

CONFERENCIA Ponencia de Julio Alonso, jefe de Biblioteca de la Facultad de Traducción y Documentación de la Universidad de Salamanca 14 dic 2016

Texto completo

La web móvil, en pocas palabras, y de manera sencilla tiene que ver con la posibilidad de acceder a la World Wide Web a través de un dispositivo móvil, es decir, desde un teléfono celular o desde una tableta. El atractivo de las tecnologías de comunicaciones móviles es que permiten la comunicación inmediata en movimiento, facilitando que las personas entren en contacto entre sí, independientemente del tiempo y del lugar. Las aplicaciones de teléfonos inteligentes están siendo las líderes del universo digital y ahora están cerca de ser aquello en lo que invertimos más cantidad de tiempo de entre todos los medios digitales. Algunas de estas aplicaciones pueden no parecer fácilmente aplicables a las bibliotecas, pero es necesario tener en cuenta que otras entidades de ámbito público o privado están haciendo uso de estas tecnologías móviles, y que esto puede ser muy valioso para desencadenar nuevas ideas e iniciativas, ya que la innovación en cualquier arena se construye sobre una base de conocimientos. Por lo cual, las bibliotecas debemos tener en cuenta las tecnologías que están usando nuestros usuarios para ofrecer nuevos servicios más robustos sin hacer que los usuarios dejen sus zonas de confort para integrar los servicios de la biblioteca en los patrones de comportamiento de la vida diaria de las personas. En su nivel más básico, un número cada vez mayor de las bibliotecas están creando versiones móviles de sus sitios web para facilitar el acceso de sus usuarios a los contenidos y servicios ofrecidos por la biblioteca. Estas aplicaciones proporcionan información sobre los servicios de bibliotecas y colecciones, el acceso a la búsqueda en el catálogo, contenidos digitales, localización, horarios y guías temáticas a través de formatos adaptados a la pequeña pantalla. Pero el universo de aplicaciones va más allá, Cuando hablamos de aplicaciones móviles en bibliotecas hemos de tener en cuenta al menos tres áreas de aplicación: aplicaciones de bibliotecas. aplicaciones de lectura e investigación y aplicaciones útiles para la vida cotidiana (ALFIN).

ChatGPT permite usar la cámara del móvil para que la IA analice lo que ve y responda en tiempo real.

Advanced Voice Mode

Con la incorporación reciente de visión (Advanced Voice Mode con visión), ahora también puede interpretar lo que ve a través de la cámara del dispositivo o lo que aparece en la pantalla mediante el uso compartido de pantalla.

OpenAI ha lanzado una nueva función para ChatGPT llamada Advanced Voice Mode con visión, que permite usar la cámara del móvil para que la IA analice lo que ve y responda en tiempo real. Por ejemplo, puedes apuntar a un objeto y ChatGPT te dirá qué es. Además, ahora puede entender lo que aparece en la pantalla de tu dispositivo mediante el uso compartido de pantalla, ayudándote con configuraciones o incluso con problemas matemáticos.

Esta función está disponible para los usuarios de las suscripciones Plus, Team y Pro de ChatGPT. Para usarla, solo hay que tocar el icono de video en la app o activar la opción de «compartir pantalla» desde el menú. Sin embargo, no todos tendrán acceso inmediato: los usuarios de la UE, Suiza, Islandia, Noruega y Liechtenstein tendrán que esperar, al igual que los suscriptores de ChatGPT Enterprise y Edu, que lo recibirán en enero.

Durante las pruebas, ChatGPT mostró habilidades interesantes, como interpretar dibujos anatómicos en tiempo real, aunque también cometió errores en problemas de geometría. Esto demuestra que la función aún puede fallar, pero marca un gran avance en el uso de inteligencia artificial para interactuar con el mundo real.

¿Qué es Advanced Voice Mode de OpenAI?
Advanced Voice Mode es una función de ChatGPT que permite interactuar de manera más natural con la inteligencia artificial utilizando la voz. Esta tecnología hace que ChatGPT sea capaz de responder en tiempo real con una voz humanizada y mantener conversaciones más fluidas, como si estuvieras hablando con otra persona.

Con la incorporación reciente de visión (Advanced Voice Mode con visión), ahora también puede interpretar lo que ve a través de la cámara del dispositivo o lo que aparece en la pantalla mediante el uso compartido de pantalla.


¿Qué se puede hacer con Advanced Voice Mode?

  1. Conversaciones por voz:
    Habla con ChatGPT en lugar de escribir, y recibe respuestas habladas de forma natural. Ideal para cuando necesitas manos libres o quieres una interacción más directa.
  2. Reconocimiento visual en tiempo real:
    Apunta la cámara del móvil hacia un objeto y ChatGPT puede identificarlo o describirlo. Por ejemplo, podría reconocer un utensilio de cocina, una planta o un dispositivo tecnológico.
  3. Interacción con la pantalla del dispositivo:
    Al compartir la pantalla, ChatGPT puede interpretar menús, configuraciones o aplicaciones, y ayudarte a navegar por ellas o resolver problemas. Por ejemplo:
    • Explicar opciones en la configuración del teléfono.
    • Dar sugerencias para resolver problemas matemáticos que se muestran en la pantalla.
  4. Asistencia en tareas visuales:
    ChatGPT puede analizar dibujos o imágenes en tiempo real. Por ejemplo, puede evaluar un boceto, identificar formas o sugerir mejoras.
  5. Experiencia personalizada:
    Gracias a su capacidad de comprensión multimodal, combina texto, voz y visión para ofrecer respuestas adaptadas y ricas en contexto.

OpenAI también lanzó una función adicional llamada  “Santa Mode,”, que permite cambiar la voz de ChatGPT a la de Santa Claus, agregando un toque festivo para esta temporada navideña. Mientras tanto, otras empresas como Google y Meta trabajan en funciones similares para sus propios asistentes de IA.

La biblioteca como motor de cambio en su entorno «Manifestación por la poesía»

MANUEL HERNÁNDEZ LEAL «Manifestación por la poesía. La biblioteca como motor de cambio en su entorno» JORNADA TRANSFRONTERIZA #coopera
“Bibliotecas en Comunidad”/ “As Bibliotecas na Comunidade”

Manuel Hernández Leal explicó el alcance de cómo estas instituciones permiten el cambio al promover la participación y la inclusión, a través de una iniciativa ciudadana que denominó “Manifestación por la poesía”.

Manuel, bibliotecario de la biblioteca Pública de Villamayor (Salamanca) destaca la importancia de que los bibliotecarios se adapten al entorno para hacer que las bibliotecas sean útiles y atractivas, convirtiéndolas en lugares que inviten a soñar y que la comunidad sienta como propios. Afirma que las bibliotecas son espacios divertidos y resalta actividades como «poner el libro en escena», «vestir la biblioteca» o «galletas para perros». Su trabajo en Villamayor es un ejemplo de compromiso y dedicación que inspira en otros municipios.

Inteligencia artificial y su impacto en la escritura académica

Alonso Arévalo, Julio. «Inteligencia artificial y su impacto en la escritura académica.» INVESCOL II JORNADA DE INVESTIGACIÓN EN ENFERMERÍA: INTELIGENCIA ARTIFICIAL Y ENFERMERÍA Salamanca, 25 de octubre de 2024 Salamanca (2024).

La inteligencia artificial (IA) está transformando la escritura académica al proporcionar herramientas que simplifican la investigación, redacción y edición de documentos. A través de algoritmos avanzados, la IA puede analizar grandes volúmenes de información, identificar patrones y sugerir ideas, lo cual facilita el desarrollo de textos académicos. Estas herramientas apoyan a estudiantes y docentes al ofrecer recomendaciones sobre vocabulario, estructura y citas bibliográficas, además de mejorar la calidad de los escritos al detectar errores gramaticales y de estilo. No obstante, la IA debe ser vista como una ayuda que complementa, sin reemplazar, el pensamiento crítico y la creatividad esenciales en la escritura académica.

Google Lens permite la función de buscar contenido en un video

BGR. Google Lens has a brilliant new feature that lets you search the web with a video [Internet]. BGR; 2023 [citado 2024 Oct 2]. Disponible en: https://bgr.com/tech/google-lens-has-a-brilliant-new-feature-that-lets-you-search-the-web-with-a-video/

Google Lens, una herramienta excelente para buscar en la web, ha incorporado una nueva función que permite a los usuarios cargar videos para realizar búsquedas basadas en su contenido. Esta característica fue presentada en Google I/O 2024, donde también se mostró Project Astra, una mejora importante para el sistema Gemini, que permite a la IA responder en tiempo real usando la cámara del teléfono.

La nueva función de búsqueda con video de Google Lens ya se está implementando. Los usuarios podrán grabar videos de su entorno y solicitar información relacionada. Al utilizar la aplicación, los usuarios pueden mantener presionado el botón de obturación para grabar un breve video y hacer preguntas por voz sobre lo que están grabando.

Aunque los resultados pueden no ser perfectos, como en el caso de un smartwatch que no fue identificado con precisión, la herramienta sigue siendo útil y se espera que mejore con el tiempo. Actualmente, esta función parece estar disponible primero para usuarios de Android, aunque es probable que también llegue a usuarios de iPhone pronto. Apple ha desarrollado una función similar llamada Visual Intelligence para el iPhone 16, que permite a la IA interactuar visualmente con el entorno del usuario.

El estado de los servicios de streaming en bibliotecas

Enis, Matt. «Full Stream Ahead: The State of Library Streaming Services». Library Journal. Accedido 4 de abril de 2024. https://www.libraryjournal.com/story/news/full-stream-ahead-the-state-of-library-streaming-services.

Los servicios de entretenimiento de las bibliotecas que ofrecen películas y programas de televisión están ganando terreno frente a los servicios de streaming comerciales mientras los consumidores se muestran reacios a los costos de suscripción.

El streaming se ha vuelto omnipresente en los Estados Unidos. Según una encuesta demográficamente diversa de 1.000 personas realizada por la empresa de investigación de mercado OnePoll y Forbes Home publicada en febrero, los estadounidenses ahora pasan, en promedio, un poco más de tres horas al día viendo diferentes formas de medios digitales. El noventa y nueve por ciento de los encuestados dijeron tener una suscripción a al menos un servicio de streaming, siendo Netflix el servicio de pago más popular para ver películas y programas de televisión. El servicio de streaming de video Kanopy de OverDrive alcanzó nuevos récords en 2023, sumando 3.6 millones de nuevos usuarios, lo que representa un crecimiento del 6 por ciento con respecto a 2022; se vieron 13 millones de horas, un aumento del 14 por ciento; y se realizaron 24 millones de reproducciones en total, un aumento del 9 por ciento.

Sin embargo, la consultora global Simon-Kucher señala en su estudio Global Streaming Study más reciente, publicado en julio de 2023, que la «fatiga de suscripción» está en aumento, con el presupuesto general que las personas están dispuestas a gastar en servicios de streaming en declive.

El informe destaca el crecimiento significativo de plataformas como Kanopy y hoopla, que han experimentado un aumento en usuarios y horas de visualización. sin embargo, la fatiga de suscripción en canales comerciales está llevando a algunos consumidores a reducir el número de servicios a los que se suscriben, también está impulsando el crecimiento de servicios gratuitos con publicidad, lo que beneficia a las plataformas de streaming de bibliotecas.

Se discuten modelos de licencia, con un enfoque en las preferencias por servicios de tarifa plana frente a opciones de pago por uso. Aunque los modelos de tarifa plana son más preferidos por su previsibilidad y facilidad de presupuesto, algunas bibliotecas aún se muestran cautelosas con los costos variables asociados con el pago por uso.

El artículo también resalta la importancia del contenido ofrecido en estos servicios, que incluye una variedad de películas, documentales y programas de televisión populares. A medida que las bibliotecas trabajan para promover estos servicios de manera efectiva, se enfatiza la necesidad de equilibrar la promoción de plataformas específicas con la promoción de contenido de calidad.

En general, el artículo concluye que los servicios de streaming de bibliotecas tienen un futuro prometedor, ya que ofrecen una opción atractiva y económica para los consumidores, y están bien posicionados para satisfacer las preferencias de los usuarios en términos de precio, selección de contenido y conveniencia.

El impacto de las imágenes y videos generados por IA en la investigación científica: ¿Beneficio o Perjuicio?

Wong, Carissa. «AI-Generated Images and Video Are Here: How Could They Shape Research?» Nature, 7 de marzo de 2024. https://doi.org/10.1038/d41586-024-00659-8.

Así como muchos investigadores están utilizando ChatGPT para transformar el proceso de escritura científica, otros están utilizando generadores de imágenes de IA como Midjourney, Stable Diffusion y DALL-E para reducir el tiempo y el esfuerzo necesarios para producir diagramas e ilustraciones. Sin embargo, los investigadores advierten que estas herramientas de IA podrían impulsar un aumento en los datos falsos y las imágenes científicas inexactas. Nature examina cómo los investigadores están utilizando estas herramientas y lo que su creciente popularidad podría significar para la ciencia.

¿Cómo funcionan las herramientas de texto a imagen? Muchas herramientas de IA de texto a imagen, como Midjourney y DALL-E, se basan en algoritmos de aprendizaje automático llamados modelos de difusión que están entrenados para reconocer los vínculos entre millones de imágenes extraídas de Internet y descripciones de texto de esas imágenes. Estos modelos han avanzado en los últimos años gracias a mejoras en hardware y la disponibilidad de grandes conjuntos de datos para el entrenamiento. Después del entrenamiento, los modelos de difusión pueden utilizar indicaciones de texto para generar nuevas imágenes.

¿Para qué los están utilizando los investigadores? Algunos investigadores ya están utilizando imágenes generadas por IA para ilustrar métodos en artículos científicos. Otros los están utilizando para promocionar artículos en publicaciones en redes sociales o para mejorar las diapositivas de presentaciones. «Están utilizando herramientas como DALL-E 3 para generar imágenes llamativas que enmarcan conceptos de investigación», dice el investigador de IA Juan Rodríguez de ServiceNow Research en Montreal, Canadá. «Di una charla el jueves pasado sobre mi trabajo y utilicé DALL-E 3 para generar imágenes atractivas para mantener la atención de las personas», dice.

También están aumentando las herramientas de texto a video, pero parecen ser menos utilizadas por investigadores que no están desarrollando o estudiando activamente estas herramientas, dice Rodríguez. Sin embargo, esto podría cambiar pronto. El mes pasado, OpenAI, creador de ChatGPT en San Francisco, California, lanzó videoclips generados por una herramienta de texto a video llamada Sora. «Con los experimentos que vimos con Sora, parece que su método es mucho más robusto para obtener resultados rápidamente», dice Rodríguez. «Estamos en una etapa temprana en términos de texto a video, pero supongo que este año descubriremos cómo se desarrolla esto», agrega.

¿Cuáles son los beneficios de utilizar estas herramientas? Las herramientas de IA generativas pueden reducir el tiempo necesario para producir imágenes o figuras para artículos, carteles de conferencias o presentaciones. Convencionalmente, los investigadores utilizan una variedad de herramientas no de IA, como PowerPoint, BioRender e Inkscape. «Si realmente sabes cómo usar estas herramientas, puedes hacer figuras realmente impresionantes, pero lleva tiempo», dice Rodríguez.

Las herramientas de IA también pueden mejorar la calidad de las imágenes para los investigadores que encuentran difícil traducir conceptos científicos en ayudas visuales, dice Rodríguez. Con la IA generativa, los investigadores aún crean la idea principal de la imagen, pero pueden usar la IA para refinarla, dice.

¿Cuáles son los riesgos? Actualmente, las herramientas de IA pueden producir obras de arte convincentes y algunas ilustraciones, pero aún no pueden generar figuras científicas complejas con anotaciones de texto. «No obtienen el texto correcto: a veces el texto es demasiado pequeño, mucho más grande o está girado», dice Rodríguez. El tipo de problemas que pueden surgir quedó claro en un artículo publicado en Frontiers in Cell and Developmental Biology a mediados de febrero, en el que los investigadores utilizaron Midjourney para representar los órganos reproductores de una rata. El resultado, que pasó la revisión por pares, fue una caricatura de un roedor con genitales enormes y anotados con garabatos.

Existe también la posibilidad de que estas herramientas faciliten la producción de datos u observaciones falsas por parte de estafadores científicos, ya que no hay un método robusto para detectar tales imágenes y videos generados por IA. Rodriguez expresa preocupación por el potencial impacto de «una inundación de datos falsos y sintéticamente generados».

Algunos campos han mostrado una fuerte resistencia a la inclusión de imágenes generadas por IA en publicaciones científicas. Una encuesta realizada por el paleoartista Henry Sharpe reveló que solo uno de cada cuatro paleontólogos profesionales estaba a favor de permitir la inclusión de imágenes generadas por IA en publicaciones científicas. Se argumenta que estas imágenes pueden inducir a error tanto a científicos como al público, ya que simplemente copian elementos existentes sin la capacidad de interpretar textos científicos. Además, los procesos iterativos de reconstrucción de formas de vida antiguas, realizados en consulta con paleontólogos, revelan características anatómicas plausibles que se pierden al usar IA.

En cuanto a las políticas de las revistas científicas, Springer Nature ha prohibido el uso de imágenes, videos e ilustraciones generados por IA en la mayoría de los artículos que no tratan específicamente sobre IA. Journals de la familia Science no permiten el uso de texto, figuras o imágenes generadas por IA sin el permiso explícito de los editores, a menos que el artículo se centre en IA o aprendizaje automático. Por otro lado, PLOS ONE permite el uso de herramientas de IA, pero los investigadores deben declarar la herramienta utilizada, cómo la utilizaron y cómo verificaron la calidad del contenido generado.