Archivo por meses: mayo 2024

Makers: la nueva revolución industrial

Anderson, Chris. Makers: The New Industrial Revolution. Crown, 2014.

Texto completo

En una era de diseño y creación de productos personalizados y de bricolaje, el potencial colectivo de un millón de entusiastas y aficionados en garajes está a punto de ser liberado, impulsando un resurgimiento de la manufactura estadounidense. Una generación de «Makers» que utilizan el modelo de innovación web ayudará a impulsar la próxima gran ola en la economía global, ya que las nuevas tecnologías de diseño digital y prototipado rápido otorgan a todos el poder de inventar, creando «la larga cola de las cosas».

Guía de ciencia ciudadana para bibliotecas de investigación

Open Science Meets Citizen Science. LIBER, 2024

Esta guía se presenta como una herramienta valiosa para bibliotecas de investigación que desean integrar prácticas de ciencia abierta y ciencia ciudadana, promoviendo la inclusión y el compromiso dentro de sus comunidades.

LIBER anuncia el lanzamiento de la guía de ciencia ciudadana para bibliotecas de investigación titulada “Open Science Meets Citizen Science – A Guide”, editada por Bastian Greshake Tzovaras del Instituto Alan Turing.

Esta guía está diseñada como un recurso práctico de apoyo para bibliotecas de investigación que buscan ayudar a sus comunidades de investigación a desarrollar sus proyectos de ciencia ciudadana. En la guía, se encuentran contribuciones de practicantes líderes e informes sobre las lecciones aprendidas de proyectos establecidos. La guía está revisada por expertos y se publica en acceso abierto y en múltiples formatos, con formatos interoperables adicionales para su reutilización.

En el artículo  ‘Implementing Open Science Practices into a Citizen Science Project’ se explica cómo aprovechar los recursos de la ciencia abierta. El uso de datos es un área que cuenta con el apoyo de la ciencia abierta en términos de herramientas de análisis de datos como R y Jupyter Notebooks, que han democratizado la ciencia de datos y permiten un fácil uso y análisis por parte del público interesado. Además, la recopilación, manejo y publicación abierta de datos está ampliamente respaldada por la literatura para los planes de Gestión de Datos de Investigación que incluyen la ciencia ciudadana.

Si la «inclusión y el empoderamiento» son una prioridad para los investigadores que dirigen proyectos de ciencia ciudadana, el artículo ‘Ethical Practices for Citizen Science’ (Prácticas éticas para la ciencia ciudadana) ofrece una hoja de ruta para reflexionar sobre las cuestiones relacionadas con la creación de un compromiso genuino y un caso de uso dirigido por la comunidad con el proyecto «AutSPACEs». La creación de espacios seguros para los participantes es ya una práctica conocida con el uso de códigos de conducta, pero también en este caso los detalles cuentan, y una de las recomendaciones del artículo es redactar conjuntamente un código de conducta con los miembros del grupo que participa en un proyecto de ciencia ciudadana. Los códigos de conducta son un buen ejemplo, ya que han sido promovidos por el movimiento de ciencia abierta y reflejan el cambio más reciente de la ciencia abierta hacia cuestiones de valores (inclusión de cuestiones de género, raza y equidad en el conocimiento), además del trabajo anterior sobre infraestructuras técnicas y apertura.

¿Las inversiones en bibliotecas públicas mejoran los puntajes de las pruebas de los estudiantes?

Gilpin, Gregory, Ezra Karger, and Peter Nencka. 2024. «The Returns to Public Library Investment.» American Economic Journal: Economic Policy, 16 (2): 78-109.DOI: 10.1257/pol.20210300

Los beneficios educativos de las bibliotecas públicas: ¿Las inversiones en bibliotecas públicas mejoran los puntajes de las pruebas de los estudiantes? El estudio muestra que, después de un incremento en la inversión de capital en bibliotecas, los puntajes de lectura aumentaron de manera constante.

A través de una combinación de financiamiento local, estatal y nacional, además de donaciones privadas, Estados Unidos gasta miles de millones de dólares cada año en bibliotecas públicas. Estas bibliotecas proporcionan acceso gratuito a la información mediante el préstamo de materiales, servicios de investigación y una variedad de eventos como cuentos para niños, clases de computación y preparación de impuestos. Pero, ¿tienen estas inversiones un impacto tangible en las comunidades, particularmente en el rendimiento académico de los niños?

Según un artículo “The Returns to Public Library Investment” publicado en el American Economic Journal: Economic Policy por Gregory Gilpin, Ezra Karger y Peter Nencka, la respuesta es afirmativa.

Sus hallazgos provienen de un análisis de datos de gasto en infraestructura relacionado con la construcción de nuevos edificios de bibliotecas y grandes proyectos de renovación entre 2009 y 2018. Los investigadores utilizaron un estudio de eventos para comparar distritos escolares, aislando el momento de los gastos de capital significativos y rastreando las diferencias posteriores entre las comunidades que invirtieron en bibliotecas locales y las que no lo hicieron. Descubrieron que las inversiones de capital en bibliotecas públicas aumentan la participación de los niños en su biblioteca local, lo que a su vez mejora los puntajes de las pruebas en los distritos escolares locales.

Panel A de la Figura 3 del artículo de los autores muestra el impacto de las inversiones en bibliotecas en los puntajes de las pruebas estandarizadas en los distritos escolares cercanos, destacando la relación positiva entre el aumento del financiamiento de bibliotecas y el rendimiento académico.

El gráfico traza estimaciones del estudio de eventos para cada año en relación con una inversión importante en bibliotecas, con proyectos equivalentes a un gasto de aproximadamente 200$ o más por estudiante. Las estimaciones son medidas de puntajes promedio en pruebas de lectura, normalizados para que un aumento de una unidad corresponda a un aumento de una desviación estándar en los puntajes. Las barras verticales representan intervalos de confianza del 95 por ciento.

La figura muestra que, tras un aumento en la inversión de capital en bibliotecas, los puntajes de lectura aumentaron de manera constante. A corto plazo, las inversiones en bibliotecas aumentaron los puntajes de lectura en 0.01 desviaciones estándar. Siete años después de un proyecto, los puntajes eran 0.04 desviaciones estándar más altos en los distritos que invirtieron en bibliotecas públicas que en sus contrapartes.

En última instancia, los resultados sugieren que el gasto en capital de las bibliotecas, similar a las inversiones en el capital de las escuelas públicas, puede tener efectos positivos significativos en el rendimiento académico de los niños.

Entrevista a la escritora chilena Andrea Campos Parra. Planeta Biblioteca 2024/05/30

Entrevista a la escritora chilena Andrea Campos Parra.

Planeta Biblioteca 2024/05/30

ESCUCHAR EL PROGRAMA

Ir a descargar


Andrea Campos Parra (Concepción, Chile 1967) es poeta, editora y gestora cultural. Ha publicado los libros Un brumoso y arcano recuerdo (1991) y Arar tierras heridas (2016), y ha sido incluida en diversas antologías y revistas latinoamericanas. Actualmente, preside la Corporación Cultural Altacura, y en 2019 editó Poesía Reunida de Carlos Mellado y Entre Culturas. Pertenece al Taller Gredazul, fundado en 1984 por Mellado Molina. Recientemente, ha publicado el libro Viento en contra. Hemos conversado agradablemente con Andrea sobre su trayectoria poética y política, su obra, su estilo y el valor de la poesía para otorgar voz a quienes no la tienen.

Los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo


Bengio, Yoshua, Geoffrey Hinton, Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, et al. «Managing extreme AI risks amid rapid progress». Science 384, n.o 6698 (24 de mayo de 2024): 842-45. https://doi.org/10.1126/science.adn0117.

El artículo trata sobre los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo. Los autores, incluyendo a expertos como Yoshua Bengio y Geoffrey Hinton, discuten la necesidad de investigación técnica y desarrollo, así como de una gobernanza proactiva y adaptable para prepararse ante estos riesgos

El texto destaca que, aunque los sistemas actuales de aprendizaje profundo carecen de ciertas capacidades, las empresas están compitiendo para desarrollar sistemas de IA generalistas que igualen o superen las habilidades humanas en la mayoría de los trabajos cognitivos. Se menciona que la inversión en modelos de entrenamiento de vanguardia se ha triplicado anualmente y que no hay razón fundamental para que el progreso de la IA se detenga al alcanzar las capacidades humanas.

Los autores advierten sobre los riesgos que incluyen daños sociales a gran escala, usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. A pesar de los primeros pasos prometedores, la respuesta de la sociedad no es proporcional a la posibilidad de un progreso transformador rápido que muchos expertos esperan. La investigación en seguridad de la IA está rezagada y las iniciativas de gobernanza actuales carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos.

Se propone un plan integral que combina la investigación técnica y el desarrollo con mecanismos de gobernanza proactivos y adaptables para una preparación más adecuada ante los avances rápidos y las altas apuestas del progreso de la IA

Existen numerosos desafíos técnicos abiertos para garantizar la seguridad y el uso ético de sistemas de IA generalistas y autónomos. A diferencia del avance en capacidades de IA, estos desafíos no pueden abordarse simplemente utilizando más potencia informática para entrenar modelos más grandes.

Un primer conjunto de áreas de R&D necesita avances para permitir una IA confiablemente segura. Estos desafíos de R&D incluyen lo siguiente:

  1. Supervisión y honestidad: Los sistemas de IA más capaces pueden aprovechar mejor las debilidades en la supervisión técnica y las pruebas, por ejemplo, al producir resultados falsos pero convincentes.
  2. Robustez: Los sistemas de IA se comportan de manera impredecible en nuevas situaciones. Mientras que algunos aspectos de la robustez mejoran con la escala del modelo, otros aspectos no lo hacen o incluso empeoran.
  3. Interpretabilidad y transparencia: La toma de decisiones de IA es opaca, y los modelos más grandes y capaces son más complejos de interpretar. Hasta ahora, solo podemos probar grandes modelos a través del ensayo y error. Necesitamos aprender a entender su funcionamiento interno.
  4. Desarrollo inclusivo de IA: El avance de la IA necesitará métodos para mitigar sesgos e integrar los valores de las muchas poblaciones que afectará.
  5. Abordar desafíos emergentes: Los futuros sistemas de IA pueden exhibir modos de fallo que hasta ahora solo hemos visto en teoría o experimentos de laboratorio.

Un segundo conjunto de desafíos de R&D necesita progresar para permitir una gobernanza efectiva y ajustada al riesgo o para reducir daños cuando la seguridad y la gobernanza fallan. En vista de las apuestas, se pide a las principales empresas tecnológicas y financiadores públicos que asignen al menos un tercio de su presupuesto de R&D de IA, comparable a su financiamiento para capacidades de IA, para abordar los desafíos de R&D mencionados y garantizar la seguridad y el uso ético de la IA. Más allá de las subvenciones tradicionales de investigación, el apoyo gubernamental podría incluir premios, compromisos de mercado anticipados y otros incentivos. Abordar estos desafíos, con miras a sistemas futuros poderosos, debe convertirse en algo central para nuestro campo.

El Reglamento Europeo de Inteligencia Artificial y su impacto en bibliotecas, archivos y museos

«El Reglamento Europeo de la Inteligencia Artificial y su impacto en bibliotecas, archivos y museos». FESABID, 9 de mayo de 2024. https://www.fesabid.org/reglamento-eu-inteligencia-artificial-bibliotecas-archivos-museos/.


El Reglamento Europeo sobre Inteligencia Artificial (IA) tiene como objetivo que los sistemas de IA sean seguros y respeten los derechos fundamentales y valores de la Unión Europea. Este reglamento tendrá un impacto en las bibliotecas, archivos y museos (BAM) de las siguientes maneras.

Clasificación de aplicaciones de IA

El reglamento clasifica las aplicaciones de IA según su nivel de riesgo para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho. Las aplicaciones de «alto riesgo» estarán sujetas a obligaciones más estrictas para los desarrolladores, como la transparencia, la supervisión y la seguridad. Las aplicaciones de «riesgo limitado» o de «uso general» estarán sujetas a obligaciones de transparencia.

Impacto en la propiedad intelectual

El reglamento no desarrolla nuevas normas de propiedad intelectual, pero sí hace referencia a la necesidad de respetar las existentes. Es importante la Directiva sobre el Derecho de Autor en el Mercado Único Digital (DEMUD), que permite el análisis masivo de datos salvo reserva expresa de titulares de derechos.

Oportunidades para Bibliotecas Archivos y Museos

Las Bibliotecas Archivos y Museos pueden tener un rol determinante en la preparación de políticas sobre el uso de textos y datos para el entrenamiento de sistemas de IA. Pueden ofrecer servicios de documentación y asesoramiento sobre los contenidos utilizados en sistemas de IA.

Impacto a medio y largo plazo

Se prevé que la IA tenga un impacto significativo en las BAM, similar al de otros avances tecnológicos como la automatización o la digitalización. El sector profesional de las BAM tiene una sólida trayectoria en la defensa de los derechos fundamentales, y se espera que la IA se incorpore a esta trayectoria de manera natural.

Un informe de la Royal Society advierte que la dependencia excesiva de herramientas de IA «opacas» en la investigación podría afectar la fiabilidad de los hallazgos científicos

«Science in the age of AI : How artificial intelligence is changing the nature and method of scientific research». Royal Society, accedido 30 de mayo de 2024. https://royalsociety.org/news-resources/projects/science-in-the-age-of-ai/.

Informe

El informe «The Science in the Age of AI» de la academia nacional de ciencias del Reino Unido analiza las oportunidades y desafíos del aprendizaje automático y los modelos de lenguaje grande como herramientas transformadoras para la investigación del siglo XXI.

Desde la codificación y el análisis estadístico hasta la generación de nuevas perspectivas a partir de grandes conjuntos de datos, las herramientas de IA ya están transformando campos como el descubrimiento de fármacos y la modelización climática.

Sin embargo, el informe advierte que la complejidad y la naturaleza de «caja negra» de los modelos sofisticados de aprendizaje automático significa que los investigadores que los utilizan no siempre pueden explicar sus resultados.

Esto no impide que la IA genere conocimientos útiles. No obstante, un creciente número de estudios irreproducibles basados en IA y aprendizaje automático plantea dudas sobre la solidez de sus conclusiones.

En última instancia, el informe advierte que las tecnologías de IA poco fiables o no fidedignas suponen riesgos para la ciencia y la confianza de la sociedad en sus hallazgos.

Para mitigar estos desafíos y maximizar los beneficios que puede aportar la IA, el informe recomienda:

  • Establecer marcos de trabajo abiertos en ciencia, medio ambiente y ética para la investigación basada en IA, a fin de garantizar que los hallazgos sean precisos, reproducibles y apoyen el bien público. Esto podría incluir acuerdos para que los datos con los que se entrenan los modelos de IA estén disponibles para los investigadores, o ejercicios de «equipos rojos» para probar los límites de su uso.
  • Invertir en infraestructuras regionales y multisectoriales de IA al estilo del CERN, para garantizar que todas las disciplinas científicas puedan acceder a la potencia de cálculo y a los recursos de datos necesarios para llevar a cabo una investigación rigurosa y mantener la competitividad de los investigadores no pertenecientes a la industria.
  • Promover la alfabetización en IA entre los investigadores y la colaboración con los desarrolladores para garantizar su accesibilidad y facilidad de uso.

El informe revisado por pares fue dirigido por un grupo de trabajo de expertos formado por académicos y representantes de la industria, e incluyó revisiones de pruebas, entrevistas y talleres sobre las aplicaciones emergentes y las tendencias en materia de IA, los riesgos de seguridad y el panorama de las patentes.

Hacia una alfabetización en IA ‘Más allá de lo digital’

Jiang, Jialei, Matthew A. Vetter, y Brent Lucia. «Toward a ‘More-Than-Digital’ AI Literacy: Reimagining Agency and Authorship in the Postdigital Era with ChatGPT». Postdigital Science and Education, 24 de mayo de 2024. https://doi.org/10.1007/s42438-024-00477-1.

la alfabetización en IA «Más allá de lo digital» prepara a las personas para prosperar en un mundo moldeado por la IA. Se trata de ir más allá de los aspectos técnicos de la IA y comprender su impacto en todos los aspectos de la vida humana.

Este artículo explora el potencial de una perspectiva ‘más-que-digital’ sobre la agencia y la autoría en la era postdigital. Al examinar las narrativas de los estudiantes sobre sus interacciones con ChatGPT, esta investigación contribuye a la conversación académica en curso sobre la relación entre humanos e IA en contextos educativos. El estudio analiza las percepciones de los estudiantes universitarios sobre la agencia y la autoría a través de un proyecto de escritura asistido por IA. Empleando un análisis narrativo, el artículo argumenta que los estudiantes adoptan una posición justa hacia su uso de ChatGPT durante el proceso de escritura, una postura que permite abordar la tendencia de atribuir la influencia de objetos o máquinas únicamente a las percepciones humanas y el problema de otorgar excesiva autoridad a objetos o máquinas.

Concluye el artículo con implicaciones pedagógicas para fomentar un enfoque ‘más-que-digital’ hacia la alfabetización crítica en IA. Además, el artículo ofrece implicaciones para la futura investigación de proyectos de escritura asistidos por IA, con un enfoque en la integración reflexiva de tecnologías de IA para fomentar la alfabetización crítica entre los estudiantes universitarios.

El artículo propone un enfoque «postdigital» para la alfabetización crítica en inteligencia artificial (IA). Este enfoque se basa en la «posición justa» de Latour (2004), que reconoce la interacción compleja entre la tecnología y los procesos sociales.

Puntos clave del enfoque postdigital:

  • La alfabetización en IA va más allá del consumo pasivo de contenido generado por IA e implica la participación activa en procesos creativos impulsados por IA.
  • Herramientas como ChatGPT fomentan la co-creación entre humanos y máquinas, desafiando las nociones tradicionales de autoría individual.
  • Se adopta una «posición justa» sobre la autoría, reconociendo la colaboración entre humanos y máquinas en la creación de significado y expresión.
  • La alfabetización en IA implica dimensiones éticas y sociomateriales de la colaboración humano-máquina y su impacto en la escritura y la creatividad.

¿Cómo fomentar la alfabetización crítica en IA en el aula?

  • Comprensión de las dimensiones sociales y éticas: La IA no existe en el vacío. Tiene implicaciones sociales y éticas que deben considerarse. La alfabetización en IA «Más allá de lo digital» equipa a las personas para pensar críticamente sobre el sesgo en la IA, su impacto en el trabajo y la sociedad, y las cuestiones de privacidad y seguridad de los datos.
  • Habilidades para la navegación crítica: Más que simplemente aceptar la IA a su valor nominal, la alfabetización en IA «Más allá de lo digital» implica desarrollar habilidades para evaluar críticamente la información generada por IA y comprender las limitaciones de los sistemas de IA. Esto incluye ser capaz de identificar el sesgo, verificar la precisión y cuestionar las suposiciones subyacentes a los algoritmos de IA.
  • Conciencia de la co-evolución: La IA y la sociedad están en una relación evolutiva. A medida que la IA se vuelve más sofisticada, también lo deben hacer las habilidades de las personas para interactuar con ella de manera efectiva. La alfabetización en IA «Más allá de lo digital» es un proceso continuo de aprendizaje y adaptación.

Conclusión:

Los docentes deben involucrarse en diálogos significativos con los estudiantes sobre el uso de la IA en la escritura. Es necesario integrar debates críticos sobre autoría y agencia en las tareas, actividades y políticas de los cursos. La alfabetización crítica en IA exige de los educadores aprender a diferenciar las tecnologías de IA generativas según sus funciones pedagógicas, personales y prácticas.

Las investigaciones futuras podrían analizar el impacto a largo plazo de la integración de la IA en la educación, la evolución de la percepción de los estudiantes sobre la agencia y la autoría, y la efectividad de diferentes enfoques pedagógicos para fomentar la alfabetización crítica en IA. Estudiar las experiencias de estudiantes con diversos entornos lingüísticos y culturales también enriquecería la comprensión de la interacción entre escritores humanos y tecnologías de IA. Al abordar estas líneas de investigación, se puede avanzar en la comprensión de la alfabetización en IA en la era postdigital y promover prácticas educativas que ayuden a los estudiantes a navegar de manera más eficaz las complejidades de las interacciones humano-máquina.

Guía de inicio para crear un makerspace en bibliotecas

Artefacto – Digital Agency. «The Makerspace Starter Guide for Libraries by Artefacto», 29 de mayo de 2024.

Texto completo

Guía de Inicio para Makerspaces en Bibliotecas. Ideas para lanzar, relanzar y reimaginar tu makerspace en la biblioteca

En esta guía encontrarás:

  • Cuándo y por qué crear un makerspace
  • Cómo lanzar un nuevo espacio o servicio
  • Tomar decisiones sobre herramientas y equipos
  • Involucrar al personal y apoyar tu makerspace
  • Ofrecer un programa de makerspace eficiente y centrado en el usuario

Es un recurso colaborativo diseñado para inspirarte y alentarte a mejorar tu propio makerspace de una manera que funcione mejor para tus usuarios. Se comparten consejos y recomendaciones que se han obtenido al apoyar a bibliotecas en todo el Reino Unido durante los últimos 5 años y de las propias experiencias como creadores, tecnólogos y facilitadores de talleres.

Esta es una lista de inspiración más que un libro de reglas: un punto de partida y construcción, con algunos recursos que, con suerte, te ahorrarán tiempo. El objetivo es compartir información práctica para ayudarte a crear y gestionar un makerspace que sea adecuado para el servicio de tu biblioteca.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.