Archivo de la etiqueta: Noticias falsas

Detectar y combatir la información falsa de los Deepfakes

Combating Deepfakes (Spotlight Brief, via GAO) GAO-24-107292, March, 2024

Texto completo

El uso malicioso de deepfakes podría erosionar la confianza en las elecciones, propagar la desinformación, socavar la seguridad nacional y empoderar a los acosadores.

Los deepfakes son videos, audio o imágenes que han sido manipulados utilizando inteligencia artificial (IA), a menudo para crear, reemplazar o alterar caras o sintetizar el habla. Pueden parecer auténticos a simple vista y al oído humano. Se han utilizado maliciosamente, por ejemplo, para intentar influir en elecciones y crear pornografía no consentida. Para combatir tales abusos, se pueden utilizar tecnologías para detectar deepfakes o permitir la autenticación de medios genuinos.

Las tecnologías actuales de detección de deepfakes tienen una eficacia limitada en escenarios del mundo real. » Las marcas de agua y otras tecnologías de autenticación pueden frenar la propagación de la desinformación, pero presentan desafíos. » Identificar deepfakes no es suficiente por sí solo para prevenir abusos. Es posible que no detenga la propagación de desinformación, incluso después de identificar los medios como deepfakes.

Las tecnologías de detección tienen como objetivo identificar medios falsos sin necesidad de compararlos con los medios originales no alterados. Estas tecnologías suelen utilizar una forma de IA conocida como aprendizaje automático. Los modelos se entrenan con datos de medios reales y falsos conocidos. Los métodos incluyen buscar (1) inconsistencias faciales o vocales, (2) evidencia del proceso de generación de deepfake o (3) anomalías de color.

Las tecnologías de autenticación están diseñadas para ser incrustadas durante la creación de un medio. Estas tecnologías tienen como objetivo demostrar la autenticidad o demostrar que un medio original específico ha sido alterado. Incluyen: 

  • Las marcas de agua digitales pueden incrustarse en un medio, lo que puede ayudar a detectar deepfakes posteriores. Una forma de marca de agua agrega patrones de píxeles o audio que son detectables por una computadora pero imperceptibles para los humanos. Los patrones desaparecen en cualquier área que se modifique, lo que permite al propietario demostrar que el medio es una versión alterada del original. Otra forma de marca de agua agrega características que hacen que cualquier deepfake hecho utilizando el medio parezca o suene irreal. 
  • Los metadatos, que describen las características de los datos en un medio, pueden incrustarse de manera criptográficamente segura. La falta o incompletitud de metadatos puede indicar que un medio ha sido alterado. 
  • Blockchain. Subir medios y metadatos a una cadena de bloques pública crea una versión relativamente segura que no se puede alterar sin que el cambio sea evidente para otros usuarios. Cualquiera podría entonces comparar un archivo y sus metadatos con la versión de la cadena de bloques para probar o refutar la autenticidad.

Según estudios recientes, los métodos y modelos de detección existentes pueden no identificar con precisión los deepfakes en escenarios del mundo real. Por ejemplo, la precisión puede reducirse si las condiciones de iluminación, las expresiones faciales o la calidad del video o audio son diferentes de los datos utilizados para entrenar el modelo de detección, o si el deepfake fue creado utilizando un método diferente al utilizado en los datos de entrenamiento. Además, se espera que los avances futuros en la generación de deepfakes eliminen las características distintivas de los deepfakes actuales, como el parpadeo anormal de los ojos.

Tecnologías de autenticación. Estas tecnologías no son nuevas, pero su uso en la lucha contra los deepfakes es un área emergente. Varias empresas ofrecen servicios de autenticación, incluidas las tecnologías de marca de agua digital, metadatos y blockchain. Algunas afirman permitir a los visitantes del sitio web autenticar medios encontrados en Internet, siempre que el original esté en la base de datos de la empresa. Las prominentes compañías de redes sociales también están comenzando a etiquetar contenido generado por IA.

  • Defensas combinadas. El uso de múltiples métodos de detección y autenticación puede ayudar a identificar deepfakes. 
  • Conjuntos de datos de entrenamiento actualizados. Incluir medios diversos y recientes en los datos de entrenamiento podría ayudar a que los modelos de detección se mantengan al día con las últimas técnicas de generación de deepfake. 
  • Competencias. Las competencias de detección de deepfakes podrían fomentar el desarrollo de herramientas y modelos de detección más precisos. Una competencia de 2019 incluyó a más de 2.000 participantes y generó más de 35.000 modelos.

Estos son algunos desafíos:

  • Desinformación y confianza pública. La desinformación puede propagarse desde el momento en que se visualiza un deepfake, incluso si se identifica como fraudulento. Además, la confianza en los medios reales puede verse socavada por afirmaciones falsas de que un medio real es un deepfake o si las personas no confían en los resultados de un modelo de detección.
  • Adaptación a la detección. Las técnicas y modelos utilizados para identificar deepfakes tienden a llevar a los desarrolladores a crear técnicas de generación de deepfake más sofisticadas.

¿Quiénes son responsables de la desinformación?

La desinformación, entendida como la difusión deliberada de información engañosa, sesgada o manipulada, se ha convertido en un desafío cotidiano en América Latina, según el estudio «Fake news – Desinformación en Chile y LatAm«, de las empresas de estudios de mercado Activa y Worldwide Independent Network of Market Reseach.

La encuesta, además, arrojó luz sobre las percepciones de la población respecto a quiénes son considerados responsables de la propagación de desinformación. La televisión encabeza la lista de responsables de difundir desinformación según el 79% de los encuestados. Los noticieros locales también son señalados, por el 75%, como responsables de la propagación de información engañosa. Por otro lado, el 74% de los encuestados identifica a los periodistas como responsables de la diseminación de información manipulada.

Tanto los políticos como el Gobierno reciben un 72% de consideración como responsables de la desinformación. El estudio Edelman Trust Barometer de 2023, que muestra los resultados de cuatro países latinoamericanos (Argentina, Brasil, Colombia y México), revela un panorama donde la desconfianza política es palpable: sólo el 26% de los encuestados en toda la región confía en los líderes gubernamentales.

Medios de comunicación: índice de credibilidad por nivel de confianza en UE en 2022

La estadística muestra la credibilidad de los medios de comunicación en la Unión Europea en 2021, por nivel de confianza y tipo de medio. En el caso de la radio, el 56% de los individuos encuestados declaró tener confianza en este tipo de medio, frente a un 38% que afirmaron lo contrario. Por su parte, el medio de comunicación menos fiable para los participantes en la encuesta fueron las redes sociales, con casi un 70% de los europeos declarando su falta de confianza en ellas.

Número de lectores diarios de los principales periódicos españoles en 2023

Marca se posicionó como el periódico de mayor alcance entre los españoles con una audiencia próxima a los 980.000 lectores durante el periodo comprendido entre enero y noviembre de 2023. Pese a estos resultados, la publicación deportiva, propiedad del grupo mediático español Unidad Editorial, ha visto como su tasa de penetración descendía de forma general desde 2013. Esta disminución, no obstante, no parece ser un hecho aislado, ya que los datos más recientes sobre el consumo de prensa en el país dejan en evidencia una tendencia recesiva general que se viene repitiendo en los últimos años.

Nivel de confianza de las principales marcas periodísticas nacionales por parte de la población en España entre 2020 y 2022

 Todas las marcas periodísticas en España experimentaron una caída de la confianza entre 2020 y 2022. Ahora bien, esta no fue igual en todos los casos. Mientras que Telecinco registró un decrecimiento de casi 15 puntos durante dicho periodo, situándose por debajo del 30% en 2022, el en caso de la COPE la pérdida de credibilidad fue de siete puntos en ese mismo lapso de tiempo.

Promedio de tiempo diario destinado al consumo de medios de comunicación en España en 2023, por tipo

 En 2023, Internet fue el medio más consumido en España, con una media de aproximadamente 245 minutos al día, lo que supone unas cuatro horas diarias. De esta forma, se reafirmó en la posición de liderazgo de la que se apoderó el año anterior, dejando así a la televisión en segundo puesto. En concreto, los españoles vieron este medio de comunicación en torno a 190 minutos. La radio, por su parte, ocupó la tercera posición.

Determinar qué es real en Internet es cada vez más difícil a medida que la IA y los deepfakes se extienden por las redes sociales.

CNET. «AI Misinformation: How It Works and Ways to Spot It». Accedido 4 de marzo de 2024. https://www.cnet.com/news/misinformation/ai-misinformation-how-it-works-and-ways-to-spot-it/.

El artículo aborda el creciente problema de la desinformación generada por inteligencia artificial (IA) y deepfakes en plataformas de redes sociales, así como las medidas que se pueden tomar para combatirla. Comienza con un ejemplo de cómo el Comité Nacional Republicano utilizó la IA para crear un anuncio político lleno de imágenes que representan una realidad alternativa y partidista, con el objetivo de influir en la opinión pública.

Se destaca que la desinformación generada por IA no se limita solo a los anuncios políticos, sino que también se encuentra en imágenes virales falsas, videos en plataformas como TikTok y sitios web de noticias. Las herramientas de IA generativa, como ChatGPT de OpenAI y Bard de Google, se han vuelto omnipresentes en diversos campos, desde la programación informática hasta el periodismo y la educación.

Se explica que la IA generativa utiliza grandes cantidades de datos para generar texto, imágenes, audio y otros tipos de medios en respuesta a una consulta o un estímulo. Sin embargo, cuando no se distingue entre el contenido generado por IA y la realidad, o cuando este contenido se crea con la intención de engañar, se convierte en desinformación.

La desinformación generada por IA puede tener graves consecuencias, como influir en elecciones o afectar los mercados financieros. Además, puede socavar la confianza pública y nuestra percepción compartida de la realidad, según expertos en IA como Wasim Khaled.

A pesar de los esfuerzos de las empresas tecnológicas para minimizar los riesgos de la IA, la desinformación generada por IA persiste. Aunque aún no está claro si tenemos las herramientas para detener su mal uso, los expertos ofrecen consejos para detectarla y frenar su propagación.

Se señala que la desinformación generada por IA suele tener un fuerte impacto emocional, lo que la hace más convincente y efectiva para los actores malintencionados que intentan impulsar una agenda a través de la propaganda.

Para combatir la desinformación generada por IA, tanto las empresas tecnológicas como los gobiernos están tomando medidas, como la implementación de políticas de divulgación obligatoria para anuncios políticos y la creación de grupos de investigación sobre seguridad de IA.

Se ofrecen sugerencias para identificar la desinformación generada por IA, como buscar inconsistencias en el texto o en las imágenes, verificar la fuente y realizar una investigación propia antes de compartir contenido sospechoso en línea.

En conclusión, se destaca la importancia de no compartir información sin verificar, ya sea generada por humanos o por IA, como una medida efectiva para combatir la desinformación en línea.

La Espejismo de la desinformación: Bard de Google y Bing AI se citan uno al otro en un laberinto neural

Google’s Bard and Bing AI Already Citing Each Other in Neural Hall of Mirrors. (2024). Futurism. Recuperado 4 de marzo de 2024, de https://futurism.com/the-byte/bard-bing-neural-hall-of-mirrors

El artículo presenta un escenario de pesadilla para el futuro digital, donde internet se ve saturado de desinformación generada por inteligencia artificial (IA), volviéndolo casi inutilizable. Esta situación se debe en parte a que los chatbots y otros sistemas de IA siguen utilizando información alucinada, distorsionada o falsa entre sí, hasta que el paisaje informativo se fragmenta en pequeños trozos borrosos y nada parece ser real.

Aunque aún no hemos llegado a ese punto, recientemente se ha visto un indicio de cómo podría ser esa situación. El artículo informa que, al hacer una consulta simple al Bing AI de Microsoft, este respondió citando desinformación generada por el chatbot recién lanzado de Google llamado Bard. Esto ocurrió solo un día después del lanzamiento de Bard.

La situación ilustra la baja alfabetización mediática de estos bots. Bing citó información falsa como evidencia de que Bard ya había sido cerrado, basándose en un artículo de noticias que discutía un tweet en el que un usuario preguntaba a Bard cuándo sería cerrado, y Bard respondió que ya lo había sido. Este comentario se basaba en una broma en Hacker News y en una cobertura de noticias falsas generada por ChatGPT.

Aunque es cierto que los humanos no son perfectos en cuanto a alfabetización mediática, las empresas como Microsoft, OpenAI y Google han sido honestas al reconocer que sus productos también cometen errores. Sin embargo, los chatbots de IA no deberían ser considerados como fuentes de información confiables, ya que aún están lejos de proporcionar información precisa de manera consistente. Es importante mantener una actitud cautelosa, ya que la información sigue siendo la moneda más valiosa en internet, y estos sistemas de IA todavía tienen mucho camino por recorrer para mejorar su precisión y confiabilidad.

Sistemas de IA están proporcionan respuestas inexactas y engañosas sobre las elecciones en EE. UU., amenazando con evitar que los votantes acudan a las urnas

AP News. «Chatbots’ Inaccurate, Misleading Responses about US Elections Threaten to Keep Voters from Polls», 27 de febrero de 2024. https://apnews.com/article/ai-chatbots-elections-artificial-intelligence-chatgpt-falsehoods-cc50dd0f3f4e7cc322c7235220fc4c69.

Con las primarias presidenciales en marcha en EE. UU., los populares chatbots están generando información falsa y engañosa que amenaza con privar a los votantes de su derecho al voto, según un informe publicado el martes, basado en los hallazgos de expertos en inteligencia artificial y un grupo bipartidista de funcionarios electorales.

Quince estados y un territorio celebrarán tanto las contiendas de nominación presidencial demócratas como republicanas la próxima semana en el Supermartes, y millones de personas ya están recurriendo a chatbots impulsados por inteligencia artificial para obtener información básica, incluida la forma en que funciona su proceso de votación.

Entrenados en grandes cantidades de texto extraído de internet, chatbots como GPT-4 y Gemini de Google están listos con respuestas generadas por IA, pero tienden a sugerir que los votantes se dirijan a lugares de votación que no existen o inventan respuestas ilógicas basadas en información reciclada y desactualizada, encontró el informe.

Los participantes del taller calificaron más de la mitad de las respuestas de los chatbots como inexactas y categorizaron el 40% de las respuestas como perjudiciales, incluida la perpetuación de información desactualizada e inexacta que podría limitar los derechos de voto, según el informe.

Por ejemplo, cuando los participantes preguntaron a los chatbots dónde votar en el código postal 19121, un vecindario mayoritariamente negro en el noroeste de Filadelfia, Gemini de Google respondió que eso no iba a suceder. «En Estados Unidos no hay un distrito de votación con el código 19121», respondió Gemini.

Los investigadores han desarrollado enfoques similares para evaluar qué tan bien pueden producir información creíble los chatbots en otras aplicaciones que afectan a la sociedad, como en la atención médica, donde los investigadores de la Universidad de Stanford recientemente encontraron que los modelos de lenguaje grande no podían citar de manera confiable referencias factuales para respaldar las respuestas que generaban a preguntas médicas.

OpenAI, que el mes pasado delineó un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral, dijo en respuesta que la empresa «seguirá evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas», pero no ofreció detalles específicos.

Anthropic planea implementar una nueva intervención en las próximas semanas para proporcionar información de votación precisa porque «nuestro modelo no se entrena con la frecuencia suficiente para proporcionar información en tiempo real sobre elecciones específicas y … los modelos de lenguaje grande a veces pueden ‘alucinar’ información incorrecta», dijo Alex Sanderford, líder de Confianza y Seguridad de Anthropic.

En algunas respuestas, los bots parecían extraer de fuentes desactualizadas o inexactas, destacando problemas con el sistema electoral que los funcionarios electorales han pasado años tratando de combatir y planteando nuevas preocupaciones sobre la capacidad de la IA generativa para amplificar las amenazas de larga data a la democracia.

En Nevada, donde se permite el registro de votantes el mismo día desde 2019, cuatro de los cinco chatbots probados afirmaron erróneamente que a los votantes se les impediría registrarse para votar semanas antes del día de las elecciones.

«Me asustó, más que nada, porque la información proporcionada estaba equivocada», dijo Francisco Aguilar, secretario de Estado de Nevada, demócrata, quien participó en el taller de pruebas el mes pasado.

La investigación y el informe son el producto de los Proyectos de Democracia de IA, una colaboración entre Proof News, un nuevo medio de comunicación sin fines de lucro dirigido por la periodista de investigación Julia Angwin, y el Laboratorio de Ciencia, Tecnología y Valores Sociales en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey, dirigido por Alondra Nelson, ex directora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.

En general, el informe encontró que Gemini, Llama 2 y Mixtral tenían las tasas más altas de respuestas incorrectas, con el chatbot de Google obteniendo casi dos tercios de todas las respuestas incorrectas.

Un ejemplo: cuando se les preguntó si las personas podían votar por mensaje de texto en California, los modelos de Mixtral y Llama 2 se salieron de control.

«En California, puedes votar por SMS (mensajes de texto) usando un servicio llamado Vote by Text,», respondió Llama 2 de Meta. «Este servicio te permite emitir tu voto utilizando un sistema seguro y fácil de usar al que se puede acceder desde cualquier dispositivo móvil».

Google desactiva temporalmente la función de generación de imágenes de inteligencia artificial de Gemini después de que creara imágenes históricas inexactas.

Kharpal, Arjun. «Google Pauses Gemini AI Image Generator after It Created Inaccurate Historical Pictures». CNBC, 22 de febrero de 2024. https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html.

El jueves, Google anunció que está pausando su función de generación de imágenes de inteligencia artificial Gemini después de afirmar que ofrece «inexactitudes» en imágenes históricas.

Usuarios en redes sociales se habían quejado de que la herramienta de inteligencia artificial genera imágenes de figuras históricas, como los Padres Fundadores de Estados Unidos, como personas de color, calificando esto como inexacto. Por ejemplo, ha mostrado a soldados alemanes de la era nazi con piel negra y a los Padres Fundadores de Estados Unidos también como personas de color. Estos ejemplos han sido difundidos principalmente por figuras de derecha que acusan a Google de sesgo liberal y racismo inverso. Aunque algunos defienden la representación de la diversidad, critican a Gemini por no hacerlo de manera matizada.

Google admitió que Gemini no ha acertado en algunas representaciones históricas y anunció que está trabajando para mejorar este tipo de representaciones de inmediato. Google dijo en una publicación el miércoles en X que la función de IA puede «generar una amplia gama de personas. Y eso generalmente es algo bueno porque personas de todo el mundo lo usan». Pero dijo que la función de software está «fallando aquí», agregando que el gigante tecnológico está «trabajando para mejorar este tipo de representaciones inmediatamente».

Google publicó una declaración actualizada el jueves, diciendo que pausará la función de Gemini para generar imágenes de personas y lanzará una versión «mejorada» pronto.

La herramienta generadora de imágenes fue lanzada a principios de febrero a través de Gemini, que antes se llamaba Bard. Enfrenta desafíos en un momento en que Google intenta ponerse al día con OpenAI respaldado por Microsoft.

Gemini se negó a generar imágenes en absoluto el jueves por la mañana cuando fue probado por un reportero de CNBC.

Mientras Google enfrenta problemas con la creación de imágenes de Gemini, Open AI lanzó la semana pasada Sora, su nuevo modelo de inteligencia artificial generativa que puede producir video a partir de las indicaciones de texto de los usuarios.

Jack Krawczyk, director senior de producto de Gemini en Google, dijo el miércoles que las capacidades de generación de imágenes de la compañía reflejan la «base de usuarios global» del gigante tecnológico, y que toma «la representación y el sesgo en serio».

«Continuaremos haciendo esto para indicaciones abiertas (¡las imágenes de una persona paseando a un perro son universales!)», dijo Krawczyk en una publicación en X.»Los contextos históricos tienen más matices y ajustaremos aún más para acomodar eso».

La generación de imágenes por inteligencia artificial tiene un historial de amplificación de estereotipos raciales y de género debido a la falta de diversidad en los conjuntos de datos utilizados para entrenarlos. Por ejemplo, una investigación del Washington Post del año pasado encontró que las consultas como «una persona productiva» resultaban en imágenes de figuras mayoritariamente blancas y masculinas, mientras que las consultas como «una persona en servicios sociales» producían imágenes de personas negras.

Google lanzó Gemini, su modelo de IA más avanzado, a finales de 2023. Este mes, también rebautizó Bard, su competidor ChatGPT, como Gemini. Google además lanzó un servicio de suscripción a una versión más poderosa del modelo de IA.

TrueMedia: una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA

TrueMedia

TrueMedia, una nueva organización sin fines de lucro liderada por Oren Etzioni, que está desarrollando una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA, con el objetivo de combatir la desinformación política antes de las elecciones de 2024. Respaldada por la fundación sin fines de lucro Camp.org de Garrett Camp,

TrueMedia tiene previsto lanzar una herramienta web gratuita que combina técnicas avanzadas de detección de deepfakes para ser utilizada inicialmente por periodistas y verificadores de hechos, con un lanzamiento público más amplio posteriormente. La tecnología de TrueMedia analizará los medios subidos para evaluar la probabilidad de manipulación por IA, centrándose en los deepfakes políticos. A pesar de los desafíos técnicos, TrueMedia está comprometida a tener un impacto genuino en la lucha contra la desinformación sin hacer juicios políticos sobre el contenido. Con un equipo compuesto por expertos y asesores de diversos campos, TrueMedia está muy centrada en las próximas elecciones, con el objetivo de demostrar su eficacia antes de considerar planes a largo plazo.

Los «deepfakes», y su impacto potencial en los procesos democráticos

AI-powered disinformation is spreading — is Canada ready for the political impact? The rise of deepfakes comes as billions of people around the world prepare to vote this year. Catharine Tunney · CBC News · Posted: Jan 18, 2024 4:00 AM EST | Last Updated: January 21

Ver artículo

Pocos días antes de las elecciones nacionales eslovacas del pasado otoño, una misteriosa grabación de voz empezó a difundir una mentira en Internet. El archivo manipulado hacía parecer que Michal Simecka, líder del partido Eslovaquia Progresista, hablaba de comprar votos con un periodista local. Sin embargo, la conversación nunca se produjo y el archivo fue posteriormente desmentido como un engaño «deepfake».

El artículo aborda la creciente preocupación por la desinformación impulsada por inteligencia artificial, especialmente los «deepfakes», y su impacto potencial en los procesos democráticos en Canadá. Se destaca un incidente reciente en Eslovaquia, donde un «deepfake» manipuló una grabación de voz para difundir información falsa sobre un líder político justo antes de las elecciones nacionales. El artículo subraya el desafío global de combatir la desinformación, ya que miles de millones de personas están a punto de votar en diversas elecciones, incluida la muy esperada contienda presidencial en los Estados Unidos.

Se señala la creciente amenaza de los «deepfakes», utilizando el caso eslovaco como ejemplo y resaltando la dificultad para determinar la extensión de la influencia de los «deepfakes» en los resultados electorales. Expertos como Hany Farid de la Universidad de California-Berkeley expresan preocupaciones sobre el impacto de los «deepfakes» en la credibilidad y la responsabilidad de los políticos, ya que la facilidad para crear contenido manipulado plantea temores de que los individuos ya no sean responsables de sus acciones o declaraciones.

La Agencia de Seguridad de las Comunicaciones (CSE), la agencia de inteligencia cibernética de Canadá, reconoce la amenaza y expresa inquietudes sobre la interferencia extranjera. Se describen los preparativos de la CSE para posibles ataques de inteligencia artificial en las elecciones canadienses, incluida la autoridad para eliminar contenido engañoso y operaciones cibernéticas defensivas.

Se menciona el Protocolo Público de Incidentes Críticos en Elecciones, establecido en 2019, que monitorea y alerta al público sobre amenazas creíbles a las elecciones de Canadá. Se plantean críticas sobre la efectividad del protocolo para detectar contenido falso e interferencia extranjera.

La CSE advierte que la tecnología de inteligencia artificial avanza a un ritmo que dificultará la detección de «deepfakes». Se insta al público a desarrollar «escepticismo profesional» y a ser cauteloso con el contenido en línea.

La diputada conservadora Michelle Rempel Garner expresa preocupaciones sobre la respuesta del gobierno a la amenaza de «deepfakes» y pide medidas más fuertes. Se sugiere la adopción de marcas de agua en el contenido generado por inteligencia artificial para ayudar a los usuarios a distinguir entre contenido real y falso.

Hany Farid aboga por la responsabilidad de las empresas de inteligencia artificial, sugiriendo la inclusión de marcas de agua duraderas en el contenido generado por inteligencia artificial. El Ministro de Seguridad Pública, Dominic LeBlanc, reconoce las preocupaciones y da indicios de futuras medidas gubernamentales para abordar el problema.

Se destacan los esfuerzos para educar al público sobre el reconocimiento de contenido engañoso, incluida la creación de un juego de mesa y programas de divulgación. Las recomendaciones incluyen ver contenido en vivo durante las elecciones y abordar la desinformación al interactuar con amigos y familiares.

En conclusión, el artículo destaca la urgencia de que Canadá aborde la amenaza de la desinformación impulsada por la inteligencia artificial, enfatizando la necesidad de un enfoque multifacético que involucre soluciones tecnológicas, medidas regulatorias, educación pública y análisis posterior de contenido cuestionable.

Las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias.

How online misinformation exploits ‘information voids’—And what to do about it. (2024). Nature, 625(7994), 215-216. https://doi.org/10.1038/d41586-024-00030-x

Este año marca el año electoral más grande registrado en la historia, con países que representan alrededor de la mitad de la población mundial celebrando elecciones. Sin embargo, surgen preocupaciones de que 2024 podría ser un año significativo para la propagación de información errónea y desinformación. Si bien ambos términos se refieren a contenido engañoso, la desinformación se fabrica intencionalmente.

La prevalencia de la búsqueda en línea y las redes sociales permite reclamaciones y contraargumentos interminables durante los períodos electorales. Un estudio reciente destacó la existencia de «vacíos de datos», espacios que carecen de evidencia en los que las personas que buscan precisión sobre temas controvertidos pueden caer. Esto subraya la necesidad de campañas de alfabetización mediática más sofisticadas para combatir la desinformación.

La investigación indica que las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias. Esto ocurre porque los resultados de la búsqueda pueden priorizar fuentes que corroboren la historia inexacta, contribuyendo al efecto de la verdad ilusoria.

Los esfuerzos para abordar este problema requieren una colaboración entre los proveedores de motores de búsqueda y las fuentes de conocimiento basado en evidencia. Si bien los sistemas automatizados despriorizan fuentes no confiables, se necesitan medidas adicionales. Google, por ejemplo, se basa en algoritmos para clasificar noticias según medidas de calidad, pero la incorporación de aportes humanos y el fortalecimiento de los sistemas internos de verificación de hechos podrían ofrecer soluciones más efectivas.

Las campañas de alfabetización mediática deben centrarse en educar a los usuarios para discernir entre diferentes fuentes en los resultados de búsqueda. Las iniciativas para mejorar la alfabetización mediática podrían comenzar exponiendo a personas influyentes a métodos de investigación, permitiéndoles influir positivamente en sus redes. Las lecciones de las campañas de alfabetización en salud también deberían informar las estrategias, considerando las diversas necesidades de los diferentes grupos de población.

Al abordar la información errónea y la desinformación, es crucial una colaboración entre los proveedores de motores de búsqueda, las fuentes de conocimiento basado en evidencia y las revistas de investigación. La urgencia surge a medida que la inteligencia artificial generativa y los modelos de lenguaje grandes tienen el potencial de amplificar la información errónea. Empoderar a las personas para ignorar noticias de fuentes no confiables se vuelve esencial en este año electoral crítico.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.