Archivo de la etiqueta: Noticias falsas

El uso de la IA generativa por parte de los estudiantes: la amenaza de las alucinaciones

«Students’ Use of Generative AI: The Threat of Hallucinations». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/students-use-of-generative-ai-the-threat-of-hallucinations/.


Los sistemas de inteligencia artificial generativa entrenados con grandes cantidades de datos existentes utilizan el aprendizaje automático para producir nuevo contenido (como texto o imágenes) en respuesta a las indicaciones de los usuarios. En educación, la inteligencia artificial generativa se menciona con mayor frecuencia en el contexto de la integridad académica, con profesores expresando temores sobre el fraude en el aula.

Sin embargo, la encuesta a profesores, padres y estudiantes muestra que el 45 por ciento de los estudiantes que dicen haber utilizado inteligencia artificial generativa informan haberlo hecho por razones personales, mientras que solo el 23 por ciento informa haberlo utilizado para la escuela. De aquellos que han utilizado la tecnología por razones personales, muchas de las aplicaciones son de gran importancia: el 29 por ciento la ha utilizado para lidiar con la ansiedad o problemas de salud mental, el 22 por ciento para lidiar con problemas con amigos y el 16 por ciento para lidiar con problemas familiares. Como resultado, incluso en el contexto de uso personal, los sistemas de inteligencia artificial generativa que producen información incorrecta pueden tener consecuencias perjudiciales significativas.

¿Qué son las alucinaciones y por qué ocurren? Por su estilo de escritura y la forma en que proporcionan información, los sistemas de inteligencia artificial generativa pueden parecer fuentes confiables y autorizadas de información. Sin embargo, estos sistemas a menudo producen texto que es factualmente incorrecto. Estos errores factuales se conocen como «alucinaciones». Las alucinaciones son una consecuencia tanto del diseño como de la estructura operativa de los sistemas de inteligencia artificial generativa.

Desde el punto de vista del diseño, los sistemas de inteligencia artificial generativa están construidos con la intención de imitar el texto producido por humanos. Para lograr esto, generalmente se entrenan con enormes conjuntos de datos de texto a partir de los cuales el sistema aprende sobre la estructura de oraciones y párrafos, y luego produce texto que parece tener sentido para los lectores humanos al predecir repetidamente la siguiente palabra más lógica. Este proceso no está diseñado para crear contenido que sea verdadero o correcto, sino que tenga sentido.

Estructuralmente, la mayoría de los sistemas de inteligencia artificial generativa operan «desconectados», lo que significa que no están obteniendo activamente datos de internet para responder a indicaciones. Por lo tanto, están limitados a los datos contenidos en sus conjuntos de datos de entrenamiento. Esto hace que los sistemas de inteligencia artificial generativa sean particularmente poco confiables cuando se trata de eventos actuales que no aparecen en sus conjuntos de datos de entrenamiento.

Los posibles impactos perjudiciales de las alucinaciones en los estudiantes La realidad de las alucinaciones de inteligencia artificial generativa, junto con los altos niveles de uso personal por parte de los estudiantes para asuntos importantes, plantea grandes preocupaciones sobre el acceso a información precisa en momentos de crisis. Por ejemplo, los estudiantes podrían estar haciendo preguntas a ChatGPT (u otra herramienta de inteligencia artificial generativa) sobre cómo lidiar con un problema de salud mental en curso, que podría ser potencialmente una situación de vida o muerte. Dado que la mayoría de los sistemas de inteligencia artificial generativa probablemente utilizados por los estudiantes se entrenan con información recopilada de internet, podrían replicar malentendidos comunes sobre problemas sensibles como desafíos de salud mental, roles de género y orientación sexual.

Además de las alucinaciones tradicionales, que son simplemente información incorrecta, la inteligencia artificial generativa también puede tener impactos emocionales significativos en los estudiantes que utilizan la herramienta por razones personales al replicar prejuicios sociales contra poblaciones marginadas, incluidas cuestiones de raza, género u orientación sexual. Los estudiantes, especialmente durante las etapas vitales de desarrollo de la educación K-12, pueden internalizar estos prejuicios, ya sea contra ellos mismos o contra otros.

Las alucinaciones también son motivo de preocupación significativa cuando los estudiantes utilizan plataformas de inteligencia artificial generativa con fines académicos. La posibilidad de que los estudiantes reciban información inexacta puede ir en contra directa del objetivo de las escuelas de proporcionar información confiable y de calidad a los estudiantes. Los estudiantes que no comprenden las posibilidades de alucinaciones de estas herramientas pueden usarlas de manera ineficaz y perder usos beneficiosos. Sin comprender las limitaciones de la inteligencia artificial generativa, los estudiantes pueden no poder aprovechar de manera efectiva su potencial como herramienta para complementar su aprendizaje y habilidades de pensamiento crítico.

¿Cómo deben abordar las escuelas el problema de las alucinaciones?

Para combatir las posibles consecuencias devastadoras de las alucinaciones de inteligencia artificial generativa tanto en contextos personales como académicos, las escuelas deben:

  • Comprender las limitaciones de la inteligencia artificial generativa y asegurarse de que los maestros estén adecuadamente capacitados. Aunque los beneficios potenciales de estas herramientas para mejorar el aprendizaje pueden ser emocionantes, es imperativo que los funcionarios escolares estén completamente familiarizados con las deficiencias tecnológicas e impartan ese conocimiento a los educadores. Los maestros desempeñan un papel crucial para garantizar que la inteligencia artificial generativa se utilice de manera responsable y apropiada en el aula. Pero para hacerlo, necesitan acceso a recursos y capacitación.
  • Continuar invirtiendo en consejeros y otros apoyos de salud mental. Las escuelas deben tener cuidado de no dirigir a los estudiantes hacia el uso de inteligencia artificial generativa como recurso sobre temas tan sensibles como su salud mental. Los problemas de salud mental en curso requieren empatía y experiencia humanas, por lo que las escuelas no deben adquirir herramientas de inteligencia artificial generativa para reemplazar o incluso triar el cuidado que de otro modo proporcionaría un ser humano. Si las escuelas van a adquirir una herramienta para complementar a los consejeros y apoyos de salud mental ya existentes, deberían hacer referencia a nuestra guía sobre principios de adquisición responsables, ya que incluso como herramienta complementaria, los sistemas de inteligencia artificial generativa pueden causar daño si no se prueban y regulan adecuadamente.
  • Brindar educación a los estudiantes sobre qué es la inteligencia artificial generativa, cómo funciona y por qué ocurren las alucinaciones. Para combatir la exageración no controlada del público en torno a la inteligencia artificial generativa, las escuelas deben dotar a los estudiantes con conocimientos básicos sobre la tecnología, sus capacidades y limitaciones, y cómo puede salir mal tanto en usos académicos como personales.
  • Brindar educación a los estudiantes sobre la alfabetización mediática y las habilidades de investigación. El lanzamiento de ChatGPT en noviembre pasado subrayó la necesidad de que los estudiantes comprendan cómo ser consumidores responsables y efectivos del conocimiento a través de nuevas herramientas tecnológicas. El uso de la inteligencia artificial generativa es cada vez más inevitable de la misma manera que el uso de internet, por lo que es vital que las escuelas proporcionen a los estudiantes capacitación y recursos sobre cómo evaluar la precisión y confiabilidad de la información obtenida a través de ChatGPT y otras plataformas de inteligencia artificial generativa.
  • Asegurarse de que maestros y estudiantes comprendan cuándo es apropiado usar la inteligencia artificial generativa. La inteligencia artificial generativa no está destinada a reemplazar la enseñanza y el aprendizaje tradicionales en ningún caso; no es un reemplazo del conocimiento y no es un terapeuta o consejero efectivo para problemas personales. Sin embargo, puede usarse, por ejemplo, como una herramienta de apoyo para mejorar la escritura o como una herramienta novedosa para la investigación al explorar un nuevo tema. Las escuelas deben proporcionar orientación y capacitación tanto a maestros como a estudiantes sobre cómo hacer un uso efectivo de la inteligencia artificial generativa.

En un panorama informativo cambiante, la alfabetización mediática es más importante que nunca

Banks, Kelly. s. f. «In a Changing Information Landscape, Media Literacy Is More Important than Ever». Accedido 15 de diciembre de 2023. https://blog.pressreader.com/libraries-institutions/media-literacy-more-important-than-ever.

En un mundo en el que la información es cada vez más accesible, es más importante que nunca que las personas sean capaces de evaluar críticamente la información que consumen. Esto es especialmente cierto en el contexto de la desinformación, que se ha convertido en un problema cada vez más grave.

La desinformación es información falsa o engañosa que se difunde deliberadamente con la intención de engañar o manipular a los demás. Puede tener un impacto significativo en la sociedad, ya que puede llevar a la toma de decisiones erróneas, la polarización social y la violencia.

La alfabetización mediática es la capacidad de comprender y evaluar críticamente la información que se encuentra en los medios de comunicación. Implica ser capaz de reconocer la desinformación, identificar los sesgos y comprender el contexto en el que se presenta la información.

Hay una serie de cosas que las personas pueden hacer para mejorar su alfabetización mediática. Una de las cosas más importantes es ser conscientes de los sesgos. Todos los medios de comunicación tienen sesgos, ya sea intencionalmente o no. Es importante ser consciente de estos sesgos para poder evaluar críticamente la información que se presenta.

Otra cosa importante que las personas pueden hacer es ser escépticas con la información que encuentran en línea. No toda la información que se encuentra en línea es precisa o veraz. Es importante verificar la información antes de creerla.

Hay una serie de recursos disponibles para ayudar a las personas a mejorar su alfabetización mediática. Las bibliotecas, las escuelas y las organizaciones sin fines de lucro ofrecen una variedad de programas y recursos que pueden ayudar a las personas a aprender a evaluar críticamente la información.

La alfabetización mediática es una habilidad importante que todos deberían desarrollar. Al ser conscientes de los sesgos, ser escépticos con la información y verificar la información antes de creerla, las personas pueden protegerse de la desinformación y tomar decisiones informadas.

Aquí hay algunos consejos específicos para evaluar la credibilidad de una fuente de noticias:

  • Considera la fuente. ¿Es una fuente conocida y respetada? ¿Tiene un historial de informar con precisión?
  • Considera el autor. ¿Quién escribió la historia? ¿Tiene el autor las credenciales necesarias para informar sobre este tema?
  • Considera el contenido. ¿Es la información presentada precisa y completa? ¿Hay alguna evidencia que apoye las afirmaciones que se hacen?
  • Considera el formato. ¿La historia está bien escrita y editada? ¿Hay algún indicio de que la historia haya sido alterada o manipulada?

Al seguir estos consejos, las personas pueden ser más capaces de identificar la desinformación y tomar decisiones informadas.

YouTube establece nuevas pautas para videos creados con inteligencia artificial (IA)

Hayes, Dade. «YouTube Issues New Guidelines For Videos Using AI». Deadline (blog), 14 de noviembre de 2023. https://deadline.com/2023/11/youtube-ai-artificial-intelligence-videos-shorts-deepfakes-1235611370/.

En una entrada de blog, el gigante del video digital indicó que el nuevo enfoque establecerá límites para videos que parecen realistas pero dependen de herramientas de inteligencia artificial. La empresa también está implementando nuevas etiquetas para informar a los espectadores cuando el video que están viendo ha sido alterado o creado sintéticamente.

«Esto es especialmente importante en casos en los que el contenido trata temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos», escribieron las vicepresidentas de Gestión de Productos, Jennifer Flannery O’Connor y Emily Moxley, en la entrada del blog. «Los creadores que elijan consistentemente no divulgar esta información pueden estar sujetos a la eliminación de contenido, la suspensión u otras sanciones. Trabajaremos con los creadores antes de implementar esto para asegurarnos de que comprendan estos nuevos requisitos». El auge de la IA ha inquietado a una gran parte de la sociedad, incluido Hollywood, donde actores y escritores recientemente estuvieron seis meses en huelga en parte por preocupaciones sobre el daño potencial que la tecnología podría causar.

La nueva postura de YouTube se produce aproximadamente un mes después de que la empresa presentara un conjunto de nuevas capacidades, incluido un caché de material de IA searchable llamado Dream Screen diseñado para la plataforma Shorts. Shorts, una respuesta a TikTok, ha atraído más de 70 mil millones de vistas diarias de más de 2 mil millones de usuarios registrados. Cuando se le preguntó en ese momento sobre el riesgo de propagar deepfakes u otro contenido engañoso, el CEO Neal Mohan admitió que «podría haber desafíos en torno a tecnologías como esta». Pero dijo que todos los videos mejorados con IA estarían sujetos a las pautas de la comunidad de YouTube. «Las reglas que se aplican al contenido de video en YouTube se aplican a todo lo que viste hoy».

La entrada del blog también menciona que los usuarios que tengan problemas con algún video que encuentren en YouTube pueden participar en un proceso de solicitud de privacidad recientemente ampliado. Este proceso permite a cualquiera solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que simule a una persona identificable, incluyendo su rostro o voz. Esta opción se extiende al ámbito de los videos musicales, donde la IA puede permitir que imitaciones de la voz o estilo único de un artista o rapero se difundan potencialmente.

Deepfakes y la seguridad de las herramientas de IA: formas de navegar por este turbio panorama

IndiaTimes. «Deepfakes And The Safety Of AI Tools: Ways To Navigate This Murky Landscape», 6 de noviembre de 2023. https://www.indiatimes.com/technology/news/deepfakes-and-the-safety-of-ai-tools-619754.html.


Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.

Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA).  El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?

Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.

Amenaza a la privacidad individual

La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.

Modificación de la opinión pública

Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.

Dificultades para identificar los deepfakes

Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.

Estrategias para garantizar la seguridad

A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?

  • Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
  • Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
  • Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
  • Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.

Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.

Los chatbots de Inteligencia Artificial «alucinan» inventándose información entre un 3 y un 27% de las veces

Metz, Cade. «Chatbots May ‘Hallucinate’ More Often Than Many Realize». The New York Times, 6 de noviembre de 2023, sec. Technology. https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html.

Los chatbots pueden «alucinar» más de lo que muchos creen. Al resumir hechos, la tecnología ChatGPT se equivoca un 3% de las veces, según un estudio de una nueva empresa. El porcentaje de un sistema de Google era del 27%.

Cuando la startup de San Francisco OpenAI presentó su chatbot en línea ChatGPT a finales del año pasado, millones quedaron impresionados por la forma en que respondía preguntas, escribía poesía y hablaba sobre casi cualquier tema de manera humanizada. Sin embargo, la mayoría de las personas no se dieron cuenta de que este nuevo tipo de chatbot a menudo inventa información.

Cuando Google presentó un chatbot similar varias semanas después, soltó tonterías sobre el telescopio James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish. En marzo, ChatGPT citó media docena de casos judiciales falsos al redactar un informe legal de 10 páginas que un abogado presentó a un juez federal de Manhattan.

una nueva empresa llamada Vectara, fundada por ex empleados de Google, está tratando de determinar con qué frecuencia los chatbots se desvían de la verdad. La investigación de la empresa estima que, incluso en situaciones diseñadas para evitarlo, los chatbots inventan información al menos el 3 por ciento del tiempo, y en algunos casos hasta el 27 por ciento.

Los expertos llaman a este comportamiento de chatbot «alucinación». Puede que no sea un problema para las personas que experimentan con chatbots en sus computadoras personales, pero es un problema grave para cualquiera que utilice esta tecnología con documentos judiciales, información médica o datos empresariales sensibles.

Dado que estos chatbots pueden responder a casi cualquier solicitud de una cantidad ilimitada de maneras, no hay forma de determinar de manera definitiva cuánto alucinan. «Tendrías que revisar toda la información del mundo», dijo Simon Hughes, el investigador de Vectara que lideró el proyecto.

Los investigadores argumentan que cuando estos chatbots realizan otras tareas, más allá de la simple condensación de contenidos (resumen), las tasas de alucinación pueden ser aún más altas. El problema radica en que, incluso cuando se les da una tarea sencilla y verificable, estos chatbots tienden a inventar información.

Noticias falsas: Por qué caemos en la trampa

«Podemos vivir en la ciudad más grande del país y, siempre y cuando mantengamos nuestros rostros enterrados en nuestros teléfonos inteligentes, nos sentiremos conectados al grupo al que pertenecemos y leeremos la información en la que queremos creer. Y seremos presa fácil para cualquiera que quiera alimentarnos con noticias falsas».

David Braucher, «Fake News: Why We Fall For It«

«Fake News: Why We Fall For It | Psychology Today». Accedido 7 de noviembre de 2023..

el autor reconoce que, a pesar de considerarse una persona relativamente inteligente, cayó en la trampa de creer en una noticia falsa que encontró en las redes sociales. Explica que en la era de las redes sociales, creamos burbujas insulares al buscar a personas afines que refuercen nuestros propios sesgos y creencias, lo que nos hace vulnerables a las noticias falsas. Dos fenómenos comunes contribuyen a esta vulnerabilidad: el sesgo implícito y el sesgo de confirmación.

  • El sesgo implícito se refiere a la tendencia de las personas a confiar más en quienes consideran parte de su propio grupo, sin siquiera darse cuenta de ello. El autor ejemplifica cómo su propio sesgo implícito lo hizo creer en una noticia falsa que coincidía con sus prejuicios sobre un político.
  • El sesgo de confirmación, por otro lado, se refiere a la tendencia de buscar información que confirme lo que ya creemos ser cierto, incluso ignorando hechos que contradigan nuestras creencias. El autor admite que compró la noticia falsa porque confirmaba lo que ya pensaba.

Cuando estos sesgos trabajan juntos, nos aíslan en burbujas donde solo escuchamos opiniones afines. Las redes sociales exacerban estos sesgos, ya que nos conectan con personas de ideas similares y nos muestran noticias que se alinean con nuestras creencias. Esto nos hace más susceptibles a la desinformación y las teorías de conspiración.

El autor enfatiza la importancia de interactuar con personas de diferentes grupos y creencias para cuestionar nuestras suposiciones y evitar caer en la trampa de las noticias falsas. También sugiere verificar la veracidad de las noticias antes de compartirlas en las redes sociales como una regla general.

Descifra las noticias falsas y construye tu información con la biblioteca

Kintz, Salomé, ed. Décoder les fausses nouvelles et construire son information avec la bibliothèque. Presses de l’enssib, 2020. https://doi.org/10.4000/books.pressesenssib.10908.

«Cazadores de falsedades», debates, talleres de infoxicación, fábricas de información, formación en competencias informativas… son sólo algunas de las iniciativas de bibliotecas universitarias y públicas.

¿Cómo entender los mecanismos del infox y distinguir entre ciencia y creencia? ¿Qué papel desempeña la biblioteca en la formación de los usuarios y qué servicios deben ponerse en marcha?

Se insistió mucho en la colaboración y la puesta en común de competencias entre periodistas y bibliotecarios.

Cómo ChatGPT y la IA generativa podrían fomentar la negación de la ciencia

Gale Sinatra and Barbara K. Hofer, The. «How ChatGPT and Generative AI Could Foster Science Denial». Gizmodo, 11 de junio de 2023. https://gizmodo.com/chatgpt-generative-ai-openai-science-denial-1850516570.

Todos los consumidores de medios de comunicación deben estar más atentos que nunca a la hora de verificar la veracidad científica. He aquí cómo mantenerse alerta en un nuevo panorama informativo.

Hasta hace muy poco, si deseabas obtener más información sobre un tema científico controvertido, como la investigación con células madre, la seguridad de la energía nuclear o el cambio climático, probablemente hacías una búsqueda en Google. Presentado con múltiples fuentes, elegías qué leer, seleccionando los sitios o autoridades en los que confiar.

Ahora tienes otra opción: puedes plantear tu pregunta a ChatGPT u otra plataforma de inteligencia artificial generativa y recibir rápidamente una respuesta concisa en forma de párrafo.

ChatGPT no busca en Internet de la misma manera que lo hace Google. En cambio, genera respuestas a las consultas prediciendo combinaciones de palabras probables a partir de una amalgama masiva de información disponible en línea.

Aunque tiene el potencial de mejorar la productividad, se ha demostrado que la IA generativa tiene algunos fallos importantes. Puede producir información errónea. Puede crear «alucinaciones«, un término benigno para inventar cosas. Y no siempre resuelve con precisión problemas de razonamiento. Por ejemplo, cuando se le preguntó si un automóvil y un tanque pueden pasar por una puerta, no consideró tanto el ancho como la altura. Sin embargo, ya se está utilizando para producir artículos y contenido web que es posible que hayas encontrado, o como una herramienta en el proceso de escritura. Aun así, es poco probable que sepas si lo que estás leyendo fue creado por la IA.

Como autores de «Science Denial: Why It Happens and What to Do About It» (Negación de la Ciencia: Por qué Ocurre y Qué Hacer al Respecto), preocupa cómo la IA generativa podría difuminar los límites entre la verdad y la ficción para aquellos que buscan información científica autoritaria.

Cada consumidor de medios necesita ser más vigilante que nunca al verificar la precisión científica en lo que lee. Así es cómo puedes mantenerte alerta en este nuevo panorama de la información.

Cómo la IA generativa podría fomentar la negación de la ciencia

  1. Erosión de la confianza epistémica: Todos los consumidores de información científica dependen de los juicios de expertos científicos y médicos. La confianza epistémica es el proceso de confiar en el conocimiento que se obtiene de otros. Es fundamental para la comprensión y el uso de información científica. Ya sea que alguien esté buscando información sobre una preocupación de salud o tratando de comprender soluciones para el cambio climático, a menudo tienen un entendimiento científico limitado y poco acceso a evidencia de primera mano. Con un creciente cuerpo de información en línea, las personas deben tomar decisiones frecuentes sobre qué y a quién confiar. Con el aumento del uso de la IA generativa y su potencial de manipulación, creemos que la confianza es probable que se erosioné aún más de lo que ya lo ha hecho.
  2. Desinformación o simplemente incorrecto: Si hay errores o sesgos en los datos con los que se entrenan las plataformas de IA, eso puede reflejarse en los resultados. En nuestras propias búsquedas, cuando le hemos pedido a ChatGPT que regenere múltiples respuestas a la misma pregunta, hemos obtenido respuestas contradictorias. Cuando se le preguntó por qué, respondió: «A veces cometo errores». Quizás el problema más complicado con el contenido generado por IA es saber cuándo está equivocado.
  3. Diseminación deliberada de desinformación: La IA se puede utilizar para generar desinformación convincente en forma de texto, así como imágenes y videos deepfake. Cuando le preguntamos a ChatGPT que «escribiera sobre las vacunas al estilo de desinformación», produjo una cita inexistente con datos falsos. Geoffrey Hinton, exjefe de desarrollo de IA en Google, renunció para poder dar la alarma, diciendo: «Es difícil ver cómo se puede evitar que los actores malintencionados lo utilicen para cosas malas». La capacidad de crear y difundir información deliberadamente incorrecta sobre la ciencia ya existía, pero ahora es peligrosamente fácil.
  4. Fuentes fabricadas: ChatGPT proporciona respuestas sin fuentes en absoluto, o si se le pide que proporcione fuentes, puede presentar fuentes inventadas. Ambos le pedimos a ChatGPT que generara una lista de nuestras propias publicaciones. Cada uno identificó algunas fuentes correctas. Más fueron alucinaciones, pero parecían ser reputables y en su mayoría plausibles, con coautores reales en revistas de sonido similar. Esta inventiva es un gran problema si una lista de publicaciones de un académico transmite autoridad a un lector que no se toma el tiempo para verificarlas.
  5. Conocimiento desactualizado: ChatGPT no sabe lo que ha sucedido en el mundo después de la fecha de corte de su conocimiento. Una consulta sobre el porcentaje de personas en el mundo que han tenido COVID-19 devolvió una respuesta precedida por «según mi fecha de corte de conocimiento de septiembre de 2021». Dado lo rápido que avanza el conocimiento en algunas áreas, esta limitación podría significar que los lectores obtengan información errónea y desactualizada. Si estás buscando investigaciones recientes sobre un problema de salud personal, por ejemplo, ten cuidado.
  6. Avance rápido y falta de transparencia: Los sistemas de IA siguen volviéndose más poderosos y aprenden más rápido, y pueden aprender más desinformación científica en el camino. Google anunció recientemente 25 nuevos usos incrustados de la IA en sus servicios. En este momento, no hay suficientes salvaguardias para garantizar que la IA generativa se convierta con el tiempo en un distribuidor más preciso de información científica.

¿Qué puedes hacer acerca de las alucinaciones de la IA?

Si utilizas ChatGPT u otras plataformas de IA, reconoce que es posible que no sean completamente precisas. La responsabilidad recae en el usuario para discernir la precisión.

Aumenta tu vigilancia. Es posible que pronto estén disponibles aplicaciones de verificación de hechos con IA, pero por ahora, los usuarios deben servir como sus propios verificadores de hechos. Recomendamos algunos pasos. El primero es: sé vigilante. Las personas a menudo comparten información que encuentran en búsquedas en las redes sociales con poco o ningún análisis. Aprende cuándo ser más reflexivo y cuándo vale la pena identificar y evaluar las fuentes de información. Si estás tratando de decidir cómo gestionar una enfermedad grave o entender los mejores pasos para abordar el cambio climático, tómate el tiempo para verificar las fuentes.

Mejora tu verificación de hechos. Un segundo paso es la lectura lateral, un proceso que utilizan los verificadores de hechos profesionales. Abre una nueva ventana y busca información sobre las fuentes, si se proporcionan. ¿La fuente es creíble? ¿El autor tiene experiencia relevante? ¿Cuál es el consenso de los expertos? Si no se proporcionan fuentes o no sabes si son válidas, utiliza un motor de búsqueda tradicional para encontrar y evaluar a expertos en el tema.

Evalúa las pruebas. A continuación, observa las pruebas y su conexión con la afirmación. ¿Hay evidencia de que los alimentos genéticamente modificados son seguros? ¿Hay evidencia de que no lo son? ¿Cuál es el consenso científico? Evaluar las afirmaciones requerirá esfuerzo más allá de una consulta rápida a ChatGPT.

Si comienzas con la IA, no te detengas allí. Ten precaución al usarla como la única autoridad en cualquier tema científico. Puedes consultar lo que ChatGPT tiene que decir sobre organismos genéticamente modificados o la seguridad de las vacunas, pero también realiza una búsqueda más diligente utilizando motores de búsqueda tradicionales antes de sacar conclusiones.

Evalúa la plausibilidad. Juzga si la afirmación es plausible. ¿Es probable que sea cierta? Si la IA hace una declaración poco plausible (y incorrecta), como «1 millón de muertes fueron causadas por las vacunas, no por el COVID-19», considera si tiene sentido. Haz un juicio tentativo y luego mantente abierto a revisar tu pensamiento una vez que hayas verificado la evidencia.

Promueve la alfabetización digital en ti mismo y en otros. Todos necesitan mejorar sus habilidades. Mejora tu propia alfabetización digital y, si eres padre, maestro, mentor o líder comunitario, promueve la alfabetización digital en los demás. La Asociación Estadounidense de Psicología ofrece orientación sobre cómo verificar información en línea y recomienda que los adolescentes sean capacitados en habilidades de redes sociales para minimizar los riesgos para la salud y el bienestar. El Proyecto de Alfabetización en Noticias proporciona herramientas útiles para mejorar y apoyar la alfabetización digital.

Arma-te con las habilidades que necesitas para navegar por el nuevo paisaje de información de la IA. Incluso si no utilizas la IA generativa, es probable que ya hayas leído artículos creados por ella o desarrollados a partir de ella. Puede llevar tiempo y esfuerzo encontrar y evaluar información confiable sobre ciencia en línea, pero vale la pena.

Gale Sinatra, Profesora de Educación y Psicología en la Universidad del Sur de California y Barbara K. Hofer, Profesora Emérita de Psicología en Middlebury.

A los chatbots de IA se les cruzan los cables en la guerra entre Israel y Hamás (vía Insider)

Nolan, Hasan Chowdhury, Beatrice. «AI Chatbots Are Getting Their Wires Crossed on the Israel-Hamas War». Business Insider. Accedido 13 de octubre de 2023. https://www.businessinsider.com/ai-chatbots-israel-hamas-conflict-google-bard-microsoft-openai-chatgpt-2023-10.

El artículo habla de cómo los chatbots de inteligencia artificial, incluyendo a Bard de Google, Bing de Microsoft y ChatGPT Plus, están teniendo dificultades para proporcionar información precisa y actualizada sobre el conflicto entre Israel y Hamas. Aquí tienes un resumen de los problemas con cada chatbot:

  1. Bard de Google:
    • Inicialmente, afirmó que había un alto el fuego en Israel que entró en vigor en mayo de 2023.
    • Tras nuevas consultas, Bard proporcionó información inconsistente sobre la fecha del alto el fuego.
    • Finalmente, reconoció que no había un alto el fuego en Israel a partir del 12 de octubre.
  2. Bing de Microsoft:
    • El chatbot de Bing generó una fecha falsa (10 de octubre de 2023) al responder a una pregunta sobre el alto el fuego.
    • Cuando se le corrigió acerca de la fecha incorrecta, Bing aún insistió en que se declaró un alto el fuego en esa fecha.
    • Bing ofreció respuestas más precisas a otras preguntas sobre el conflicto.
  3. ChatGPT Plus:
    • ChatGPT Plus ofreció respuestas vagas y poco comprometidas a preguntas sobre el conflicto.
    • No generó inexactitudes, pero no proporcionó información clara sobre la situación.
    • Reconoció que los acuerdos de alto el fuego anteriores podrían haberse roto en octubre de 2023.

El artículo destaca que estos chatbots de IA, a pesar de ser promocionados como herramientas avanzadas para la obtención de información, a menudo tienen dificultades para proporcionar actualizaciones precisas y oportunas sobre eventos de última hora. Se resalta la importancia de ser escéptico al depender de chatbots de IA para obtener información en tiempo real. Las compañías detrás de estos chatbots continúan trabajando para mejorar su calidad y confiabilidad, pero reconocen que pueden ocurrir errores, especialmente en noticias de última hora.

Narrativas digitales contra la desinformación. Verificación de datos y alfabetización en la sociedad digital

Narrativas digitales contra la desinformación. Verificación de datos y alfabetización en la sociedad digital , bajo la dirección académica de María Isabel Míguez-González y Alberto Dafonte-Gómez (coordinadores), publicada por Comunicación Social Ediciones y Publicaciones en su colección «Periodística», en 2023.

Texto completo

El fenómeno de la desinformación, como patrón comunicativo en auge vinculado a la sociedad digital, pone en riesgo la estabilidad de los sistemas políticos democráticos de todo el mundo y constituye una amenaza seria para la credibilidad de los medios de comunicación. El gran alcance y las graves repercusiones de las prácticas desinformativas han hecho que en los últimos años se haya convertido en una preocupación de primera magnitud para gobiernos e instituciones internacionales y que sea ya un fenómeno ampliamente estudiado que, aun así, sigue generando interés y planteando retos a la comunidad científica internacional.

En este contexto de preocupación generalizada se plantean distintas vías de actuación para frenar y mitigar los efectos de la desinformación entre la ciudadanía. Las iniciativas periodísticas de fact-checking son una de las respuestas al problema y contribuyen activamente en la lucha contra la desinformación, tanto por su labor de verificación de declaraciones, contenidos de medios de comunicación o bulos distribuidos a través de redes sociales y servicios de mensajería instantánea, como por la labor de alfabetización mediática que muchas de ellas desarrollan a través de sus sitios web.

Asumiendo la relevancia de estas entidades verificadoras de datos o fact-checkers en la lucha contra la desinformación, un equipo de investigadores liderados por María Isabel Míguez González y Alberto Dafonte Gómez desarrollaron entre junio de 2020 y mayo de 2023 el proyecto «Fact-checkers: narrativas digitales contra la desinformación: estudio de redes, temas y formatos en los fact-checkers iberoamericanos», financiado por la Agencia Estatal de Investigación. Dicho proyecto se propuso contribuir al reto de combatir la desinformación a través de la identificación de las temáticas y las características formales y narrativas de aquellos contenidos generados por los fact-checkers del ámbito iberoamericano que logran mayor éxito entre la audiencia, con la finalidad de transferir ese conocimiento para mejorar el alcance y repercusión de su labor. Asimismo, el proyecto generó recursos formativos orientados a mejorar la competencia digital y la alfabetización mediática de la ciudadanía contra la desinformación.

Este libro, a través de sus quince capítulos organizados en cuatro partes, pretende ofrecer una aproximación divulgativa a los resultados de dicho proyecto, además de incorporar las aportaciones de otros investigadores de reconocido prestigio que han abordado la temática de la desinformación y la verificación de datos desde diferentes puntos de vista.