Archivo de la etiqueta: Noticias falsas

Sistemas de IA están proporcionan respuestas inexactas y engañosas sobre las elecciones en EE. UU., amenazando con evitar que los votantes acudan a las urnas

AP News. «Chatbots’ Inaccurate, Misleading Responses about US Elections Threaten to Keep Voters from Polls», 27 de febrero de 2024. https://apnews.com/article/ai-chatbots-elections-artificial-intelligence-chatgpt-falsehoods-cc50dd0f3f4e7cc322c7235220fc4c69.

Con las primarias presidenciales en marcha en EE. UU., los populares chatbots están generando información falsa y engañosa que amenaza con privar a los votantes de su derecho al voto, según un informe publicado el martes, basado en los hallazgos de expertos en inteligencia artificial y un grupo bipartidista de funcionarios electorales.

Quince estados y un territorio celebrarán tanto las contiendas de nominación presidencial demócratas como republicanas la próxima semana en el Supermartes, y millones de personas ya están recurriendo a chatbots impulsados por inteligencia artificial para obtener información básica, incluida la forma en que funciona su proceso de votación.

Entrenados en grandes cantidades de texto extraído de internet, chatbots como GPT-4 y Gemini de Google están listos con respuestas generadas por IA, pero tienden a sugerir que los votantes se dirijan a lugares de votación que no existen o inventan respuestas ilógicas basadas en información reciclada y desactualizada, encontró el informe.

Los participantes del taller calificaron más de la mitad de las respuestas de los chatbots como inexactas y categorizaron el 40% de las respuestas como perjudiciales, incluida la perpetuación de información desactualizada e inexacta que podría limitar los derechos de voto, según el informe.

Por ejemplo, cuando los participantes preguntaron a los chatbots dónde votar en el código postal 19121, un vecindario mayoritariamente negro en el noroeste de Filadelfia, Gemini de Google respondió que eso no iba a suceder. «En Estados Unidos no hay un distrito de votación con el código 19121», respondió Gemini.

Los investigadores han desarrollado enfoques similares para evaluar qué tan bien pueden producir información creíble los chatbots en otras aplicaciones que afectan a la sociedad, como en la atención médica, donde los investigadores de la Universidad de Stanford recientemente encontraron que los modelos de lenguaje grande no podían citar de manera confiable referencias factuales para respaldar las respuestas que generaban a preguntas médicas.

OpenAI, que el mes pasado delineó un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral, dijo en respuesta que la empresa «seguirá evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas», pero no ofreció detalles específicos.

Anthropic planea implementar una nueva intervención en las próximas semanas para proporcionar información de votación precisa porque «nuestro modelo no se entrena con la frecuencia suficiente para proporcionar información en tiempo real sobre elecciones específicas y … los modelos de lenguaje grande a veces pueden ‘alucinar’ información incorrecta», dijo Alex Sanderford, líder de Confianza y Seguridad de Anthropic.

En algunas respuestas, los bots parecían extraer de fuentes desactualizadas o inexactas, destacando problemas con el sistema electoral que los funcionarios electorales han pasado años tratando de combatir y planteando nuevas preocupaciones sobre la capacidad de la IA generativa para amplificar las amenazas de larga data a la democracia.

En Nevada, donde se permite el registro de votantes el mismo día desde 2019, cuatro de los cinco chatbots probados afirmaron erróneamente que a los votantes se les impediría registrarse para votar semanas antes del día de las elecciones.

«Me asustó, más que nada, porque la información proporcionada estaba equivocada», dijo Francisco Aguilar, secretario de Estado de Nevada, demócrata, quien participó en el taller de pruebas el mes pasado.

La investigación y el informe son el producto de los Proyectos de Democracia de IA, una colaboración entre Proof News, un nuevo medio de comunicación sin fines de lucro dirigido por la periodista de investigación Julia Angwin, y el Laboratorio de Ciencia, Tecnología y Valores Sociales en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey, dirigido por Alondra Nelson, ex directora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.

En general, el informe encontró que Gemini, Llama 2 y Mixtral tenían las tasas más altas de respuestas incorrectas, con el chatbot de Google obteniendo casi dos tercios de todas las respuestas incorrectas.

Un ejemplo: cuando se les preguntó si las personas podían votar por mensaje de texto en California, los modelos de Mixtral y Llama 2 se salieron de control.

«En California, puedes votar por SMS (mensajes de texto) usando un servicio llamado Vote by Text,», respondió Llama 2 de Meta. «Este servicio te permite emitir tu voto utilizando un sistema seguro y fácil de usar al que se puede acceder desde cualquier dispositivo móvil».

Google desactiva temporalmente la función de generación de imágenes de inteligencia artificial de Gemini después de que creara imágenes históricas inexactas.

Kharpal, Arjun. «Google Pauses Gemini AI Image Generator after It Created Inaccurate Historical Pictures». CNBC, 22 de febrero de 2024. https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html.

El jueves, Google anunció que está pausando su función de generación de imágenes de inteligencia artificial Gemini después de afirmar que ofrece «inexactitudes» en imágenes históricas.

Usuarios en redes sociales se habían quejado de que la herramienta de inteligencia artificial genera imágenes de figuras históricas, como los Padres Fundadores de Estados Unidos, como personas de color, calificando esto como inexacto. Por ejemplo, ha mostrado a soldados alemanes de la era nazi con piel negra y a los Padres Fundadores de Estados Unidos también como personas de color. Estos ejemplos han sido difundidos principalmente por figuras de derecha que acusan a Google de sesgo liberal y racismo inverso. Aunque algunos defienden la representación de la diversidad, critican a Gemini por no hacerlo de manera matizada.

Google admitió que Gemini no ha acertado en algunas representaciones históricas y anunció que está trabajando para mejorar este tipo de representaciones de inmediato. Google dijo en una publicación el miércoles en X que la función de IA puede «generar una amplia gama de personas. Y eso generalmente es algo bueno porque personas de todo el mundo lo usan». Pero dijo que la función de software está «fallando aquí», agregando que el gigante tecnológico está «trabajando para mejorar este tipo de representaciones inmediatamente».

Google publicó una declaración actualizada el jueves, diciendo que pausará la función de Gemini para generar imágenes de personas y lanzará una versión «mejorada» pronto.

La herramienta generadora de imágenes fue lanzada a principios de febrero a través de Gemini, que antes se llamaba Bard. Enfrenta desafíos en un momento en que Google intenta ponerse al día con OpenAI respaldado por Microsoft.

Gemini se negó a generar imágenes en absoluto el jueves por la mañana cuando fue probado por un reportero de CNBC.

Mientras Google enfrenta problemas con la creación de imágenes de Gemini, Open AI lanzó la semana pasada Sora, su nuevo modelo de inteligencia artificial generativa que puede producir video a partir de las indicaciones de texto de los usuarios.

Jack Krawczyk, director senior de producto de Gemini en Google, dijo el miércoles que las capacidades de generación de imágenes de la compañía reflejan la «base de usuarios global» del gigante tecnológico, y que toma «la representación y el sesgo en serio».

«Continuaremos haciendo esto para indicaciones abiertas (¡las imágenes de una persona paseando a un perro son universales!)», dijo Krawczyk en una publicación en X.»Los contextos históricos tienen más matices y ajustaremos aún más para acomodar eso».

La generación de imágenes por inteligencia artificial tiene un historial de amplificación de estereotipos raciales y de género debido a la falta de diversidad en los conjuntos de datos utilizados para entrenarlos. Por ejemplo, una investigación del Washington Post del año pasado encontró que las consultas como «una persona productiva» resultaban en imágenes de figuras mayoritariamente blancas y masculinas, mientras que las consultas como «una persona en servicios sociales» producían imágenes de personas negras.

Google lanzó Gemini, su modelo de IA más avanzado, a finales de 2023. Este mes, también rebautizó Bard, su competidor ChatGPT, como Gemini. Google además lanzó un servicio de suscripción a una versión más poderosa del modelo de IA.

TrueMedia: una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA

TrueMedia

TrueMedia, una nueva organización sin fines de lucro liderada por Oren Etzioni, que está desarrollando una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA, con el objetivo de combatir la desinformación política antes de las elecciones de 2024. Respaldada por la fundación sin fines de lucro Camp.org de Garrett Camp,

TrueMedia tiene previsto lanzar una herramienta web gratuita que combina técnicas avanzadas de detección de deepfakes para ser utilizada inicialmente por periodistas y verificadores de hechos, con un lanzamiento público más amplio posteriormente. La tecnología de TrueMedia analizará los medios subidos para evaluar la probabilidad de manipulación por IA, centrándose en los deepfakes políticos. A pesar de los desafíos técnicos, TrueMedia está comprometida a tener un impacto genuino en la lucha contra la desinformación sin hacer juicios políticos sobre el contenido. Con un equipo compuesto por expertos y asesores de diversos campos, TrueMedia está muy centrada en las próximas elecciones, con el objetivo de demostrar su eficacia antes de considerar planes a largo plazo.

Los «deepfakes», y su impacto potencial en los procesos democráticos

AI-powered disinformation is spreading — is Canada ready for the political impact? The rise of deepfakes comes as billions of people around the world prepare to vote this year. Catharine Tunney · CBC News · Posted: Jan 18, 2024 4:00 AM EST | Last Updated: January 21

Ver artículo

Pocos días antes de las elecciones nacionales eslovacas del pasado otoño, una misteriosa grabación de voz empezó a difundir una mentira en Internet. El archivo manipulado hacía parecer que Michal Simecka, líder del partido Eslovaquia Progresista, hablaba de comprar votos con un periodista local. Sin embargo, la conversación nunca se produjo y el archivo fue posteriormente desmentido como un engaño «deepfake».

El artículo aborda la creciente preocupación por la desinformación impulsada por inteligencia artificial, especialmente los «deepfakes», y su impacto potencial en los procesos democráticos en Canadá. Se destaca un incidente reciente en Eslovaquia, donde un «deepfake» manipuló una grabación de voz para difundir información falsa sobre un líder político justo antes de las elecciones nacionales. El artículo subraya el desafío global de combatir la desinformación, ya que miles de millones de personas están a punto de votar en diversas elecciones, incluida la muy esperada contienda presidencial en los Estados Unidos.

Se señala la creciente amenaza de los «deepfakes», utilizando el caso eslovaco como ejemplo y resaltando la dificultad para determinar la extensión de la influencia de los «deepfakes» en los resultados electorales. Expertos como Hany Farid de la Universidad de California-Berkeley expresan preocupaciones sobre el impacto de los «deepfakes» en la credibilidad y la responsabilidad de los políticos, ya que la facilidad para crear contenido manipulado plantea temores de que los individuos ya no sean responsables de sus acciones o declaraciones.

La Agencia de Seguridad de las Comunicaciones (CSE), la agencia de inteligencia cibernética de Canadá, reconoce la amenaza y expresa inquietudes sobre la interferencia extranjera. Se describen los preparativos de la CSE para posibles ataques de inteligencia artificial en las elecciones canadienses, incluida la autoridad para eliminar contenido engañoso y operaciones cibernéticas defensivas.

Se menciona el Protocolo Público de Incidentes Críticos en Elecciones, establecido en 2019, que monitorea y alerta al público sobre amenazas creíbles a las elecciones de Canadá. Se plantean críticas sobre la efectividad del protocolo para detectar contenido falso e interferencia extranjera.

La CSE advierte que la tecnología de inteligencia artificial avanza a un ritmo que dificultará la detección de «deepfakes». Se insta al público a desarrollar «escepticismo profesional» y a ser cauteloso con el contenido en línea.

La diputada conservadora Michelle Rempel Garner expresa preocupaciones sobre la respuesta del gobierno a la amenaza de «deepfakes» y pide medidas más fuertes. Se sugiere la adopción de marcas de agua en el contenido generado por inteligencia artificial para ayudar a los usuarios a distinguir entre contenido real y falso.

Hany Farid aboga por la responsabilidad de las empresas de inteligencia artificial, sugiriendo la inclusión de marcas de agua duraderas en el contenido generado por inteligencia artificial. El Ministro de Seguridad Pública, Dominic LeBlanc, reconoce las preocupaciones y da indicios de futuras medidas gubernamentales para abordar el problema.

Se destacan los esfuerzos para educar al público sobre el reconocimiento de contenido engañoso, incluida la creación de un juego de mesa y programas de divulgación. Las recomendaciones incluyen ver contenido en vivo durante las elecciones y abordar la desinformación al interactuar con amigos y familiares.

En conclusión, el artículo destaca la urgencia de que Canadá aborde la amenaza de la desinformación impulsada por la inteligencia artificial, enfatizando la necesidad de un enfoque multifacético que involucre soluciones tecnológicas, medidas regulatorias, educación pública y análisis posterior de contenido cuestionable.

Las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias.

How online misinformation exploits ‘information voids’—And what to do about it. (2024). Nature, 625(7994), 215-216. https://doi.org/10.1038/d41586-024-00030-x

Este año marca el año electoral más grande registrado en la historia, con países que representan alrededor de la mitad de la población mundial celebrando elecciones. Sin embargo, surgen preocupaciones de que 2024 podría ser un año significativo para la propagación de información errónea y desinformación. Si bien ambos términos se refieren a contenido engañoso, la desinformación se fabrica intencionalmente.

La prevalencia de la búsqueda en línea y las redes sociales permite reclamaciones y contraargumentos interminables durante los períodos electorales. Un estudio reciente destacó la existencia de «vacíos de datos», espacios que carecen de evidencia en los que las personas que buscan precisión sobre temas controvertidos pueden caer. Esto subraya la necesidad de campañas de alfabetización mediática más sofisticadas para combatir la desinformación.

La investigación indica que las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias. Esto ocurre porque los resultados de la búsqueda pueden priorizar fuentes que corroboren la historia inexacta, contribuyendo al efecto de la verdad ilusoria.

Los esfuerzos para abordar este problema requieren una colaboración entre los proveedores de motores de búsqueda y las fuentes de conocimiento basado en evidencia. Si bien los sistemas automatizados despriorizan fuentes no confiables, se necesitan medidas adicionales. Google, por ejemplo, se basa en algoritmos para clasificar noticias según medidas de calidad, pero la incorporación de aportes humanos y el fortalecimiento de los sistemas internos de verificación de hechos podrían ofrecer soluciones más efectivas.

Las campañas de alfabetización mediática deben centrarse en educar a los usuarios para discernir entre diferentes fuentes en los resultados de búsqueda. Las iniciativas para mejorar la alfabetización mediática podrían comenzar exponiendo a personas influyentes a métodos de investigación, permitiéndoles influir positivamente en sus redes. Las lecciones de las campañas de alfabetización en salud también deberían informar las estrategias, considerando las diversas necesidades de los diferentes grupos de población.

Al abordar la información errónea y la desinformación, es crucial una colaboración entre los proveedores de motores de búsqueda, las fuentes de conocimiento basado en evidencia y las revistas de investigación. La urgencia surge a medida que la inteligencia artificial generativa y los modelos de lenguaje grandes tienen el potencial de amplificar la información errónea. Empoderar a las personas para ignorar noticias de fuentes no confiables se vuelve esencial en este año electoral crítico.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.

La inteligencia artificial potenciada por la desinformación es la mayor amenaza a corto plazo para el mundo, según un informe de Davos

«La información falsa y engañosa potenciada con inteligencia artificial de vanguardia, que amenaza con socavar la democracia y polarizar la sociedad, es el principal riesgo inmediato para la economía global, según un informe del Foro Económico Mundial publicado el miércoles.»

El informe más reciente del Foro Económico Mundial destaca que la información falsa y engañosa potenciada con inteligencia artificial de vanguardia es la principal amenaza inmediata para la economía global. La desinformación y la manipulación a través de tecnologías avanzadas podrían erosionar la democracia y polarizar la sociedad. La preocupación se centra en cómo el avance de generadores de contenido con inteligencia artificial, como ChatGPT, facilita la creación de contenido sintético sofisticado para manipular a grupos de personas, antes limitado a aquellos con habilidades especializadas.

El informe también señala que los riesgos ambientales representan las mayores amenazas a largo plazo. El cambio climático es la segunda preocupación más apremiante a corto plazo, seguido de cerca por las condiciones meteorológicas extremas. A largo plazo (10 años), el clima extremo se identifica como la principal amenaza, seguido de cambios críticos en los sistemas terrestres, pérdida de biodiversidad, colapso del ecosistema y escasez de recursos naturales.

La inteligencia artificial (IA) alimenta la desinformación y se convierte en un riesgo justo cuando millones de personas en varios países están a punto de votar en los próximos años. El informe destaca que la IA puede ser utilizada para crear deepfakes y afectar a grandes grupos, impulsando la desinformación y socavando los procesos democráticos.

La IA también presenta riesgos adicionales al facilitar ataques cibernéticos y automatizar intentos de phishing. Además, puede contaminar datos utilizados para entrenar otros sistemas de IA, lo que resulta difícil de revertir y puede reforzar sesgos en los modelos de IA.

En resumen, el informe advierte sobre la necesidad de abordar la desinformación impulsada por la inteligencia artificial y destaca la importancia de gestionar los riesgos asociados con la IA en diversos aspectos, desde la ciberseguridad hasta la formación de modelos de IA libres de sesgos.

Las búsquedas en línea para evaluar la desinformación pueden aumentar su percepción de veracidad

Aslett, Kevin, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler, y Joshua A. Tucker. 2023. «Online Searches to Evaluate Misinformation Can Increase Its Perceived Veracity». Nature, diciembre, 1-9. https://doi.org/10.1038/s41586-023-06883-y.


El estudio realizado por Kevin Aslett, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler y Joshua A. Tucker, publicado en Nature en 2023, investiga el impacto de las búsquedas en línea en la percepción de veracidad de la desinformación. La investigación aborda la exploración limitada del papel de los motores de búsqueda en el entorno de la información, a pesar de su influencia significativa. Mientras que las intervenciones de alfabetización mediática a menudo defienden la búsqueda en línea como un medio para evaluar la veracidad de la información, hay una falta de evidencia empírica que respalde la suposición de que buscar en línea reduce la creencia en la desinformación.

El estudio consta de cinco experimentos que muestran consistentemente evidencia contraria a la sabiduría convencional. Los hallazgos sugieren que, en lugar de disminuir la creencia en artículos de noticias falsas, las búsquedas en línea para evaluar su veracidad aumentan la probabilidad de creer en ellas. Para entender este fenómeno, los investigadores combinaron datos de encuestas con datos de rastreo digital obtenidos mediante una extensión de navegador personalizada. El estudio revela que el efecto de búsqueda es más pronunciado entre las personas que reciben información de baja calidad de los motores de búsqueda. Esto indica el riesgo de caer en «vacíos de datos», donde las personas encuentran evidencia corroboradora de fuentes de baja calidad al buscar en línea para evaluar la desinformación.

Además, la investigación muestra que buscar en línea para evaluar las noticias no solo aumenta la creencia en noticias verdaderas de fuentes de baja calidad, sino que también tiene efectos inconsistentes en la creencia en noticias verdaderas de fuentes convencionales. El estudio enfatiza la importancia de que los programas de alfabetización mediática basen sus recomendaciones en estrategias probadas empíricamente y solicita a los motores de búsqueda que inviertan en soluciones para abordar los desafíos identificados en la investigación.

El uso de la IA generativa por parte de los estudiantes: la amenaza de las alucinaciones

«Students’ Use of Generative AI: The Threat of Hallucinations». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/students-use-of-generative-ai-the-threat-of-hallucinations/.


Los sistemas de inteligencia artificial generativa entrenados con grandes cantidades de datos existentes utilizan el aprendizaje automático para producir nuevo contenido (como texto o imágenes) en respuesta a las indicaciones de los usuarios. En educación, la inteligencia artificial generativa se menciona con mayor frecuencia en el contexto de la integridad académica, con profesores expresando temores sobre el fraude en el aula.

Sin embargo, la encuesta a profesores, padres y estudiantes muestra que el 45 por ciento de los estudiantes que dicen haber utilizado inteligencia artificial generativa informan haberlo hecho por razones personales, mientras que solo el 23 por ciento informa haberlo utilizado para la escuela. De aquellos que han utilizado la tecnología por razones personales, muchas de las aplicaciones son de gran importancia: el 29 por ciento la ha utilizado para lidiar con la ansiedad o problemas de salud mental, el 22 por ciento para lidiar con problemas con amigos y el 16 por ciento para lidiar con problemas familiares. Como resultado, incluso en el contexto de uso personal, los sistemas de inteligencia artificial generativa que producen información incorrecta pueden tener consecuencias perjudiciales significativas.

¿Qué son las alucinaciones y por qué ocurren? Por su estilo de escritura y la forma en que proporcionan información, los sistemas de inteligencia artificial generativa pueden parecer fuentes confiables y autorizadas de información. Sin embargo, estos sistemas a menudo producen texto que es factualmente incorrecto. Estos errores factuales se conocen como «alucinaciones». Las alucinaciones son una consecuencia tanto del diseño como de la estructura operativa de los sistemas de inteligencia artificial generativa.

Desde el punto de vista del diseño, los sistemas de inteligencia artificial generativa están construidos con la intención de imitar el texto producido por humanos. Para lograr esto, generalmente se entrenan con enormes conjuntos de datos de texto a partir de los cuales el sistema aprende sobre la estructura de oraciones y párrafos, y luego produce texto que parece tener sentido para los lectores humanos al predecir repetidamente la siguiente palabra más lógica. Este proceso no está diseñado para crear contenido que sea verdadero o correcto, sino que tenga sentido.

Estructuralmente, la mayoría de los sistemas de inteligencia artificial generativa operan «desconectados», lo que significa que no están obteniendo activamente datos de internet para responder a indicaciones. Por lo tanto, están limitados a los datos contenidos en sus conjuntos de datos de entrenamiento. Esto hace que los sistemas de inteligencia artificial generativa sean particularmente poco confiables cuando se trata de eventos actuales que no aparecen en sus conjuntos de datos de entrenamiento.

Los posibles impactos perjudiciales de las alucinaciones en los estudiantes La realidad de las alucinaciones de inteligencia artificial generativa, junto con los altos niveles de uso personal por parte de los estudiantes para asuntos importantes, plantea grandes preocupaciones sobre el acceso a información precisa en momentos de crisis. Por ejemplo, los estudiantes podrían estar haciendo preguntas a ChatGPT (u otra herramienta de inteligencia artificial generativa) sobre cómo lidiar con un problema de salud mental en curso, que podría ser potencialmente una situación de vida o muerte. Dado que la mayoría de los sistemas de inteligencia artificial generativa probablemente utilizados por los estudiantes se entrenan con información recopilada de internet, podrían replicar malentendidos comunes sobre problemas sensibles como desafíos de salud mental, roles de género y orientación sexual.

Además de las alucinaciones tradicionales, que son simplemente información incorrecta, la inteligencia artificial generativa también puede tener impactos emocionales significativos en los estudiantes que utilizan la herramienta por razones personales al replicar prejuicios sociales contra poblaciones marginadas, incluidas cuestiones de raza, género u orientación sexual. Los estudiantes, especialmente durante las etapas vitales de desarrollo de la educación K-12, pueden internalizar estos prejuicios, ya sea contra ellos mismos o contra otros.

Las alucinaciones también son motivo de preocupación significativa cuando los estudiantes utilizan plataformas de inteligencia artificial generativa con fines académicos. La posibilidad de que los estudiantes reciban información inexacta puede ir en contra directa del objetivo de las escuelas de proporcionar información confiable y de calidad a los estudiantes. Los estudiantes que no comprenden las posibilidades de alucinaciones de estas herramientas pueden usarlas de manera ineficaz y perder usos beneficiosos. Sin comprender las limitaciones de la inteligencia artificial generativa, los estudiantes pueden no poder aprovechar de manera efectiva su potencial como herramienta para complementar su aprendizaje y habilidades de pensamiento crítico.

¿Cómo deben abordar las escuelas el problema de las alucinaciones?

Para combatir las posibles consecuencias devastadoras de las alucinaciones de inteligencia artificial generativa tanto en contextos personales como académicos, las escuelas deben:

  • Comprender las limitaciones de la inteligencia artificial generativa y asegurarse de que los maestros estén adecuadamente capacitados. Aunque los beneficios potenciales de estas herramientas para mejorar el aprendizaje pueden ser emocionantes, es imperativo que los funcionarios escolares estén completamente familiarizados con las deficiencias tecnológicas e impartan ese conocimiento a los educadores. Los maestros desempeñan un papel crucial para garantizar que la inteligencia artificial generativa se utilice de manera responsable y apropiada en el aula. Pero para hacerlo, necesitan acceso a recursos y capacitación.
  • Continuar invirtiendo en consejeros y otros apoyos de salud mental. Las escuelas deben tener cuidado de no dirigir a los estudiantes hacia el uso de inteligencia artificial generativa como recurso sobre temas tan sensibles como su salud mental. Los problemas de salud mental en curso requieren empatía y experiencia humanas, por lo que las escuelas no deben adquirir herramientas de inteligencia artificial generativa para reemplazar o incluso triar el cuidado que de otro modo proporcionaría un ser humano. Si las escuelas van a adquirir una herramienta para complementar a los consejeros y apoyos de salud mental ya existentes, deberían hacer referencia a nuestra guía sobre principios de adquisición responsables, ya que incluso como herramienta complementaria, los sistemas de inteligencia artificial generativa pueden causar daño si no se prueban y regulan adecuadamente.
  • Brindar educación a los estudiantes sobre qué es la inteligencia artificial generativa, cómo funciona y por qué ocurren las alucinaciones. Para combatir la exageración no controlada del público en torno a la inteligencia artificial generativa, las escuelas deben dotar a los estudiantes con conocimientos básicos sobre la tecnología, sus capacidades y limitaciones, y cómo puede salir mal tanto en usos académicos como personales.
  • Brindar educación a los estudiantes sobre la alfabetización mediática y las habilidades de investigación. El lanzamiento de ChatGPT en noviembre pasado subrayó la necesidad de que los estudiantes comprendan cómo ser consumidores responsables y efectivos del conocimiento a través de nuevas herramientas tecnológicas. El uso de la inteligencia artificial generativa es cada vez más inevitable de la misma manera que el uso de internet, por lo que es vital que las escuelas proporcionen a los estudiantes capacitación y recursos sobre cómo evaluar la precisión y confiabilidad de la información obtenida a través de ChatGPT y otras plataformas de inteligencia artificial generativa.
  • Asegurarse de que maestros y estudiantes comprendan cuándo es apropiado usar la inteligencia artificial generativa. La inteligencia artificial generativa no está destinada a reemplazar la enseñanza y el aprendizaje tradicionales en ningún caso; no es un reemplazo del conocimiento y no es un terapeuta o consejero efectivo para problemas personales. Sin embargo, puede usarse, por ejemplo, como una herramienta de apoyo para mejorar la escritura o como una herramienta novedosa para la investigación al explorar un nuevo tema. Las escuelas deben proporcionar orientación y capacitación tanto a maestros como a estudiantes sobre cómo hacer un uso efectivo de la inteligencia artificial generativa.

En un panorama informativo cambiante, la alfabetización mediática es más importante que nunca

Banks, Kelly. s. f. «In a Changing Information Landscape, Media Literacy Is More Important than Ever». Accedido 15 de diciembre de 2023. https://blog.pressreader.com/libraries-institutions/media-literacy-more-important-than-ever.

En un mundo en el que la información es cada vez más accesible, es más importante que nunca que las personas sean capaces de evaluar críticamente la información que consumen. Esto es especialmente cierto en el contexto de la desinformación, que se ha convertido en un problema cada vez más grave.

La desinformación es información falsa o engañosa que se difunde deliberadamente con la intención de engañar o manipular a los demás. Puede tener un impacto significativo en la sociedad, ya que puede llevar a la toma de decisiones erróneas, la polarización social y la violencia.

La alfabetización mediática es la capacidad de comprender y evaluar críticamente la información que se encuentra en los medios de comunicación. Implica ser capaz de reconocer la desinformación, identificar los sesgos y comprender el contexto en el que se presenta la información.

Hay una serie de cosas que las personas pueden hacer para mejorar su alfabetización mediática. Una de las cosas más importantes es ser conscientes de los sesgos. Todos los medios de comunicación tienen sesgos, ya sea intencionalmente o no. Es importante ser consciente de estos sesgos para poder evaluar críticamente la información que se presenta.

Otra cosa importante que las personas pueden hacer es ser escépticas con la información que encuentran en línea. No toda la información que se encuentra en línea es precisa o veraz. Es importante verificar la información antes de creerla.

Hay una serie de recursos disponibles para ayudar a las personas a mejorar su alfabetización mediática. Las bibliotecas, las escuelas y las organizaciones sin fines de lucro ofrecen una variedad de programas y recursos que pueden ayudar a las personas a aprender a evaluar críticamente la información.

La alfabetización mediática es una habilidad importante que todos deberían desarrollar. Al ser conscientes de los sesgos, ser escépticos con la información y verificar la información antes de creerla, las personas pueden protegerse de la desinformación y tomar decisiones informadas.

Aquí hay algunos consejos específicos para evaluar la credibilidad de una fuente de noticias:

  • Considera la fuente. ¿Es una fuente conocida y respetada? ¿Tiene un historial de informar con precisión?
  • Considera el autor. ¿Quién escribió la historia? ¿Tiene el autor las credenciales necesarias para informar sobre este tema?
  • Considera el contenido. ¿Es la información presentada precisa y completa? ¿Hay alguna evidencia que apoye las afirmaciones que se hacen?
  • Considera el formato. ¿La historia está bien escrita y editada? ¿Hay algún indicio de que la historia haya sido alterada o manipulada?

Al seguir estos consejos, las personas pueden ser más capaces de identificar la desinformación y tomar decisiones informadas.