Un estudio dirigido por la Universidad de Rutgers ha identificado una creciente brecha en la confianza y el uso de la inteligencia artificial (IA) en Estados Unidos. Según los resultados de la encuesta, las personas con mayores ingresos y niveles educativos son más propensas a utilizar, confiar y conocer la tecnología de IA.
La encuesta, parte del National AI Opinion Monitor (NAIOM), se realizó entre el 25 de octubre y el 8 de noviembre de 2024, con la participación de casi 4.800 personas de distintos grupos demográficos y niveles socioeconómicos. Se evaluó la confianza en los sistemas de IA, en las empresas que los desarrollan y en el contenido generado por IA.
Principales hallazgos:
Confianza en la IA: El 47% de los encuestados expresó “bastante” o “mucha” confianza en que la IA actúe en beneficio del público, un porcentaje superior al de la confianza en las redes sociales (39%) o el Congreso (42%).
Grupos con mayor confianza: La confianza en la IA es mayor entre los jóvenes de 18 a 24 años (60%), quienes ganan más de 100,000 dólares al año (62%) y quienes poseen estudios de posgrado (60%).
Desigualdad en el acceso: Según la profesora Katherine Ognyanova, coautora del estudio, la brecha de confianza en la IA aún no es insalvable, pero si la tecnología sigue siendo más accesible para los grupos de ingresos altos, podría acentuar las desigualdades económicas y limitar oportunidades para otros sectores.
El 62% de los encuestados confía en las noticias producidas por periodistas, mientras que solo el 48% confía en contenido generado por inteligencia artificial (IA). Esto refleja una mayor confianza en el periodismo tradicional frente a la automatización en la producción de noticias.
A pesar de ello, muchas personas tienen dificultades para identificar contenido generado por IA. Solo el 43% de los participantes se siente “algo” o “muy” seguro de poder diferenciar entre noticias creadas por humanos y aquellas generadas por IA. Sin embargo, menos de la mitad tiene certeza de poder hacerlo con precisión, lo que sugiere la necesidad de mayor educación en alfabetización digital.
Aunque la desconfianza hacia el contenido generado por IA es alta, muchas organizaciones de noticias ya utilizan herramientas automatizadas para agilizar la producción de información. Un ejemplo de ello es Lynx Insight de Reuters, que permite generar reportes breves que luego son revisados y editados por periodistas antes de su publicación.
El estudio también evaluó el nivel de conocimiento sobre IA mediante una serie de preguntas a los participantes, dividiéndolos en tres grupos según sus respuestas correctas. El 27% mostró un bajo conocimiento (0-2 respuestas correctas), el 51% tuvo un conocimiento medio (3-4 respuestas correctas) y solo el 23% demostró un alto conocimiento (5-8 respuestas correctas).
El nivel de conocimiento en IA está directamente relacionado con la educación y los ingresos. Entre quienes tienen estudios de posgrado, el 29% mostró un alto nivel de conocimiento, frente al 20% de aquellos sin estudios universitarios. De manera similar, el 27% de quienes ganan más de 100,000 dólares al año demostraron altos conocimientos de IA, comparado con solo el 19% de quienes ganan menos de 25,000 dólares.
Los investigadores enfatizan la importancia de integrar la educación en IA en los planes de estudio desde la educación básica (K-12). La profesora Ognyanova destaca que la alfabetización informativa debe evolucionar al ritmo de los avances tecnológicos, ya que actualmente solo un tercio de la población tiene un conocimiento básico sobre IA.
Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their Damage.» Nature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5
Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.
Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».
Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.
El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.
Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.
Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.
Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.
Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.
Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.
Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.
¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.
Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).
No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.
Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.
Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.
RAG le permite al modelo consultar bases de datos, documentos específicos, o incluso la web en tiempo real, para proporcionar respuestas más detalladas y específicas, especialmente en contextos donde se necesita información actualizada o especializada.
El Retrieval-augmented generation (RAG) es un proceso que se aplica a los modelos de lenguaje grandes (LLM) para hacer que sus respuestas sean más relevantes y precisas en contextos específicos. A diferencia de los modelos tradicionales, que solo utilizan los datos con los que fueron entrenados, RAG permite que el modelo acceda a fuentes externas de información, como bases de datos de una organización, antes de generar una respuesta. Además, las respuestas incluyen citas que respaldan la información proporcionada. Esto permite que los modelos generen respuestas muy específicas sin necesidad de un ajuste costoso.
RAG funciona en dos fases: ingestión y recuperación. En la fase de ingestión, los datos relevantes se organizan y se convierten en representaciones numéricas (embeddings), que permiten localizarlos rápidamente. En la fase de recuperación, cuando un usuario hace una consulta, el sistema busca en su base de datos la información más relevante, la procesa y genera una respuesta precisa.
Además de acceder a las bases de datos internas de una organización, los sistemas RAG también pueden consultar fuentes externas en tiempo real, como bases de datos estructuradas, llamadas a API o búsqueda en la web.
Las aplicaciones de RAG son amplias y abarcan áreas como la atención al cliente, la gestión del conocimiento en empresas, la redacción de informes y la asistencia en tareas específicas. Por ejemplo, un chatbot de atención al cliente que use RAG podrá acceder a los datos específicos de la empresa para proporcionar respuestas más precisas y relevantes que uno tradicional basado solo en el entrenamiento del modelo.
Aunque RAG es una herramienta poderosa, tiene algunas limitaciones. La calidad de los datos a los que tiene acceso es crucial, ya que si los datos no son precisos o están desactualizados, la respuesta también lo será. Además, existen preocupaciones sobre la privacidad, la propiedad intelectual y los sesgos presentes en los datos utilizados.
A medida que RAG evoluciona, se espera que se estandaricen más las soluciones y que surjan modelos de LLM optimizados para trabajar con RAG, lo que mejorará la eficiencia y la escalabilidad de esta tecnología, generando mayor valor para las empresas.
El artículo «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» publicado en The Guardian, analiza cómo los chatbots de inteligencia artificial (IA) eligen y presentan la información en las búsquedas en línea y cuestiona la confiabilidad de estas respuestas.
Investigadores de la Universidad de California en Berkeley encontraron que los chatbots actuales dependen excesivamente de la relevancia superficial de la información, priorizando textos con lenguaje técnico o palabras clave sin evaluar su confiabilidad. Esto significa que tienden a pasar por alto aspectos que normalmente consideraríamos para verificar la veracidad, como referencias científicas o lenguaje imparcial.
El concepto de «optimización de motores generativos» fue introducido el año pasado, indicando que el uso de un lenguaje autoritativo y referencias (incluso si son incorrectas o irrelevantes) podría aumentar la visibilidad en las respuestas de los chatbots hasta en un 40%. Sin embargo, estas conclusiones son tentativas y los algoritmos de selección de los chatbots aún son difíciles de manipular con reglas claras.
El uso de chatbots también plantea un dilema existencial en internet: a diferencia de los motores de búsqueda tradicionales, los chatbots solo mencionan unas pocas fuentes en sus respuestas, lo que beneficia a un grupo reducido de sitios y deja prácticamente invisibles a otros, afectando su tráfico significativamente.
Además, los investigadores de Harvard han demostrado que, más allá de la GEO, es posible manipular directamente las respuestas de los chatbots con “secuencias de texto estratégicas”. Estas secuencias, que parecen cadenas de caracteres sin sentido, en realidad están diseñadas mediante algoritmos que hacen que los chatbots generen respuestas específicas. Esto podría permitir que ciertos productos o contenidos logren más visibilidad en las respuestas de los chatbots, independientemente de su calidad o confiabilidad.
Este tipo de manipulación plantea riesgos evidentes para los usuarios, quienes podrían ver productos o información en el chatbot sin saber que fueron posicionados mediante técnicas de manipulación. Aunque en el futuro los LLMs (modelos de lenguaje de IA) podrían fortalecerse contra estos ataques, los investigadores señalan que los métodos de manipulación también están en constante evolución, por lo que los desafíos de control seguirán presentes.
Otro problema que el artículo resalta es el llamado “dilema de la respuesta directa”, un concepto desarrollado por el investigador Martin Potthast y su equipo. Este dilema surge cuando los chatbots presentan una única respuesta a una pregunta, lo cual puede llevar a que los usuarios acepten esa respuesta sin buscar otros puntos de vista o fuentes. Esto plantea el riesgo de que los usuarios perciban la respuesta del chatbot como la verdad única, sin considerar otras perspectivas o matices que podrían ser importantes en temas complejos.
Con la introducción de resúmenes de IA en los motores de búsqueda, Google lanzó la campaña «Let Google do the searching for you» («Deja que Google haga la búsqueda por ti»), lo cual sugiere que estos resúmenes optimizan el proceso de búsqueda. Sin embargo, este tipo de automatización podría perjudicar a aquellos usuarios que buscan información imparcial y precisa, ya que los chatbots, al ser susceptibles a manipulaciones, no siempre pueden garantizar que la información proporcionada sea confiable.
En resumen, el artículo advierte sobre los desafíos éticos y prácticos que implica la creciente dependencia de chatbots generativos para obtener información en línea. Si bien pueden hacer las búsquedas más rápidas y cómodas, los riesgos de manipulación y la falta de una supervisión clara en la selección de información hacen que esta tecnología aún esté lejos de ser una fuente autoritativa y confiable para temas complejos.
Un estudio reciente de Adobe, titulado Authenticity in the Age of AI, revela que el 44% de los encuestados ha sido engañado por desinformación relacionada con las elecciones en los últimos tres meses, y el 94% está preocupado por la difusión de información falsa de cara a las elecciones presidenciales de EE. UU. de 2024. La proliferación de contenido generado por IA está dificultando que los usuarios distingan entre información real y falsa, con un 87% de los encuestados afirmando que la tecnología ha complicado esta tarea.
La creciente desconfianza ha llevado al 48% de los usuarios a reducir o abandonar el uso de redes sociales debido a la gran cantidad de desinformación, mientras que el 89% cree que estas plataformas deberían implementar medidas más estrictas para controlar el contenido engañoso. Para ayudar a verificar la autenticidad del contenido digital, Adobe propone soluciones como las Content Credentials, etiquetas que permiten a los usuarios ver detalles sobre la creación de imágenes, incluyendo si fueron generadas por IA.
Estas herramientas permiten a los usuarios cargar imágenes en un sitio donde se puede verificar si han sido creadas mediante inteligencia artificial, utilizando metadatos o comparaciones con otras imágenes en línea. Este tipo de tecnología busca mitigar el impacto de la desinformación en un entorno digital cada vez más difícil de controlar.
La IA está transformando la forma en que accedemos, procesamos y compartimos información, lo que plantea desafíos y oportunidades en términos de confiabilidad. Uno de los principales desafíos es la propagación de la desinformación y las noticias falsas. Con el avance de la IA, es posible generar contenido falso de manera cada vez más sofisticada, lo que dificulta discernir entre lo verdadero y lo falso. Esto puede tener consecuencias graves, desde influir en procesos electorales hasta propagar teorías de conspiración perjudiciales.
En última instancia, la confiabilidad de la información en un mundo impulsado por la IA depende de la capacidad de la sociedad para adaptarse a estos avances tecnológicos y mitigar los riesgos asociados, al tiempo que se aprovechan los beneficios que la IA puede ofrecer en términos de acceso a la información y su veracidad.
Parent Perceptions of Book Bans, Materials Selection, and Reading in School Libraries and Public Libraries 2024. EveryLibrary Institute and Book Riot, 2024
La serie de encuestas sobre la percepción de los padres, desarrollada en colaboración con Book Riot, el sitio editorial de libros más grande e independiente de América del Norte, es el informe final de una serie de tres partes que detalla los hallazgos de encuestas nacionales a padres sobre sus percepciones de las bibliotecas y bibliotecarios durante la actual crisis de prohibición de libros. Este informe recopiló aportes de 3,206 padres y tutores con hijos menores de 18 años en tres encuestas realizadas entre septiembre y noviembre de 2023. Las encuestas preguntaron a los padres y tutores sobre su percepción de la confiabilidad de los bibliotecarios como profesionales y curadores de una colección de biblioteca, así como sus actitudes hacia los libros y las prohibiciones de libros.
Aún más notable es que el 96% de los padres y tutores creían que sus hijos estaban seguros en la biblioteca. Este es un porcentaje aún mayor que en la primera encuesta de la serie, donde el 92% de los padres sentían que sus hijos estaban seguros en la biblioteca.
La encuesta mostró que el 90% de los padres se sentían cómodos dejando que sus hijos seleccionaran sus propios materiales. Esto se alinea con una serie similar de preguntas formuladas en la encuesta inicial, donde los padres informaron que la mayoría de las veces, no se sentían incómodos con los materiales prestados por sus hijos y que su hijo no se sentía incómodo con algo que habían tomado prestado.
Los hallazgos principales del Informe de Percepción de los Padres son los siguientes:
El 85% de los encuestados dice confiar en los bibliotecarios.
El 58% de los padres piensa que los bibliotecarios públicos deberían ser principalmente responsables de la selección de libros para la biblioteca pública, en lugar de funcionarios electos, juntas de bibliotecas o grupos de padres.
El 92% de los encuestados dice que las bibliotecas son lugares seguros para sus hijos.
El 75% de los encuestados no cree que sus bibliotecas estén experimentando prohibiciones de libros.
El 67% de los encuestados siente que las prohibiciones de libros infringen en sus derechos para tomar decisiones sobre sus hijos.
El 75% de los encuestados informa que ni ellos ni sus hijos han sacado un libro de la biblioteca que consideraron inapropiado.
El 63% de los encuestados está de acuerdo o más o menos de acuerdo en que «prohibir libros es una pérdida de tiempo» en la biblioteca pública.
El 57% de los encuestados dice que prohibir libros en la biblioteca escolar es una forma apropiada de evitar que los niños aprendan sobre ciertos temas.
El 80% de los encuestados está de acuerdo en que las bibliotecas escolares deberían tener sistemas de clasificación de contenido.
El 95% de los encuestados desea ver una biblioteca escolar en la escuela de sus hijos.
Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.
Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA). El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?
Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.
Amenaza a la privacidad individual
La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.
Modificación de la opinión pública
Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.
Dificultades para identificar los deepfakes
Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.
Estrategias para garantizar la seguridad
A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?
Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.
Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.
«Actualización más reciente de las directrices de evaluación de la calidad: el E-A-T adquiere una E adicional de Experiencia | Blog del Centro de la Búsqueda de Google». Google for Developers. Accedido 18 de octubre de 2023.
Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) es un conjunto de criterios utilizados para evaluar los sitios web con el fin de impulsar mejoras en sus algoritmos y garantizar que se muestren contenidos de calidad a los usuarios.
Para mejorar el rendimiento de su sitio web en los resultados de búsqueda, es una buena práctica centrarse en crear contenido de alta calidad que demuestre experiencia, autoridad y confiabilidad en su campo. Construir una sólida reputación en línea y garantizar información precisa y confiable en su sitio web puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda. Sin embargo, los algoritmos y factores de clasificación exactos utilizados por los motores de búsqueda son propietarios y pueden cambiar con el tiempo. Se utiliza en la evaluación de calidad por los Evaluadores de Calidad de Búsqueda, pero no es un factor directo en el algoritmo de Google. En cambio, es un término utilizado en la comunidad de SEO para describir la calidad de un sitio web.
E-E-A-T significa «Experiencia, Autoridad y Confianza,» y es un concepto introducido por Google’s Search Quality Rater Guidelines (SQRG) para ayudar a los evaluadores humanos a evaluar la calidad del contenido web. Si bien E-E-A-T no es un factor de clasificación directo utilizado por motores de búsqueda como Google, desempeña un papel importante en la determinación de la calidad y relevancia de las páginas web en los resultados de búsqueda.
Esto es lo que representa cada componente de E-E-A-T :
Experiencia (Experience): Google busca sitios web que ofrezcan una experiencia positiva a los usuarios. Esto implica una navegación fácil y amigable, una buena estructura de la página y un diseño que mejore la experiencia del visitante.
Experto (Expertise): Google valora la experiencia y conocimientos demostrados en un campo o temática específica. Se espera que el contenido esté respaldado por expertos o autoridades en la materia para garantizar su precisión y calidad.
Autoridad (Authoritativeness): La autoridad se refiere a la credibilidad y reputación del sitio web y sus creadores. Google evalúa la confianza que los usuarios pueden tener en la información proporcionada.
Confianza (Trustworthiness): La confianza se relaciona con la fiabilidad y veracidad de la información presentada en el sitio web. Los sitios web deben ser transparentes sobre sus propósitos y cumplir con las expectativas de los usuarios en cuanto a la precisión de la información.
Estos criterios son esenciales para garantizar que Google ofrezca resultados de búsqueda de alta calidad que sean útiles y confiables para los usuarios. Los sitios web que cumplen con los estándares de E-E-A-T tienen más posibilidades de obtener un buen posicionamiento en los resultados de búsqueda de Google y de ofrecer contenidos valiosos a sus visitantes.
E-E-A-T es particularmente relevante en campos donde la precisión y la credibilidad de la información son de suma importancia, como la salud, las finanzas y el asesoramiento legal. Los sitios web y creadores de contenido que establecen y mantienen un fuerte perfil de E-E-A-T son más propensos a ser considerados fuentes fiables tanto por los motores de búsqueda como por los usuarios, lo que puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda.
Si bien E-E-A-T no es un factor de clasificación directo, es un aspecto crucial de la optimización para motores de búsqueda (SEO) porque influye en cómo se evalúa y finalmente se clasifica su contenido por los motores de búsqueda como Google. Seguir las pautas de E-E-A-T puede ayudar a mejorar la calidad de su contenido y hacerlo más competitivo en los resultados de búsqueda.
El autor reflexiona sobre la importancia de los espacios públicos, como las bibliotecas, donde las personas pueden acceder a necesidades básicas como un baño, un lugar cálido para sentarse y agua limpia. Expresa su frustración por vivir en una comunidad donde estas necesidades no están garantizadas para todos y donde la lucha por ellas es común.
En un mundo donde todo parece orientado a generar ganancias, las bibliotecas son más necesarias que nunca por su enfoque en compartir y apoyar en lugar de controlar. Y se reflexiona sobre el valor de espacios públicos como las bibliotecas y la importancia de acceder a información confiable y relevante en la sociedad actual.
Las bibliotecas públicas siguen vivas. Se trata de un lugares en el que el rebelde empeño de compartir -e incluso de ser copropietario- de un espacio no se encuentra con el impulso carcelario de disciplinar, sino más bien con el impulso de apoyar y escuchar. Lugares donde el derecho de todo el mundo a un baño, un lugar donde sentarse, agua limpia, tranquilidad, esté claro y se asuma como algo natural. Un lugar donde tu capacidad para existir como ser humano no dependa de la capacidad para pagar. Una experiencia así es tan rara en el siglo XXI que no es de extrañar que la gente realmente ame las bibliotecas.
Cerca del 80% de los adultos estadounidenses creen que «las bibliotecas les proporcionan los recursos que necesitan», según una encuesta publicada por el Pew Research Center en 2016; los resultados publicados por Pew en 2017 mostraron que un enorme 78% de los adultos consideraban que «las bibliotecas públicas les ayudan a encontrar información fiable y fidedigna» y el 56% dijo que «las bibliotecas les ayudan a obtener información que les ayuda con las decisiones que tienen que tomar». Entre los adultos, los millennials eran los mayores fans de las bibliotecas: en otro artículo publicado por Pew en 2017, se informó de que los millennials habían utilizado las bibliotecas «más que cualquier otra generación adulta» durante el año anterior.
Por el contrario, la gente odia absolutamente los medios de comunicación. Según datos de Gallup publicados en 2022, «la confianza de los estadounidenses en que los medios de comunicación de masas informen de las noticias de forma ‘completa, precisa e imparcial'» estaba en un mínimo casi récord del 34%, y solo el 7% tenía «mucha» confianza en los medios. En un sorprendente estudio de Gallup sobre la confianza en 16 instituciones estadounidenses, los periódicos ocupaban el 12º lugar y los informativos de televisión el 15º; sólo el Congreso salía peor parado.
Una iniciativa de Library Futures, una organización de reflexión y defensa, en asociación con Google News Initiative (GNI) para promover asociaciones entre redacciones y bibliotecas. La intención original de la asociación era mejorar el acceso a los medios informativos a través de la biblioteca. El objetivo era que en lugar de ofrecer gratuitamente a los usuarios de las bibliotecas una versión digital del periódico destinada al consumidor, la coalición decidió producir juntos periodismo original. Un presupuesto de unos 100.000 dólares sirvió para financiar la colaboración del grupo y la producción de ocho artículos. Tanto la APL como el Times Union serían propietarios de los artículos, conservando el derecho a publicarlos en sus propios sitios web y canales digitales, libres de cualquier muro de pago y, por tanto, de libre lectura para todos.
Sin embargo, estos variados experimentos sugieren la posibilidad de algo más grande. En sus huellas, es posible ver un mundo diferente: un mundo en el que se protejan y amplíen los recursos colectivos que la gente ama, y en el que las personas puedan ser realmente dueñas de las historias que se producen sobre ellas y sus comunidades. Victor Pickard, profesor de política de medios de comunicación y economía política en la Universidad de Pensilvania, ha descrito elementos de este mundo, en particular el concepto de «centros públicos de medios de comunicación», construidos sobre instituciones públicas ya existentes, como bibliotecas y oficinas de correos, que podrían servir de «nuevas instituciones de anclaje».
La historia más amplia, y a la que apuntan estos modestos experimentos de colaboración, es la de la democracia, algo que sólo es posible cuando la gente tiene acceso al conocimiento necesario para tomar decisiones individuales y colectivas. Con demasiada frecuencia, quienes escriben sobre estos temas ocultan lo que realmente está en juego e ignoran el potencial que ofrece la infraestructura cultural existente de bibliotecas, medios de comunicación, escuelas y sistemas de comunicación. A pesar de las limitaciones, y contra todo pronóstico, lo que sugieren estas humildes, imperfectas pero geniales asociaciones es que es posible una forma totalmente distinta de compartir historias e información -y, por tanto, de entender nuestro mundo-, y que partes de ese posible futuro ya están aquí.
Las bibliotecas son la prueba de que cuando un bien público se hace realmente público -cuando se convierte en propiedad, estructuralmente, de todos- a la gente le gusta, y mucho. ¿Por qué no aprovechar lo que ya funciona?