Archivo de la etiqueta: Errores

La BBC denuncia imprecisiones en los resúmenes de noticias generados por IA

Rahman-Jones, Imran. «AI Chatbots Unable to Accurately Summarise News, BBC FindsBBC News, February 11, 2025. https://www.bbc.com/news/articles/c0m17d8827ko.

Un estudio de la BBC encontró que cuatro chatbots de inteligencia artificial—ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity—fallan al resumir con precisión noticias, presentando distorsiones y errores significativos.

En el experimento, la BBC les pidió a estos modelos que resumieran 100 noticias de su sitio web y expertos evaluaron sus respuestas. Se detectó que el 51 % de las respuestas tenía problemas importantes y que el 19 % de aquellas que citaban contenido de la BBC contenían errores factuales, como datos y fechas incorrectas.

Algunos ejemplos de inexactitudes incluyen: Gemini afirmando erróneamente que el NHS no recomienda el vapeo para dejar de fumar, ChatGPT y Copilot diciendo que Rishi Sunak y Nicola Sturgeon aún estaban en el cargo tras haberlo dejado, y Perplexity tergiversando una noticia sobre Medio Oriente.

La directora de BBC News, Deborah Turness, advirtió que las empresas de IA están «jugando con fuego» y pidió que las compañías tecnológicas «retiren» estos resúmenes, como ya hizo Apple tras quejas previas de la BBC.

El informe también señala que los chatbots no solo presentan errores fácticos, sino que tienen dificultades para diferenciar entre opinión y hechos, editorializan y omiten contexto esencial. La BBC busca dialogar con las empresas de IA para encontrar soluciones y garantizar que los editores tengan control sobre el uso de su contenido.

El informe, además señala que, en general, Copilot y Gemini fueron los chatbots con mayores problemas, mientras que ChatGPT y Perplexity mostraron un desempeño algo mejor, aunque también presentaron errores significativos.

Las «alucinaciones» de la inteligencia artificial (IA) no se pueden eliminar por completo, pero existen técnicas para minimizar su impacto

Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their DamageNature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5

Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.

Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».

Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.

El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.

Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.

Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.

Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.

Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.

Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.

Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.

¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.

Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).

No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.

Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.

Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.

Los errores de la IA son muy diferentes a los errores humanos

Schneier, Bruce, y Nathan E. Sanders. «AI Mistakes Are Very Different Than Human Mistakes: We Need New Security Systems Designed to Deal with Their Weirdness.» IEEE Spectrum. Última modificación el 13 de enero de 2025. https://spectrum.ieee.org/ai-mistakes-schneier.

Los errores humanos son comunes y predecibles, pero los errores de la inteligencia artificial (IA), como los cometidos por modelos de lenguaje grande (LLMs), son diferentes y a menudo extraños. Mientras los errores humanos se concentran en áreas específicas del conocimiento y suelen estar acompañados de un reconocimiento de ignorancia, los errores de la IA son aleatorios y distribuidos por todo el espacio del conocimiento, con una confianza inquebrantable incluso en respuestas incorrectas.

La necesidad de crear nuevos sistemas de seguridad que aborden estos errores únicos de la IA es esencial. Se sugieren dos líneas de investigación: hacer que los LLMs cometan errores más parecidos a los humanos y desarrollar sistemas para corregir errores específicos de la IA.

Algunos métodos, como el aprendizaje por refuerzo con retroalimentación humana, han demostrado eficacia en alinear los LLMs con los objetivos humanos, pero se requieren enfoques adicionales para manejar su «extrañeza». Por ejemplo, hacer que los modelos verifiquen sus respuestas varias veces puede ayudar a reducir errores, algo que no funciona bien con humanos pero sí con máquinas.

Entender dónde divergen los errores de la IA de los humanos sigue siendo un desafío. Algunas peculiaridades de los LLMs, como la sensibilidad a los cambios en las preguntas o la tendencia a repetir información común, se parecen a los comportamientos humanos, lo que sugiere que la IA puede ser más humana de lo que parece.

En última instancia, se deben limitar las aplicaciones de toma de decisiones de la IA a ámbitos que se ajusten a sus habilidades, teniendo en cuenta las posibles consecuencias de sus errores.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

Alucinaciones de la IA: un término incorrecto que vale la pena aclarar

Maleki, N., Padmanabhan, B., & Dutta, K. (2024). AI Hallucinations: A Misnomer Worth Clarifying (arXiv:2401.06796). arXiv. https://doi.org/10.48550/arXiv.2401.06796

Las «alucinaciones» en el contexto de la Inteligencia Artificial (IA) se refieren a errores o distorsiones en la generación de texto o imágenes por parte de sistemas de IA. Estos errores pueden manifestarse como la creación de contenido incoherente, ilógico o incluso perturbador por parte del modelo de IA, a pesar de que no hay una entrada correspondiente que justifique dicha salida. Las alucinaciones pueden ocurrir debido a deficiencias en los datos de entrenamiento, problemas en la arquitectura del modelo, sesgos en los algoritmos utilizados o simplemente a la complejidad inherente de las tareas de generación de contenido. Las alucinaciones son un desafío importante en el desarrollo de sistemas de IA, especialmente en áreas donde la precisión y coherencia son fundamentales, como la traducción automática, la generación de texto y la creación de imágenes.

A medida que los modelos de lenguaje grandes continúan avanzando en la Inteligencia Artificial (IA), se ha demostrado que los sistemas de generación de texto sufren de un fenómeno problemático denominado a menudo «alucinación». Sin embargo, con la creciente presencia de la IA en diversos ámbitos, incluida la medicina, han surgido preocupaciones sobre el uso del término en sí mismo.

En el ámbito médico, la adopción del término «alucinación» en IA ha generado preocupaciones, especialmente por su posible asociación estigmatizante con problemas de salud mental como la esquizofrenia. Para abordar estas preocupaciones, se sugiere establecer terminologías consistentes y definiciones formales de «alucinación» en el contexto de la IA. Esto promovería la claridad y coherencia en las discusiones y mitigaría la confusión y ambigüedad en su aplicación interdisciplinaria.

En este estudio, se realiza una revisión sistemática para identificar documentos que definen «alucinación de la IA» en catorce bases de datos. Se presentan y analizan las definiciones obtenidas en todas las bases de datos, se categorizan según sus aplicaciones y se extraen puntos clave dentro de cada categoría.

Los resultados destacan una falta de consistencia en cómo se utiliza el término, pero también ayudan a identificar varios términos alternativos en la literatura. Se discuten las implicaciones de estos hallazgos y se hace un llamado a un esfuerzo más unificado para establecer una consistencia en un importante problema contemporáneo de IA que puede afectar significativamente múltiples dominios.

Errores jurídicos preocupantes y generalizados en los tres modelos populares de IA

«Hallucinating Law: Legal Mistakes with Large Language Models Are Pervasive». 2024. 11 de enero de 2024. https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.

El estudio «Disturbing & pervasive errors among three popular models on a wide range of legal tasks» (GPT 3.5, Llama 2, and PaLM 2) revela lo siguiente

  • «las tasas de alucinación oscilan entre el 69% y el 88% en respuesta a consultas jurídicas específicas para los modelos lingüísticos más avanzados»
  • «el rendimiento se deteriora cuando se trata de tareas más complejas que requieren una comprensión matizada de las cuestiones jurídicas o la interpretación de textos jurídicos»
  • «jurisprudencia de tribunales inferiores… sujeta a alucinaciones más frecuentes que la jurisprudencia de tribunales superiores
  • «susceptibilidad del modelo a lo que llamamos «sesgo contrafáctico», es decir, la tendencia a asumir que una premisa fáctica en una consulta es cierta, aunque sea rotundamente errónea»

Los LLMs de la Inteligencia Artificial pueden amenazar la integridad científica debido a su propensión a generar información errónea o fantasiosa

Mittelstadt, Brent, Sandra Wachter, y Chris Russell. «To Protect Science, We Must Use LLMs as Zero-Shot Translators». Nature Human Behaviour 7, n.o 11 (noviembre de 2023): 1830-32. https://doi.org/10.1038/s41562-023-01744-0.

Un artículo escrito por los profesores Brent Mittelstadt, Chris Russell y Sandra Wachter del Instituto de Internet de Oxford aborda preocupaciones sobre los Modelos de Lenguaje Grandes (LLMs) que representan una amenaza directa para la ciencia debido al fenómeno de ‘alucinaciones’, la generación de respuestas no verídicas. El artículo destaca la necesidad de restricciones en los LLMs para salvaguardar la verdad científica.

Un nuevo informe elaborado por destacados investigadores de Inteligencia Artificial en el Instituto de Internet de Oxford advierte que los Grandes Modelos de Lenguaje (LLMs) constituyen una amenaza directa para la ciencia debido a las denominadas ‘alucinaciones’ y deben ser restringidos para proteger la verdad científica. Publicado en Nature Human Behaviour, el documento, redactado por los Profesores Brent Mittelstadt, Chris Russell y Sandra Wachter, explica que los LLMs están diseñados para proporcionar respuestas útiles y convincentes sin garantías definitivas sobre su precisión o alineación con los hechos.

La razón detrás de esto es que los datos utilizados por la tecnología para responder preguntas no siempre provienen de fuentes factualmente correctas. Los LLMs se entrenan en grandes conjuntos de datos de texto, generalmente extraídos de fuentes en línea, que pueden contener declaraciones falsas, opiniones y escritura creativa, entre otros tipos de información no factual.

El Prof. Mittelstadt explica que las personas tienden a confiar en los LLMs como si fueran fuentes de información humanas, en parte debido a su diseño como agentes útiles y con sonido humano que conversan con los usuarios y responden a prácticamente cualquier pregunta con texto seguro y bien escrito. Esto conlleva al riesgo de que los usuarios se convenzan fácilmente de la precisión de las respuestas, incluso cuando carecen de base factual o presentan versiones sesgadas de la verdad.

Para proteger la ciencia y la educación contra la propagación de información incorrecta y sesgada, los autores argumentan que deben establecerse expectativas claras sobre lo que los LLMs pueden contribuir de manera responsable y útil. Según el informe, «para tareas en las que la verdad es crucial, alentamos a los usuarios a redactar indicadores de traducción que incluyan información verificada y factual».

La Prof. Wachter destaca la importancia de cómo se utilizan los LLMs, especialmente en la comunidad científica, enfatizando la necesidad de confianza en la información fáctica y la responsabilidad en el uso de esta tecnología. El Prof. Russell agrega que es crucial reflexionar sobre las oportunidades que ofrecen los LLMs y considerar si realmente queremos otorgar esas oportunidades a una tecnología solo porque podemos.

Actualmente, los LLMs se tratan como bases de conocimiento y se utilizan para generar información en respuesta a preguntas, lo que hace que el usuario sea vulnerable tanto a la regurgitación de información falsa presente en los datos de entrenamiento como a las ‘alucinaciones’, es decir, información falsa generada espontáneamente por el LLM que no estaba presente en los datos de entrenamiento.

Para superar esto, los autores argumentan que los LLMs deberían utilizarse de manera orientativa. En lugar de depender del LLM como fuente de información relevante, el usuario simplemente debe proporcionar al LLM información apropiada y pedirle que la transforme en una salida deseada, como reescribir puntos clave como conclusión o generar código para transformar datos científicos en un gráfico.

Utilizar los LLMs de esta manera facilita la verificación de la corrección factual y la consistencia con la entrada proporcionada. Los autores reconocen que la tecnología seguramente ayudará en los flujos de trabajo científicos, pero enfatizan que la escrutinio de sus resultados es fundamental para proteger una ciencia robusta.

Los chatbots de Inteligencia Artificial «alucinan» inventándose información entre un 3 y un 27% de las veces

Metz, Cade. «Chatbots May ‘Hallucinate’ More Often Than Many Realize». The New York Times, 6 de noviembre de 2023, sec. Technology. https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html.

Los chatbots pueden «alucinar» más de lo que muchos creen. Al resumir hechos, la tecnología ChatGPT se equivoca un 3% de las veces, según un estudio de una nueva empresa. El porcentaje de un sistema de Google era del 27%.

Cuando la startup de San Francisco OpenAI presentó su chatbot en línea ChatGPT a finales del año pasado, millones quedaron impresionados por la forma en que respondía preguntas, escribía poesía y hablaba sobre casi cualquier tema de manera humanizada. Sin embargo, la mayoría de las personas no se dieron cuenta de que este nuevo tipo de chatbot a menudo inventa información.

Cuando Google presentó un chatbot similar varias semanas después, soltó tonterías sobre el telescopio James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish. En marzo, ChatGPT citó media docena de casos judiciales falsos al redactar un informe legal de 10 páginas que un abogado presentó a un juez federal de Manhattan.

una nueva empresa llamada Vectara, fundada por ex empleados de Google, está tratando de determinar con qué frecuencia los chatbots se desvían de la verdad. La investigación de la empresa estima que, incluso en situaciones diseñadas para evitarlo, los chatbots inventan información al menos el 3 por ciento del tiempo, y en algunos casos hasta el 27 por ciento.

Los expertos llaman a este comportamiento de chatbot «alucinación». Puede que no sea un problema para las personas que experimentan con chatbots en sus computadoras personales, pero es un problema grave para cualquiera que utilice esta tecnología con documentos judiciales, información médica o datos empresariales sensibles.

Dado que estos chatbots pueden responder a casi cualquier solicitud de una cantidad ilimitada de maneras, no hay forma de determinar de manera definitiva cuánto alucinan. «Tendrías que revisar toda la información del mundo», dijo Simon Hughes, el investigador de Vectara que lideró el proyecto.

Los investigadores argumentan que cuando estos chatbots realizan otras tareas, más allá de la simple condensación de contenidos (resumen), las tasas de alucinación pueden ser aún más altas. El problema radica en que, incluso cuando se les da una tarea sencilla y verificable, estos chatbots tienden a inventar información.

Errores de ChatGPT: Por qué ocurren y cómo solucionarlos

Drapkin, A. (2023, abril 28). ChatGPT Errors: Why They Happen and How to Fix Them. Tech.Co. https://tech.co/news/chatgpt-errors-how-to-fix-them

ChatGPT está a menudo al límite de su capacidad y no siempre funciona completamente a la perfección. Esto es lo que debes hacer si tienes problemas.

ChatGPT ha arrasado en todo el mundo. Pero, por desgracia, ser el chatbot más utilizado del mundo no es coser y cantar. Los mensajes de error de ChatGPT se producen cuando las cosas no van del todo bien, y parecen aumentar en regularidad cuando muchos usuarios están utilizando ChatGPT simultáneamente.

Aunque hay muchas alternativas viables a ChatGPT, vale la pena tomarse el tiempo necesario para solucionar los problemas más comunes de ChatGPT. Muchos problemas con ChatGPT pueden resolverse fácilmente siguiendo unos sencillos pasos.

Esta guía cubre todo lo que necesitas saber sobre los problemas comunes de ChatGPT a los que se enfrentan los usuarios en 2023 – algunos de los cuales puede que ya hayas encontrado antes. También se dan instrucciones detallando cómo solucionarlos rápidamente, así que esperamos que no te quedes atascado durante mucho tiempo.

Los errores de red de ChatGPT

Los errores de red de ChatGPT se producen a veces cuando los usuarios piden a ChatGPT que proporcione respuestas multifacéticas, largas o complejas. Cómo solucionar el error de red ChatGPT

  • Comprueba tu conexión a Internet.
  • Divide su solicitud en sub-solicitudes más pequeñas.
  • Limite las respuestas de ChatGPT.
  • Pide cosas «en no más de 100 palabras/cuatro líneas»,

Mensaje de error en el cuerpo del mensaje de ChatGPT

Un error en el flujo del cuerpo se produce cuando ChatGPT ha intentado formular una respuesta, pero algo ha perjudicado o interferido en su proceso de generación de respuestas.

Cómo solucionar el mensaje de error ChatGPT en el cuerpo del mensaje- Además de probar tu propia conexión de red y borrar la memoria caché, aquí tienes algunas cosas que puedes intentar para que desaparezca el mensaje de error.

  • Crear un nuevo chat dentro de ChatGPT
  • Ajusta la longitud de sus peticiones
  • Ajusta la sintaxis de tu código y los argumentos de entrada

Error interno del servidor de ChatGPT

Si has estado utilizando ChatGPT durante un tiempo, lo más probable es que hayas recibido el mensaje de «error interno del servidor» al menos una vez. Los errores internos del servidor pueden ocurrir por varias razones. ChatGPT simplemente puede no tener suficiente almacenamiento o memoria para manejar el número de usuarios concurrentes de los que está recibiendo avisos, por ejemplo.

Cómo solucionar el error interno del servidor ChatGPT

  • Actualice su navegador.
  • Borra las cookies de tu navegador.
  • Utiliza otro navegador.
  • Vuelve a iniciar sesión en tu cuenta de OpenAI.

ChatGPT Error 1020: Acceso Denegado

El código de error 1020 es un código de error HTTP que le informa de que el sitio web que está intentando visitar ha bloqueado su dirección de protocolo de Internet (IP). Si ves este código, tu dirección IP ha sido marcada por el sistema de seguridad de Cloudflare, utilizado por OpenAI para proteger su sitio web.