Archivo de la etiqueta: Errores

Los errores de la IA son muy diferentes a los errores humanos

Schneier, Bruce, y Nathan E. Sanders. «AI Mistakes Are Very Different Than Human Mistakes: We Need New Security Systems Designed to Deal with Their Weirdness.» IEEE Spectrum. Última modificación el 13 de enero de 2025. https://spectrum.ieee.org/ai-mistakes-schneier.

Los errores humanos son comunes y predecibles, pero los errores de la inteligencia artificial (IA), como los cometidos por modelos de lenguaje grande (LLMs), son diferentes y a menudo extraños. Mientras los errores humanos se concentran en áreas específicas del conocimiento y suelen estar acompañados de un reconocimiento de ignorancia, los errores de la IA son aleatorios y distribuidos por todo el espacio del conocimiento, con una confianza inquebrantable incluso en respuestas incorrectas.

La necesidad de crear nuevos sistemas de seguridad que aborden estos errores únicos de la IA es esencial. Se sugieren dos líneas de investigación: hacer que los LLMs cometan errores más parecidos a los humanos y desarrollar sistemas para corregir errores específicos de la IA.

Algunos métodos, como el aprendizaje por refuerzo con retroalimentación humana, han demostrado eficacia en alinear los LLMs con los objetivos humanos, pero se requieren enfoques adicionales para manejar su «extrañeza». Por ejemplo, hacer que los modelos verifiquen sus respuestas varias veces puede ayudar a reducir errores, algo que no funciona bien con humanos pero sí con máquinas.

Entender dónde divergen los errores de la IA de los humanos sigue siendo un desafío. Algunas peculiaridades de los LLMs, como la sensibilidad a los cambios en las preguntas o la tendencia a repetir información común, se parecen a los comportamientos humanos, lo que sugiere que la IA puede ser más humana de lo que parece.

En última instancia, se deben limitar las aplicaciones de toma de decisiones de la IA a ámbitos que se ajusten a sus habilidades, teniendo en cuenta las posibles consecuencias de sus errores.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

Alucinaciones de la IA: un término incorrecto que vale la pena aclarar

Maleki, N., Padmanabhan, B., & Dutta, K. (2024). AI Hallucinations: A Misnomer Worth Clarifying (arXiv:2401.06796). arXiv. https://doi.org/10.48550/arXiv.2401.06796

Las «alucinaciones» en el contexto de la Inteligencia Artificial (IA) se refieren a errores o distorsiones en la generación de texto o imágenes por parte de sistemas de IA. Estos errores pueden manifestarse como la creación de contenido incoherente, ilógico o incluso perturbador por parte del modelo de IA, a pesar de que no hay una entrada correspondiente que justifique dicha salida. Las alucinaciones pueden ocurrir debido a deficiencias en los datos de entrenamiento, problemas en la arquitectura del modelo, sesgos en los algoritmos utilizados o simplemente a la complejidad inherente de las tareas de generación de contenido. Las alucinaciones son un desafío importante en el desarrollo de sistemas de IA, especialmente en áreas donde la precisión y coherencia son fundamentales, como la traducción automática, la generación de texto y la creación de imágenes.

A medida que los modelos de lenguaje grandes continúan avanzando en la Inteligencia Artificial (IA), se ha demostrado que los sistemas de generación de texto sufren de un fenómeno problemático denominado a menudo «alucinación». Sin embargo, con la creciente presencia de la IA en diversos ámbitos, incluida la medicina, han surgido preocupaciones sobre el uso del término en sí mismo.

En el ámbito médico, la adopción del término «alucinación» en IA ha generado preocupaciones, especialmente por su posible asociación estigmatizante con problemas de salud mental como la esquizofrenia. Para abordar estas preocupaciones, se sugiere establecer terminologías consistentes y definiciones formales de «alucinación» en el contexto de la IA. Esto promovería la claridad y coherencia en las discusiones y mitigaría la confusión y ambigüedad en su aplicación interdisciplinaria.

En este estudio, se realiza una revisión sistemática para identificar documentos que definen «alucinación de la IA» en catorce bases de datos. Se presentan y analizan las definiciones obtenidas en todas las bases de datos, se categorizan según sus aplicaciones y se extraen puntos clave dentro de cada categoría.

Los resultados destacan una falta de consistencia en cómo se utiliza el término, pero también ayudan a identificar varios términos alternativos en la literatura. Se discuten las implicaciones de estos hallazgos y se hace un llamado a un esfuerzo más unificado para establecer una consistencia en un importante problema contemporáneo de IA que puede afectar significativamente múltiples dominios.

Errores jurídicos preocupantes y generalizados en los tres modelos populares de IA

«Hallucinating Law: Legal Mistakes with Large Language Models Are Pervasive». 2024. 11 de enero de 2024. https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.

El estudio «Disturbing & pervasive errors among three popular models on a wide range of legal tasks» (GPT 3.5, Llama 2, and PaLM 2) revela lo siguiente

  • «las tasas de alucinación oscilan entre el 69% y el 88% en respuesta a consultas jurídicas específicas para los modelos lingüísticos más avanzados»
  • «el rendimiento se deteriora cuando se trata de tareas más complejas que requieren una comprensión matizada de las cuestiones jurídicas o la interpretación de textos jurídicos»
  • «jurisprudencia de tribunales inferiores… sujeta a alucinaciones más frecuentes que la jurisprudencia de tribunales superiores
  • «susceptibilidad del modelo a lo que llamamos «sesgo contrafáctico», es decir, la tendencia a asumir que una premisa fáctica en una consulta es cierta, aunque sea rotundamente errónea»

Los LLMs de la Inteligencia Artificial pueden amenazar la integridad científica debido a su propensión a generar información errónea o fantasiosa

Mittelstadt, Brent, Sandra Wachter, y Chris Russell. «To Protect Science, We Must Use LLMs as Zero-Shot Translators». Nature Human Behaviour 7, n.o 11 (noviembre de 2023): 1830-32. https://doi.org/10.1038/s41562-023-01744-0.

Un artículo escrito por los profesores Brent Mittelstadt, Chris Russell y Sandra Wachter del Instituto de Internet de Oxford aborda preocupaciones sobre los Modelos de Lenguaje Grandes (LLMs) que representan una amenaza directa para la ciencia debido al fenómeno de ‘alucinaciones’, la generación de respuestas no verídicas. El artículo destaca la necesidad de restricciones en los LLMs para salvaguardar la verdad científica.

Un nuevo informe elaborado por destacados investigadores de Inteligencia Artificial en el Instituto de Internet de Oxford advierte que los Grandes Modelos de Lenguaje (LLMs) constituyen una amenaza directa para la ciencia debido a las denominadas ‘alucinaciones’ y deben ser restringidos para proteger la verdad científica. Publicado en Nature Human Behaviour, el documento, redactado por los Profesores Brent Mittelstadt, Chris Russell y Sandra Wachter, explica que los LLMs están diseñados para proporcionar respuestas útiles y convincentes sin garantías definitivas sobre su precisión o alineación con los hechos.

La razón detrás de esto es que los datos utilizados por la tecnología para responder preguntas no siempre provienen de fuentes factualmente correctas. Los LLMs se entrenan en grandes conjuntos de datos de texto, generalmente extraídos de fuentes en línea, que pueden contener declaraciones falsas, opiniones y escritura creativa, entre otros tipos de información no factual.

El Prof. Mittelstadt explica que las personas tienden a confiar en los LLMs como si fueran fuentes de información humanas, en parte debido a su diseño como agentes útiles y con sonido humano que conversan con los usuarios y responden a prácticamente cualquier pregunta con texto seguro y bien escrito. Esto conlleva al riesgo de que los usuarios se convenzan fácilmente de la precisión de las respuestas, incluso cuando carecen de base factual o presentan versiones sesgadas de la verdad.

Para proteger la ciencia y la educación contra la propagación de información incorrecta y sesgada, los autores argumentan que deben establecerse expectativas claras sobre lo que los LLMs pueden contribuir de manera responsable y útil. Según el informe, «para tareas en las que la verdad es crucial, alentamos a los usuarios a redactar indicadores de traducción que incluyan información verificada y factual».

La Prof. Wachter destaca la importancia de cómo se utilizan los LLMs, especialmente en la comunidad científica, enfatizando la necesidad de confianza en la información fáctica y la responsabilidad en el uso de esta tecnología. El Prof. Russell agrega que es crucial reflexionar sobre las oportunidades que ofrecen los LLMs y considerar si realmente queremos otorgar esas oportunidades a una tecnología solo porque podemos.

Actualmente, los LLMs se tratan como bases de conocimiento y se utilizan para generar información en respuesta a preguntas, lo que hace que el usuario sea vulnerable tanto a la regurgitación de información falsa presente en los datos de entrenamiento como a las ‘alucinaciones’, es decir, información falsa generada espontáneamente por el LLM que no estaba presente en los datos de entrenamiento.

Para superar esto, los autores argumentan que los LLMs deberían utilizarse de manera orientativa. En lugar de depender del LLM como fuente de información relevante, el usuario simplemente debe proporcionar al LLM información apropiada y pedirle que la transforme en una salida deseada, como reescribir puntos clave como conclusión o generar código para transformar datos científicos en un gráfico.

Utilizar los LLMs de esta manera facilita la verificación de la corrección factual y la consistencia con la entrada proporcionada. Los autores reconocen que la tecnología seguramente ayudará en los flujos de trabajo científicos, pero enfatizan que la escrutinio de sus resultados es fundamental para proteger una ciencia robusta.

Los chatbots de Inteligencia Artificial «alucinan» inventándose información entre un 3 y un 27% de las veces

Metz, Cade. «Chatbots May ‘Hallucinate’ More Often Than Many Realize». The New York Times, 6 de noviembre de 2023, sec. Technology. https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html.

Los chatbots pueden «alucinar» más de lo que muchos creen. Al resumir hechos, la tecnología ChatGPT se equivoca un 3% de las veces, según un estudio de una nueva empresa. El porcentaje de un sistema de Google era del 27%.

Cuando la startup de San Francisco OpenAI presentó su chatbot en línea ChatGPT a finales del año pasado, millones quedaron impresionados por la forma en que respondía preguntas, escribía poesía y hablaba sobre casi cualquier tema de manera humanizada. Sin embargo, la mayoría de las personas no se dieron cuenta de que este nuevo tipo de chatbot a menudo inventa información.

Cuando Google presentó un chatbot similar varias semanas después, soltó tonterías sobre el telescopio James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish. En marzo, ChatGPT citó media docena de casos judiciales falsos al redactar un informe legal de 10 páginas que un abogado presentó a un juez federal de Manhattan.

una nueva empresa llamada Vectara, fundada por ex empleados de Google, está tratando de determinar con qué frecuencia los chatbots se desvían de la verdad. La investigación de la empresa estima que, incluso en situaciones diseñadas para evitarlo, los chatbots inventan información al menos el 3 por ciento del tiempo, y en algunos casos hasta el 27 por ciento.

Los expertos llaman a este comportamiento de chatbot «alucinación». Puede que no sea un problema para las personas que experimentan con chatbots en sus computadoras personales, pero es un problema grave para cualquiera que utilice esta tecnología con documentos judiciales, información médica o datos empresariales sensibles.

Dado que estos chatbots pueden responder a casi cualquier solicitud de una cantidad ilimitada de maneras, no hay forma de determinar de manera definitiva cuánto alucinan. «Tendrías que revisar toda la información del mundo», dijo Simon Hughes, el investigador de Vectara que lideró el proyecto.

Los investigadores argumentan que cuando estos chatbots realizan otras tareas, más allá de la simple condensación de contenidos (resumen), las tasas de alucinación pueden ser aún más altas. El problema radica en que, incluso cuando se les da una tarea sencilla y verificable, estos chatbots tienden a inventar información.

Errores de ChatGPT: Por qué ocurren y cómo solucionarlos

Drapkin, A. (2023, abril 28). ChatGPT Errors: Why They Happen and How to Fix Them. Tech.Co. https://tech.co/news/chatgpt-errors-how-to-fix-them

ChatGPT está a menudo al límite de su capacidad y no siempre funciona completamente a la perfección. Esto es lo que debes hacer si tienes problemas.

ChatGPT ha arrasado en todo el mundo. Pero, por desgracia, ser el chatbot más utilizado del mundo no es coser y cantar. Los mensajes de error de ChatGPT se producen cuando las cosas no van del todo bien, y parecen aumentar en regularidad cuando muchos usuarios están utilizando ChatGPT simultáneamente.

Aunque hay muchas alternativas viables a ChatGPT, vale la pena tomarse el tiempo necesario para solucionar los problemas más comunes de ChatGPT. Muchos problemas con ChatGPT pueden resolverse fácilmente siguiendo unos sencillos pasos.

Esta guía cubre todo lo que necesitas saber sobre los problemas comunes de ChatGPT a los que se enfrentan los usuarios en 2023 – algunos de los cuales puede que ya hayas encontrado antes. También se dan instrucciones detallando cómo solucionarlos rápidamente, así que esperamos que no te quedes atascado durante mucho tiempo.

Los errores de red de ChatGPT

Los errores de red de ChatGPT se producen a veces cuando los usuarios piden a ChatGPT que proporcione respuestas multifacéticas, largas o complejas. Cómo solucionar el error de red ChatGPT

  • Comprueba tu conexión a Internet.
  • Divide su solicitud en sub-solicitudes más pequeñas.
  • Limite las respuestas de ChatGPT.
  • Pide cosas «en no más de 100 palabras/cuatro líneas»,

Mensaje de error en el cuerpo del mensaje de ChatGPT

Un error en el flujo del cuerpo se produce cuando ChatGPT ha intentado formular una respuesta, pero algo ha perjudicado o interferido en su proceso de generación de respuestas.

Cómo solucionar el mensaje de error ChatGPT en el cuerpo del mensaje- Además de probar tu propia conexión de red y borrar la memoria caché, aquí tienes algunas cosas que puedes intentar para que desaparezca el mensaje de error.

  • Crear un nuevo chat dentro de ChatGPT
  • Ajusta la longitud de sus peticiones
  • Ajusta la sintaxis de tu código y los argumentos de entrada

Error interno del servidor de ChatGPT

Si has estado utilizando ChatGPT durante un tiempo, lo más probable es que hayas recibido el mensaje de «error interno del servidor» al menos una vez. Los errores internos del servidor pueden ocurrir por varias razones. ChatGPT simplemente puede no tener suficiente almacenamiento o memoria para manejar el número de usuarios concurrentes de los que está recibiendo avisos, por ejemplo.

Cómo solucionar el error interno del servidor ChatGPT

  • Actualice su navegador.
  • Borra las cookies de tu navegador.
  • Utiliza otro navegador.
  • Vuelve a iniciar sesión en tu cuenta de OpenAI.

ChatGPT Error 1020: Acceso Denegado

El código de error 1020 es un código de error HTTP que le informa de que el sitio web que está intentando visitar ha bloqueado su dirección de protocolo de Internet (IP). Si ves este código, tu dirección IP ha sido marcada por el sistema de seguridad de Cloudflare, utilizado por OpenAI para proteger su sitio web.

Errores de cita en las revistas de ciencias generales: una tasa de error total del 25%

EasyBib®: Free Bibliography Generator - MLA, APA, Chicago citation styles

Smith, Neal ; Cumberledge, Aaron. “Quotation Errors in General Science Journals” Proceedings of the Royal Society A October 2020 Volume 476 Issue 2242
DOI 10.1098/rspa.2020.0538

Texto completo

Debido a la naturaleza incremental de los descubrimientos científicos, la escritura científica requiere una amplia referencia a los escritos de otros. La exactitud de estas referencias es vital, pero se producen errores. Estos errores se llaman «errores de cita». Este artículo presenta la primera evaluación de los errores de cita en revistas de ciencia general de alto impacto. Se examinaron un total de 250 citas aleatorias. Las proposiciones citadas se compararon con los materiales de referencia para verificar si las proposiciones podían ser corroboradas por esos materiales. El estudio encontró una tasa de error total del 25%. Este resultado se corresponde con las tasas de error encontradas en estudios similares en otros campos académicos. Además, se ofrecen varias sugerencias que pueden ayudar a disminuir estos errores y hacer que estudios similares sean más factibles en el futuro.

Mala escritura y cómo evitarla

 

bad-writing-and-how-to-avoid

Forsyth,Patrick . Bad writing and how to avoid it. Highlighting possible mistakes and misinformation. BookBoon, 2018. ISBN: 978-87-403-2266-8

Texto completo

Además

Más de 100 Libros GRATIS sobre metodología de la investigación

 

Los ejemplos citados en este libro pueden hacerte reír a carcajadas, pero también pondrá de relieve los peligros de la escritura descuidada y la necesidad de escribir para lograr una claridad sin ambigüedades, especialmente cuando los mensajes se dirigen a los clientes y a otras personas en las que tu profesionalidad y credibilidad son importantes.