
University of Cambridge. «Cambridge Dictionary Names ‘Hallucinate’ Word of the Year 2023», 15 de noviembre de 2023. https://www.cam.ac.uk/research/news/cambridge-dictionary-names-hallucinate-word-of-the-year-2023.
En 2023, una nueva definición de ‘alucinar’ fue una de las muchas actualizaciones relacionadas con la inteligencia artificial en el Diccionario Cambridge. Henry Shevlin sugiere que la creciente tendencia de antropomorfizar la tecnología AI con metáforas humanas refleja un cambio sutil pero profundo en la percepción. La nueva definición destaca cómo los modelos de lenguaje grandes (LLMs) pueden generar prosa plausible pero a menudo basada en ‘hechos’ falsos, engañosos o inventados, lo que se describe como ‘alucinaciones’ de manera confiada y a veces creíble.
La definición tradicional de ‘alucinar’ implica percibir algo que no existe debido a una condición de salud o al consumo de drogas. La nueva definición aborda la inteligencia artificial y establece: ‘Cuando una inteligencia artificial (= un sistema informático que tiene algunas de las cualidades del cerebro humano, como la capacidad de producir lenguaje de manera que parece humana) alucina, produce información falsa’.
Las ‘alucinaciones’ de la IA, también conocidas como fabulaciones, a veces pueden parecer sin sentido, pero también pueden parecer completamente plausibles, incluso siendo factualmente inexactas o ilógicas. Estas ‘alucinaciones’ de la IA ya han tenido impactos en el mundo real, como casos ficticios citados en un tribunal debido a la investigación legal realizada por ChatGPT y errores factuales en videos promocionales.
Wendalyn Nichols, Gerente de Publicaciones del Diccionario Cambridge, enfatiza la necesidad de habilidades de pensamiento crítico al utilizar estas herramientas AI y destaca que, aunque los modelos de lenguaje grandes son eficientes para procesar grandes cantidades de datos, la experiencia humana sigue siendo crucial para crear información confiable y actualizada.
La nueva definición refleja la tendencia creciente de antropomorfizar la tecnología AI y destaca la importancia de abordar las ‘alucinaciones’ de la IA para el éxito futuro de la inteligencia artificial generativa. Ingenieros y académicos están trabajando en limitar estas ‘alucinaciones’ mediante la validación de las salidas de LLM con fuentes confiables o búsquedas en la web, y algunos están explorando el ‘aprendizaje por refuerzo a partir de retroalimentación humana’ para prever y eliminar estas ‘alucinaciones’.