Archivo de la categoría: Tecnologías de la información

La inteligencia artificial confirma que La Madonna de la Rosa no fue pintada únicamente por Rafael

BGR Staff. “AI Confirmed a Raphael Masterpiece Wasn’t Painted by the Famous Artist Alone.BGR, May 1, 2025. https://bgr.com/tech/ai-confirmed-a-raphael-masterpiece-wasnt-painted-by-the-famous-artist-alone/

Un análisis reciente utilizando inteligencia artificial ha confirmado que la famosa pintura Madonna della Rosa, atribuida a Rafael, no fue realizada exclusivamente por el maestro renacentista. Investigadores del Reino Unido y Estados Unidos emplearon un algoritmo personalizado, basado en la arquitectura ResNet50 de Microsoft y técnicas de aprendizaje automático, para analizar detalladamente las características estilísticas de la obra. Este estudio reveló que, aunque tres de los rostros en la pintura coinciden con el estilo de Rafael, el rostro de San José, ubicado en la esquina superior izquierda, presenta diferencias significativas, lo que sugiere que fue pintado por otro artista, posiblemente uno de sus colaboradores cercanos.

La pintura, realizada entre 1518 y 1520, ha sido objeto de debate desde mediados del siglo XIX respecto a su autoría completa. Aunque la inteligencia artificial no puede identificar con certeza al autor del rostro de San José, su análisis proporciona una nueva perspectiva sobre la colaboración en obras maestras del Renacimiento

Este estudio destaca cómo las herramientas modernas de inteligencia artificial pueden ofrecer datos valiosos en el campo del análisis artístico, permitiendo una comprensión más profunda de las técnicas y colaboraciones en obras históricas.

Ninguna IA supo predecir que Prevost iba a ser el nuevo Papa de la Iglesia Católica

Un artículo de Euronews analizó las predicciones de diversos chatbots de inteligencia artificial sobre quién sería el próximo Papa tras el fallecimiento de Francisco. Modelos como ChatGPT, Gemini, Grok-2 y DeepSeek fueron consultados para conocer sus opiniones sobre el sucesor del Pontífice. Aunque como vemos las IA no pueden predecir eventos futuros con certeza, aunque sus respuestas ofrecen una visión interesante sobre las tendencias actuales en la Iglesia Católica

La mayoría de las IA consultadas antes del cónclave apostaban por otros cardenales, como Pietro Parolin, Luis Antonio Tagle o Matteo Zuppi . La sorpresa fue aún mayor porque Prevost, un agustino estadounidense de 69 años con una carrera misionera en Perú, tenía una probabilidad estimada de apenas el 2% en los mercados de predicción

Según los chatbots, el cardenal filipino Luis Antonio Tagle era uno de los favoritos para asumir el papado. Su perfil destacaba por su juventud, su apoyo al Papa Francisco y su proyección internacional. Sin embargo, algunos modelos señalaron que su edad podría ser un factor en contra para asumir un cargo de tanta responsabilidad.

Otro nombre que dieron las predicciones fue el del cardenal italiano Pietro Parolin, actual Secretario de Estado del Vaticano. Su experiencia administrativa y diplomática lo posicionaban como un candidato sólido para liderar la Iglesia en tiempos de desafíos institucionales.

Además de estos dos, otros cardenales como Matteo Zuppi, Jean-Claude Hollerich y Jean-Marc Aveline también fueron mencionados por las IA como posibles sucesores. Cada uno con características podrían contribuir a una visión renovada o continuista de la Iglesia.

En conclusión, se puede decir que aunque la inteligencia artificial puede analizar datos y tendencias, no fue capaz de predecir con precisión la elección de Robert Prevost como Papa. Su elección fue una sorpresa para muchos, incluidos los sistemas de IA.

Informe de la Oficina de Copyright de EE. UU. sobre Inteligencia Artificial y Derechos de Autor

U.S. Copyright Office. 2025. Copyright and Artificial Intelligence. Washington, D.C.: U.S. Copyright Office. https://www.copyright.gov/ai/

Desde principios de 2023, la Oficina de Copyright de EE. UU. ha estado analizando los desafíos legales y políticos que plantea la inteligencia artificial (IA), especialmente en relación con los derechos de autor sobre obras generadas por IA y el uso de materiales protegidos en el entrenamiento de estos sistemas. Tras realizar sesiones públicas y seminarios, en agosto de 2023 publicó una convocatoria de comentarios en el Federal Register, que recibió más de 10.000 aportaciones hasta diciembre.

Como resultado, la Oficina está publicando un informe dividido en varias partes, bajo el título Copyright and Artificial Intelligence, que analiza estos temas:

  • Parte 1 (publicada el 31 de julio de 2024): aborda las réplicas digitales.
  • Parte 2 (publicada el 29 de enero de 2025): examina la posibilidad de otorgar derechos de autor a los productos generados mediante IA generativa.
  • Parte 3 (versión preliminar publicada el 9 de mayo de 2025): responde a preguntas del Congreso y al interés de distintos actores. Se espera una versión final próximamente, sin cambios sustanciales.

La plataforma científica de IA Elicit incorpora la búsqueda semántica

Elicit

https://elicit.com/

Elicit utiliza un sistema de búsqueda semántica, lo que significa que no se limita a buscar palabras clave, sino que interpreta la intención de la consulta del usuario. Gracias a esto, puede encontrar artículos relevantes que podrían no aparecer en buscadores tradicionales como PubMed o Google Scholar. Esta forma de búsqueda permite obtener resultados más precisos y útiles para investigaciones complejas o preguntas abiertas.

Elicit es una herramienta de inteligencia artificial diseñada para ayudar en la búsqueda, análisis y síntesis de información científica. Su objetivo principal es facilitar el trabajo de investigadores, estudiantes y profesionales que necesitan encontrar artículos académicos relevantes y resumir evidencias de forma rápida y eficiente.

Existen dos formas principales de buscar artículos en Elicit: Systematic Review/Reports y Find Papers. La primera opción, Systematic Review/Reports, ofrece hasta 500 resultados y analiza detalladamente la relevancia de cada uno en relación con la consulta realizada, aunque el proceso puede tardar varios minutos. En cambio, Find Papers devuelve hasta 8 artículos relevantes acompañados de un resumen, y lo hace en pocos segundos. Por eso, se recomienda usar Find Papers para búsquedas rápidas y Systematic Review/Reports para revisiones más exhaustivas.

Elicit accede a una base de datos con más de 126 millones de artículos académicos procedentes del corpus de Semantic Scholar, que abarca todas las disciplinas académicas. Incluye publicaciones de revistas reconocidas como PubMed, JAMA, BMJ, Nature y Science, entre muchas otras. Esto permite que sus resultados sean amplios y multidisciplinares.

Cuando el PDF del artículo está disponible, Elicit permite acceder a él directamente haciendo clic en el título. Sin embargo, si el texto completo no está disponible por ser un artículo de acceso restringido, el sistema se basa en el resumen para ofrecer respuestas o generar análisis. Elicit no se limita a artículos de acceso abierto, aunque da prioridad al contenido completo cuando puede acceder a él.

Es importante tener en cuenta que Elicit no reemplaza completamente las búsquedas tradicionales en bases de datos para revisiones sistemáticas. Se recomienda como una herramienta complementaria que puede ayudar a descubrir trabajos que no aparecerían en búsquedas por palabras clave. Así, se convierte en un aliado útil tanto para investigadores como para estudiantes que buscan una visión más completa de un tema.

Microsoft ha cerrado oficialmente Skype

Carter, Rob Beschizza. 2025. “Microsoft Shuts down Skype after 22 Years of Service.” Boing Boing, May 6, 2025. https://boingboing.net/2025/05/06/microsoft-shuts-down-skype-after-22-years-of-service.html

Microsoft ha cerrado oficialmente Skype el 5 de mayo de 2025, poniendo fin a más de dos décadas de servicio de esta emblemática plataforma de comunicación por voz y video. Lanzada en 2003 por ingenieros estonios, Skype revolucionó las llamadas por Internet mediante la tecnología VoIP, permitiendo a millones de usuarios comunicarse globalmente sin necesidad de líneas telefónicas tradicionales

Microsoft adquirió Skype en 2011 por 8.500 millones de dólares, con la intención de integrarla en su ecosistema de servicios. Sin embargo, con el paso del tiempo, la plataforma perdió relevancia frente a competidores como Zoom, WhatsApp, FaceTime y, especialmente, Microsoft Teams, lanzado en 2017. La creciente demanda de herramientas de colaboración durante la pandemia de COVID-19 aceleró la transición hacia plataformas más modernas y versátiles

Microsoft ha facilitado la migración de usuarios a Microsoft Teams. A partir de marzo de 2025, los usuarios pudieron iniciar sesión en Teams con sus credenciales de Skype, encontrando sus chats y contactos disponibles. Esta opción estará vigente hasta enero de 2026, fecha límite para exportar manualmente los datos desde un enlace proporcionado por Microsoft. Después de esa fecha, la información será eliminada definitivamente.

Teams se presenta como la alternativa principal a Skype, ofreciendo funciones de mensajería, videollamadas, reuniones y comunidades. Aunque su versión gratuita no incluye llamadas telefónicas tradicionales, sí permite una comunicación efectiva y colaborativa, especialmente en entornos laborales y educativos.

Para quienes buscan otras opciones, existen plataformas como Zoom, Viber, Google Voice y servicios de VoIP como Hushed o CallCentric. Estas alternativas ofrecen diversas funcionalidades, desde llamadas internacionales hasta mensajería y videoconferencias, adaptándose a diferentes necesidades y preferencias .

Actitudes hacia la IA 2024 revela que investigadores y clínicos creen en el potencial de la IA pero exigen transparencia para confiar en las herramientas

Elsevier. «The Insights 2024: Attitudes toward AI Report Reveals Researchers and Clinicians Believe in AI’s Potential but Demand Transparency in Order to Trust Tools.» 9 de julio de 2024.

Informe

Ver infografía

El estudio de Elsevier subraya que, aunque existe un reconocimiento generalizado del potencial de la IA para transformar la investigación y la atención médica, su adopción efectiva depende de abordar preocupaciones clave relacionadas con la transparencia, la calidad del contenido y la confianza en las herramientas. Para que la IA sea plenamente aceptada e integrada en estos campos, es esencial garantizar que las herramientas sean desarrolladas y utilizadas de manera ética y responsable

El informe «Insights 2024: Actitudes hacia la IA» de Elsevier ofrece una visión detallada sobre cómo investigadores y profesionales de la salud perciben la inteligencia artificial (IA) en sus campos. Basado en una encuesta a 3,000 participantes de 123 países, el estudio revela tanto el entusiasmo por las oportunidades que brinda la IA como las preocupaciones que genera su implementación.

Potencial percibido de la IA

Una mayoría significativa de investigadores (94%) y clínicos (96%) cree que la IA puede acelerar el descubrimiento de conocimientos. Además, el 92% de ambos grupos anticipa que la IA aumentará rápidamente el volumen de investigaciones académicas y médicas, así como generará ahorros de costos para instituciones y empresas. El 87% considera que la IA mejorará la calidad general del trabajo, y el 85% piensa que liberará tiempo para enfocarse en proyectos de mayor valor

Preocupaciones sobre la desinformación y la confianza

A pesar del optimismo, existen inquietudes significativas. El 95% de los investigadores y el 93% de los clínicos temen que la IA se utilice para difundir desinformación. Asimismo, el 86% de los investigadores y el 85% de los clínicos creen que la IA podría causar errores críticos, y una proporción similar expresa preocupación por el debilitamiento del pensamiento crítico debido a la dependencia excesiva de estas herramientas

Necesidad de transparencia y contenido confiable

Los encuestados enfatizan la importancia de que las herramientas de IA se basen en contenido de alta calidad y confianza. El 71% espera que los resultados de herramientas dependientes de IA generativa se basen únicamente en fuentes confiables. Además, si las herramientas de IA están respaldadas por contenido confiable, controles de calidad y principios de IA responsable, el 89% de los investigadores las utilizaría para generar síntesis de artículos, y el 94% de los clínicos las emplearía para evaluar síntomas e identificar condiciones o enfermedades

Variaciones geográficas en la adopción de la IA

El informe también destaca diferencias regionales en la familiaridad y uso de la IA. Por ejemplo, en China, el 39% de los encuestados ha utilizado activamente la IA para propósitos laborales, mientras que en India esta cifra es del 22%. Solo el 11% de los participantes se considera muy familiarizado con la IA o la utiliza con frecuencia. Sin embargo, el 67% de quienes no han utilizado la IA esperan hacerlo en los próximos dos a cinco años, con China (83%) e India (79%) superando significativamente a EE. UU. (53%) en estas expectativas .

Situación de la Alfabetización en Inteligencia Artificial en bibliotecas universitarias

Lo, Leo S. The State of AI Literacy in Academic Libraries: A Follow-up Study of Barriers and Opportunities. University of New Mexico, 2026. https://digitalrepository.unm.edu/ulls_fsp/215

El artículo presenta los resultados de una encuesta de seguimiento a nivel nacional en EE. UU. sobre la alfabetización en inteligencia artificial (IA) en bibliotecas universitarias, realizada tres años después del estudio original de 2020. El objetivo es evaluar cómo han cambiado las percepciones, conocimientos, programas y roles de las bibliotecas respecto a la IA, dada su creciente adopción en la sociedad y en el entorno educativo.

Se examina cómo ha evolucionado la alfabetización en inteligencia artificial (IA) entre el personal de bibliotecas universitarias en Estados Unidos entre 2023 y 2024. Esta investigación de seguimiento, realizada por Leo S. Lo, se basa en una encuesta longitudinal que evalúa el conocimiento técnico, las habilidades prácticas, la conciencia ética, el pensamiento crítico y el impacto social de la IA. El estudio aplica el marco TPACK (Technological Pedagogical Content Knowledge), lo que permite analizar la integración efectiva de la tecnología en las prácticas profesionales del personal bibliotecario. A diferencia del estudio de referencia de 2024, esta nueva investigación ofrece una perspectiva dinámica que permite observar tendencias, avances y persistencias en el desarrollo de competencias vinculadas con la IA.

Uno de los principales hallazgos es que, aunque se ha incrementado el conocimiento general sobre la IA, el desarrollo de habilidades más profundas sigue siendo desigual. El entendimiento medio de los conceptos de IA creció de 2.96 a 3.34 en una escala de 1 a 5, y la familiaridad con herramientas de IA generativa como ChatGPT también mostró un crecimiento notable. No obstante, este progreso se dio de manera desigual entre diferentes roles y niveles de experiencia profesional, siendo los grupos con menos años en la profesión y los empleados administrativos quienes mostraron los avances más significativos. En términos de herramientas, ChatGPT se consolidó como la más utilizada tanto en el ámbito profesional como personal.

Un dato llamativo es que la participación en programas de formación en IA no resultó en mejoras estadísticamente significativas en la alfabetización en IA. Los participantes que recibieron capacitación no mostraron diferencias destacables en comprensión, uso de herramientas ni confianza ética respecto a quienes no se formaron. En cambio, sí se evidenció una mejora clara y significativa entre quienes tenían acceso a versiones premium de herramientas de IA. Estas personas demostraron mayor comprensión, familiaridad, frecuencia de uso y confianza para aplicar IA en su trabajo, lo cual sugiere que la experiencia práctica con herramientas potentes tiene más impacto que los programas de formación aislados.

El estudio también indaga en las barreras persistentes para el desarrollo de la alfabetización en IA. Entre los principales obstáculos se encuentran la falta de acceso a herramientas de pago, la escasez de oportunidades de formación estructurada, las dificultades de gestión del tiempo y la resistencia institucional al cambio. Asimismo, se identificaron barreras personales como la ansiedad tecnológica o la inseguridad frente a la adopción de nuevas tecnologías. Estas limitaciones afectan especialmente a instituciones con menos recursos y a profesionales en etapas tempranas de sus carreras.

Las conclusiones del estudio destacan que no basta con ofrecer talleres ocasionales o suscripciones a herramientas: es necesario un enfoque holístico que combine formación práctica, acceso equitativo a tecnologías, tiempo protegido para la experimentación y apoyo institucional. Las bibliotecas que logren integrar estas condiciones en su cultura organizativa estarán mejor preparadas para afrontar los desafíos y aprovechar las oportunidades que ofrece la IA. Finalmente, el artículo recomienda implementar políticas institucionales claras, desarrollar marcos éticos de uso de la IA y fomentar comunidades de aprendizaje que incluyan formación continua y mentoría.

Conclusiones clave:

Incremento general en la alfabetización en IA:
Entre 2023 y 2024, los empleados de bibliotecas universitarias mejoraron significativamente su comprensión de los conceptos de IA y su familiaridad con herramientas como ChatGPT. Sin embargo, el avance se concentró en un nivel básico o intermedio, no en habilidades avanzadas.

El acceso a herramientas premium es clave:
Los participantes que pagaron por herramientas de IA (como ChatGPT Plus) mostraron mejoras estadísticamente significativas en comprensión, uso y confianza. Esto indica que la práctica directa con tecnología avanzada favorece el desarrollo de la alfabetización en IA más que otros factores.

La formación actual no es suficiente:
La participación en programas de formación o desarrollo profesional en IA no produjo mejoras significativas en los niveles de alfabetización. Esto sugiere que los cursos ofrecidos hasta ahora son demasiado generales, teóricos o desconectados de la práctica real.

Persisten barreras estructurales:
La falta de acceso a recursos, la escasez de tiempo para el aprendizaje, la ausencia de apoyo institucional y la resistencia al cambio continúan frenando la alfabetización en IA, especialmente en instituciones con menos recursos y entre profesionales con menos experiencia.

Necesidad de un enfoque holístico:
No basta con ofrecer acceso o formación por separado. Las iniciativas exitosas deben integrar capacitación práctica, acceso equitativo a herramientas, tiempo para experimentar y un entorno institucional que promueva la innovación tecnológica.

Cambio de actitud hacia la IA:
Aumentó la percepción positiva sobre el potencial de la IA para mejorar los servicios bibliotecarios. Esta actitud más receptiva es un factor favorable para impulsar futuras iniciativas.

Recomendación final:
Las bibliotecas universitarias deben adoptar estrategias coordinadas que combinen recursos tecnológicos, formación continua y cultura organizacional abierta al cambio para lograr una alfabetización efectiva y sostenida en IA.

La investigación empresarial sobre fiabilidad y seguridad de la IA ignora los riesgos del mundo

«How Corporate AI Research on Reliability and Safety Ignores Real-World Risks» Asimov’s Addendum (Substack),

El informe advierte sobre serias carencias en la investigación sobre gobernanza y seguridad de la inteligencia artificial generativa, especialmente en su aplicación práctica. El análisis se basa en la revisión de 9.439 artículos publicados entre 2020 y 2025 por cinco de las principales corporaciones tecnológicas (OpenAI, Google DeepMind, Meta, Microsoft y Anthropic) y seis destacadas instituciones académicas de Estados Unidos.

Uno de los hallazgos más alarmantes es que menos del 5 % de los estudios realizados por empresas abordan los riesgos derivados del uso real de estos sistemas por parte de usuarios y empresas, dejando sin atención aspectos fundamentales como errores en los resultados, sesgos, desinformación, violaciones de derechos de autor y consecuencias sociales.

El informe subraya que los laboratorios corporativos están marcando la agenda global de investigación en IA, enfocándose en fases previas al despliegue, como el entrenamiento, alineamiento y pruebas de modelos, mientras descuidan el análisis de su comportamiento en entornos reales. Esto resulta especialmente problemático en sectores de alto riesgo como la salud, las finanzas, la educación, la publicidad y la política, donde los sistemas de IA pueden amplificar desigualdades, inducir errores graves o facilitar la manipulación. La falta de investigación también contrasta con el creciente número de litigios relacionados con daños causados por IA generativa, como casos de difamación, uso indebido de datos o generación de contenido engañoso.

Como respuesta, el informe propone medidas concretas para mejorar la transparencia y la supervisión de la IA. Estas incluyen el fortalecimiento de mecanismos de observación independientes, la apertura de datos de implementación para investigadores externos, la documentación de objetivos de entrenamiento y arquitecturas de modelos, así como la divulgación pública de fallos o riesgos potenciales. Además, se destaca la importancia de proteger a posibles denunciantes y facilitar la participación de las comunidades afectadas por estas tecnologías en los debates regulatorios y científicos.

Este informe se enmarca en un creciente movimiento internacional por una inteligencia artificial más ética y segura. Iniciativas como las de la organización Partnership on AI también han elaborado guías para promover un despliegue responsable de estos sistemas, y diversas instituciones académicas y medios como Time han alertado sobre la necesidad urgente de regular y auditar los usos cotidianos de la IA. En definitiva, el estudio del SSRC reitera que, sin una supervisión externa rigurosa y una investigación orientada al impacto real, los avances en IA podrían agravar problemas sociales existentes en lugar de resolverlos.

Algunos repositorios de acceso abierto han empezado a bloquear a los robots de inteligencia artificial

«Open Repositories Are Being Profoundly Impacted by AI Bots and Other Crawlers: Results of a COAR SurveyCOAR (blog), April 30, 2025. https://coar-repositories.org/news-updates/open-repositories-are-being-profoundly-impacted-by-ai-bots-and-other-crawlers-results-of-a-coar-survey/

Cada vez hay más bots de inteligencia artificial rastreando repositorios. Estos bots son lo suficientemente agresivos como para provocar interrupciones y cortes de servicio en los repositorios. Como consecuencia, algunos repositorios han empezado a bloquear el acceso de las máquinas a sus colecciones, lo que también está bloqueando inadvertidamente otros servicios de red deseados, como los agregadores académicos, los servicios de indexación y los directorios.

El impacto de los bots de inteligencia artificial (IA) y otros rastreadores en los repositorios de acceso abierto ha crecido considerablemente, lo que está afectando la estabilidad de los servicios y provocando interrupciones en las plataformas. En respuesta a esta situación, algunos repositorios han comenzado a bloquear el acceso de estas máquinas, lo que, de forma no intencionada, también bloquea otros servicios útiles como agregadores académicos, servicios de indexación y directorios.

Esta problemática no es exclusiva de los repositorios académicos. Según un informe de Axios, casi el 20% de los 1000 sitios web más visitados del mundo están bloqueando crawlers de IA debido a la falta de directrices legales claras sobre el uso de material con derechos de autor por parte de la IA. Por ejemplo, el bot GPTBot de OpenAI ha sido bloqueado por varios sitios, lo que refleja una creciente preocupación por el acceso automatizado a contenidos en línea.

Además, desarrolladores de software de código abierto han implementado medidas ingeniosas para combatir los bots de IA que no respetan las directrices de robots.txt. Herramientas como Anubis y Nepenthes han sido creadas para frustrar a los crawlers mediante pruebas de trabajo y contenido falso, respectivamente. Estas acciones subrayan la necesidad de proteger la infraestructura digital frente a accesos no deseados.

En respuesta a estos desafíos, COAR planea lanzar un grupo de trabajo para desarrollar acciones recomendadas que permitan a los repositorios mantener su acceso abierto mientras se protegen contra procesos disruptivos de máquinas.

Para comprender mejor el impacto de los bots y rastreadores en los repositorios, COAR (Confederation of Open Access Repositories) realizó una encuesta en abril de 2025, recibiendo 66 respuestas de miembros de diversas regiones del mundo. Los resultados muestran que más del 90% de los encuestados experimentan la presencia de bots de IA, generalmente más de una vez a la semana, lo que causa frecuentes interrupciones en los servicios. Para mitigar estos efectos, los repositorios emplean diversas estrategias, como la limitación de tasa, reglas de firewall, reglas de robots.txt y listas blancas compartidas.

COAR planea realizar un informe más detallado sobre los resultados de la encuesta en su sitio web y, posteriormente, formará un grupo de trabajo para desarrollar recomendaciones que permitan a los repositorios mantener su acceso abierto, protegiéndolos al mismo tiempo contra procesos disruptivos de máquinas.

La inteligencia artificial es cada vez más potente, pero sus alucinaciones son cada vez peores

Miller, Claire Cain. «A.I. Is Getting More Powerful, but Its HallucinationsThe New York Times, May 5, 2025. https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html

Una nueva oleada de sistemas de «razonamiento» de empresas como OpenAI está produciendo información incorrecta con mayor frecuencia. Ni siquiera las empresas saben por qué.

Se aborda el fenómeno de las «alucinaciones» en la inteligencia artificial, un problema crítico que afecta a modelos de lenguaje como ChatGPT y Bard de Google. Estas alucinaciones se refieren a respuestas generadas por IA que, aunque suenan plausibles, son incorrectas o completamente inventadas. Por ejemplo, en una prueba llamada PersonQA, el sistema más potente de OpenAI, denominado o3, presentó una tasa de alucinaciones del 33%, más del doble que su predecesor o1. El modelo o4-mini mostró una tasa aún mayor, alcanzando el 48%. En otra prueba, SimpleQA, las tasas de alucinaciones fueron del 51% para o3 y del 79% para o4-mini

Las alucinaciones son una consecuencia inherente a la manera en que los modelos de lenguaje están diseñados. Estos sistemas funcionan mediante el análisis de grandes volúmenes de datos y el aprendizaje de patrones estadísticos en el lenguaje. Para generar respuestas, no realizan una búsqueda de información en tiempo real ni verifican la precisión de los datos con fuentes externas, sino que se basan en los datos con los que fueron entrenados. Esta falta de verificación en tiempo real, unida a la complejidad de los procesos de generación de texto, puede llevar a que el modelo produzca información que, aunque coherente en su estructura, sea incorrecta o completamente ficticia.

Además, los modelos de lenguaje son inherentemente probabilísticos, lo que significa que seleccionan la «respuesta más probable» en función del contexto, pero no siempre tienen en cuenta si esa respuesta es veraz. En este sentido, las alucinaciones ocurren cuando el modelo «adivina» una respuesta que, aunque sea lingüísticamente plausible, carece de sustancia factual. Por ejemplo, en lugar de verificar hechos o proporcionar citas precisas, el modelo puede generar información coherente pero errónea debido a que los patrones previos en los datos entrenados sugieren que esa información tiene sentido dentro del contexto dado.

El fenómeno de las alucinaciones plantea una amenaza directa a la confiabilidad y utilidad de los sistemas de IA. A medida que estas tecnologías se adoptan en una variedad de sectores, desde el sector educativo hasta la atención médica y el asesoramiento empresarial, los usuarios se encuentran cada vez más en una posición vulnerable al confiar en respuestas generadas por máquinas que podrían ser incorrectas. En contextos como la medicina o el derecho, donde la precisión es crucial, las alucinaciones pueden tener consecuencias graves, desde diagnósticos incorrectos hasta consejos legales erróneos.

La preocupación por este problema es tal que algunos expertos temen que la confianza pública en las IA podría disminuir si las alucinaciones continúan sin control. La percepción de que los sistemas de IA no son completamente fiables podría desalentar a los usuarios de adoptar estas herramientas en áreas críticas. A su vez, esto podría ralentizar el progreso hacia la integración de la IA en sectores importantes de la sociedad, afectando su potencial para revolucionar industrias enteras.

Empresas como OpenAI y Google son conscientes de las limitaciones de sus modelos y están tomando medidas activas para mitigar el problema de las alucinaciones. Una de las estrategias es mejorar los algoritmos de verificación de hechos. Estos algoritmos buscan integrar fuentes de información más confiables y permitir que los modelos contrasten las respuestas generadas con bases de datos verificadas antes de ofrecer una respuesta final. Sin embargo, este proceso presenta desafíos técnicos significativos, ya que requiere una infraestructura adicional que permita a la IA verificar en tiempo real la información antes de presentarla al usuario.

Otra estrategia que se está explorando es la integración de sistemas de retroalimentación más robustos, donde los usuarios pueden señalar respuestas incorrectas y corregir la información. De esta manera, los modelos de IA no solo aprenden de los datos iniciales con los que fueron entrenados, sino también de las interacciones en el mundo real, lo que podría ayudar a disminuir la frecuencia de las alucinaciones con el tiempo. Aunque estas iniciativas son prometedoras, erradicar completamente las alucinaciones sigue siendo un desafío técnico y ético considerable.

A medida que la IA se utiliza en más ámbitos, se hace cada vez más evidente la necesidad de un enfoque más riguroso y transparente en su desarrollo. Es fundamental que los usuarios comprendan las limitaciones actuales de estas tecnologías y reconozcan que las respuestas generadas por IA no siempre son correctas. Esto implica educar al público sobre cómo funcionan estos modelos y la importancia de verificaciones adicionales por parte de los usuarios.

Además, las empresas deben adoptar una postura más abierta en cuanto a la metodología de entrenamiento de sus sistemas y las limitaciones inherentes a estos modelos. La transparencia en cómo se entrenan y actualizan los modelos, y el acceso a las fuentes utilizadas en su entrenamiento, puede ayudar a construir una relación de confianza con los usuarios y disminuir las preocupaciones sobre la exactitud de la información.

En resumen, las alucinaciones en la inteligencia artificial siguen siendo un obstáculo importante para su adopción generalizada y confianza pública. Aunque las empresas tecnológicas están haciendo esfuerzos significativos para mitigar este problema, es evidente que se requiere un enfoque multidisciplinario y más transparencia para abordar de manera efectiva este desafío. A medida que los modelos de IA continúan evolucionando, se espera que las soluciones a las alucinaciones también progresen, lo que permitirá un uso más confiable y preciso de estas tecnologías en una variedad de sectores.