Archivo de la etiqueta: Inteligencia artificial

ChatGPT en Investigación y escritura científica: Guía para principiantes.

Bastidas, Sebastián, y Leonardo Osorio. 2023. «ChatGPT in Scientific Research and Writing: A Beginner’s GuideResearchGate. https://www.researchgate.net/publication/384032901_ChatGPT_in_Scientific_Research_and_Writing_A_Beginner’s_Guide

Una introducción completa y práctica al uso de ChatGPT en el ámbito de la investigación científica y la redacción académica. Se enfoca en explicar cómo esta herramienta de inteligencia artificial puede asistir a los investigadores, especialmente a quienes están comenzando, en diversas etapas del proceso científico.

Primero, el texto detalla las capacidades de ChatGPT para generar textos coherentes, resumir información, ayudar en la formulación de preguntas de investigación y apoyar en la redacción de manuscritos, desde la introducción hasta la discusión. Destaca que ChatGPT puede agilizar la revisión bibliográfica y facilitar la generación de ideas, lo cual puede ser valioso para investigadores novatos o con limitaciones de tiempo.

Sin embargo, el libro también subraya las limitaciones y riesgos asociados al uso de ChatGPT. Señala que la IA puede producir información incorrecta o inventada («alucinaciones»), por lo que los usuarios deben validar rigurosamente cualquier contenido generado antes de incorporarlo en trabajos científicos. Además, advierte sobre cuestiones éticas, como la necesidad de transparencia en el uso de IA y la importancia de evitar el plagio o la dependencia excesiva.

El texto proporciona consejos prácticos para integrar ChatGPT en el flujo de trabajo científico, enfatizando que la IA debe ser una herramienta complementaria y no un sustituto del juicio crítico o la revisión humana. También incluye recomendaciones para mejorar la interacción con la IA, como el uso de indicaciones claras y específicas, y para comprender mejor sus capacidades y limitaciones.

En conclusión, el artículo presenta a ChatGPT como un recurso innovador y prometedor para mejorar la eficiencia en la investigación y la redacción, siempre que se utilice con responsabilidad y conciencia de sus limitaciones técnicas y éticas. Su enfoque introductorio lo hace ideal para investigadores principiantes que buscan familiarizarse con el potencial y los desafíos de la inteligencia artificial aplicada a la ciencia.

Comparativa de los principales asistentes de IA: ChatGPT, Google Gemini, Perplexity y Claude ¿Cuál elegir?

Julian Horsey, «ChatGPT vs Gemini vs Perplexity vs Claude: Which AI Assistant is Best?«, Geeky Gadgets, 14 de mayo de 2025, https://www.geeky-gadgets.com/chatgpt-vs-gemini-vs-perplexity-vs-claude/?utm_source=flipboard&utm_content=topic/artificialintelligence

Con el auge de los asistentes de inteligencia artificial, elegir el adecuado puede marcar una gran diferencia en términos de productividad, creatividad y eficiencia. Este análisis compara los cuatro líderes del sector según sus puntos fuertes, limitaciones y mejores usos.

ChatGPT (OpenAI): Muy versátil, ideal para tareas generales, redacción creativa y generación de imágenes. Sin embargo, puede perder el hilo en conversaciones largas y ocasionalmente ofrecer información errónea.

Google Gemini: Potente para tareas complejas, análisis profundo y trabajo colaborativo dentro del ecosistema Google. Perfecto para usuarios que manejan grandes volúmenes de datos, aunque puede resultar demasiado formal para usos creativos.

Perplexity AI: Se especializa en investigación en tiempo real, verificación de hechos y análisis de la competencia, con respuestas respaldadas por fuentes. No es tan eficaz en creatividad ni genera imágenes.

Claude AI (Anthropic): Destaca en creatividad, lluvia de ideas y pensamiento estratégico. Tiene una ventana de contexto muy grande (hasta 200.000 tokens), pero no genera imágenes.

Cual elegir

¿Cuál elegir?

Depende de tus necesidades:

Necesidad principalAsistente recomendado
Redacción creativa + imágenesChatGPT
Investigación profundaGoogle Gemini
Información precisa y actualPerplexity AI
Ideas, estrategia y proyectos largosClaude AI

¿Cómo funcionan los detectores de IA?

Kumar, Himanshu. 2025. “How Do AI Detectors Work? (And What They Miss).” Medium, 14 de mayo de 2025. https://medium.com/illumination/how-do-ai-detectors-work-2d7341891f0a

Más sobre  Detectores

Un detector de IA es una herramienta diseñada para estimar si un texto ha sido redactado por un ser humano o generado por una IA. Estas herramientas se utilizan comúnmente por docentes y plataformas de contenido para verificar la autenticidad de textos y prevenir el uso indebido de tecnologías de generación automática.

Estas herramientas se han popularizado en entornos educativos, profesionales y editoriales para tratar de identificar cuándo un texto ha sido escrito por una IA como ChatGPT, lo que genera un nuevo panorama en la evaluación de contenidos.

Los detectores de IA funcionan, principalmente, mediante el análisis estadístico y lingüístico de los textos. Una de las técnicas más comunes es la medición de la “perplejidad”, que evalúa cuán predecibles son las palabras en una oración. Los textos generados por IA tienden a tener una perplejidad baja porque siguen patrones muy estructurados. Otra métrica importante es la “variabilidad” (o “burstiness”), que analiza la mezcla de oraciones largas y cortas: los humanos suelen escribir con más variedad, mientras que los sistemas de IA producen frases de longitud más constante.

Además de estos métodos, algunos detectores se basan en clasificadores entrenados mediante aprendizaje automático. Estos modelos se alimentan con grandes cantidades de texto humano y de IA para aprender a reconocer patrones distintivos. También se recurre al análisis semántico para detectar inconsistencias lógicas en los textos generados por IA, y a la estilometría, que intenta encontrar “marcas de agua” ocultas o señales características que puedan revelar su origen artificial.

Grammarly, en particular, cuenta con herramientas que van más allá del simple análisis estadístico, como Grammarly Authorship, que analiza el estilo personal del usuario para verificar si un texto coincide con su forma habitual de escribir. También utiliza detección de plagio para identificar si partes del texto coinciden con fuentes existentes, lo que puede ayudar a descubrir fragmentos generados artificialmente que han sido copiados de la web.

Sin embargo, estas herramientas no son infalibles. Una de sus principales limitaciones es la presencia de falsos positivos: textos auténticamente humanos, especialmente aquellos escritos en un estilo formal o por hablantes no nativos, pueden ser identificados erróneamente como escritos por IA. Del mismo modo, pueden producirse falsos negativos si el texto generado por IA ha sido modificado o editado, lo que complica su detección.

Entre las herramientas más populares de detección de IA se encuentran GPTZero, diseñada específicamente para el ámbito educativo; Originality.AI, utilizada en marketing y contenido web; Turnitin, que ha incorporado capacidades de detección de IA junto con el análisis de plagio; Writer AI Detector, que es gratuito pero variable en precisión; y Copyleaks, que ofrece informes detallados especialmente en contextos académicos.

Si bien las herramientas de detección de textos generados por IA han mejorado en precisión, aún enfrentan desafíos significativos, especialmente en la identificación de textos modificados y en la equidad hacia diversos grupos de usuarios. Es esencial utilizar estas herramientas como apoyo y no como única fuente de verificación, complementándolas con el juicio humano y considerando el contexto de cada caso.

Necesidad de una Alfabetización en IA

OpenAI. 2025. Building an AI-Ready Workforce: A Look at College Student ChatGPT Adoption in the US. https://cdn.openai.com/global-affairs/openai-edu-ai-ready-workforce.pdf

El informe subraya la necesidad urgente de integrar la educación en inteligencia artificial en el sistema educativo para preparar adecuadamente a los estudiantes para un mercado laboral cada vez más influenciado por la tecnología. La adopción desigual de herramientas como ChatGPT y la falta de formación formal en IA podrían ampliar las brechas económicas y de habilidades entre diferentes regiones y grupos demográficos.

El informe ofrece un análisis detallado sobre cómo los estudiantes universitarios en Estados Unidos están adoptando herramientas de inteligencia artificial, especialmente ChatGPT, y cómo esta tendencia influye en la preparación de la futura fuerza laboral.

Según el informe, más de un tercio de los jóvenes de 18 a 24 años en EE. UU. utilizan ChatGPT, y aproximadamente una cuarta parte de sus interacciones con la herramienta están relacionadas con el aprendizaje, la tutoría y el trabajo académico. Los estudiantes emplean ChatGPT para iniciar trabajos y proyectos, resumir textos extensos, explorar temas, revisar escritos y obtener ayuda en programación.

La adopción de ChatGPT varía significativamente entre los estados. California, Virginia, Nueva Jersey y Nueva York presentan las tasas más altas de uso entre los jóvenes de 18 a 24 años, mientras que Wyoming, Alaska, Montana y Virginia Occidental muestran tasas considerablemente más bajas. Estas diferencias podrían generar disparidades en la preparación de la fuerza laboral y en el desarrollo económico futuro.

El informe destaca que tres de cada cuatro estudiantes universitarios desean formación en inteligencia artificial, pero solo una de cada cuatro instituciones educativas la ofrece actualmente. Esta falta de formación formal lleva a muchos estudiantes a aprender sobre IA de manera autodidacta o a través de sus compañeros, lo que puede resultar en una comprensión desigual y en posibles problemas de integridad académica.

OpenAI propone varias acciones para abordar estas brechas:

  • Mejorar la alfabetización en IA: Integrar la educación en inteligencia artificial en los planes de estudio para que los estudiantes comprendan cómo utilizar estas herramientas de manera efectiva y ética.
  • Ampliar el acceso a herramientas de IA: Asegurar que todos los estudiantes, independientemente de su ubicación o situación económica, tengan acceso a tecnologías de IA como ChatGPT.
  • Establecer políticas claras sobre el uso de IA: Desarrollar directrices institucionales que definan cómo y cuándo es apropiado utilizar herramientas de IA en contextos educativos.

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana. En concreto afirmó

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

Según San Al Altman muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT

Carroll, Shannon. 2025. “Sam Altman’s Gen Z Brag: ‘They Don’t Really Make Life Decisions without Asking ChatGPT’.Gizmodo, 13 de mayo. https://gizmodo.com/sam-altman-chatgpt-gen-z-life-decisions-openai-1851482444

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana.

Altman explicó que los usuarios más jóvenes no interactúan con ChatGPT de forma casual. Por el contrario, crean complejos flujos de trabajo, configuran el sistema para conectarlo con diversos archivos, y memorizan o guardan prompts sofisticados para reutilizarlos. Según él, algunos lo usan como si fuera un verdadero sistema operativo personal. Esta integración tan profunda marca una diferencia notable con otras generaciones. Mientras las personas mayores tienden a utilizar la IA como sustituto de Google, los jóvenes de entre 20 y 30 años la ven como un asesor de vida, y los estudiantes universitarios directamente la convierten en el eje central de su rutina tecnológica.

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

Los datos respaldan esta percepción. Un informe de OpenAI publicado en febrero reveló que los estudiantes universitarios estadounidenses no solo son los más numerosos entre los usuarios, sino también los más comprometidos. Más de un tercio de los jóvenes entre 18 y 24 años en Estados Unidos usa ChatGPT, lo que confirma su papel como el grupo etario más activo en la plataforma. Además, una encuesta de Pew Research de enero de 2024 indicó que el 26 % de los adolescentes de entre 13 y 17 años utilizaban ChatGPT para hacer tareas escolares, duplicando el porcentaje del año anterior. Estos datos revelan que la IA no solo está presente, sino que se ha naturalizado como parte del entorno educativo y personal de los jóvenes.

Sin embargo, esta rápida adopción también ha generado preocupación. Algunos legisladores en California han propuesto normativas que obliguen a las empresas de inteligencia artificial a recordar a los menores que están interactuando con una máquina y no con una persona real. Por su parte, un informe publicado por Common Sense Media y la Universidad de Stanford en abril recomienda que los niños no usen servicios de IA como compañeros emocionales, debido a los riesgos que esto podría implicar para su desarrollo.

En el podcast de Lex Fridman, Altman reflexiona sobre el futuro de la relación entre los usuarios y la IA. Subraya la importancia de construir modelos que evolucionen con el tiempo y se adapten a las necesidades personales de cada individuo. Según él, lo que la gente realmente desea es una inteligencia artificial que los conozca, que entienda su contexto personal y que se vuelva cada vez más útil y relevante a medida que la relación se profundiza.

La Generación Z no solo está utilizando la inteligencia artificial, sino que la está incorporando a su vida diaria de una forma sin precedentes. Esta transformación plantea oportunidades prometedoras, pero también desafíos éticos, educativos y sociales que deben ser abordados con responsabilidad. La figura del chatbot como asesor digital se consolida, y con ella, una nueva forma de convivir con la tecnología.

Pinterest comienza a etiquetar imágenes generadas con inteligencia artificial para combatir su proliferación

Weatherbed, Jess. “Pinterest Is Finally Doing Something about Its AI Infestation.” The Verge, May 1, 2025. https://www.theverge.com/news/659485/pinterest-ai-image-label-filter-features

Pinterest ha anunciado nuevas funciones para etiquetar automáticamente las imágenes generadas o editadas con inteligencia artificial (IA) en su plataforma. Estas etiquetas, que aparecerán como un sello de “Modificado con IA” en la parte inferior izquierda de los pines al hacer clic en ellos, buscan ayudar a los usuarios a identificar este tipo de contenido y tomar decisiones más informadas.

La detección se basará tanto en metadatos (como SynthID de Google o Content Credentials de Adobe) como en clasificadores desarrollados por Pinterest, incluso si la imagen no tiene marcadores visibles. Además, los usuarios podrán apelar si consideran que su contenido fue mal etiquetado.

Pinterest también implementará pronto una función experimental que permitirá filtrar imágenes con IA en categorías como belleza y arte, usando una opción de “ver menos” en el menú de cada pin. La compañía planea ampliar este filtro a más categorías, aunque aún no está claro cuánta IA se podrá bloquear.

Estas medidas responden a críticas por la proliferación de imágenes generadas con IA que dificultan la búsqueda de referencias reales y útiles en la plataforma.

El impacto transformador de la inteligencia artificial en la medicina

Walker-Wawrzycki, Alexandra. 2025. “From Data to Diagnosis – How AI Is Changing the World of Medicine.” Cosmos Magazine, May 7, 2025. https://cosmosmagazine.com/technology/ai/ai-in-medicine-data-diagnosis

La inteligencia artificial (IA) está revolucionando el ámbito de la medicina al automatizar procesos repetitivos y complejos, lo que permite a los profesionales sanitarios centrarse más en la atención directa al paciente.

Entre las aplicaciones actuales más destacadas se encuentra el uso de escribas digitales, programas que transcriben automáticamente las observaciones del médico en tiempo real durante la consulta. Estos sistemas, como Lyrebird, eliminan la grabación y el texto después de ser descargados, garantizando así la privacidad del paciente. Según un estudio de la Universidad de Pensilvania, su uso incrementa en un 20 % el tiempo cara a cara con los pacientes y reduce en un 30 % el tiempo extra dedicado a papeleo.

Otro uso relevante es el análisis de imágenes médicas, como radiografías, tomografías y resonancias magnéticas. Mediante algoritmos entrenados con miles de imágenes normales y patológicas, la IA puede detectar anomalías con gran precisión. No obstante, la calidad del entrenamiento depende en gran medida de la diversidad y representatividad de los datos. Investigadores de la Universidad de Lovaina advierten que errores o sesgos en los datos pueden afectar directamente al rendimiento clínico del modelo, con consecuencias graves, como desigualdades de género o raciales.

También se destaca el análisis de biomarcadores, donde la IA examina grandes volúmenes de datos de pacientes para identificar patrones y predecir enfermedades, reacciones adversas o respuestas a medicamentos. Estos sistemas usan modelos predictivos para anticipar riesgos de forma proactiva.

Se presentan ejemplos concretos, como el programa SWIFT en el hospital Lyell McEwin de Adelaida, que utiliza notas médicas y datos clínicos (frecuencia cardíaca, análisis de sangre) para predecir si un paciente puede ser dado de alta en las siguientes 48 horas. El sistema emplea dos algoritmos: uno analiza texto clínico y el otro traduce variables numéricas en una puntuación de alta, conocida como Adelaide Score.

Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como los que utiliza ChatGPT, también están empezando a aplicarse en la medicina. Estos modelos convierten información en secuencias numéricas y predicen la siguiente entrada más probable, que luego se traduce en lenguaje natural. Son especialmente útiles para gestionar registros electrónicos o incluso para escribir informes clínicos.

En cuanto a la seguridad, se subraya la preocupación por el manejo de datos sensibles. En Australia del Sur, por ejemplo, las leyes impiden que los datos sanitarios se compartan con redes internacionales, obligando a que todo el procesamiento ocurra localmente. Esto limita la exposición y asegura que los datos no se utilicen para entrenar otros modelos, a diferencia de servicios comerciales como ChatGPT.

Paradójicamente, la IA también refuerza la ciberseguridad. Gracias a su capacidad de análisis, puede detectar comportamientos anómalos en redes, identificar accesos sospechosos y actuar preventivamente. Además, analiza patrones de uso y detecta si una cuenta ha sido usada por alguien que no es su usuario habitual.

Sin embargo, persisten preguntas éticas sobre la responsabilidad legal: si un sistema de IA comete un error que afecta al paciente, ¿quién es el responsable? Por ahora, estos sistemas siguen siendo supervisados por profesionales humanos que toman la última decisión, y por tanto, también asumen la responsabilidad.

En el campo emergente de la medicina de precisión, la IA ya predice fallos técnicos antes de que ocurran, lo que permite realizar mantenimientos preventivos y garantiza un funcionamiento seguro del equipamiento médico.

En conclusión, la IA tiene el potencial de hacer la sanidad más económica y accesible, al asumir tareas administrativas previas a la consulta y liberar tiempo para la atención médica directa. Esto podría reducir la necesidad de personal sin sacrificar calidad, mejorar la eficiencia y aumentar la satisfacción profesional del personal sanitario.

¿Automatizará la IA su puesto de trabajo?

Hausenloy, Jason. 2025. Will AI Automate Away Your Job?Commonplace, March 20, 2025. https://commonplace.org/2025/03/20/will-ai-automate-away-your-job/

los trabajos más susceptibles a la automatización son aquellos que consisten en tareas pequeñas y repetitivas, como los de los centros de llamadas o algunos servicios freelance. Aunque muchas veces se piensa que los trabajos de «conocimiento» son inmunes a la automatización, también corren riesgo. Los ingenieros y programadores de Silicon Valley, por ejemplo, crean tareas de codificación estandarizadas que pueden ser replicadas fácilmente por IA. En cambio, roles como el de un CEO, que requieren años de experiencia y contexto, son más difíciles de automatizar debido a la complejidad de sus responsabilidades.

El artículo explora en profundidad el impacto de la inteligencia artificial (IA) en el futuro del empleo, alejándose de los tópicos más habituales y proponiendo una herramienta conceptual interesante: el modelo del horizonte temporal. Este modelo plantea que la vulnerabilidad de un trabajo ante la automatización no depende tanto del nivel de conocimientos técnicos o del estatus del puesto, sino del marco temporal en el que se desarrollan sus tareas principales. Es decir, cuanto más breves, discretas y estandarizadas sean las tareas, más probable es que una IA pueda realizarlas de manera efectiva. Por el contrario, aquellas actividades que requieren contexto, juicio experiencial o se extienden en el tiempo, resultan más difíciles de replicar mediante sistemas automatizados.

El autor ejemplifica esta lógica comparando dos roles dentro del mismo campo profesional, el de las tecnologías de la información. Por un lado, presenta al especialista en soporte técnico, cuya jornada laboral se compone de tareas cortas, tales como resolver problemas de conectividad, restablecer contraseñas o responder dudas básicas. Son acciones repetitivas y bien documentadas, muchas veces resueltas siguiendo protocolos establecidos. Estas características hacen que este tipo de puesto sea altamente susceptible a la automatización, ya que los sistemas de IA pueden entrenarse con facilidad en este tipo de flujos de trabajo predecibles. Por otro lado, el artículo describe al arquitecto de sistemas, una figura profesional que se dedica a diseñar soluciones tecnológicas complejas, tomando en cuenta las necesidades específicas de distintas áreas de una empresa. Esta persona necesita una visión holística, capacidades interpersonales y un conocimiento profundo del contexto empresarial. Las decisiones que toma no pueden descomponerse fácilmente en tareas simples, lo que las hace mucho más difíciles de automatizar.

Este patrón se repite en muchas otras industrias, desde el periodismo hasta el derecho. Los redactores que simplemente reescriben artículos o producen contenido estandarizado corren más riesgo que quienes investigan en profundidad o desarrollan enfoques únicos. En el ámbito jurídico, los paralegales que redactan contratos estándar también están más expuestos que los abogados que negocian acuerdos complejos o desarrollan estrategias legales. Así, la clave no está necesariamente en qué industria se trabaja, sino en cómo están estructuradas las tareas que se realizan en el día a día. La IA avanza rápidamente en todos los frentes y ya es capaz de desempeñar tareas que requieren razonamiento, empatía e incluso creatividad en algunos casos. Por ello, el modelo del horizonte temporal ofrece un marco útil para reflexionar sobre el futuro del trabajo en la era de la automatización.

Paradójicamente, uno de los grupos profesionales más vulnerables según este análisis son los propios desarrolladores de software y programadores de Silicon Valley, quienes están entrenando a las IA que podrían sustituirlos. Si su trabajo consiste en escribir fragmentos de código modulares, bien estructurados y documentados —algo muy común en entornos colaborativos como GitHub—, entonces están produciendo exactamente el tipo de tareas que la IA puede aprender a ejecutar de forma autónoma. Este fenómeno pone en entredicho la idea, sostenida durante años, de que los “trabajadores del conocimiento” estaban a salvo de la automatización. En realidad, no lo están más que cualquier otro sector: todo depende de la forma y del contenido de sus actividades.

En definitiva, Hausenloy advierte que la inteligencia artificial no solo impactará en los trabajos de baja cualificación o en el sector manufacturero, como tradicionalmente se ha pensado. Más bien, la disrupción alcanzará incluso a profesiones altamente cualificadas si sus tareas pueden descomponerse en unidades de trabajo cortas, rutinarias o estructuradas. Por tanto, la protección ante la automatización no reside tanto en el título profesional como en la complejidad, la diversidad y el horizonte temporal de las responsabilidades laborales. Ante este escenario, la capacidad de adaptación, el aprendizaje continuo y el desarrollo de habilidades menos replicables por la IA serán factores clave para mantener la relevancia laboral en los próximos años.

Un abogado presenta en un juicio citas legales falsas tras haber consultado una Inteligencia artificial

Carrick, Damien, y Sophie Kesteven. 2023. “This US Lawyer Used ChatGPT to Research a Legal Brief—with Embarrassing Results. We Could All Learn from His Error.” UNSW Newsroom, 24 de junio de 2023. https://www.unsw.edu.au/news/2023/06/this-us-lawyer-used-chatgpt-to-research-a-legal-brief-with-embar

El abogado estadounidense Steven A. Schwartz, junto con su colega Peter LoDuca y el bufete Levidow, Levidow & Oberman, fue multado con 5.000 dólares por presentar citas legales falsas en un caso judicial. El error se debió a que Schwartz utilizó ChatGPT para investigar jurisprudencia en un caso de lesiones personales sin verificar la autenticidad de los fallos citados.

El caso implicaba a un cliente, Roberto Mata, que demandaba a la aerolínea Avianca por una lesión en la rodilla causada por un carrito de servicio durante un vuelo. Schwartz recurrió a ChatGPT para buscar precedentes legales similares, pero las sentencias que presentó en el escrito eran completamente inventadas por la inteligencia artificial.

Aunque Schwartz preguntó a ChatGPT si los casos eran reales y recibió respuestas afirmativas, no hizo ninguna comprobación adicional en bases de datos legales. Esta falta de diligencia llevó al juez P. Kevin Castel a calificar las acciones como un abandono de las responsabilidades profesionales, al presentar opiniones judiciales inexistentes con citas y frases falsas. Incluso, el juez leyó en voz alta parte del texto generado y lo calificó de «galimatías legal».

Castel aclaró que no está mal usar IA en el trabajo legal, pero que los abogados siguen teniendo el deber de verificar la veracidad de la información que presentan en la corte.

La profesora Lyria Bennett Moses, experta en la relación entre derecho y tecnología, señaló que el caso muestra un malentendido fundamental sobre el funcionamiento de herramientas como ChatGPT, que no tiene filtros de verdad y no funciona como un buscador, sino como un generador de texto basado en probabilidades.

El bufete involucrado negó haber actuado de mala fe, alegando que fue un error cometido de buena fe, al confiar erróneamente en la herramienta. Sin embargo, el caso ha generado una amplia repercusión internacional y ha dejado en evidencia los riesgos de utilizar inteligencia artificial sin el debido criterio profesional.

Análisis de las alucinaciones en los principales modelos de Inteligencia Artificial

Berenstein, David. “Good Answers Are Not Necessarily Factual Answers: An Analysis of Hallucination in Leading LLMs.” Hugging Face. Accedido el 12 de mayo de 2025. https://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms

Se analiza los errores de alucinación en los principales modelos de lenguaje mediante el uso del benchmark Phare (Potential Harm Assessment & Risk Evaluation). Este estudio pone el foco en un problema central: los modelos pueden ofrecer respuestas que suenan convincentes pero que contienen información falsa o inventada, lo que representa un riesgo real en su uso cotidiano.

Uno de los hallazgos principales del análisis es que más de un tercio de los errores detectados en sistemas de IA desplegados públicamente se deben a alucinaciones. Estas no solo son comunes, sino que además suelen ser difíciles de detectar, porque los modelos presentan esas respuestas con un alto grado de confianza. Esto puede confundir fácilmente a los usuarios, especialmente si no tienen el conocimiento necesario para evaluar la veracidad de lo que están leyendo.

La evaluación se llevó a cabo con el marco Phare, que analiza el rendimiento de los modelos a través de varias etapas: recolección de contenido auténtico y representativo, creación de ejemplos de prueba, revisión humana para asegurar la calidad y, finalmente, evaluación del comportamiento de los modelos. Dentro del módulo de alucinación, se valoraron cuatro tareas clave: la precisión factual, la capacidad para resistirse a la desinformación, la habilidad para desmentir bulos o teorías conspirativas, y la fiabilidad en el uso de herramientas externas como bases de datos o APIs.

Un aspecto especialmente relevante que destaca el estudio es la desconexión entre popularidad y fiabilidad. Es decir, que los modelos más valorados por los usuarios en términos de experiencia de uso no siempre son los más precisos en cuanto a la información que generan. Esto sugiere que una buena interacción no garantiza una buena calidad factual, y que es necesario avanzar en métricas que evalúen la veracidad con más rigor.

En conclusión el estudio muestra que las alucinaciones son un problema estructural de los modelos actuales y que su impacto es especialmente delicado en contextos donde la precisión es crítica, como la medicina, el derecho o la educación. Por ello, el artículo concluye que identificar y reducir estos errores debe ser una prioridad para mejorar la seguridad y fiabilidad de los modelos de lenguaje de gran escala.