Palabras que podrían indicar que un texto ha sido escrito con una Inteligencia Artificial

Juzek, Tom S., y Zina B. Ward. 2025. “Why Does ChatGPT ‘Delve’ So Much? Exploring the Sources of Lexical Overrepresentation in Large Language Models.” En Proceedings of the 31st International Conference on Computational Linguistics, 6397–6411. Abu Dhabi, UAE: Association for Computational Linguistics. https://aclanthology.org/2025.coling-main.426/

En los últimos años se ha detectado un aumento notable en el uso de ciertos términos como «delve», «explore» o «tapestry», asociados a la redacción con inteligencia artificial. Este fenómeno, conocido como sobrerrepresentación léxica, sugiere una creciente influencia de modelos como ChatGPT en los textos académicos. Aunque no implica plagio, plantea dudas sobre la originalidad y el rigor en la producción científica.

Según el estudio de Juzek y Ward (2024), ha habido un notable aumento en el uso de términos como «indagar», «intrincado» y «subrayar» en comparación con hace solo unos años. Además de «delve», otras palabras que ChatGPT tiende a utilizar con mayor frecuencia incluyen «explore», «tapestry», «testament» y «leverage»

Estas palabras son empleadas de manera excesiva por modelos de lenguaje como ChatGPT. Los autores señalan que estas palabras tienden a aparecer con una frecuencia desproporcionada en resúmenes científicos, lo que sugiere que su proliferación podría deberse al uso extendido de estos modelos para la redacción de textos académicos.

Nguyen, Jeremy. Are medical studies being written with ChatGPT?

Esta tendencia se conoce como sobrerrepresentación léxica, y es parte de un fenómeno lingüístico más amplio en el que la inteligencia artificial está comenzando a influir activamente en el lenguaje humano, especialmente en registros formales como el académico.

No obstante, es importante señalar que la sobrerrepresentación léxica no necesariamente indica plagio, aunque sí puede ser un indicio de que un texto no es completamente original. El análisis de este fenómeno debe ser parte de una investigación más exhaustiva sobre la autenticidad de un texto. Nguyen subraya que, aunque el uso aislado de la palabra «delve» no demuestra por sí mismo la intervención de inteligencia artificial, su repetida aparición en artículos científicos podría señalar la influencia de herramientas como ChatGPT en la escritura académica. Este patrón sugiere que muchos investigadores están recurriendo a estas tecnologías para optimizar y acelerar el proceso de redacción de sus trabajos.

Este fenómeno ha generado preocupación en la comunidad científica, ya que podría afectar la calidad y la originalidad de la investigación publicada. Algunos expertos advierten sobre el riesgo de que el lenguaje artificialmente elaborado se infiltre en la redacción científica, diluyendo la autenticidad y el rigor académico

Un abogado presenta en un juicio citas legales falsas tras haber consultado una Inteligencia artificial

Carrick, Damien, y Sophie Kesteven. 2023. “This US Lawyer Used ChatGPT to Research a Legal Brief—with Embarrassing Results. We Could All Learn from His Error.” UNSW Newsroom, 24 de junio de 2023. https://www.unsw.edu.au/news/2023/06/this-us-lawyer-used-chatgpt-to-research-a-legal-brief-with-embar

El abogado estadounidense Steven A. Schwartz, junto con su colega Peter LoDuca y el bufete Levidow, Levidow & Oberman, fue multado con 5.000 dólares por presentar citas legales falsas en un caso judicial. El error se debió a que Schwartz utilizó ChatGPT para investigar jurisprudencia en un caso de lesiones personales sin verificar la autenticidad de los fallos citados.

El caso implicaba a un cliente, Roberto Mata, que demandaba a la aerolínea Avianca por una lesión en la rodilla causada por un carrito de servicio durante un vuelo. Schwartz recurrió a ChatGPT para buscar precedentes legales similares, pero las sentencias que presentó en el escrito eran completamente inventadas por la inteligencia artificial.

Aunque Schwartz preguntó a ChatGPT si los casos eran reales y recibió respuestas afirmativas, no hizo ninguna comprobación adicional en bases de datos legales. Esta falta de diligencia llevó al juez P. Kevin Castel a calificar las acciones como un abandono de las responsabilidades profesionales, al presentar opiniones judiciales inexistentes con citas y frases falsas. Incluso, el juez leyó en voz alta parte del texto generado y lo calificó de «galimatías legal».

Castel aclaró que no está mal usar IA en el trabajo legal, pero que los abogados siguen teniendo el deber de verificar la veracidad de la información que presentan en la corte.

La profesora Lyria Bennett Moses, experta en la relación entre derecho y tecnología, señaló que el caso muestra un malentendido fundamental sobre el funcionamiento de herramientas como ChatGPT, que no tiene filtros de verdad y no funciona como un buscador, sino como un generador de texto basado en probabilidades.

El bufete involucrado negó haber actuado de mala fe, alegando que fue un error cometido de buena fe, al confiar erróneamente en la herramienta. Sin embargo, el caso ha generado una amplia repercusión internacional y ha dejado en evidencia los riesgos de utilizar inteligencia artificial sin el debido criterio profesional.

Análisis de las alucinaciones en los principales modelos de Inteligencia Artificial

Berenstein, David. “Good Answers Are Not Necessarily Factual Answers: An Analysis of Hallucination in Leading LLMs.” Hugging Face. Accedido el 12 de mayo de 2025. https://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms

Se analiza los errores de alucinación en los principales modelos de lenguaje mediante el uso del benchmark Phare (Potential Harm Assessment & Risk Evaluation). Este estudio pone el foco en un problema central: los modelos pueden ofrecer respuestas que suenan convincentes pero que contienen información falsa o inventada, lo que representa un riesgo real en su uso cotidiano.

Uno de los hallazgos principales del análisis es que más de un tercio de los errores detectados en sistemas de IA desplegados públicamente se deben a alucinaciones. Estas no solo son comunes, sino que además suelen ser difíciles de detectar, porque los modelos presentan esas respuestas con un alto grado de confianza. Esto puede confundir fácilmente a los usuarios, especialmente si no tienen el conocimiento necesario para evaluar la veracidad de lo que están leyendo.

La evaluación se llevó a cabo con el marco Phare, que analiza el rendimiento de los modelos a través de varias etapas: recolección de contenido auténtico y representativo, creación de ejemplos de prueba, revisión humana para asegurar la calidad y, finalmente, evaluación del comportamiento de los modelos. Dentro del módulo de alucinación, se valoraron cuatro tareas clave: la precisión factual, la capacidad para resistirse a la desinformación, la habilidad para desmentir bulos o teorías conspirativas, y la fiabilidad en el uso de herramientas externas como bases de datos o APIs.

Un aspecto especialmente relevante que destaca el estudio es la desconexión entre popularidad y fiabilidad. Es decir, que los modelos más valorados por los usuarios en términos de experiencia de uso no siempre son los más precisos en cuanto a la información que generan. Esto sugiere que una buena interacción no garantiza una buena calidad factual, y que es necesario avanzar en métricas que evalúen la veracidad con más rigor.

En conclusión el estudio muestra que las alucinaciones son un problema estructural de los modelos actuales y que su impacto es especialmente delicado en contextos donde la precisión es crítica, como la medicina, el derecho o la educación. Por ello, el artículo concluye que identificar y reducir estos errores debe ser una prioridad para mejorar la seguridad y fiabilidad de los modelos de lenguaje de gran escala.

La inteligencia artificial confirma que La Madonna de la Rosa no fue pintada únicamente por Rafael

BGR Staff. “AI Confirmed a Raphael Masterpiece Wasn’t Painted by the Famous Artist Alone.BGR, May 1, 2025. https://bgr.com/tech/ai-confirmed-a-raphael-masterpiece-wasnt-painted-by-the-famous-artist-alone/

Un análisis reciente utilizando inteligencia artificial ha confirmado que la famosa pintura Madonna della Rosa, atribuida a Rafael, no fue realizada exclusivamente por el maestro renacentista. Investigadores del Reino Unido y Estados Unidos emplearon un algoritmo personalizado, basado en la arquitectura ResNet50 de Microsoft y técnicas de aprendizaje automático, para analizar detalladamente las características estilísticas de la obra. Este estudio reveló que, aunque tres de los rostros en la pintura coinciden con el estilo de Rafael, el rostro de San José, ubicado en la esquina superior izquierda, presenta diferencias significativas, lo que sugiere que fue pintado por otro artista, posiblemente uno de sus colaboradores cercanos.

La pintura, realizada entre 1518 y 1520, ha sido objeto de debate desde mediados del siglo XIX respecto a su autoría completa. Aunque la inteligencia artificial no puede identificar con certeza al autor del rostro de San José, su análisis proporciona una nueva perspectiva sobre la colaboración en obras maestras del Renacimiento

Este estudio destaca cómo las herramientas modernas de inteligencia artificial pueden ofrecer datos valiosos en el campo del análisis artístico, permitiendo una comprensión más profunda de las técnicas y colaboraciones en obras históricas.

¿Por qué ChatGPT utiliza frecuentemente la palabra ¿delve»?: explorando las fuentes de sobrerrepresentación léxica en grandes modelos lingüísticos

Juzek, T. S., & Ward, Z. B. (2024). Why does ChatGPT “delve” so much? Exploring the sources of lexical overrepresentation in large language models [Preprint]. arXiv. https://arxiv.org/abs/2412.11385

El investigador Jeremy Nguyen, de la Universidad de Tecnología Swinburne (Australia), ha calculado que delve ya aparece en más del 0,5% de los estudios médicos, cuando antes de ChatGPT no llegaba al 0,04%. La sobrerrepresentación léxica causada por los LLMs es un fenómeno real y relevante para el futuro del lenguaje científico. Entender sus causas es clave para usar estos modelos de manera más consciente y crítica.

El inglés científico está cambiando rápidamente. Palabras como “delve” (profundizar), “intricate” (complejo) o “underscore” (destacar) aparecen mucho más en los textos científicos actuales que hace unos años. Muchas personas creen que este cambio se debe al uso generalizado de modelos de lenguaje de gran escala (LLMs) como ChatGPT para escribir artículos académicos. Este estudio busca entender por qué ocurre este fenómeno, al que los autores llaman «sobrerrepresentación léxica» (lexical overrepresentation): ¿por qué ciertas palabras se usan demasiado en los textos generados con IA?

Para ello, los autores diseñaron un método formal y transferible para detectar qué palabras han aumentado notablemente su frecuencia en textos científicos, especialmente en resúmenes de artículos. Usando esta metodología, identifican 21 palabras clave cuya aparición frecuente probablemente se debe al uso de LLMs.

Una vez identificadas esas palabras, surge la gran pregunta del artículo:
¿Por qué los modelos como ChatGPT tienden a usar tanto esas palabras concretas?

Los autores exploran varias posibles causas:

  • ¿Es culpa de la arquitectura del modelo o del algoritmo usado?
    No encuentran evidencia de que el diseño técnico del modelo explique el uso excesivo.
  • ¿Se debe al tipo de datos con los que se entrena el modelo?
  • ¿Influye el aprendizaje por refuerzo con retroalimentación humana (RLHF)?

El estudio muestra que los LLMs están influyendo de forma clara en el lenguaje científico actual, incluso generando modas lingüísticas. Sin embargo, todavía no está claro por qué ciertas palabras sean usadas en exceso.

Este fenómeno plantea riesgos, porque puede dar lugar a un lenguaje académico artificial, repetitivo o menos preciso. Además, los autores alertan de que la falta de transparencia en el desarrollo de los modelos de IA limita la investigación sobre cómo y por qué ocurren estos cambios.

Litmaps:  herramienta IA para visualizar y rastrear la evolución de la investigación académica a través de mapas de citas.

Litmaps

Acceder

Litmaps es una solución innovadora para gestionar el conocimiento académico, descubrir nuevas conexiones entre investigaciones y mantener al día el seguimiento de publicaciones recientes. Ideal tanto para estudiantes como para investigadores consolidados, su uso puede marcar la diferencia a la hora de elaborar una revisión exhaustiva, preparar un artículo o simplemente organizar la información científica de manera visual y eficaz.

Litmaps es una herramienta digital diseñada para ayudar a investigadores, académicos y estudiantes a explorar, visualizar y gestionar literatura científica de manera más eficiente. Su principal utilidad radica en la creación de mapas conceptuales interactivos que muestran visualmente cómo están conectados diferentes artículos académicos mediante citas y referencias. Esto permite comprender la evolución de un campo de estudio y detectar relaciones clave entre investigaciones que, de otro modo, podrían pasar desapercibidas.

Una de sus funciones más destacadas es el descubrimiento automático de literatura relacionada. A partir de los artículos que el usuario incorpora en su mapa, Litmaps sugiere nuevas publicaciones relevantes, lo que facilita la ampliación de la revisión bibliográfica sin necesidad de realizar múltiples búsquedas manuales en distintas bases de datos. Además, ofrece la posibilidad de seguir temas de interés, de manera que se reciben notificaciones cuando se publican trabajos nuevos sobre el área específica que se está investigando.

Litmaps también permite organizar la información de forma clara. Los usuarios pueden agrupar artículos por temas, añadir etiquetas y notas personalizadas, lo que resulta especialmente útil para estructurar trabajos académicos como tesis, artículos científicos o presentaciones. Otra ventaja importante es su función colaborativa: los mapas pueden compartirse con otros investigadores o compañeros de equipo, lo que facilita el trabajo en grupo y la coordinación en proyectos conjuntos.

Esta plataforma funciona directamente desde el navegador y es compatible con herramientas como Zotero, Mendeley o archivos BibTeX, lo que permite importar bibliografía con facilidad. Litmaps ofrece una versión gratuita con funciones básicas y opciones de pago que habilitan características más avanzadas como mapas ilimitados o descubrimiento extendido.

Ninguna IA supo predecir que Prevost iba a ser el nuevo Papa de la Iglesia Católica

Un artículo de Euronews analizó las predicciones de diversos chatbots de inteligencia artificial sobre quién sería el próximo Papa tras el fallecimiento de Francisco. Modelos como ChatGPT, Gemini, Grok-2 y DeepSeek fueron consultados para conocer sus opiniones sobre el sucesor del Pontífice. Aunque como vemos las IA no pueden predecir eventos futuros con certeza, aunque sus respuestas ofrecen una visión interesante sobre las tendencias actuales en la Iglesia Católica

La mayoría de las IA consultadas antes del cónclave apostaban por otros cardenales, como Pietro Parolin, Luis Antonio Tagle o Matteo Zuppi . La sorpresa fue aún mayor porque Prevost, un agustino estadounidense de 69 años con una carrera misionera en Perú, tenía una probabilidad estimada de apenas el 2% en los mercados de predicción

Según los chatbots, el cardenal filipino Luis Antonio Tagle era uno de los favoritos para asumir el papado. Su perfil destacaba por su juventud, su apoyo al Papa Francisco y su proyección internacional. Sin embargo, algunos modelos señalaron que su edad podría ser un factor en contra para asumir un cargo de tanta responsabilidad.

Otro nombre que dieron las predicciones fue el del cardenal italiano Pietro Parolin, actual Secretario de Estado del Vaticano. Su experiencia administrativa y diplomática lo posicionaban como un candidato sólido para liderar la Iglesia en tiempos de desafíos institucionales.

Además de estos dos, otros cardenales como Matteo Zuppi, Jean-Claude Hollerich y Jean-Marc Aveline también fueron mencionados por las IA como posibles sucesores. Cada uno con características podrían contribuir a una visión renovada o continuista de la Iglesia.

En conclusión, se puede decir que aunque la inteligencia artificial puede analizar datos y tendencias, no fue capaz de predecir con precisión la elección de Robert Prevost como Papa. Su elección fue una sorpresa para muchos, incluidos los sistemas de IA.

Informe de la Oficina de Copyright de EE. UU. sobre Inteligencia Artificial y Derechos de Autor

U.S. Copyright Office. 2025. Copyright and Artificial Intelligence. Washington, D.C.: U.S. Copyright Office. https://www.copyright.gov/ai/

Desde principios de 2023, la Oficina de Copyright de EE. UU. ha estado analizando los desafíos legales y políticos que plantea la inteligencia artificial (IA), especialmente en relación con los derechos de autor sobre obras generadas por IA y el uso de materiales protegidos en el entrenamiento de estos sistemas. Tras realizar sesiones públicas y seminarios, en agosto de 2023 publicó una convocatoria de comentarios en el Federal Register, que recibió más de 10.000 aportaciones hasta diciembre.

Como resultado, la Oficina está publicando un informe dividido en varias partes, bajo el título Copyright and Artificial Intelligence, que analiza estos temas:

  • Parte 1 (publicada el 31 de julio de 2024): aborda las réplicas digitales.
  • Parte 2 (publicada el 29 de enero de 2025): examina la posibilidad de otorgar derechos de autor a los productos generados mediante IA generativa.
  • Parte 3 (versión preliminar publicada el 9 de mayo de 2025): responde a preguntas del Congreso y al interés de distintos actores. Se espera una versión final próximamente, sin cambios sustanciales.

43ª Feria del Libro de Salamanca con Isabel Sánchez Fernández. Planeta Biblioteca 2025/05/10

43ª Feria del Libro de Salamanca con Isabel Sánchez García.

Planeta Biblioteca 2025/05/10

ESCUCHAR

Descargar

En este programa especial, conversamos con Isabel Sánchez Fernández, una de las responsables de la organización de la 43ª Feria del Libro de Salamanca, que se celebrará del 10 al 18 de mayo en la Plaza Mayor. Isabel nos ofrece una visión en profundidad del evento, destacando el homenaje a Carmen Martín Gaite con motivo del centenario de su nacimiento, la conferencia inaugural a cargo de Charo Alonso y una programación que combina literatura, música, exposiciones y actividades para todos los públicos.

A lo largo del episodio, exploramos cómo se ha estructurado la feria, qué papel juegan las librerías, editoriales y bibliotecas municipales, y cómo se fomenta la lectura entre escolares y jóvenes lectores. También repasamos algunas de las propuestas más esperadas, como los encuentros con autores, las firmas de libros y los espectáculos en directo.

Una conversación que muestra el enorme esfuerzo personal de Isabel y colectivo de trabajadores de la Biblioteca Torrente Ballester detrás de uno de los eventos culturales más importantes de Salamanca, y que invita a vivir el libro más allá de sus páginas.

 El cuarteto salmantino Sin sentido nos presenta «Alguien donde Volver». Viviendo en la era pop 2025/05/09

El cuarteto salmantino Sin sentido nos presenta «Alguien donde Volver»

Viviendo en la era pop 2025/05/09

ESCUCHAR

Descargar

El cuarteto salmantino «Sin Sentido» vuelve a la carga con un nuevo trabajo discográfico bajo el brazo. Se trata de Alguien donde volver, un disco que marca una nueva etapa para esta banda de rock local, conocida por su energía en directo y unas letras que combinan lo íntimo con lo combativo. Tras sus dos primeros álbumes, A destiempo (2014) y Que nos odien los poetas (2016), el grupo nos muestra en esta ocasión una evolución tanto sonora como emocional.