Archivo de la categoría: Noticias

El mercado editorial estadounidense se mantiene estable en el primer semestre de 2025

U.S. Book Market Holds Steady in the First Half of 2025: Results and Highlights

https://www.circana.com/

Según los últimos datos de Circana BookScan, el mercado de libros impresos en EE. UU. se mantuvo estable durante el primer semestre de 2025, aunque se registró una ligera desaceleración en mayo y junio.

Las ventas de libros impresos cayeron un 1 % en comparación con el mismo período de 2024. Más de la mitad (53 %) de la caída corresponde a la no ficción para adultos y un tercio (33 %) a la ficción para adultos. Entre las causas destacan la ausencia de eventos promocionales que sí ocurrieron en 2024 y una normalización en el volumen de ventas de ficción para adultos.

Segmento adulto y juvenil:

  • No ficción para adultos: Es el segmento con peor desempeño, con una caída de 3 millones de ejemplares respecto al año anterior. Las biografías son las más afectadas, mientras que los libros de autoayuda y las biblias muestran buenos resultados. El libro más vendido del semestre fue The Let Them Theory de Mel Robbins, con 1,8 millones de copias.
  • Ficción para adultos: Aunque ha sido un segmento fuerte en años anteriores, las ventas bajaron casi 1 millón de unidades. La mayor caída fue en fantasía, en gran parte por la comparación con el éxito de la serie ACOTAR de Sarah J. Maas en 2024. Sin contar a Maas, las ventas de ficción adulta suben un 3 % (2,7 millones de unidades).
  • Juvenil (Young Adult): Las ventas se mantienen estables. Sin el impulso del nuevo precuela de Los Juegos del Hambre de Suzanne Collins, el sector habría caído un 10 %.

Segmento infantil:

  • No ficción infantil: Las ventas se mantienen estables y superan a las de ficción infantil, que bajaron un 1 %. Los libros de actividades y los educativos (matemáticas, lengua, ortografía) impulsan el crecimiento.
  • Por edades: Los libros para bebés lideran el crecimiento, con un aumento del 11 % gracias a marcas como Bluey y Ms. Rachel. El grupo más afectado es el de lectores de grado medio, con una caída de 1 millón de ejemplares.

A diferencia del segmento adulto, el mercado infantil no se vio afectado por la desaceleración de mayo y junio, manteniéndose estable en esos meses.

Evaluación de 8 chatbots de inteligencia artificial

Caswell, Amanda. “I Tested 8 AI Chatbots for Our First Ever AI Madness — and This Is the Surprise Winner.” Tom’s Guide, marzo‑abril 2025.

Texto completo

En marzo de 2025, el medio tecnológico Tom’s Guide organizó una competencia llamada “AI Madness”, una especie de torneo eliminatorio inspirado en los brackets deportivos, para evaluar y comparar ocho de los chatbots de inteligencia artificial más avanzados del momento.

La periodista Amanda Caswell fue la encargada de probar cada modelo en múltiples rondas, utilizando una serie de prompts reales que abarcaban seis criterios clave: precisión factual, creatividad, utilidad, capacidades multimodales, experiencia de usuario e interfaz, y velocidad de respuesta.

En la primera ronda, ChatGPT (de OpenAI) venció a Perplexity.ai gracias a su equilibrio entre creatividad, profundidad y claridad. Gemini, el chatbot de Google, superó a Mistral por ofrecer una lógica más ordenada y explicaciones más didácticas. Una de las mayores sorpresas fue que Grok, el modelo de xAI desarrollado por Elon Musk, derrotó a Claude (de Anthropic), al mostrar respuestas más completas y accesibles para usuarios generales. Finalmente, DeepSeek, una plataforma emergente de origen chino, logró imponerse a Meta AI destacando por su tono conversacional, precisión técnica y versatilidad temática.

En las semifinales, Gemini se enfrentó a ChatGPT en una ronda muy reñida. Aunque ambos ofrecieron un alto nivel de rendimiento, Gemini destacó por estructurar mejor las respuestas y adaptarse a distintos tipos de consultas, como explicaciones académicas, planificación de menús y diseños de bases de datos. DeepSeek, por su parte, logró derrotar a Grok al demostrar una mayor profundidad analítica y un estilo más claro, manteniendo a la vez un enfoque conversacional eficaz.

La final del torneo fue entre Gemini y DeepSeek. Aunque Gemini mantuvo un nivel alto de desempeño, DeepSeek logró brillar en la mayoría de las tareas propuestas, entre ellas la resolución de problemas reales, la explicación de conceptos para diferentes edades, y la creatividad narrativa. El modelo combinó razonamiento avanzado con un lenguaje claro y accesible, superando las expectativas del jurado. Como resultado, DeepSeek fue proclamado ganador absoluto del torneo AI Madness 2025.

Un factor diferencial que explica el rendimiento sobresaliente de DeepSeek fue su enfoque de entrenamiento. A diferencia de muchos modelos que dependen principalmente del aprendizaje supervisado, DeepSeek-R1 utiliza aprendizaje por refuerzo (reinforcement learning), lo que le permite mejorar su capacidad de razonamiento y reflexión con menos intervención humana. Esto le otorga mayor autonomía y eficiencia a la hora de generar respuestas coherentes y detalladas en tiempo real.

Alfabetización en Inteligencia Artificial en enseñanza primaria

Yim, Iris Heung Yue, y Jiahong Su. “Artificial Intelligence Literacy Education in Primary Schools: A Review.” International Journal of Technology and Design Education 2025. https://doi.org/10.1007/s10798-025-09979-w

La educación en alfabetización sobre inteligencia artificial (IA) dirigida a estudiantes de educación primaria ha cobrado relevancia en el siglo XXI, ante la omnipresencia de tecnologías como asistentes de voz y contenidos generados por IA. No obstante, existe una clara carencia de estudios basados en evidencias que definan qué contenidos, marcos teóricos y prácticas pedagógicas son apropiados para esta etapa educativa .

Este artículo presenta una revisión sistemática de 25 estudios empíricos centrados en primaria, obtenidos a través de búsquedas en Scopus y Web of Science hasta marzo de 2024. La revisión describe cómo la alfabetización en IA abarca múltiples competencias: desde la interacción y colaboración con sistemas de IA, hasta el pensamiento computacional, la alfabetización crítica de datos y la ética de la IA

Los marcos teóricos predominantes identificados incluyen el construccionismo, el constructivismo y el modelo educativo ARCS (Atención, Relevancia, Confianza y Satisfacción). En términos de estrategias pedagógicas, las investigaciones utilizan metodologías constructivistas, aprendizaje basado en proyectos, programación y actividades de interacción humano-agente, combinadas con herramientas de aprendizaje asistido por IA (como agentes inteligentes)

Las evaluaciones de los programas emplean métodos mixtos (encuestas, entrevistas y análisis de artefactos diseñados por estudiantes), revelando impactos positivos en los planos académico, afectivo y conductual, además de manifestarse una alta satisfacción con los cursos.

Finalmente, la revisión aporta direcciones futuras importantes: se sugiere ampliar enfoques pedagógicos innovadores (por ejemplo, mediante metodologías artísticas), incorporar más estudios longitudinales, explorar diferencias de género y contexto cultural, y profundizar en las implicaciones éticas y sociales para lograr una alfabetización en IA más inclusiva y crítica .

Bots de IA atacan y colapsan la biblioteca universitaria de Carlina del Norte

Panitch, Judy. 2025. “Library IT vs. the AI bots.University Libraries News, June 9, 2025. https://library.unc.edu/news/library-it-vs-the-ai-bots/

Una reciente oleada de bots de inteligencia artificial irrumpió en los sistemas informáticos de las bibliotecas de la Universidad de Carolina del Norte, provocando una grave interrupción de sus servicios. Estos bots automatizados enviaron de forma simultánea miles de solicitudes al catálogo en línea, lo que sobrepasó la capacidad de los servidores. Como consecuencia, el acceso de los usuarios humanos al sistema quedó limitado o bloqueado durante el incidente, afectando seriamente la operatividad digital de la biblioteca.

Lo abrí y lo vi pasar en la pantalla, como en una película de hackers. Las peticiones volaban, miles por minuto. Y empezamos a notar patrones extraños.

Jason Casden

La magnitud del problema no fue evidente de inmediato. Los bots lograron evadir los sistemas básicos de detección, y su actividad no fue reconocida hasta que el sistema empezó a ralentizarse drásticamente. Su comportamiento fue descrito como técnicamente sofisticado, pero ineficiente desde el punto de vista del uso de recursos. Una vez identificado el patrón anómalo, el equipo de tecnología de la información tuvo que intervenir rápidamente para implementar medidas de contención.

Aunque el ataque no tenía una intención maliciosa directa, su impacto fue comparable al de un ataque de denegación de servicio (DDoS). Los bots estaban diseñados para extraer masivamente información del catálogo con el fin de alimentar modelos de inteligencia artificial, lo que generó una carga excesiva en los sistemas. Este fenómeno plantea una amenaza creciente para los archivos digitales y colecciones en línea de instituciones culturales y académicas.

El caso de UNC no es aislado. Instituciones culturales de todo el mundo —incluidas bibliotecas, archivos y museos— están reportando incidentes similares. Estos entornos, comúnmente conocidos por el acrónimo GLAM (Galleries, Libraries, Archives, and Museums), han observado un patrón creciente de tráfico automatizado que compromete su estabilidad tecnológica. El fenómeno sugiere una tendencia global asociada al entrenamiento no regulado de modelos de IA mediante el rastreo de fuentes abiertas.

Frente a este desafío, muchas instituciones están adoptando medidas técnicas para frenar el acceso automatizado, como la modificación de archivos robots.txt, el bloqueo de direcciones IP sospechosas, el uso de CAPTCHAs o la implementación de cortafuegos externos. No obstante, estas defensas generan tensiones con los principios de acceso abierto. La necesidad de proteger los sistemas puede entrar en conflicto con la misión de las bibliotecas de garantizar un acceso equitativo y sin barreras a la información.

Además de las implicaciones éticas, estos ataques automatizados suponen costos reales. Las bibliotecas se ven obligadas a destinar más recursos a la gestión de incidentes, a reforzar su infraestructura digital y, en algunos casos, a asumir mayores tarifas de servicios tecnológicos. Todo ello impacta negativamente en la sostenibilidad operativa de estas instituciones, especialmente aquellas con presupuestos limitados.

En respuesta, la comunidad GLAM está explorando soluciones colectivas. Algunas propuestas incluyen el desarrollo de APIs controladas para permitir un acceso legítimo a los datos sin sobrecargar los sistemas, así como mejoras en los mecanismos de exclusión de bots. Sin embargo, se reconoce que la solución definitiva requiere coordinación a mayor escala. Una combinación de regulación, acuerdos con desarrolladores de IA y colaboración entre bibliotecas e instituciones será clave para proteger los recursos digitales en el futuro próximo.

Las 5 dimensiones de la alfabetización en IA

Ascione, Laura. 2025. “The 5 Dimensions of AI Literacy.” eCampus News, abril 30, 2025. https://www.ecampusnews.com/ai-in-education/2025/04/30/the-5-dimensions-of-ai-literacy/

El artículo propone un modelo integral para entender la alfabetización en inteligencia artificial (IA) más allá del simple uso técnico; señala que estas cinco dimensiones son esenciales para cualquier persona que interactúe con IA en entornos educativos, laborales o cotidianos.

  1. Conciencia y comprensión básica de la IA
    Se trata del conocimiento fundamental: entender los conceptos básicos de IA, cómo funcionan los algoritmos, sus posibilidades y limitaciones. Esta dimensión habilita a los usuarios a identificar cuándo una herramienta utiliza IA y distinguir entre usos correctos y excesivos.
  2. Uso práctico en contextos profesionales
    En esta dimensión, la alfabetización implica saber aplicar IA en tareas reales del día a día: generación de contenido, análisis de datos, automatización de flujos de trabajo. No basta con conocer la IA; hay que saber integrarla eficazmente en procesos laborales o educativos.
  3. Pensamiento estratégico sobre IA
    Aquí se eleva la comprensión al nivel de planificación: evaluar cuándo es apropiado usar IA, diseñar soluciones basadas en IA o supervisar proyectos que la involucren. Implica habilidades para liderar iniciativas que incluyan IA dentro de una organización o aula.
  4. Reflexión ética y crítica
    Los usuarios deben reconocer riesgos como sesgos algorítmicos, problemas de privacidad o dependencia tecnológica. Esta dimensión promueve la evaluación de impacto ético, el diseño responsable y una actitud crítica hacia los contenidos generados por IA.
  5. Ciudadanía digital y participación informada
    La alfabetización en IA también tiene un componente social y cívico. Incluye competencias para interactuar de forma informada en debates públicos, participar en decisiones sobre regulación y colaborar para garantizar un desarrollo de IA inclusivo y justo.

Competencias

Este marco de cinco dimensiones ofrece una visión robusta y multidimensional de la alfabetización en IA. No se trata solo de aprender a usar herramientas; es fundamental formar una ciudadanía crítica, profesional y estratégica en un mundo donde la IA es omnipresente.

Dimensión 1: Comprender la IA y los datos; ¿cómo funciona la IA?

Nivel de competencia 1: Conocimiento y datos de la IA
Nivel de competencia 2: IA y datos en acción
Nivel de competencia 3: Optimización de la IA y los datos


Dimensión 2: Pensamiento y juicio críticos

  • Nivel de competencia 1: Cuestionar los resultados de la IA
  • Nivel de competencia 2: Evaluar los resultados de la IA
  • Nivel de competencia 3: Cuestionar los resultados de la IA

Dimensión 3: Uso ético y responsable

  • Nivel de competencia 1: Comprender los riesgos
  • Nivel de competencia 2: Aplicar prácticas responsables
  • Nivel de competencia 3: Dar forma a prácticas responsables

Dimensión 4: Centricidad humana, inteligencia emocional y creatividad

  • Nivel de competencia 1: Conciencia de la interacción entre el ser humano y la IA
  • Nivel de competencia 2: La IA como herramienta de colaboración
  • Nivel de competencia 3: Desarrollar prácticas de IA centradas en el ser humano

Dimensión 5: Experiencia en el dominio

  • Nivel de competencia 1: Conocimiento aplicado de la IA
  • Nivel de competencia 2: Aplicación de la IA en contextos profesionales
  • Nivel de competencia 3: Liderazgo estratégico en IA

Cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico

Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (Article 1121, pp. 1–22). ACM. https://doi.org/10.1145/3706598.3713778

Se analiza cómo la inteligencia artificial generativa (GenAI) influye en el pensamiento crítico de los trabajadores del conocimiento. El estudio parte de una preocupación creciente: si bien las herramientas de IA pueden mejorar la productividad, también podrían reducir el esfuerzo cognitivo y la capacidad de juicio crítico de los usuarios.

Para investigarlo, los autores realizaron una encuesta a 319 trabajadores del conocimiento, quienes proporcionaron un total de 936 ejemplos de cómo utilizan GenAI en su trabajo cotidiano.

Los resultados cuantitativos revelan una correlación preocupante: cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico. En cambio, quienes tienen más confianza en sus propias capacidades tienden a mantener un mayor nivel de evaluación crítica, incluso cuando emplean sistemas de IA. Estos hallazgos sugieren que la actitud del usuario frente a la tecnología influye significativamente en el nivel de verificación, análisis y control aplicado al contenido generado por IA.

En el análisis cualitativo, los investigadores identificaron tres dimensiones clave en las que los participantes reportaron cambios en su pensamiento crítico: la verificación de la información, la integración de respuestas y la supervisión de tareas. Algunos usuarios mencionaron que se volvieron más pasivos al aceptar las respuestas generadas por GenAI, mientras que otros afirmaron que la IA los impulsaba a contrastar fuentes, reinterpretar ideas o asumir un rol más reflexivo. Sin embargo, muchos reconocieron una reducción en el esfuerzo cognitivo necesario para resolver tareas complejas.

A partir de estos hallazgos, los autores advierten sobre el riesgo de que las herramientas GenAI refuercen hábitos mentales pasivos si no se diseñan cuidadosamente. Proponen que los diseñadores de interfaces incluyan elementos que fomenten la reflexión, la verificación de datos y la transparencia en los procesos algorítmicos. También destacan la importancia de promover una interacción más crítica y activa entre humanos y máquinas para evitar una dependencia acrítica de la tecnología.

En suma, el estudio proporciona una primera evidencia empírica sobre cómo las herramientas de IA generativa pueden estar moldeando el juicio y la capacidad crítica de los profesionales, tanto positiva como negativamente. Sus implicaciones son relevantes no solo para diseñadores de software, sino también para responsables de formación y políticas de implementación tecnológica en el ámbito laboral.

La narración de historias personales como fuente de conocimiento. La mujer en Morille por Claudia Vaca y Verónica Lis

La mujer en Morille por Claudia Vaca y Veranika Lis

La narración de historias personales representa una forma fundamental de conocimiento que trasciende la mera transmisión de información para convertirse en un vehículo de comprensión profunda del mundo y de nosotros mismos. Claudia Vaca y Verónica Lis, con este trabajo —que incluye entrevistas—buscan reflejar cómo era la vida en un municipio salmantino hace 30 años

Las historias personales funcionan como contenedores de experiencia vivida que preservan no solo los hechos, sino también el contexto emocional, cultural y social en el que ocurrieron. Cuando alguien narra su experiencia de migración, por ejemplo, no solo comunica datos sobre desplazamiento geográfico, sino que transmite conocimiento sobre adaptación, pérdida, esperanza y transformación identitaria que ningún manual académico podría capturar con la misma riqueza.

Esta forma de conocimiento posee características únicas. Es encarnado, surgiendo de la experiencia directa del narrador con el mundo. Es contextual, arraigado en circunstancias específicas de tiempo, lugar y cultura. Es relacional, creando conexiones entre el narrador y quien escucha. Y es transformativo, tanto para quien cuenta como para quien recibe la historia.

El proceso de narrar historias personales implica una construcción activa de significado. No simplemente recordamos eventos; los reorganizamos, los interpretamos y les damos coherencia narrativa. Esta construcción no es falsificación, sino un proceso natural de creación de sentido que revela verdades más profundas sobre la condición humana.

En términos epistemológicos, las historias personales ofrecen acceso a formas de conocimiento que otros métodos no pueden proporcionar. Nos permiten comprender cómo se vive una experiencia desde adentro, cómo se siente navegar ciertas circunstancias, qué significados emerge de eventos particulares. Este conocimiento experiencial complementa y enriquece el conocimiento abstracto o teórico.

Recoger y narrar historias personales también funcionan como puentes entre lo individual y lo colectivo. Una historia personal sobre discriminación, por ejemplo, puede iluminar patrones sociales más amplios, mientras que simultáneamente preserva la singularidad de la experiencia individual. Esta tensión entre lo particular y lo universal es una de las fuentes más ricas del conocimiento narrativo.

En contextos educativos, terapéuticos y comunitarios, las historias personales se han reconocido como herramientas poderosas para el aprendizaje y la sanación. Permiten a las personas procesar experiencias, construir identidad, desarrollar empatía y crear conexiones significativas con otros.

La validez de este tipo de conocimiento no reside en su capacidad de generalización estadística, sino en su capacidad para revelar aspectos auténticos de la experiencia humana que de otra manera permanecerían invisibles. Las historias personales nos recuerdan que el conocimiento no es solo información, sino sabiduría vivida que se transmite de persona a persona a través del acto ancestral de contar y escuchar.

El fin de Internet tal y como lo conocemos: la IA en Comet y Operator

Olinga, Luc. “The End of the Internet As We Know It.” Gizmodo, 9 de julio de 2025. https://gizmodo.com/the-end-of-the-internet-as-we-know-it-2000627194

El artículo analiza una transformación radical que está ocurriendo en el mundo digital: la llegada de navegadores web impulsados por inteligencia artificial que pretenden eliminar el modelo tradicional de navegación basado en clics. Esta revolución está liderada por empresas como Perplexity y OpenAI, que buscan desafiar directamente el dominio de Google Chrome y transformar fundamentalmente cómo interactuamos con internet.

La empresa Perplexity ha lanzado oficialmente Comet, un navegador web revolucionario que funciona más como una conversación que como un sistema de navegación tradicional. Este navegador representa un cambio paradigmático, ya que está diseñado para funcionar como ChatGPT pero con capacidades de navegación integradas. Comet promete actuar como un «segundo cerebro» que puede realizar investigaciones activas, comparar opciones, realizar compras, proporcionar resúmenes diarios y analizar información de manera autónoma, todo sin necesidad de que el usuario navegue a través de múltiples pestañas o enlaces.

El concepto detrás de Comet se basa en la evolución de la inteligencia artificial agentiva, un campo de vanguardia donde los sistemas de IA no solo responden preguntas o generan texto, sino que pueden realizar de forma autónoma una serie de acciones y tomar decisiones para lograr los objetivos del usuario. En lugar de requerir que el usuario especifique cada paso, un navegador agéntico busca comprender la intención del usuario y ejecutar tareas de múltiples pasos, funcionando efectivamente como un asistente inteligente dentro del entorno web.

La aparición de Comet representa una confrontación directa con Google Chrome, que durante décadas ha sido el portal dominante que forma cómo miles de millones de personas navegan por la web. Todo el modelo de Chrome está construido para maximizar la interacción del usuario y, por consecuencia, los ingresos publicitarios. Comet está intentando destruir este modelo, desafiando fundamentalmente la economía de internet basada en la publicidad.

OpenAI, la empresa creadora de ChatGPT, también está preparando su propio navegador web impulsado por IA, que podría lanzarse próximamente según reportes de Reuters. Esta herramienta probablemente integrará el poder de ChatGPT con Operator, el agente web propietario de OpenAI. Operator es un agente de IA capaz de realizar tareas de forma autónoma a través de interacciones con el navegador web, utilizando modelos avanzados para navegar sitios web, llenar formularios, realizar pedidos y gestionar otras tareas repetitivas basadas en el navegador.

El diseño de Operator le permite «observar» las páginas web como lo haría un humano, haciendo clic, escribiendo y desplazándose, con el objetivo de manejar eventualmente la «cola larga» de casos de uso digital. Si se integra completamente en un navegador de OpenAI, podría crear una alternativa completa a Google Chrome y Google Search en un movimiento decisivo, atacando a Google desde ambos extremos: la interfaz del navegador y la funcionalidad de búsqueda.

La propuesta de Perplexity es simple pero provocativa: la web debería responder a los pensamientos del usuario, no interrumpirlos. La empresa sostiene que internet se ha convertido en la mente extendida de la humanidad, pero las herramientas para usarla siguen siendo primitivas. En lugar de navegar a través de pestañas infinitas y perseguir hipervínculos, Comet promete funcionar basándose en el contexto, permitiendo a los usuarios pedir comparaciones de planes de seguros, resúmenes de oraciones confusas o encontrar instantáneamente productos que olvidaron marcar como favoritos.

Esta transformación podría significar el fin de la optimización tradicional para motores de búsqueda (SEO) y la muerte de los familiares «enlaces azules» de los resultados de búsqueda. Los navegadores de IA como Comet no solo amenazan a editores individuales y su tráfico, sino que directamente amenazan los fundamentos del ecosistema de Google Chrome y el dominio de Google Search, que depende en gran medida de dirigir a los usuarios a sitios web externos.

Google Search ya ha estado bajo considerable presión de startups nativas de IA como Perplexity y You.com. Sus propios intentos de integración más profunda de IA, como la Experiencia Generativa de Búsqueda (SGE), han recibido críticas por producir a veces «alucinaciones» (información incorrecta) y resúmenes inadecuados. Simultáneamente, Chrome está enfrentando su propia crisis de identidad, atrapado entre tratar de preservar su masivo flujo de ingresos publicitarios y responder a una oleada de alternativas impulsadas por IA que no dependen de enlaces o clics tradicionales para entregar información útil.

Si Comet o el navegador de OpenAI tienen éxito, el impacto no se limitará solo a interrumpir la búsqueda, sino que redefinirá fundamentalmente cómo funciona toda la internet. Los editores, anunciantes, minoristas en línea e incluso las empresas de software tradicionales pueden encontrarse desintermediados por agentes de IA que pueden resumir su contenido, comparar sus precios, ejecutar sus tareas y evitar completamente sus sitios web e interfaces existentes.

Esta transformación representa un nuevo frente de alto riesgo en la guerra por cómo los humanos interactúan con la información y conducen sus vidas digitales. El navegador de IA ya no es un concepto hipotético: es una realidad presente que está redefiniendo el panorama digital tal como lo conocemos.

La IA saca sobresaliente en los exámenes de Derecho

Sloan, Karen. “Artificial Intelligence Is Now an A+ Law Student, Study Finds.” Reuters, 5 de junio de 2025. https://www.reuters.com/legal/legalindustry/artificial-intelligence-is-now-an-law-student-study-finds-2025-06-05/.

Un estudio reciente realizado por la Universidad de Maryland ha revelado que la última generación de inteligencia artificial generativa, específicamente el modelo o3 de OpenAI, es capaz de obtener calificaciones sobresalientes en los exámenes finales de la Facultad de Derecho Francis King Carey. Este modelo alcanzó calificaciones que van desde A+ hasta B en ocho exámenes de primavera evaluados por profesores de la universidad. Estas calificaciones representan una mejora significativa en comparación con versiones anteriores de ChatGPT, que en estudios previos habían obtenido calificaciones de B, C e incluso D en exámenes similares realizados en 2022 y 2023.

A diferencia de ChatGPT, que genera respuestas de manera inmediata en función de las consultas del usuario, o3 es un modelo de razonamiento. Esto significa que evalúa internamente las preguntas, genera respuestas tentativas y múltiples enfoques, y luego produce el texto final tras un proceso de revisión. Este enfoque le permite abordar problemas legales complejos con mayor precisión y coherencia.

Los resultados obtenidos por o3 en áreas como Derecho Constitucional, Responsabilidad Profesional y Propiedad, donde obtuvo A+, son indicativos de su capacidad para comprender y aplicar principios legales de manera efectiva. Sin embargo, en áreas como Derecho Penal y Procedimientos Penales, donde obtuvo A-, B+ y B, se observan ciertas limitaciones que podrían reflejar la complejidad inherente a estos campos del derecho.

Este avance sugiere que la inteligencia artificial generativa está acercándose al rendimiento de los estudiantes de derecho de alto nivel. No obstante, se destaca que, aunque o3 muestra un rendimiento impresionante, aún existen áreas en las que la intervención humana sigue siendo esencial para garantizar la interpretación adecuada de matices legales y contextuales

Por qué ChatGPT crea citas científicas que no existen

Westreich, Sam. «Why ChatGPT Creates Scientific Citations — That Don’t ExistAge of Awareness, June 4, 2025. https://medium.com/age-of-awareness/why-chatgpt-creates-scientific-citations-that-dont-exist-8978ec973255

Se aborda un fenómeno cada vez más observado en la inteligencia artificial generativa: la creación de referencias bibliográficas falsas o inventadas. Este problema, conocido en la comunidad de IA como “hallucination” (alucinación), consiste en que los modelos de lenguaje como ChatGPT generan respuestas plausibles y estructuradas, pero que no se corresponden con datos reales verificables.

En el caso de las citas científicas, el modelo construye referencias completas que incluyen autores, títulos, años y revistas, pero que no existen en ninguna base de datos académica. Esto ocurre porque la IA no accede directamente a una base de datos específica al generar la respuesta, sino que se basa en patrones probabilísticos aprendidos durante su entrenamiento en grandes corpus textuales.

El fenómeno de la hallucination en modelos de lenguaje ha sido documentado por varios estudios recientes. Por ejemplo, Ji et al. (2023) en su trabajo “Survey of Hallucination in Natural Language Generation” indican que esta tendencia a inventar hechos o detalles es inherente a la forma en que estos modelos predicen palabras en secuencia para maximizar la coherencia textual, pero sin una “conciencia” o acceso en tiempo real a datos verdaderos (Ji et al., 2023, ACM Computing Surveys). Así, el modelo genera lo que “suena correcto” más que lo que es correcto, produciendo con frecuencia referencias falsas, especialmente cuando se le solicita citar fuentes académicas.

El problema de las citas inventadas tiene graves implicaciones en ámbitos científicos y académicos, donde la veracidad y la confiabilidad de las referencias es fundamental para la integridad del conocimiento. Según un artículo publicado en Nature sobre la creciente adopción de IA en la generación de textos académicos, existe preocupación entre investigadores sobre el potencial de estas herramientas para introducir errores difíciles de detectar, que pueden desinformar a estudiantes y profesionales (Nature Editorial, 2024). La confianza que los usuarios depositan en estas IA aumenta el riesgo, dado que una cita bien formada visualmente se asume auténtica, lo que puede propagar información errónea y socavar la credibilidad de trabajos científicos.

Westreich señala que la raíz del problema está en la naturaleza probabilística del entrenamiento del modelo, que aprende a generar texto basado en patrones estadísticos en lugar de verificar hechos. Además, las bases de datos académicas tienen un acceso limitado y no siempre están integradas en los sistemas de generación de lenguaje, lo que impide la validación automática de las citas en tiempo real. Sin embargo, se están explorando soluciones para mitigar este problema. Por ejemplo, la integración de sistemas de búsqueda y recuperación de información en tiempo real (RAG, Retrieval-Augmented Generation) permitiría a los modelos consultar bases de datos académicas fiables durante la generación de texto, reduciendo la producción de referencias falsas (Lewis et al., 2020, NeurIPS).

Otra estrategia recomendada es aumentar la transparencia del modelo, avisando a los usuarios de que las referencias generadas pueden no ser reales y deben ser verificadas independientemente. Instituciones educativas y editoriales también pueden establecer guías para el uso responsable de estas herramientas, fomentando la revisión manual de las citas generadas por IA.

En un análisis crítico más amplio, la producción de citas falsas por IA pone en evidencia la brecha entre la fluidez lingüística y la comprensión real del contenido que tienen estos modelos. Aunque pueden imitar estructuras y formatos, carecen de un sistema de verificación interna que asegure la veracidad. Por ello, investigadores como Bender et al. (2021) advierten que el uso indiscriminado de estas tecnologías sin supervisión puede erosionar la confianza en la información científica y educativa, un problema que debe abordarse con estrategias técnicas, educativas y éticas.

La comunidad científica y tecnológica trabaja para desarrollar métodos que permitan una generación de contenido más responsable, precisa y verificable. Mientras tanto, es imprescindible que los usuarios mantengan un enfoque crítico y verifiquen cualquier referencia proporcionada por estas herramientas, para preservar la integridad académica y evitar la propagación de desinformación.