Expertos ante la desinformación generada por IA

Weikmann, Teresa, Ferre Wouters, Marina Tulin, Michael Hameleers, Claes H. de Vreese, Brahim Zarouali y Michaël Opgenhaffen. 2026. “On the Same Page? Experts Are Mostly, but Not Always Aligned about Disinformation in Times of Generative AI.” Harvard Kennedy School (HKS) Misinformation Review, 3 de marzo de 2026. https://doi.org/10.37016/mr-2020-196

El estudio analiza hasta qué punto los expertos que trabajan en la lucha contra la desinformación comparten una visión común sobre el impacto de la inteligencia artificial generativa en la difusión de información falsa. Para ello, los autores realizaron una encuesta en línea a 92 especialistas europeos —académicos, verificadores de hechos y periodistas— vinculados a redes como el European Digital Media Observatory, una iniciativa impulsada por la Comisión Europea para combatir la desinformación digital.

El objetivo era examinar tres aspectos fundamentales: la percepción de competencia profesional frente a la desinformación generada por IA, la evaluación de los riesgos que plantea para la democracia y la sociedad, y la atribución de responsabilidades para mitigar sus efectos. Los resultados muestran que, aunque existen diferencias en la forma de abordar el problema, los expertos comparten un amplio consenso sobre la gravedad potencial del fenómeno y sobre la necesidad de respuestas coordinadas.

En términos de competencia percibida, la mayoría de los expertos afirma sentirse relativamente preparada para afrontar los desafíos que plantea la desinformación generada mediante inteligencia artificial. Sin embargo, los verificadores de hechos destacan como el grupo más confiado en su capacidad para detectar y analizar contenidos falsos. Esta mayor seguridad se explica en gran medida por su experiencia práctica y por el uso cotidiano de herramientas de verificación y detección digital. Por el contrario, académicos y periodistas muestran niveles de confianza algo menores, aunque aún elevados. Esta diferencia sugiere que la especialización profesional y la familiaridad con tecnologías de verificación influyen significativamente en la percepción de capacidad para enfrentarse a este tipo de amenazas informativas.

En relación con los riesgos asociados a la desinformación generada por IA, el estudio revela un elevado grado de consenso entre los tres grupos analizados. Una gran mayoría de los expertos considera que el principal peligro reside en el aumento de la confusión pública sobre la autenticidad de la información: la proliferación de imágenes sintéticas, deepfakes o textos generados automáticamente puede dificultar cada vez más distinguir entre lo verdadero y lo falso. Además, muchos expertos creen que esta situación puede erosionar el debate democrático al socavar la confianza en las fuentes informativas y en la evidencia visual o textual. No obstante, el análisis también muestra una posición matizada: algunos especialistas advierten que estos temores pueden formar parte de ciclos recurrentes de alarma tecnológica que históricamente acompañan la aparición de nuevas herramientas digitales.

Las divergencias más significativas aparecen cuando se analiza quién debería asumir la responsabilidad de combatir la desinformación generada por inteligencia artificial. Aunque existe un amplio acuerdo en señalar a las grandes plataformas digitales como actores clave —debido a su papel en la distribución masiva de contenidos—, los diferentes grupos profesionales enfatizan responsabilidades distintas. Los verificadores de hechos tienden a atribuir una mayor responsabilidad a las plataformas tecnológicas y también a su propio trabajo como actores especializados en la detección de información falsa. Los académicos, en cambio, destacan con mayor frecuencia el papel de los usuarios de noticias, subrayando la importancia de la alfabetización mediática y del desarrollo de competencias críticas para evaluar la información en línea. Los periodistas, por su parte, se sitúan en una posición intermedia, aunque tienden a expresar una visión más alarmista sobre el impacto potencial de estas tecnologías.

Desde el punto de vista de las políticas públicas, el estudio subraya la importancia de considerar la diversidad de perspectivas existentes entre los expertos que asesoran a las instituciones. Las diferencias observadas no implican necesariamente desacuerdo fundamental, sino que reflejan los distintos enfoques profesionales sobre cómo abordar el problema: algunos privilegian soluciones tecnológicas y regulatorias —como la responsabilidad de las plataformas—, mientras que otros destacan la dimensión educativa y social, centrada en la alfabetización mediática. En conjunto, los resultados sugieren que la lucha contra la desinformación generada por inteligencia artificial requiere un enfoque multidimensional que combine regulación tecnológica, verificación profesional y fortalecimiento de la capacidad crítica de los ciudadanos.

Con Netflix y a lo loco: aprender y entretenerse


Gómez-Díaz, Raquel y Agustín-Lacruz, Carmen. Con Netflix y a lo loco: aprender y entretenerse. Editorial UOC, 2025.

Texto completo

Netflix ocupa un lugar destacado en nuestras conversaciones, nuestro tiempo de ocio y nuestras formas de sociabilidad. Sin embargo, el hecho de ser un fenómeno vinculado al entretenimiento parece restarle importancia y valor «académico». Esta monografía aporta una visión interdisciplinaria y nace del análisis riguroso de las fuentes, la observación de la plataforma y el interés académico de las autoras. Ofrece una mirada holística con un enfoque diacrónico, que permite entender su evolución; un abordaje contextual, para enmarcarla entre las prácticas culturales contemporáneas definidas por lo tecnológico y mediático, y una perspectiva centrada en sus aspectos informativos y documentales, que resaltan sus semejanzas con otros sistemas de información.

Makerspaces y bibliotecas

Alonso-Arévalo, J.. Makerspaces y bibliotecas. Editorial UOC., 2019

Texto completo

Si una palabra define con acierto el mundo de la información, esa es cambio. Las bibliotecas, como parte esencial del ecosistema informativo, están inmersas en un proceso acelerado de transformación de muchos de los valores y conceptos que históricamente han definido qué es una biblioteca. Esta evolución impacta directamente tanto en lo que hacemos como en la manera en que lo hacemos.

En el momento actual, cuando la mayor parte de la información es accesible a través de la red y la biblioteca empieza a perder la exclusividad como uno de los principales proveedores de información para su comunidad, la estrategia fundamental de la biblioteca del siglo XXI consiste en ofrecer aquello que Internet no puede proporcionar: convertirse en un espacio de encuentro para aprender, compartir experiencias y socializar.

De este modo, las bibliotecas más innovadoras —sin renunciar a su esencia— están reimaginando sus espacios para convertirse en lugares convocantes y dinamizadores de sus comunidades. ¡El movimiento maker está en marcha!

Etiquetar en la web social


Gómez-Díaz, Raquel. Etiquetar en la web social. Editorial UOC, 2012.

Texto completo


Gracias a las tecnologías y servicios 2.0, la representación del contenido de los documentos ha pasado de ser una tarea exclusiva del trabajo profesional a ser una actividad realizada por cualquier usuario de internet. Conocer las características, las ventajas y los problemas del etiquetado en la Red ayudará a los usuarios a realizar mejor esta actividad y a los profesionales a aprovechar el trabajo realizado por los usuarios. Esta obra proporciona las claves para etiquetar mejor en la Red y conocer sus posibilidades en distintos servicios de internet, desde sitios de imágenes o vídeos hasta marcadores sociales o aplicaciones para la lectura social.

Fatiga por inteligencia artificial y vocación idealizada: tensiones emergentes en las bibliotecas universitarias

Pasiak, Greyson. “AI Fatigue and Vocational Awe in Academic Libraries.” The Scholarly Kitchen, 4 de marzo de 2026. https://scholarlykitchen.sspnet.org/2026/03/04/guest-post-ai-fatigue-and-vocational-awe-in-academic-libraries/?informz=1&nbd=&nbd_source=informz

El artículo explora un fenómeno emergente en las bibliotecas universitarias: la combinación de fatiga por IA y la cultura profesional conocida como vocational awe, término acuñado por Fobazi Ettarh para describir la visión idealizada de la labor bibliotecaria como una vocación sagrada que exige sacrificio y entrega más allá de lo razonable.

La rápida llegada y expansión de herramientas de inteligencia artificial generativa ha intensificado esta dinámica, pues al mismo tiempo que se espera que el personal adopte y enseñe sobre estas tecnologías, no se ha proporcionado un apoyo institucional adecuado para gestionar la carga de trabajo adicional, las expectativas cambiantes y las implicaciones éticas y de política que conllevan estos sistemas.

La fatiga por IA se describe como una forma de agotamiento mental que surge de la exposición continua a nuevas tecnologías, expectativas de adaptación constante y presión por dominar vocabulario y procedimientos técnicos sin suficiente formación ni recursos. En el contexto de las bibliotecas universitarias, esto se entrelaza con responsabilidades tradicionales —como acceso a información, alfabetización digital, privacidad y equidad— creando una carga laboral que supera las capacidades de muchos trabajadores, lo que puede provocar estrés, desmotivación e incluso agotamiento profesional.

El concepto de vocational awe agrava la situación al enmarcar la adopción de IA como deber moral y profesional, algo que se espera implícitamente de los bibliotecarios en nombre del servicio educativo y comunitario. Se señala que este enfoque puede marginar a quienes no logran “mantener el ritmo”, percibiéndose su resistencia o disgusto como falta de compromiso con la misión institucional. Esta narrativa idealizada también puede oscurecer la necesidad de establecer límites claros, políticas sólidas y estructuras de apoyo que reconozcan tanto la complejidad de la tecnología como el valor del personal humano.

Finalmente, el autor advierte que sin políticas claras, formación adecuada y una conversación honesta sobre la integración ética y sostenible de la IA, las bibliotecas corren el riesgo de perpetuar una cultura laboral insostenible que combina expectativas desmedidas con escasa preparación institucional. La pieza llama a los líderes de bibliotecas a repensar estrategias de implementación de IA que no solo busquen innovación, sino que también prioricen el bienestar del personal, la equidad educativa y la misión de preservar la confianza y accesibilidad a la información.

¿Y si el verdadero riesgo de la IA no es la superinteligencia?

Dominguez, Ruben. “Why the Real AI Risk Isn’t Superintelligence.” The VC Corner, 4 de febrero de 2026. https://www.thevccorner.com/p/what-if-the-real-ai-risk-isnt-superintelligence

Se ofrece una mirada crítica a la narrativa dominante sobre la inteligencia artificial, señalando que el mayor riesgo no reside necesariamente en alcanzar una superinteligencia artificial (ASI), sino en la confianza prematura y la certidumbre excesiva que se está formando acerca de lo que la IA puede y debe hacer.

Tras un crecimiento acelerado desde finales de 2022, la adopción de IA se ha normalizado rápidamente, y se ha pasado de debatir si alcanzará niveles avanzados a discutir cuándo llegará y quién liderará el desarrollo. Esta confianza prematura puede desviar la atención de una comprensión profunda de cómo funcionan los sistemas actuales y de los límites técnicos reales que aún enfrentan.

El texto explica que muchos modelos de IA actuales —basados en grandes modelos de lenguaje— funcionan mediante predicciones estadísticas del lenguaje y no poseen modelos internos duraderos del mundo ni capacidades de razonamiento fiables fuera de contextos familiares. Esto significa que, aunque las mejoras recientes han hecho que los sistemas sean más coherentes y útiles para determinadas tareas, no han transformado de manera fundamental sus mecanismos subyacentes. La escalabilidad de estos sistemas (por ejemplo, mediante modelos más grandes) ha dejado de producir avances cualitativos explosivos, ofreciendo más bien refinamientos en su comportamiento observable.

El artículo también critica cómo la convicción se traduce en asignaciones de capital y prioridades de desarrollo que favorecen la velocidad y la escala sobre la verificación rigurosa de lo que realmente se puede afirmar sobre la tecnología. Los inversores apuestan grandes sumas por miedo a quedar fuera, lo que crea una dinámica donde admitir incertidumbre o retrasos se percibe como una señal de debilidad. Esto, a su vez, puede encerrar al campo tecnológico y político en narrativas de inevitabilidad que reducen el espacio para la exploración crítica y para decisiones informadas basadas en evidencia.

Como conclusión eñl autor señala que el verdadero desafío de este momento no es detener el progreso tecnológico, sino mantener una curiosidad crítica y un enfoque detallado sobre los sistemas reales que estamos construyendo hoy. Al centrarse demasiado en metas distantes como la superinteligencia, podríamos estar subestimando problemas urgentes, pasando por alto fallos y riesgos en sistemas que ya están en uso, y tomando decisiones estratégicas basadas en suposiciones no verificadas. Por eso, el artículo aboga por una discusión más matizada y bien informada sobre la IA, que reconozca tanto sus capacidades actuales como sus limitaciones.

¿Podemos crear una comprensión clara de lo que es y hace la IA agencial?

OECD. “Can we create a clear understanding of what agentic AI is and does?OECD.AI, 3 de marzo de 2026.

El término “agentic AI” se refiere a un tipo de inteligencia artificial que actúa como un agente autónomo. Es decir, no solo responde a órdenes o preguntas, sino que puede tomar decisiones, planificar y ejecutar acciones de manera independiente dentro de ciertos límites.

El informe de la OECD.AI analiza la naturaleza y el alcance de los agentes de IA y la agentic AI, destacando su creciente autonomía y capacidad para interactuar con entornos físicos y virtuales. A medida que estas tecnologías avanzan, están comenzando a convertirse en motores de innovación, inversión y productividad al optimizar procesos y permitir operaciones más eficientes en múltiples sectores. Aunque el concepto de agencia ha sido estudiado durante décadas en filosofía, economía y ciencias de la computación, los avances recientes en IA han ampliado los límites conceptuales, generando la necesidad de definir con precisión qué distingue a un agente de IA de la agentic AI.

El informe subraya que agentes de IA y agentic AI comparten características fundamentales, como la autonomía parcial, la persecución de objetivos y la capacidad de percibir y actuar en su entorno. Sin embargo, existen diferencias clave: los agentes de IA suelen operar de forma individual, realizando tareas específicas y adaptándose a cambios contextuales. Por su parte, la agentic AI está compuesta por múltiples agentes coordinados que pueden descomponer tareas, colaborar y ejecutar objetivos complejos durante períodos prolongados, incluso en entornos impredecibles, con mínima supervisión humana. Esta complejidad adicional permite que la agentic AI funcione en escenarios abiertos y dinámicos, gestionando operaciones más sofisticadas que un agente de IA convencional.

Además, el documento enfatiza que la agentic AI debe entenderse como un paradigma socio-técnico, no como un artefacto puramente técnico. Su valor depende de su interacción con otros agentes de IA, humanos e instituciones, requiriendo coordinación, negociación y comunicación confiable. La adopción de estas tecnologías está creciendo rápidamente, aunque su madurez es desigual, especialmente en aspectos como seguridad, privacidad y precisión. Por ello, se destaca la necesidad de avanzar en sistemas confiables y robustos a la par que crece la capacidad de la agentic AI.

El informe establece una base conceptual para futuras políticas y gobernanza, resaltando que la comprensión del uso real y del impacto de estas tecnologías será clave para implementar estándares, salvaguardas y mecanismos regulatorios adecuados. A medida que los sistemas de agentic AI se vuelven más capaces de coordinar múltiples agentes, ejecutar acciones autónomas y operar durante largos períodos, la claridad conceptual y la evidencia empírica serán esenciales para un desarrollo seguro y responsable.

El papel del profesorado en la universidad del futuro en tiempos de la IA

Gamby, Tanya, David Kil, Rachel Koblic, Paul LeBlanc, Mihnea Moldoveanu, y George Siemens. «The Role of Faculty in the University of the FutureEDUCAUSE Review, 3 de marzo de 2026. https://er.educause.edu/articles/2026/3/the-role-of-faculty-in-the-university-of-the-future

Se plantea que la verdadera transformación de la educación superior en la era de la inteligencia artificial (IA) no consiste en reemplazar a los docentes, sino en liberar su tiempo para enfocarse en lo que solo los humanos pueden ofrecer: construir relaciones significativas, cultivar la sabiduría y guiar a los estudiantes en desafíos éticos e intelectuales que las máquinas no pueden resolver.

El documento subraya que el impacto de un buen docente se percibe no solo en la transmisión de conocimiento, sino en la atención personalizada, la exigencia acompañada de apoyo y la capacidad de inspirar sueños más amplios en sus estudiantes, un fenómeno que la psicología social denomina mattering —la sensación de ser importante para otros— y que se reconoce como un elemento crucial para el desarrollo y la resiliencia.

El artículo destaca que la IA puede actuar como un «asistente docente genial», encargándose de tareas de transferencia de conocimiento y evaluación rutinaria con precisión, disponibilidad continua y objetividad. Esto permite a los docentes concentrarse en la enseñanza de habilidades humanas complejas —comunicación, pensamiento crítico, creatividad y empatía— y en la creación de comunidades de aprendizaje auténticas. Se ejemplifica con profesores que, gracias a sistemas de IA, pueden ofrecer intervenciones altamente personalizadas sin repetir contenidos para toda la clase y transformar el tiempo de aula en un espacio dedicado a la interacción humana profunda y al pensamiento de alto nivel. El modelo del aula invertida, popularizado por Eric Mazur, se potencia con la IA, liberando tiempo para debate, resolución colaborativa de problemas y desarrollo de juicio profesional y ético.

Además, el artículo señala tres requisitos clave para esta evolución: primero, la capacitación docente para colaborar efectivamente con asistentes de IA, guiando su interacción con los estudiantes y sabiendo cuándo intervenir; segundo, la necesidad de redefinir el enfoque de la enseñanza hacia la aplicación crítica y la construcción de habilidades humanas avanzadas; y tercero, cultivar un compromiso relacional profundo con los estudiantes, superando estructuras institucionales y cargas de trabajo que tradicionalmente dificultan la interacción significativa. También se enfatiza que el profesorado desempeña roles de servicio institucional y custodia ética que la IA no puede reemplazar, incluyendo participación en comités, políticas académicas y la promoción de la confianza pública en la ciencia y la evidencia.

Finalmente, el artículo plantea que la IA transforma, pero no sustituye, la labor investigadora. Si bien puede automatizar tareas como búsquedas bibliográficas o procesamiento de datos, la interpretación, el planteamiento de preguntas generativas y el análisis moral y contextual siguen siendo dominios humanos. En un mundo donde la IA impulsará avances en áreas críticas como la medicina, el clima o la tecnología militar, los docentes deben enseñar a los estudiantes a comprender estos avances y liderar debates públicos sobre su uso responsable. La educación superior, así concebida, reafirma su valor social no por competir con la IA en rapidez o escala, sino por cultivar juicio, ética y discernimiento, asegurando que el conocimiento se utilice para promover una sociedad justa y floreciente.

Muestreo verbalizado: el avance decisivo que hace que la IA piense más como los humanos

MKWritesHere, “Verbalized Sampling: The Prompting Breakthrough That Makes AI Think More Like Humans,” Towards AI, 10 de febrero de 2026

Texto completo

Una innovación reciente en prompt engineering llamada Verbalized Sampling (muestreo verbalizado), una técnica diseñada para mejorar la diversidad y espontaneidad de las respuestas generadas por modelos de lenguaje grande (Large Language Models, LLM). El nuevo método de Stanford aumenta la diversidad creativa entre un 160 % y un 210 % en GPT-4, Gemini y modelos de código abierto.

A diferencia de los enfoques tradicionales que piden al modelo una sola respuesta a partir de una instrucción, Verbalized Sampling solicita que el modelo produzca varias respuestas posibles junto con sus probabilidades internas. Esta estrategia —simple de aplicar y sin necesidad de modificar ni reentrenar el modelo— invita al sistema a revelar su distribución interna de posibilidades en lugar de entregar la respuesta más típica o “segura” que domina tras procesos de alineamiento como RLHF (Reinforcement Learning from Human Feedback).

El artículo argumenta que muchos modelos actuales sufren de un problema conocido como mode collapse, en el que, tras el afinamiento para que sean útiles y seguros, tienden a producir respuestas repetitivas, previsibles o demasiado comunes. Este fenómeno se debe, según los autores, a un sesgo de tipicidad en los datos de preferencia humana: los evaluadores humanos tienden a premiar respuestas más familiares y accesibles, y ese criterio termina moldeando las respuestas del modelo. Verbalized Sampling contrarresta este efecto al pedirle explícitamente al modelo que ponga en palabras varias posibles salidas con sus probabilidades, lo que estimula la generación de ideas menos convencionales y más ricas en variedad.

Los impactos prácticos de esta técnica son relevantes en tareas donde la creatividad, la simulación de diálogos humanos o la generación de ideas originales son clave. El artículo menciona que al aplicar Verbalized Sampling, la diversidad de respuestas puede aumentar entre 1,6× y 2,1× en tareas como escritura creativa, chistes, relatos o preguntas abiertas, sin sacrificar precisión ni seguridad. Además, se observa que modelos con mayor capacidad se benefician más de este enfoque, y que la técnica funciona de manera consistente con distintas arquitecturas (GPT-4/4.1, Claude, Gemini, etc.) sin requerir acceso profundo a los parámetros internos o entrenamiento adicional. La idea subyacente es que, al exponer explícitamente el rango de posibles respuestas con sus probabilidades, el modelo “piensa” de una forma que se asemeja más al modo humano de considerar múltiples opciones antes de sintetizar una respuesta.

La edición de las vanidades

La “edición de las vanidades” es una expresión crítica que se utiliza para referirse a la publicación de libros financiados por el propio autor, generalmente a través de una empresa que cobra por editar, imprimir y, en ocasiones, distribuir la obra, sin asumir riesgos económicos ni realizar una verdadera selección editorial.

Se relaciona con lo que en inglés se denomina vanity publishing o vanity press. En este modelo, el autor paga por ver su obra publicada, y la empresa obtiene su beneficio principalmente del pago del escritor, no de la venta del libro al público. Por eso se habla de “vanidades”: el término sugiere que se apela al deseo del autor de verse publicado, más que a la calidad literaria o al potencial comercial de la obra.

La edición de las vanidades se caracteriza, en primer lugar, porque el autor asume los costes completos del proceso editorial. Esto incluye la corrección de estilo, la maquetación, el diseño de cubierta, la obtención de ISBN, la impresión de ejemplares y, en muchos casos, supuestos servicios de promoción y distribución. A diferencia de la edición tradicional, donde la editorial invierte recursos propios con la expectativa de recuperar esa inversión mediante las ventas, en este modelo el negocio se sostiene principalmente gracias al pago inicial del escritor. El ingreso de la empresa no depende tanto del éxito comercial del libro como de la contratación del servicio, lo que altera profundamente la lógica del proceso editorial.

En segundo lugar, no suele existir una selección editorial rigurosa. Mientras que en la edición tradicional los manuscritos pasan por filtros de lectura, valoración literaria y análisis de viabilidad comercial, en la edición de vanidades el criterio principal es la disposición del autor a pagar. Esto implica que prácticamente cualquier obra puede publicarse si el cliente financia el proyecto. La consecuencia es doble: por un lado, el autor puede experimentar la satisfacción de ver su obra impresa; por otro, se diluye el valor del proceso editorial como mecanismo de validación, mejora y acompañamiento crítico del texto.

Otro rasgo central es que el riesgo económico recae completamente en el escritor. Si el libro no se vende, la empresa editora no pierde dinero, ya que su beneficio proviene del pago previo. El autor, en cambio, puede enfrentarse a una inversión considerable sin garantía de retorno. Esta transferencia del riesgo transforma la relación profesional: la editorial deja de actuar como socio estratégico que apuesta por una obra y pasa a ser un proveedor de servicios. En muchos casos, el contrato incluye la compra obligatoria de un número elevado de ejemplares por parte del propio autor, lo que incrementa aún más su exposición financiera.

Asimismo, la distribución suele ser limitada o meramente simbólica. Aunque algunas empresas prometen presencia en grandes plataformas o librerías, en la práctica la visibilidad real del libro suele depender casi exclusivamente del esfuerzo personal del autor. La inclusión en catálogos digitales no siempre implica una estrategia activa de comercialización, y la presencia en librerías físicas puede ser testimonial o condicionada a acuerdos de depósito. Sin una red de distribución consolidada ni una inversión promocional significativa, la obra tiene escasas posibilidades de alcanzar un público amplio.

Es importante no confundir este modelo con la autoedición (self-publishing). En la autoedición, el autor asume también la inversión, pero mantiene el control directo de todo el proceso: elige profesionales independientes, decide la tirada, fija el precio y selecciona las plataformas de venta. No existe necesariamente una empresa que empaquete servicios bajo una marca editorial que simule un proceso de selección. La autoedición puede ser una decisión estratégica consciente, especialmente en el entorno digital, donde plataformas como Amazon KDP u otras permiten publicar con relativa autonomía. En la edición de vanidades, en cambio, suele intervenir una empresa intermediaria que ofrece un “modelo editorial” estructurado, a veces con promesas poco claras sobre distribución y promoción.

La diferencia con la edición tradicional es aún más marcada. En el modelo clásico, la editorial selecciona cuidadosamente los manuscritos, invierte recursos en su producción, asume el riesgo financiero y remunera al autor mediante derechos proporcionales a las ventas. El editor actúa como mediador cultural, garante de calidad y socio comercial. En la edición de vanidades, esa lógica se invierte: no hay inversión por parte de la editorial ni apuesta económica por la obra; es el autor quien paga por publicar y, en muchos casos, recibe regalías menores o poco transparentes pese a haber financiado el proyecto.

El término “edición de las vanidades” tiene, por ello, una connotación históricamente negativa. Se ha asociado con prácticas poco éticas, contratos desequilibrados y expectativas infladas sobre el éxito comercial. No obstante, el panorama editorial contemporáneo es más complejo. Han surgido modelos híbridos o de coedición que intentan ofrecer mayor transparencia en los costes y en los servicios prestados, situándose en un espacio intermedio entre la edición tradicional y la autoedición. Esta diversidad de fórmulas obliga a analizar cada contrato con detenimiento, atendiendo a quién asume el riesgo, cómo se distribuyen los beneficios y qué valor real aporta la empresa editora más allá de la mera impresión del libro.