Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

Declaración de la IFLA sobre los contratos digitales restrictivos a los derechos y funciones esenciales de las bibliotecas.

International Federation of Library Associations and Institutions (IFLA). Time to Stop the Undermining of Library Rights: IFLA Statement on Contract Override. 28 de agosto de 2025. https://www.ifla.org/news/time-to-stop-the-undermining-of-library-rights-ifla-statement-on-contract-override/

La Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA) emite un comunicado urgente sobre cómo ciertos contratos y licencias digitales están socavando los derechos y funciones esenciales de las bibliotecas.

Según la IFLA, estos acuerdos, muchas veces impuestos por editores o proveedores de contenidos digitales, limitan la capacidad de las bibliotecas para prestar, preservar, compartir y enseñar con los materiales digitales, lo que pone en riesgo su misión social y educativa.

El comunicado señala que las licencias restrictivas y las medidas de gestión de derechos digitales (DRM) pueden impedir incluso usos legítimos de los materiales protegidos por derechos de autor, como la copia para preservación, préstamo interbibliotecario o acceso a personas con discapacidad. Estas limitaciones contravienen el espíritu de las excepciones y limitaciones legales al derecho de autor, diseñadas para garantizar el acceso equitativo a la información y la educación.

La IFLA hace una llamada a la acción a gobiernos, editores y bibliotecas para que protejan los derechos de las bibliotecas y defiendan las excepciones y limitaciones al copyright. Esto incluye negociar contratos que respeten los derechos de las bibliotecas, promover transparencia en los términos de licencias digitales y asegurar que las bibliotecas puedan cumplir sus funciones de preservación cultural y acceso público a la información. Además, la organización subraya que la protección tecnológica no debe impedir el uso legítimo de los materiales, y que las políticas de acceso deben equilibrar los intereses comerciales con los derechos educativos y sociales de la comunidad.

En síntesis, la declaración de la IFLA enfatiza que las bibliotecas no solo son centros de préstamo de materiales, sino guardianes del acceso al conocimiento, la educación y la cultura, y que los contratos digitales restrictivos representan una amenaza significativa a esta función. La organización insta a todos los actores involucrados a garantizar que los acuerdos tecnológicos no anulen los derechos fundamentales de las bibliotecas.

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.

Sirenas, toros, esfinges: animales reales e imaginarios en el mundo antiguo

Cabrera Bonet, Paloma, Margarita Moreno Conde y Ricardo Olmos Romera. Sirenas, toros, esfinges: animales reales e imaginarios en el mundo antiguo. Comunidad de Madrid, Dirección General de Archivos, Museos y Bibliotecas, 2007

Texto completo

A través de una serie de ensayos, los autores exploran cómo las sociedades antiguas concebían y representaban tanto a animales reales como a criaturas mitológicas, y cómo estas representaciones reflejaban sus creencias, valores y conocimientos del mundo natural. El estudio abarca diversas culturas, incluyendo la egipcia, griega, romana y mesopotámica, y se apoya en una amplia variedad de fuentes, como textos literarios, iconografía y restos arqueológicos. El libro destaca la importancia de los animales en la simbología y mitología antiguas, y cómo su estudio puede proporcionar una comprensión más profunda de las civilizaciones que los produjeron.

El impacto de los AI Overviews de Google en el SEO: análisis del estudio Semrush 2025

Semrush AI Overviews Study: What 2025 SEO Data Tells Us About Google’s Search Shift. Semrush, Julio 2025

Texto completo

Google ha introducido los llamados AI Overviews, resúmenes generados por IA que aparecen directamente en los resultados de búsqueda. Estos tienen un impacto disruptivo, equiparándose a los featured snippets en importancia

Los AI Overviews, resúmenes generados por inteligencia artificial que Google ha incorporado en sus resultados de búsqueda. Estos elementos ya ocupan un rol importante y están modificando de manera profunda las estrategias de posicionamiento.

Los datos muestran que en marzo de 2025 el 13,14 % de las consultas en escritorio en EE. UU. activaron un AI Overview, casi el doble que en enero del mismo año. La mayoría de estas consultas fueron de carácter informacional (88,1 %), aunque también se detectó un ligero incremento en consultas comerciales y de navegación. Las áreas más afectadas incluyen ciencia, salud, sociedad y gobierno, mientras que sectores como noticias y deportes casi no presentan AI Overviews, reflejando la cautela de Google en temas sensibles o de actualidad.

En cuanto al comportamiento de los usuarios, los AI Overviews están vinculados a un aumento de las búsquedas sin clics (zero-click). Sin embargo, al comparar las mismas palabras clave antes y después de aparecer con AI Overview, la tasa de zero-click disminuyó levemente de 38,1 % a 36,2 %. Esto sugiere que, aunque más usuarios encuentran la respuesta sin salir de Google, algunos siguen interactuando con los enlaces destacados dentro del propio resumen generado por IA.

El estudio también señala que los AI Overviews se muestran sobre todo en consultas largas, de baja competencia y bajo coste por clic (CPC). Además, tienden a superponerse a funciones ya existentes del SERP sin reemplazarlas, y suelen dar relevancia a contenidos de plataformas como Reddit, Quora y YouTube, lo que indica una preferencia de Google por fuentes diversificadas y con información estructurada.

Las recomendaciones para las marcas son claras: crear contenido informacional autoritativo y con perspectiva única, reforzar los formatos visuales e interactivos (como vídeos o herramientas), e identificar palabras clave comerciales que aún no activan AI Overviews para aprovechar oportunidades de posicionamiento tradicional. Asimismo, se recomienda el uso de herramientas de monitorización como el Semrush AI Toolkit para medir la visibilidad en estos nuevos entornos y ajustar las estrategias de SEO.

En definitiva, el SEO en 2025 ya no se limita a aparecer en las primeras posiciones de búsqueda, sino a ganar presencia en los resultados generados por IA. El contenido de calidad, adaptado a este nuevo ecosistema híbrido entre buscador tradicional y motor de respuestas, será determinante para mantener la visibilidad digital.

Marcos de políticas de datos de investigación de revistas

“Journal Research Data Policy Frameworks – The Value of RDA for Policy”

Research Data Alliance. 2025. Journal Research Data Policy Frameworks: The Value of RDA for Policy. White Paper Series. Agosto. Research Data Alliance. https://www.rd-alliance.org/wp-content/uploads/2025/08/Journal_Research_Data_Policy_Frameworks_The-Value-of-RDA-for-Policy.pdf

“Journal Research Data Policy Frameworks – The Value of RDA for Policy” forma parte de la serie de white papers de la Research Data Alliance (RDA) y fue publicado en agosto de 2025. Surge de los talleres organizados en mayo del mismo año, cuyo objetivo era mostrar el impacto de las recomendaciones de la RDA en la formulación de políticas de investigación, particularmente en lo relativo a la gestión de datos en revistas académicas.

El Journal Research Data Policy Framework se presenta como una herramienta estandarizada para ayudar a revistas y editores a crear o mejorar sus políticas de datos. Este marco ofrece claridad sobre las expectativas de publicación, refuerza prácticas ya asentadas en diversas disciplinas y favorece la reproducibilidad, visibilidad y citación de los resultados científicos. Además, simplifica la implementación para los editores, al proporcionar una estructura común pero adaptable a las necesidades de cada área del conocimiento.

Su valor radica en que las políticas de datos en revistas integran normas consistentes dentro de las instrucciones para autores, alineándose con los requisitos de financiadores e instituciones en momentos clave del ciclo de investigación. Entre los beneficios que aporta destacan: la definición clara de cuándo y cómo compartir datos, la extensión de buenas prácticas disciplinares, el aumento del impacto científico gracias a la reutilización y revisión de datos, y la reducción de la carga administrativa al contar con un marco estándar y flexible.

El marco fue elaborado en 2020 por el Interest Group on Data Policy Standards for Journals de la RDA. Define 14 características de una política de datos y establece seis niveles de aplicación (tiers), desde los más básicos hasta los más exigentes, que incluyen requerimientos como la declaración de disponibilidad de datos, el uso de estándares reconocidos o la revisión por pares de los conjuntos de datos. Gracias a este enfoque escalonado, revistas de distintas disciplinas pueden adoptar políticas acordes a su madurez y contexto.

El white paper también recoge ejemplos de implementación en distintos entornos. En Eslovenia, el archivo de datos de ciencias sociales (ADP) adaptó el marco y desarrolló guías para revistas locales, lo que permitió impulsar la ciencia abierta a nivel nacional, aunque con dificultades iniciales de recursos y apoyo institucional. En el ámbito internacional, la asociación STM, que agrupa a editores científicos, técnicos y médicos, lo utilizó para diseñar políticas coherentes en áreas sensibles como salud y medicina, logrando mayor credibilidad y alineación con estándares globales. Finalmente, el proyecto BRIDGE en Francia, liderado por instituciones como IRD, INRAE y CIRAD, empleó el marco para armonizar la gestión de datos en unidades mixtas de investigación, desarrollando repositorios FAIR y guías prácticas que refuerzan la gobernanza de datos.

Las conclusiones del informe subrayan que el marco de la RDA es práctico, flexible y aplicable a distintos sectores, desde revistas académicas hasta instituciones farmacéuticas o colaboraciones internacionales. Su éxito depende de la adopción temprana, la consulta a todas las partes interesadas, el apoyo técnico e institucional y la evaluación continua de los resultados. Asimismo, se recomienda avanzar hacia políticas más exigentes (niveles 03 en adelante) para consolidar una cultura de datos abierta, reproducible y sostenible en la investigación científica.

Detectores de IA acusan falsamente a la Constitución de EE. UU. de ser escrita por inteligencia artificial

Edwards, Benj. «Why AI Detectors Think the US Constitution Was Written by AIArs Technica, 12 de julio de 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/

Si introduces el documento legal más importante de Estados Unidos, la Constitución de los Estados Unidos, en una herramienta diseñada para detectar texto escrito por modelos de IA como ChatGPT, te dirá que el documento fue escrito casi con toda seguridad por una IA.

Por muy tentador que resulte confiar en las herramientas de IA para detectar textos generados por IA, las pruebas hasta ahora han demostrado que no son fiables. Debido a los falsos positivos, no se puede confiar en los detectores de escritura de IA como GPTZero, ZeroGPT y Text Classifier de OpenAI para detectar textos compuestos por grandes modelos de lenguaje (LLM) como ChatGPT.

En el estudio se analiza cómo los detectores de escritura con inteligencia artificial (IA) clasifican erróneamente documentos históricos, como la Constitución de los Estados Unidos, como si fueran generados por IA. Este fenómeno se debe a que los modelos de IA entrenados en grandes volúmenes de texto, incluidos documentos históricos, pueden identificar patrones en el lenguaje que coinciden con los estilos de escritura de la IA. Como resultado, estos detectores generan falsos positivos al identificar textos auténticos como generados por IA.

En cuanto a los detectores específicos que han mostrado estas limitaciones, el artículo de Ars Technica menciona que herramientas como GPTZero han sido criticadas por su falta de precisión, calificándolas de «mayoría de las veces engañosas».

El artículo destaca que este problema subraya las limitaciones de los detectores de IA actuales, que a menudo carecen de la capacidad para contextualizar el origen y la autenticidad de un texto. La incapacidad de estos sistemas para distinguir entre textos históricos genuinos y aquellos generados por IA plantea preocupaciones sobre su fiabilidad en aplicaciones prácticas. Además, se señala que la dependencia excesiva de estos detectores podría llevar a conclusiones erróneas y decisiones injustas en entornos educativos y profesionales.

Edwards concluye que, aunque los detectores de IA pueden ser herramientas útiles, su implementación debe ser cuidadosa y acompañada de una evaluación crítica para evitar malentendidos y garantizar su eficacia en la identificación precisa de contenido generado por IA.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

¿Cuál es el coste real de la desinformación para las empresas?

Serrano, Jesús. “What’s the real cost of disinformation for corporations?World Economic Forum, 14 de julio de 2025. https://www.weforum.org/stories/2025/07/financial-impact-of-disinformation-on-corporations/

La desinformación, que incluye noticias falsas, cuentas hackeadas y deepfakes, ha provocado pérdidas millonarias en los mercados y decisiones financieras erróneas. Estudios recientes estiman que los costos anuales de la desinformación en los mercados financieros ascienden a alrededor de 78 mil millones de dólares, incluyendo pérdidas bursátiles y decisiones financieras erróneas.

Tecnologías de inteligencia artificial como bots y deepfakes han acelerado la difusión de información falsa, haciéndola más convincente y difícil de detectar. Ejemplos históricos y recientes, desde el “Great Moon Hoax” de 1835 hasta el hackeo de la cuenta de Twitter de The Associated Press en 2013, muestran cómo la manipulación de la percepción pública puede generar un impacto económico y reputacional significativo.

Además, las reseñas falsas y las valoraciones manipuladas afectan la confianza de los consumidores y generan pérdidas millonarias para empresas de todos los tamaños. La reputación se ha convertido en un activo estratégico, y las narrativas falsas pueden erosionarla rápidamente, afectando la credibilidad corporativa y el valor de mercado a largo plazo.

El uso de inteligencia artificial amplifica estos riesgos, ya que los contenidos falsos generan más interacción en redes sociales y son más difíciles de contrarrestar. Estudios de MIT y Edelman destacan que las empresas no están suficientemente preparadas para anticipar y gestionar estos ataques, a pesar de que la confianza es esencial para la sostenibilidad y el crecimiento empresarial. La educación digital, la detección temprana de desinformación y la comunicación de crisis son herramientas clave para proteger la reputación corporativa.

La colaboración público-privada y la regulación, como el Código de Prácticas sobre Desinformación de la UE, se presentan como mecanismos necesarios para mitigar la propagación de contenidos falsos sin comprometer la libertad de expresión. En un entorno donde la confianza se considera un activo estratégico, las empresas deben invertir en vigilancia, formación y estrategias preventivas, ya que los costos financieros y reputacionales de la inacción frente a la desinformación son demasiado altos.

Guía de citación y referenciación Normas APA 7.ª edición

Rivera Lozada. O., Yangali Vicente, J. S., Bonilla Asalde, C. A. Guía de citación y referenciación APA (7.ª edición) Lima: Universidad Privada Norbert Wiener, 2021

Texto completo

Citar y referenciar fuentes es una de las tareas más arduas, necesarias y confusas en la labor académica, ya que requiere identificar con precisión los detalles de cada fuente y respetar la propiedad intelectual. Las normas APA, ampliamente utilizadas en humanidades, ciencias sociales, educación y derecho, ofrecen un sistema preciso y económico para organizar citas y referencias en textos extensos. Estas normas han evolucionado con el tiempo y la guía actual, basada en la séptima edición, adapta sus indicaciones al contexto hispanohablante y simplifica sus reglas para los investigadores en formación. La guía busca facilitar la práctica del citado, reducir temores y servir como recurso habitual en la actividad académica y administrativa.