El impacto de la inteligencia artificial generativa en el periodismo: relaciones entre plataformas y editores según el informe Journalism Zero

Brown, Peter, y Klaudia Jaźwińska. 2025. Journalism Zero: How Platforms and Publishers Are Navigating AI. Tow Center for Digital Journalism, Columbia Journalism School. https://towcenter.columbia.edu/sites/towcenter.columbia.edu/files/content/Journalism%20Zero_%20How%20Platforms%20and%20Publishers%20are%20Navigating%20AI.pdf.

Texto completo

La inteligencia artificial generativa está reconfigurando las relaciones entre las plataformas tecnológicas y los medios de comunicación.

Este documento se enmarca dentro de una línea de investigación que el Tow Center lleva desarrollando desde 2015, la cual ya había señalado en 2019, en su informe “The End of an Era”, que la estrategia dominante en la era de las redes sociales —la de depender de plataformas como Facebook, Twitter o Google para llegar a las audiencias— había sido errónea para el periodismo.

Con la llegada de ChatGPT y otras herramientas de IA generativa, se marca un nuevo punto de inflexión en esta relación. El informe destaca que estas tecnologías se están integrando en el periodismo de múltiples maneras. Por un lado, están siendo usadas en tareas internas y de apoyo, como el análisis de grandes volúmenes de datos, la generación de titulares y resúmenes, la traducción de contenidos, la adaptación de formatos o la redacción de informes y publicaciones para redes sociales. Este uso, aunque significativo, no es el foco principal del estudio.

El núcleo del informe se centra más bien en una cuestión polémica y estructural: el uso de contenido periodístico ya publicado —sin autorización— para entrenar los modelos de lenguaje que dan vida a estas herramientas. Un ejemplo destacado es el del periódico The New York Times, cuyo contenido representó un 1,2 % de una versión recreada del conjunto de datos que entrenó ChatGPT-2. Los modelos generativos como Perplexity prometen ofrecer respuestas instantáneas con fuentes citadas, sin necesidad de que el usuario acceda a las páginas originales, lo que mina los modelos de negocio de los medios al reducir el tráfico hacia sus sitios web.

Esta dinámica representa un giro sustancial respecto a la era de las redes sociales. Si bien en esa etapa las plataformas dependían del contenido de los medios para atraer usuarios —y los medios esperaban obtener a cambio visitas y visibilidad—, en esta nueva era las plataformas usan los contenidos periodísticos directamente como materia prima para entrenar sus modelos y, posteriormente, los integran en productos que muchas veces sustituyen la visita directa a los medios.

El informe señala que las compañías tecnológicas necesitan datos verificados y confiables para entrenar sus modelos, y que el periodismo profesional cumple perfectamente con ese requisito. Jessica Lessin, fundadora de The Information, lo resume con contundencia: “Resulta que las noticias precisas y bien escritas son una de las fuentes más valiosas para estos modelos, que han estado absorbiendo la producción intelectual humana sin permiso”.

Importancia de los podcast en la potencialización y ampliación del impacto académico de los investigadores

Allison Symulevich, Matt Torrence, Jason Boczar, y Jessica Szempruch, «Podcasting as Open Access: A Review and Discussion of Potential Impact on Scholarly Communication and Promotion» Journal of Librarianship and Scholarly Communication 13, no. 1 (2025): eP18241, https://doi.org/10.31274/jlsc.18241

Los podcasts académicos constituyen una forma informal mediante la cual el profesorado puede compartir su experiencia investigadora con una audiencia más amplia e internacional. En el artículo, los autores sostienen que los podcasts representan un tipo de comunicación académica informal y destacan el papel que pueden desempeñar las bibliotecas en el éxito de su difusión y accesibilidad.

En los últimos años, los podcasts académicos han emergido como una valiosa herramienta de comunicación científica informal, permitiendo a docentes, investigadores y especialistas compartir su conocimiento y experiencia más allá de los canales tradicionales de divulgación, como los artículos académicos o las conferencias. Este tipo de contenido, al ser accesible y narrativo, facilita la conexión con audiencias más amplias y diversas, incluyendo estudiantes, colegas de otras disciplinas, profesionales del sector y el público general.

Uno de los aportes más significativos del podcasting en el entorno académico es su naturaleza abierta. Cuando estos materiales se publican en repositorios institucionales de acceso abierto, como se ha hecho en la Universidad del Sur de Florida, se garantiza su disponibilidad permanente y gratuita, lo que contribuye directamente a mejorar la visibilidad, el alcance internacional y la trazabilidad del trabajo académico. Este enfoque no solo amplía la audiencia potencial del contenido, sino que también complementa la evaluación del impacto de la producción científica a través de nuevas métricas de uso, como descargas, escuchas, alcance geográfico y nivel de interacción en plataformas digitales.

A nivel institucional, las bibliotecas universitarias pueden desempeñar un papel clave al apoyar la creación, el alojamiento, la preservación y la difusión de podcasts académicos, ayudando a los investigadores a optimizar el impacto de su producción intelectual. Asimismo, estos formatos pueden integrarse como evidencias de transferencia de conocimiento en procesos de evaluación y promoción académica, dado que reflejan habilidades de comunicación científica, compromiso con la sociedad y capacidad de innovación.

El estudio también plantea la necesidad de avanzar hacia una estandarización de los sistemas de medición del impacto de los podcasts académicos, así como la generación de guías que permitan a otras instituciones replicar buenas prácticas en este campo emergente de la ciencia abierta.

El último gran desafío de los agentes de IA: la autorización para actuar por nosotros

Rosenbush, Steven. 2025.AI Agents Face One Last, Big Obstacle.The Wall Street Journal, May 17, 2025. https://www.wsj.com/articles/ai-agents-face-one-last-big-obstacle-ef3ea7f5

¿Pueden los agentes de IA reservar un vuelo por ti?. Aún no. El desarrollo de agentes de inteligencia artificial (IA) capaces de realizar tareas complejas en nombre de los usuarios está avanzando rápidamente, pero aún enfrenta un gran obstáculo: obtener permisos para actuar.

Aunque los modelos de lenguaje actuales (LLM, por sus siglas en inglés) son suficientemente potentes para llevar a cabo una amplia gama de funciones, su utilidad depende cada vez más de su capacidad para conectarse con herramientas externas como aplicaciones, sitios web y APIs. Esta conexión es esencial para que los agentes puedan realizar tareas del mundo real, como reservar un vuelo, pedir un Uber o gestionar el correo electrónico.

Un ejemplo que ilustra el potencial de estos agentes fue presentado en una conferencia de Apple, donde se imaginó a Siri realizando una serie de acciones encadenadas: consultar el estado de un vuelo a partir de un correo electrónico, revisar mensajes de texto para conocer los planes de comida con una persona, y calcular el tiempo necesario para llegar del aeropuerto al restaurante. Sin embargo, para que este tipo de asistentes funcione realmente, es imprescindible resolver cómo otorgarles autorización para acceder de forma segura a cuentas personales y datos sensibles. Los humanos usan contraseñas o reconocimiento biométrico, pero los agentes de IA requieren métodos distintos, ya que actúan como intermediarios.

Uno de los líderes en abordar este desafío es Alex Salazar, CEO de la startup Arcade.dev. Su empresa, ubicada en el área de San Francisco, está creando herramientas que permiten a los agentes firmar sesiones y obtener permisos de acceso a servicios externos. Arcade.dev ya trabaja con compañías como Shortwave para conectar agentes de correo con plataformas como Notion. En marzo, la empresa consiguió una ronda de financiación de 12 millones de dólares para impulsar este desarrollo, lo que muestra el interés del mercado en este tipo de soluciones.

Una iniciativa destacada en este ámbito fue la introducción del Model Context Protocol (MCP) por parte de Anthropic, la empresa detrás del chatbot Claude. Este protocolo busca estandarizar la forma en que los modelos de IA se conectan con herramientas externas, tal como el conector USB-C estandarizó la conexión de dispositivos físicos. Esta estandarización es vista como un paso necesario para que los agentes puedan operar de forma segura y eficiente en distintos entornos digitales.

De cara al futuro, Salazar prevé que, en los próximos dos años, los agentes de IA asumirán tareas cada vez más complejas como redactar correos electrónicos o planificar itinerarios, aunque todavía necesitarán confirmación humana antes de ejecutar acciones. Posteriormente, se espera que empiecen a operar de manera completamente autónoma en tareas de bajo riesgo. Una vez superados los principales desafíos técnicos, se anticipa un cambio radical en la forma en que las personas interactúan con la tecnología, comparable al impacto que tuvo la llegada de las tiendas de aplicaciones en 2008. La aparición de agentes autónomos podría marcar el inicio de una nueva era en la automatización y asistencia digital.

7 Kilos, el rap metal salmantino. Viviendo en la era pop 2025/05/16

7 Kilos, el rap metal salmantino

Viviendo en la era pop 2025/05/16

ESCUCHAR

Descargar

7 Kilos, el rap metal salmantino vuelve a la carga con un nuevo álbum. 7 Kilos es una banda salmantina de rap metal que publica nuevo disco. Combativos como corresponde a su estilo musical, presentarán el álbum en concierto el 7 de Junio en la sala B del CAEM. En esta entrevista para Viviendo en la Era Pop (Radio USAL), escucharemos en primicia uno de los temas del nuevo disco, y nos comentarán su trayectoria y anterior discografía.

Libros de texto en la encrucijada digital: innovación tecnológica, aprendizaje y políticas públicas

CERLALC. Libros de texto en la encrucijada digital: innovación tecnológica, aprendizaje y políticas públicas. Bogotá: CERLALC, 2025

Texto completo

Libros de texto en la encrucijada digital: innovación tecnológica, aprendizaje y políticas públicas es una publicación del CERLALC (Centro Regional para el Fomento del Libro en América Latina y el Caribe) que reúne cuatro ensayos de expertos en educación, tecnología y políticas públicas. El objetivo del dosier es reflexionar sobre el papel cambiante de los libros de texto en un entorno digital en constante evolución, y analizar cómo los distintos modelos de acceso, uso y producción de estos materiales inciden en la equidad y calidad educativa en Iberoamérica.

El primer ensayo, escrito por Axel Rivas, examina las diversas formas en que los estados han asumido la provisión de libros de texto, desde los modelos impresos centralizados hasta las actuales plataformas adaptativas. A través de ejemplos como el programa Enciclomedia en México o el Plan Ceibal en Uruguay, el autor plantea la necesidad de encontrar un equilibrio entre los recursos impresos, que garantizan accesibilidad, y los digitales, que ofrecen personalización y actualización constante, pero requieren conectividad y habilidades digitales.

En el segundo texto, Joaquín Rodríguez López plantea que la transformación digital de la escuela debe ir más allá de convertir libros impresos en digitales. Defiende una planificación integral que contemple la pedagogía, la infraestructura, la formación docente y la sostenibilidad. A partir del análisis del Plan de Cultura Digital en la Escuela desarrollado en España, advierte sobre el riesgo del «solucionismo tecnológico» y propone un enfoque basado en la reflexión crítica y el acompañamiento humano.

Miha Kovač y Alenka Kepic Mohar, en el tercer ensayo, analizan cómo los diferentes formatos de lectura (impresos, digitales o incluso audiolibros) afectan la comprensión y la adquisición de conocimiento, especialmente en los primeros años de la escolaridad. A partir de estudios empíricos, sostienen que la lectura profunda y sostenida se ve favorecida por el formato impreso, lo cual es un factor clave al momento de diseñar políticas educativas en la era digital.

Por último, María Teresa Lugo y Marisa Silvia Álvarez abordan el impacto de las soluciones digitales educativas (EdTech) en América Latina y el Caribe. Reconocen el potencial de estas herramientas para reducir brechas y mejorar el aprendizaje, pero advierten sobre las profundas desigualdades existentes en el acceso a conectividad, dispositivos y contenidos relevantes. Proponen una política pública activa y contextualizada que impulse la inclusión digital desde una perspectiva de derechos.

En conjunto, el dosier ofrece un análisis riguroso y multidimensional del presente y futuro del libro de texto en entornos educativos híbridos. Subraya la necesidad de políticas públicas integrales que combinen innovación tecnológica con criterios pedagógicos sólidos, equidad social y sostenibilidad institucional, garantizando así una educación más inclusiva, crítica y transformadora.

Servicios de información local para personas migrantes: una ruta de atención desde las bibliotecas

CERLALC. Servicios de información local para personas migrantes: una ruta de atención desde las bibliotecas. Bogotá: CERLALC, 2024.

Texto completo

En respuesta a los crecientes flujos migratorios en la región, el CERLALC, en colaboración con la Oficina Regional de la UNESCO para América Latina y el Caribe, ha lanzado un proyecto regional que involucra a cinco países: Brasil, Chile, Colombia, México y Perú. Este proyecto tiene como objetivo promover, mediante la palabra escrita y oral, y el acceso significativo a la información, la garantía de los derechos sociales, educativos y culturales de las personas en situación de movilidad.

La publicación destaca la importancia de las bibliotecas como espacios seguros y accesibles que pueden ofrecer servicios de información adaptados a las necesidades de las personas migrantes. Se enfatiza la necesidad de sensibilización, fortalecimiento de capacidades y desarrollo de estrategias dirigidas a la atención de esta población. Para ello, se cuenta con la asesoría de especialistas en lectura, educación, literatura y migración, como Evelyn Arizpe, Fanuel Díaz y Nelly Cantú

Además, se planea la implementación de actividades como conferencias, talleres y espacios de intercambio de experiencias, con el objetivo de fortalecer las capacidades de mediadores culturales, bibliotecarios y otros actores clave en la atención a la población migrante. Se brindará formación y acompañamiento a un grupo de 50 personas entre bibliotecarias, bibliotecarios, mediadoras y mediadores de lectura de los cinco países participantes. Las experiencias desarrolladas serán sistematizadas y difundidas para promover acciones similares en otros países de la región.

Este enfoque reconoce el papel transformador de la lectura, la escritura y la oralidad en la inclusión y el bienestar de las personas migrantes, posicionando a las bibliotecas como actores clave en la garantía de sus derechos humanos.

El desarrollo de políticas sobre inteligencia artificial generativa en las universidades británicas

Wilson, Thomas D. 2025. «The Development of Policies on Generative Artificial Intelligence in UK UniversitiesIFLA Journal. https://doi.org/10.1177/03400352251333796

El artículo examina cómo las universidades del Reino Unido han reaccionado ante el auge de la inteligencia artificial generativa (IAg) y cómo están desarrollando políticas para regular su uso en el ámbito académico. En particular, se enfoca en las instituciones del Russell Group, un conjunto de universidades líderes en investigación que han adoptado principios comunes para guiar la integración de estas tecnologías.

El artículo analiza en profundidad cómo las universidades del Reino Unido están respondiendo al auge de la inteligencia artificial generativa (IAg) —como ChatGPT, Claude, Copilot, entre otras— y cómo esta tecnología está reconfigurando la educación superior. En particular, se centra en la forma en que las instituciones académicas, y más concretamente las pertenecientes al Russell Group (grupo de élite de universidades centradas en la investigación), han comenzado a desarrollar políticas formales para regular y aprovechar el uso de estas herramientas. El trabajo también incluye un examen comparativo con instituciones que no pertenecen al grupo y que enfrentan mayores retos para implementar marcos normativos debido a la falta de recursos.

La expansión de la IAg ha sido rápida, y su impacto en el sector educativo es profundo. Su adopción ha generado oportunidades pedagógicas —como personalización del aprendizaje, apoyo a estudiantes con necesidades especiales, mejora de la escritura académica y eficiencia en la retroalimentación docente—, pero también preocupaciones críticas:

  • Plagio y trampas asistidas por IA
  • Transformación de la evaluación
  • Brechas en la equidad digital
  • Necesidad de formación docente
  • Cambios en la naturaleza de la autoría y la originalidad académica

El estudio de Wilson toma como punto de partida la declaración de principios publicada por el Russell Group en 2023, donde se establecieron cinco ejes para la incorporación de la IAg en las universidades:

  1. Fomentar la alfabetización en IA entre el personal y el alumnado.
  2. Equipar al profesorado para acompañar a los estudiantes en el uso responsable de la tecnología.
  3. Revisar modelos de evaluación para mantener la integridad sin limitar el aprendizaje innovador.
  4. Preservar el rigor académico y la ética en la producción de conocimiento.
  5. Colaborar entre instituciones para compartir prácticas efectivas.

El artículo identifica variaciones sustanciales en la adopción e implementación de estas políticas, incluso entre las universidades del Russell Group. Algunas han creado marcos institucionales completos, con líneas claras sobre:

  • Qué usos de la IAg están permitidos o prohibidos.
  • Cómo citar contenido generado por IA.
  • Qué procedimientos aplicar en casos de mala praxis.
  • Cómo adaptar tareas evaluativas para reducir el riesgo de trampa.

Otras, sin embargo, aún están en etapas incipientes de desarrollo normativo, limitándose a recomendaciones generales o esperando una posición nacional más consolidada.

En universidades fuera del Russell Group, se observa una mayor dificultad para articular políticas, debido a la falta de recursos técnicos, de personal capacitado y de liderazgo en el tema. Esto puede generar desigualdades entre instituciones en términos de preparación ante los desafíos éticos y prácticos de la IAg.

ChatGPT en Investigación y escritura científica: Guía para principiantes.

Bastidas, Sebastián, y Leonardo Osorio. 2023. «ChatGPT in Scientific Research and Writing: A Beginner’s GuideResearchGate. https://www.researchgate.net/publication/384032901_ChatGPT_in_Scientific_Research_and_Writing_A_Beginner’s_Guide

Una introducción completa y práctica al uso de ChatGPT en el ámbito de la investigación científica y la redacción académica. Se enfoca en explicar cómo esta herramienta de inteligencia artificial puede asistir a los investigadores, especialmente a quienes están comenzando, en diversas etapas del proceso científico.

Primero, el texto detalla las capacidades de ChatGPT para generar textos coherentes, resumir información, ayudar en la formulación de preguntas de investigación y apoyar en la redacción de manuscritos, desde la introducción hasta la discusión. Destaca que ChatGPT puede agilizar la revisión bibliográfica y facilitar la generación de ideas, lo cual puede ser valioso para investigadores novatos o con limitaciones de tiempo.

Sin embargo, el libro también subraya las limitaciones y riesgos asociados al uso de ChatGPT. Señala que la IA puede producir información incorrecta o inventada («alucinaciones»), por lo que los usuarios deben validar rigurosamente cualquier contenido generado antes de incorporarlo en trabajos científicos. Además, advierte sobre cuestiones éticas, como la necesidad de transparencia en el uso de IA y la importancia de evitar el plagio o la dependencia excesiva.

El texto proporciona consejos prácticos para integrar ChatGPT en el flujo de trabajo científico, enfatizando que la IA debe ser una herramienta complementaria y no un sustituto del juicio crítico o la revisión humana. También incluye recomendaciones para mejorar la interacción con la IA, como el uso de indicaciones claras y específicas, y para comprender mejor sus capacidades y limitaciones.

En conclusión, el artículo presenta a ChatGPT como un recurso innovador y prometedor para mejorar la eficiencia en la investigación y la redacción, siempre que se utilice con responsabilidad y conciencia de sus limitaciones técnicas y éticas. Su enfoque introductorio lo hace ideal para investigadores principiantes que buscan familiarizarse con el potencial y los desafíos de la inteligencia artificial aplicada a la ciencia.

Comparativa de los principales asistentes de IA: ChatGPT, Google Gemini, Perplexity y Claude ¿Cuál elegir?

Julian Horsey, «ChatGPT vs Gemini vs Perplexity vs Claude: Which AI Assistant is Best?«, Geeky Gadgets, 14 de mayo de 2025, https://www.geeky-gadgets.com/chatgpt-vs-gemini-vs-perplexity-vs-claude/?utm_source=flipboard&utm_content=topic/artificialintelligence

Con el auge de los asistentes de inteligencia artificial, elegir el adecuado puede marcar una gran diferencia en términos de productividad, creatividad y eficiencia. Este análisis compara los cuatro líderes del sector según sus puntos fuertes, limitaciones y mejores usos.

ChatGPT (OpenAI): Muy versátil, ideal para tareas generales, redacción creativa y generación de imágenes. Sin embargo, puede perder el hilo en conversaciones largas y ocasionalmente ofrecer información errónea.

Google Gemini: Potente para tareas complejas, análisis profundo y trabajo colaborativo dentro del ecosistema Google. Perfecto para usuarios que manejan grandes volúmenes de datos, aunque puede resultar demasiado formal para usos creativos.

Perplexity AI: Se especializa en investigación en tiempo real, verificación de hechos y análisis de la competencia, con respuestas respaldadas por fuentes. No es tan eficaz en creatividad ni genera imágenes.

Claude AI (Anthropic): Destaca en creatividad, lluvia de ideas y pensamiento estratégico. Tiene una ventana de contexto muy grande (hasta 200.000 tokens), pero no genera imágenes.

Cual elegir

¿Cuál elegir?

Depende de tus necesidades:

Necesidad principalAsistente recomendado
Redacción creativa + imágenesChatGPT
Investigación profundaGoogle Gemini
Información precisa y actualPerplexity AI
Ideas, estrategia y proyectos largosClaude AI

¿Cómo funcionan los detectores de IA?

Kumar, Himanshu. 2025. “How Do AI Detectors Work? (And What They Miss).” Medium, 14 de mayo de 2025. https://medium.com/illumination/how-do-ai-detectors-work-2d7341891f0a

Más sobre  Detectores

Un detector de IA es una herramienta diseñada para estimar si un texto ha sido redactado por un ser humano o generado por una IA. Estas herramientas se utilizan comúnmente por docentes y plataformas de contenido para verificar la autenticidad de textos y prevenir el uso indebido de tecnologías de generación automática.

Estas herramientas se han popularizado en entornos educativos, profesionales y editoriales para tratar de identificar cuándo un texto ha sido escrito por una IA como ChatGPT, lo que genera un nuevo panorama en la evaluación de contenidos.

Los detectores de IA funcionan, principalmente, mediante el análisis estadístico y lingüístico de los textos. Una de las técnicas más comunes es la medición de la “perplejidad”, que evalúa cuán predecibles son las palabras en una oración. Los textos generados por IA tienden a tener una perplejidad baja porque siguen patrones muy estructurados. Otra métrica importante es la “variabilidad” (o “burstiness”), que analiza la mezcla de oraciones largas y cortas: los humanos suelen escribir con más variedad, mientras que los sistemas de IA producen frases de longitud más constante.

Además de estos métodos, algunos detectores se basan en clasificadores entrenados mediante aprendizaje automático. Estos modelos se alimentan con grandes cantidades de texto humano y de IA para aprender a reconocer patrones distintivos. También se recurre al análisis semántico para detectar inconsistencias lógicas en los textos generados por IA, y a la estilometría, que intenta encontrar “marcas de agua” ocultas o señales características que puedan revelar su origen artificial.

Grammarly, en particular, cuenta con herramientas que van más allá del simple análisis estadístico, como Grammarly Authorship, que analiza el estilo personal del usuario para verificar si un texto coincide con su forma habitual de escribir. También utiliza detección de plagio para identificar si partes del texto coinciden con fuentes existentes, lo que puede ayudar a descubrir fragmentos generados artificialmente que han sido copiados de la web.

Sin embargo, estas herramientas no son infalibles. Una de sus principales limitaciones es la presencia de falsos positivos: textos auténticamente humanos, especialmente aquellos escritos en un estilo formal o por hablantes no nativos, pueden ser identificados erróneamente como escritos por IA. Del mismo modo, pueden producirse falsos negativos si el texto generado por IA ha sido modificado o editado, lo que complica su detección.

Entre las herramientas más populares de detección de IA se encuentran GPTZero, diseñada específicamente para el ámbito educativo; Originality.AI, utilizada en marketing y contenido web; Turnitin, que ha incorporado capacidades de detección de IA junto con el análisis de plagio; Writer AI Detector, que es gratuito pero variable en precisión; y Copyleaks, que ofrece informes detallados especialmente en contextos académicos.

Si bien las herramientas de detección de textos generados por IA han mejorado en precisión, aún enfrentan desafíos significativos, especialmente en la identificación de textos modificados y en la equidad hacia diversos grupos de usuarios. Es esencial utilizar estas herramientas como apoyo y no como única fuente de verificación, complementándolas con el juicio humano y considerando el contexto de cada caso.