La movida valenciana de los 80. Viviendo en la era pop 2019/03/22

La movida valenciana de los 80.

Viviendo en la era pop 2019/03/22

ESCUCHAR

Descargar

Espacio dedicado a los grupos de la movida valenciana de los años ochenta, una escena musical vibrante y singular que combinó modernidad, estética y experimentación sonora. Se trata de un elenco de bandas caracterizadas por un sonido brillante, colorista y sofisticado, muy influido por las corrientes del new wave, el tecno-pop y, especialmente, por la estética de los llamados nuevos románticos, que apostaban por una fuerte identidad visual y una renovación de los códigos del pop español.

En este programa recorremos algunas de las formaciones más representativas de aquel momento, que contribuyeron a definir el pulso creativo de la ciudad de Valencia en plena efervescencia cultural. Escuchamos a grupos como Glamour, con su elegancia sonora; Última Emoción, referentes del tecno-pop más estilizado; Vídeo, pioneros en la incorporación de elementos electrónicos; Almas Blancas, con su sensibilidad melódica; Morcillo el Bellaco y los Rítmicos, que aportaban una vertiente más irónica y desenfadada; Los Romeos, con su energía pop; Ole-Olé, una de las bandas con mayor proyección comercial; y Comité Cisne, que supo conjugar intensidad y modernidad.

Este recorrido no solo pone en valor la diversidad de estilos dentro de la escena valenciana, sino también su papel fundamental en la renovación del panorama musical español de la época, en diálogo con otras movidas como la madrileña, pero con una personalidad propia marcada por la experimentación, la estética y el deseo de vanguardia.

La IA consume tanta energía que la potencia de cálculo se está agotando

A large data center facility with multiple buildings, parked cars, electrical infrastructure, and steam vents at dusk
A sprawling data center complex illuminated at twilight with steam rising from cooling units.

Au-Yeung, Angel, y Robbie Whelan. “AI Is Using So Much Energy That Computing Firepower Is Running Out.” The Wall Street Journal, 13 de abril de 2026. https://www.wsj.com/tech/ai/ai-is-using-so-much-energy-that-computing-firepower-is-running-out-156e5c85

El artículo advierte de un problema crítico en el desarrollo actual de la inteligencia artificial: la escasez de capacidad computacional, un recurso esencial que está siendo superado por la creciente demanda. El auge de la IA —especialmente de sistemas más avanzados y autónomos— ha provocado un consumo masivo de potencia de cálculo, hasta el punto de generar un “cuello de botella” que limita el crecimiento del sector. Esta situación está provocando retrasos, problemas de fiabilidad y decisiones estratégicas difíciles por parte de las empresas tecnológicas.

Uno de los factores clave es la explosión en el uso de la llamada “IA agente”, sistemas capaces de realizar tareas complejas de manera autónoma, como programar, organizar actividades o gestionar procesos. Estos sistemas requieren enormes cantidades de recursos computacionales, medidos en “tokens”, lo que ha llevado a un aumento exponencial del consumo. En pocos meses, el uso de estas unidades de computación se ha multiplicado, reflejando un cambio cualitativo: la IA ha pasado de ser una herramienta puntual a convertirse en una infraestructura central para múltiples actividades.

La presión sobre la infraestructura ha obligado a las compañías a tomar medidas drásticas. Algunas han tenido que limitar el uso de sus servicios, imponer restricciones a los usuarios o incluso cancelar productos para redistribuir recursos. También se han registrado aumentos significativos en los costes: el alquiler de GPUs —los chips esenciales para entrenar y ejecutar modelos de IA— se ha encarecido notablemente, mientras que los tiempos de espera para desplegar nuevas infraestructuras se alargan debido a la escasez de hardware y energía disponible.

Además, esta escasez está afectando directamente a la calidad del servicio. Se han producido interrupciones frecuentes en plataformas de IA, lo que evidencia que la infraestructura actual no está preparada para sostener el ritmo de crecimiento. Incluso empresas líderes del sector han tenido que priorizar ciertos productos frente a otros, sacrificando iniciativas menos rentables o estratégicas ante la falta de capacidad.

El artículo sitúa este fenómeno en una perspectiva histórica: como en otras grandes revoluciones tecnológicas —ferrocarril, telecomunicaciones o internet—, la demanda de infraestructura está creciendo más rápido que la capacidad de construirla. En este caso, no solo se trata de servidores y centros de datos, sino también de acceso a energía y materiales. La consecuencia es que el desarrollo de la inteligencia artificial podría ralentizarse temporalmente, no por falta de innovación, sino por limitaciones físicas y económicas.

El texto plantea una idea clave: el futuro de la IA no depende únicamente de algoritmos más avanzados, sino de la capacidad de sostenerlos con recursos suficientes. La computación —y la energía que la alimenta— se convierte así en el verdadero factor limitante de esta nueva revolución tecnológica, marcando un punto de inflexión en su evolución.

Desinformación vs. alucinaciones en la IA: dos errores distintos, un mismo riesgo

Cosstick, John. “AI Misinformation vs AI Hallucinations: What’s the Difference.” Tech Life Future, 2025. https://www.techlifefuture.com/ai-misinformation-vs-ai-hallucinations/

Se analiza una distinción clave en el ecosistema informativo contemporáneo: la diferencia entre la desinformación generada por inteligencia artificial y las llamadas “alucinaciones” de la IA. Aunque ambos fenómenos implican la producción de información falsa o engañosa, su origen y naturaleza son distintos.

La desinformación en IA suele estar vinculada a la intención humana: se genera o difunde contenido falso de manera deliberada para manipular, influir o engañar. En cambio, las alucinaciones son errores inherentes al funcionamiento de los modelos de lenguaje, que producen información incorrecta sin intención maliciosa, simplemente porque “rellenan” lagunas con contenido plausible pero no verificado.

El texto profundiza en las causas técnicas de las alucinaciones, señalando que estas surgen de limitaciones estructurales de los sistemas de IA. Los modelos funcionan mediante generación probabilística: predicen qué texto es más probable en función de patrones aprendidos, no de una verificación factual. Esto puede llevar a la invención de datos, citas académicas inexistentes o errores históricos. Factores como datos de entrenamiento incompletos o sesgados, así como limitaciones en la arquitectura de los modelos, contribuyen a este fenómeno. En esencia, la IA no “miente”, sino que construye respuestas verosímiles a partir de patrones, lo que puede resultar en afirmaciones erróneas presentadas con gran coherencia.

Por otro lado, la desinformación impulsada por IA se inscribe en dinámicas sociales más amplias. No depende tanto de fallos técnicos como de usos intencionados de la tecnología: desde la creación de contenidos engañosos mediante técnicas como el prompt engineering hasta su difusión masiva a través de redes sociales, bots o influencers. Este tipo de desinformación explota los sesgos cognitivos de los usuarios y puede tener consecuencias especialmente graves en ámbitos como la política, la salud o la opinión pública.

El artículo subraya que, aunque ambos fenómenos pueden parecer similares para el usuario —información falsa presentada de forma convincente—, requieren estrategias distintas de mitigación. Las alucinaciones demandan mejoras técnicas en los modelos, como mejores datos de entrenamiento o sistemas de verificación interna. La desinformación, en cambio, exige respuestas sociales, regulatorias y educativas, incluyendo alfabetización mediática y control de los canales de difusión.

Por último, se destaca que el auge de la inteligencia artificial ha intensificado el problema de la fiabilidad de la información. Estudios recientes muestran que una proporción significativa de respuestas generadas por IA puede ser incorrecta o engañosa, lo que pone en riesgo la integridad del ecosistema informativo. En este contexto, comprender la diferencia entre desinformación y alucinación no es solo una cuestión técnica, sino una competencia crítica para navegar en un entorno cada vez más mediado por algoritmos.

El peligro invisible de las respuestas de la IA: suena convincente, pero puede ser una respuesta errónea o malintencionada

Woman thinking deeply while using laptop surrounded by bubble showing truth and misinformation
A woman contemplates the choice between truth and misinformation while using a laptop in a dimly lit room.

AI School Librarian. “Confident Answers Are Not the Same as Correct Answers.Substack, 2026. https://aischoollibrarian.substack.com/p/confident-answers-are-not-the-same

Se plantea una advertencia fundamental en la era de la inteligencia artificial generativa: la apariencia de seguridad en una respuesta no equivale a su veracidad. Los sistemas de IA están diseñados para producir textos coherentes, fluidos y convincentes, lo que genera una ilusión de autoridad que puede inducir a error.

Esta característica no es accidental, sino inherente a su funcionamiento: los modelos predicen qué respuesta “suena” correcta basándose en patrones estadísticos, no en una comprensión real de la verdad. Así, la confianza expresiva de la IA puede enmascarar errores, lagunas o incluso invenciones, lo que obliga a replantear cómo interpretamos y evaluamos sus respuestas.

El texto subraya que este fenómeno tiene profundas implicaciones educativas e informativas. Tradicionalmente, los humanos han asociado la confianza con la competencia, confiando más en quienes se expresan con seguridad. La IA explota involuntariamente este sesgo cognitivo: presenta información con una estructura clara y un tono firme, lo que reduce la tendencia del usuario a cuestionar su contenido. Sin embargo, como advierten diversos análisis, esta “brecha de confianza” puede llevar a aceptar respuestas incorrectas simplemente porque están bien formuladas. En contextos académicos o profesionales, esto puede erosionar el pensamiento crítico y fomentar una dependencia excesiva de sistemas automatizados.

Otro aspecto relevante es que la calidad de las respuestas depende en gran medida de cómo se formula la pregunta. Los usuarios con mayor conocimiento previo o habilidades de “prompting” obtienen resultados más precisos y útiles, mientras que quienes carecen de estas competencias pueden recibir respuestas superficiales o incompletas. Esto introduce un nuevo tipo de desigualdad informativa: no todos los usuarios acceden al mismo nivel de calidad en la información generada por IA, lo que cuestiona la idea de que estas herramientas democratizan el conocimiento.

El artículo también insiste en que la IA no distingue adecuadamente entre niveles de certeza. Puede presentar hechos bien establecidos y afirmaciones especulativas con el mismo grado de seguridad, dificultando que el usuario discrimine entre información fiable y dudosa. Este “aplanamiento de la certeza” es especialmente problemático en ámbitos como la salud, la educación o la toma de decisiones, donde la precisión y el contexto son esenciales.

Por ello se propone una actitud crítica y reflexiva como respuesta a este desafío. La IA debe entenderse como una herramienta de apoyo, no como una autoridad definitiva. Verificar la información, contrastarla con fuentes fiables y mantener el juicio propio se convierten en habilidades clave en este nuevo entorno. En última instancia, el artículo no rechaza el uso de la inteligencia artificial, pero advierte que su integración en la vida cotidiana exige una alfabetización informacional más sofisticada, capaz de distinguir entre lo que suena convincente y lo que realmente es cierto.

IA en salud y la ley: ¿Podría tu médico chatbot testificar en tu contra?

DiBenedetto, Chase. “Health AI and the Law: Could Your Chatbot Doc Testify Against You?” Mashable, 2026. https://mashable.com/article/health-chatbots-ai-privilege-lawsuits

Se aborda un problema emergente en la intersección entre inteligencia artificial y derecho: la falta de protección legal para las conversaciones que los usuarios mantienen con chatbots, especialmente en el ámbito de la salud.

A diferencia de las interacciones con profesionales humanos —como médicos, psicólogos o abogados—, que están protegidas por el llamado “privilegio profesional”, las conversaciones con sistemas de IA no gozan de esa confidencialidad. Esto significa que la información compartida con un chatbot podría ser utilizada como prueba en procesos judiciales, abriendo un escenario preocupante para millones de usuarios que recurren a estas herramientas en busca de orientación médica o emocional.

El texto subraya que el privilegio legal existe para fomentar la sinceridad entre paciente y profesional, ya que esa confianza es esencial para recibir un tratamiento adecuado. Sin embargo, este marco jurídico está diseñado para relaciones humanas, no digitales. En consecuencia, cuando un usuario interactúa con un chatbot —aunque perciba la experiencia como íntima o terapéutica—, en realidad está generando datos que pueden ser almacenados, analizados e incluso compartidos por las empresas tecnológicas. Esta situación genera una paradoja: cuanto más útiles y “humanos” parecen los chatbots, mayor es el riesgo de que los usuarios confíen en ellos sin ser conscientes de las implicaciones legales.

El artículo también conecta este vacío legal con un contexto creciente de litigios relacionados con la inteligencia artificial. Casos recientes han demostrado que los contenidos generados por chatbots pueden ser considerados evidencia en tribunales, ya que no están cubiertos por ninguna forma de secreto profesional. Esto se vuelve especialmente problemático en ámbitos sensibles como la salud mental, donde los usuarios pueden revelar información extremadamente personal o incluso autoincriminatoria. Así, el uso cotidiano de estas herramientas podría tener consecuencias legales inesperadas.

Por último, se plantea un debate más amplio sobre la necesidad de adaptar las leyes a la realidad tecnológica actual. Algunos expertos y desarrolladores sostienen que debería reconocerse algún tipo de privilegio para las interacciones con IA, especialmente en contextos sanitarios, mientras que otros advierten de los riesgos de equiparar máquinas con profesionales humanos. En cualquier caso, el artículo concluye que la expansión de los chatbots en el ámbito de la salud está adelantándose a la regulación, lo que probablemente dará lugar a nuevos conflictos legales y a una redefinición de los límites entre privacidad, tecnología y responsabilidad.

Tensiones entre propiedad intelectual e investigación abierta

Federación Española de Sociedades de Archivística, Biblioteconomía, Documentación y Museística (FESABID). Informe sobre propiedad intelectual y acceso abierto en España. Madrid: FESABID, s. f. https://www.fesabid.org/informe-propiedad-intelectual-acceso-abierto-espana/

El informe pone de relieve los retos actuales y futuros, como la sostenibilidad económica del acceso abierto, el papel de los editores científicos, la necesidad de reformas legislativas y el impacto de tecnologías emergentes como la inteligencia artificial. En conjunto, se plantea la necesidad de avanzar hacia un modelo más abierto, justo y equilibrado, que garantice tanto la protección de los creadores como el acceso universal al conocimiento.

El informe de FESABID aborda la relación compleja entre la propiedad intelectual y el acceso abierto en el contexto español, especialmente en el ámbito de bibliotecas, archivos, museos y centros de investigación. Su punto de partida es la necesidad de encontrar un equilibrio entre la protección de los derechos de autor y el derecho de la ciudadanía a acceder a la cultura, la educación y el conocimiento científico. Este equilibrio se vuelve especialmente relevante en un entorno digital donde la reproducción y difusión de contenidos es más fácil, pero también más conflictiva desde el punto de vista legal.

El acceso abierto se define como un modelo que promueve la disponibilidad libre y gratuita de la producción científica en internet, sin barreras económicas, técnicas o legales. Este modelo, impulsado por iniciativas internacionales como la Declaración de Budapest, busca maximizar el impacto del conocimiento, especialmente cuando ha sido financiado con fondos públicos. En este sentido, el informe subraya que el acceso abierto no implica la ausencia de derechos de autor, sino una gestión más flexible de estos, a menudo mediante licencias abiertas como las Creative Commons, que permiten distintos niveles de reutilización respetando la autoría.

El documento también analiza el marco legal español y europeo, señalando que la legislación de propiedad intelectual sigue siendo un elemento clave que condiciona el desarrollo del acceso abierto. La transposición de la Directiva europea sobre derechos de autor en el mercado único digital introduce nuevos escenarios, como la regulación de la minería de textos y datos, que resulta fundamental para la investigación científica. Estas normativas intentan adaptarse a los cambios tecnológicos, pero al mismo tiempo generan tensiones entre los distintos actores implicados: autores, editores, instituciones y usuarios.

Otro aspecto central es el papel de las instituciones documentales (bibliotecas, archivos y museos), que actúan como mediadoras entre los derechos de propiedad intelectual y el acceso al conocimiento. El informe destaca su función en la creación y gestión de repositorios digitales, la formación de usuarios en derechos de autor y la promoción de políticas de acceso abierto. Estas instituciones no solo facilitan el acceso a la información, sino que también contribuyen a la preservación y difusión del patrimonio cultural y científico.

Más allá de los libros: transformando la biblioteca en un Espacio de juego desordenado y Aprendizaje

ALSC Blog. «Live Life to the Fullest: Why Messy Play Matters in Libraries.» Association for Library Service to Children, 10 de marzo de 2026. https://www.alsc.ala.org/blog/2026/03/live-life-to-the-fullest-why-messy-play-matters-in-libraries/.

El artículo defiende que el llamado messy play (juego desordenado o sensorial) no es una actividad secundaria o caótica dentro de las bibliotecas, sino una herramienta fundamental para el desarrollo infantil y el aprendizaje significativo. Frente a la concepción tradicional de la biblioteca como espacio ordenado, silencioso y controlado, el texto propone una redefinición más abierta y dinámica: un lugar donde el juego libre, incluso el que implica suciedad o desorden, tiene un valor educativo profundo. Este tipo de experiencias permite a los niños interactuar directamente con materiales, texturas y entornos, lo que favorece una comprensión del mundo basada en la exploración activa más que en la instrucción pasiva.

Uno de los ejes principales del artículo es el papel del juego sensorial en la construcción del conocimiento. A través de actividades abiertas —como manipular agua, arena, pintura o materiales cotidianos— los niños desarrollan conexiones neuronales esenciales para el aprendizaje temprano. Este enfoque está alineado con investigaciones en desarrollo infantil que subrayan que el aprendizaje más efectivo en las primeras etapas de la vida es aquel que involucra el cuerpo, los sentidos y la experimentación directa. En este sentido, el juego desordenado no solo estimula la creatividad, sino que también fortalece habilidades motoras, cognitivas y emocionales, contribuyendo a un desarrollo integral.

El texto también destaca el carácter inclusivo del messy play. Al tratarse de actividades abiertas y no estructuradas, no requieren habilidades previas ni un dominio lingüístico específico, lo que permite la participación de niños de diferentes edades, capacidades y contextos culturales. Este tipo de juego elimina barreras sociales y lingüísticas, facilitando la interacción y la colaboración entre los participantes. Además, fomenta la implicación de las familias, ya que padres y cuidadores tienden a involucrarse más activamente en este tipo de dinámicas, generando experiencias compartidas que refuerzan los vínculos afectivos y el aprendizaje conjunto.

Otro aspecto relevante es la relación entre el juego desordenado y el desarrollo de competencias clave para el siglo XXI. El artículo subraya que estas actividades promueven habilidades como la resolución de problemas, el pensamiento crítico, la creatividad y la regulación emocional. En un contexto cada vez más digital y estructurado, ofrecer espacios donde los niños puedan experimentar, equivocarse y aprender sin un objetivo predeterminado resulta esencial. Este tipo de experiencias permite desarrollar resiliencia, tolerancia a la frustración y autonomía, aspectos fundamentales tanto en el ámbito educativo como en la vida cotidiana.

El artículo reconoce los desafíos prácticos que implica implementar este tipo de programas en bibliotecas: desde la limpieza y la logística hasta las posibles reticencias del personal o de los usuarios. Sin embargo, insiste en que estos obstáculos no deben eclipsar los beneficios. El “desorden” es interpretado como un indicador de participación activa y aprendizaje significativo, no como un problema. En consecuencia, se plantea que las bibliotecas contemporáneas deben asumir este cambio de paradigma y consolidarse como espacios de experimentación, descubrimiento y juego, donde el aprendizaje surge de la experiencia directa y compartida.

Los efectos destructivos de la desinformación en el cerebro humano Ejemplos que ponen en alerta la prevalencia de la desinformación en el siglo XXI.

Psychology Today. “The Destructive Effects of Misinformation on the Human Brain.” The Changing Brain, febrero de 2026. https://www.psychologytoday.com/us/blog/the-changing-brain/202602/the-destructive-effects-of-misinformation-on-the-human-brain

En conjunto, el artículo alerta de que la desinformación debe entenderse como un problema de salud cognitiva y social: una forma de “contaminación mental” que afecta tanto a los procesos internos del cerebro como a las dinámicas colectivas de la sociedad contemporánea.

La desinformación actúa sobre el cerebro humano de forma comparable a un agente biológico perjudicial: no es simplemente información errónea, sino una alteración profunda de los mecanismos cognitivos básicos. El artículo explica que la información es un “nutriente esencial” para el cerebro, de la misma manera que el oxígeno lo es para los pulmones. Cuando ese nutriente está contaminado, el funcionamiento cerebral se ve comprometido en múltiples niveles, desde los procesos neuroquímicos hasta las conductas observables. Así como una mínima alteración en los impulsos nerviosos puede provocar un fallo físico grave, la introducción de información falsa puede generar distorsiones en la percepción, el juicio y la toma de decisiones.

Uno de los efectos más relevantes es la alteración de la memoria. La investigación psicológica ha demostrado que la desinformación puede integrarse en los recuerdos hasta el punto de sustituirlos o mezclarse con ellos. Este fenómeno, conocido como “efecto de desinformación”, implica que la memoria no es un registro fiel de la realidad, sino un sistema maleable que puede ser reescrito por información posterior. Así, las personas pueden recordar hechos que nunca ocurrieron o reinterpretar eventos reales a la luz de datos falsos, lo que tiene consecuencias especialmente graves en ámbitos como el testimonio judicial o la construcción de la memoria colectiva.

Otro aspecto clave es la persistencia de la desinformación incluso después de haber sido corregida. Diversos estudios señalan que, una vez que una idea falsa ha sido incorporada, resulta extremadamente difícil eliminarla del todo: el cerebro sigue utilizándola como referencia, fenómeno conocido como “influencia continuada”. Esto se debe a que la información inicial deja huellas cognitivas duraderas y a que el cerebro tiende a preferir narrativas coherentes, aunque sean incorrectas, frente a la incertidumbre. En este sentido, la desinformación no solo engaña momentáneamente, sino que configura marcos mentales estables.

El artículo también destaca el papel de las emociones como vehículo de desinformación. Las creencias falsas suelen ir acompañadas de respuestas emocionales intensas —miedo, ira, entusiasmo— que refuerzan su aceptación y difusión. El cerebro humano está especialmente predispuesto a procesar información emocional, lo que explica por qué los contenidos sensacionalistas o polarizantes se propagan con mayor rapidez. En el contexto digital actual, donde las redes sociales amplifican este tipo de mensajes, la desinformación encuentra un entorno ideal para expandirse y consolidarse.

Finalmente, el texto subraya que la desinformación del siglo XXI no es un fenómeno aislado, sino sistémico. Su prevalencia se ve impulsada por factores tecnológicos, cognitivos y sociales: la velocidad de difusión supera la capacidad de verificación, los algoritmos favorecen contenidos emocionales y los individuos tienden a aceptar información que confirma sus creencias previas. Como resultado, la desinformación no solo afecta al individuo —alterando su cerebro y su percepción de la realidad—, sino que también erosiona el tejido social al aumentar la polarización y debilitar la confianza en el conocimiento experto.

El auge de ChatGPT frente a Google: crecimiento del tráfico, cambio en la búsqueda y límites actuales

Graph comparing monthly traffic growth of ChatGPT (green line) and Google Search (blue line) from 2022 to 2025
Two professionals review a futuristic graph showing ChatGPT’s rapid traffic growth against Google Search.

Search Engine Land. “ChatGPT traffic vs. Google: What the latest study reveals.” Search Engine Land, 2026. https://searchengineland.com/chatgpt-traffic-google-study-47381

El artículo analiza el impacto creciente de ChatGPT y otras herramientas de inteligencia artificial en el ecosistema del tráfico web, comparándolo con el dominio tradicional de Google. La principal conclusión es que, aunque Google sigue siendo el actor dominante en términos absolutos, el crecimiento de ChatGPT está redefiniendo el modo en que los usuarios acceden a la información. La investigación muestra que ChatGPT ya genera un volumen significativo de tráfico equivalente a una parte relevante del ecosistema de búsqueda global, consolidándose como el segundo gran canal de descubrimiento digital.

Uno de los aspectos más relevantes del estudio es el cambio estructural en el comportamiento de los usuarios. Cada vez más personas utilizan herramientas de IA no solo como complemento, sino como punto de partida para sus búsquedas, especialmente en contextos de investigación previa (por ejemplo, en procesos de compra o toma de decisiones). Esto implica que muchas interacciones informativas ya no pasan por los motores de búsqueda tradicionales, lo que reduce la visibilidad de los sitios web en Google y desplaza parte del tráfico hacia entornos conversacionales.

Sin embargo, el artículo también subraya que este crecimiento no implica una sustitución inmediata de Google. De hecho, el volumen total de búsquedas en internet sigue aumentando, lo que indica que ambos modelos —búsqueda tradicional y búsqueda asistida por IA— están coexistiendo dentro de un ecosistema más amplio de “descubrimiento de información”. Lo que sí está cambiando es la cuota relativa: Google pierde peso porcentual aunque no necesariamente tráfico absoluto, mientras que la IA gana protagonismo rápidamente.

Otro punto clave es la calidad del tráfico generado por ChatGPT. Aunque su volumen aún es menor, algunos estudios indican que los usuarios que llegan desde herramientas de IA pueden tener una intención más definida, lo que podría traducirse en mejores tasas de conversión en determinados contextos. No obstante, otros análisis matizan esta idea y señalan que, en ciertos sectores como el comercio electrónico, el tráfico procedente de ChatGPT todavía rinde peor que el de Google en términos de ingresos y conversión.

Finalmente, el artículo destaca las implicaciones estratégicas para el SEO y el marketing digital. La visibilidad ya no depende únicamente de posicionarse en Google, sino también de aparecer en las respuestas generadas por sistemas de IA. Esto introduce un nuevo paradigma —a veces denominado “Answer Engine Optimization”— en el que las marcas deben adaptarse a un entorno donde las respuestas directas sustituyen parcialmente a los listados de enlaces. En este nuevo escenario, no estar presente en las respuestas de IA puede significar perder oportunidades antes incluso de que el usuario llegue a realizar una búsqueda tradicional.

En conjunto, el texto plantea una transformación profunda del ecosistema informativo: no se trata de la desaparición de Google, sino de la emergencia de un modelo híbrido donde la inteligencia artificial redefine cómo, cuándo y desde dónde accedemos al conocimiento.

Datos clave del estudio

  • Crecimiento del tráfico
    El tráfico de referencia desde ChatGPT creció un 206% entre enero de 2025 y enero de 2026.
  • Destino del tráfico
    Google recibe el 21,6% de todo el tráfico que ChatGPT envía a otros sitios.
    Es decir, uno de cada cinco clics desde ChatGPT termina en Google.
  • Concentración del tráfico
    Los 10 principales dominios concentran algo más del 30% del tráfico total.
    Esto indica una fuerte concentración en pocas webs.
    “Long tail” (larga cola)
    La mayoría de los sitios web reciben cantidades muy pequeñas de tráfico desde ChatGPT.
  • Expansión del ecosistema
    El número de dominios que reciben tráfico desde ChatGPT:
    Alcanzó un pico de ~260.000 sitios en 2025
    Luego se estabilizó en torno a ~170.000 sitios
  • Interpretación rápida de los datos
    ChatGPT está creciendo muy rápido, pero el tráfico aún está muy concentrado.
    Google sigue siendo clave incluso dentro del ecosma de IA (como destino de clics).
    Hay una democratización aparente (más webs reciben tráfico), pero en la práctica domina una élite de sitios.

Las humanidades y la humanidad en un mundo de IA: un manifiesto para educadores

Real Discussion. “Humanities and Humanity in an AI World: An Educator’s Manifesto.” Real Discussion. Accedido abril de 2026.

Texto completo

El manifiesto se articula como una llamada a la acción: recuperar el valor de lo humano en un entorno tecnológico acelerado. Propone que la educación del futuro debe centrarse en formar ciudadanos capaces de convivir con la inteligencia artificial sin perder su capacidad de juicio, su sensibilidad ética y su creatividad. En última instancia, sostiene que el objetivo no es competir con las máquinas, sino reafirmar aquello que nos hace irreductiblemente humanos: la capacidad de pensar, sentir, interpretar y dar sentido al mundo.

El manifiesto plantea una defensa firme del papel de las humanidades en un mundo cada vez más dominado por la inteligencia artificial, subrayando que el verdadero desafío no es tecnológico, sino profundamente humano. En este contexto, la educación se convierte en el principal campo de batalla donde se decide si la IA será una herramienta al servicio del desarrollo humano o un sustituto de capacidades esenciales como el pensamiento crítico, la creatividad y la reflexión ética. El texto advierte que el riesgo no reside únicamente en la automatización, sino en la posible delegación de procesos cognitivos fundamentales a sistemas algorítmicos, lo que podría empobrecer la experiencia educativa y reducir la autonomía intelectual de los estudiantes.

El documento insiste en que las humanidades —filosofía, literatura, historia, artes— no son disciplinas accesorias, sino el núcleo que permite interpretar el mundo, cuestionarlo y dotarlo de significado. Frente a una IA capaz de generar respuestas rápidas y aparentemente coherentes, el manifiesto reivindica la lentitud del pensamiento crítico, la ambigüedad como espacio de aprendizaje y el error como parte indispensable del proceso educativo. En este sentido, alerta sobre el peligro de que los estudiantes utilicen la inteligencia artificial como sustituto del esfuerzo intelectual, debilitando su capacidad para argumentar, analizar y crear conocimiento propio.

Asimismo, el manifiesto propone una pedagogía renovada que no rechaza la inteligencia artificial, pero sí exige una integración consciente y crítica. La IA debe ser utilizada como apoyo, nunca como reemplazo del pensamiento humano. Esto implica rediseñar las metodologías educativas para priorizar habilidades que las máquinas no pueden replicar plenamente, como la empatía, el juicio ético, la interpretación contextual y la imaginación. En esta línea, coincide con otros enfoques humanistas que subrayan que la educación no puede reducirse a eficiencia o productividad, sino que debe cultivar la dimensión moral y relacional del ser humano.

Otro eje fundamental del texto es la defensa de la autonomía del profesorado. Los docentes no deben convertirse en meros supervisores de herramientas tecnológicas, sino seguir siendo guías intelectuales capaces de orientar el aprendizaje desde una perspectiva crítica. El manifiesto advierte que una adopción acrítica de la IA en el aula puede desplazar la autoridad pedagógica hacia sistemas automatizados diseñados por grandes corporaciones, lo que plantea riesgos no solo educativos, sino también políticos y culturales.