Archivo de la categoría: Tecnologías de la información

Investigación sobre las perspectivas de los bibliotecarios sobre la IA Generativa

IFLA. «Investigating Librarian Perspectives on Generative AI: A Mixed-Methods R&D InitiativeIFLA Repository. Publicado el 21 de agosto de 2023. https://repository.ifla.org/items/bd134451-66c5-4b6a-a307-910281922a25?utm_source=chatgpt.com

Texto completo

La tecnología de IA generativa (IA gen), como ChatGPT, ha tenido un impacto significativo en el ámbito académico en 2023. Para investigar el potencial de incorporar la IA generativa, y específicamente los Modelos de Lenguaje Grande (LLMs), en Keenious, invitamos a especialistas en información a compartir sus opiniones, preocupaciones y evaluaciones éticas sobre las aplicaciones prácticas de la tecnología de IA generativa en las bibliotecas.

La tecnología de la inteligencia artificial generativa (IA gen), como ChatGPT, ha tenido un impacto notable en el ámbito académico en 2023. Para explorar cómo la IA generativa, en particular los Modelos de Lenguaje Grande (LLMs), podría integrarse en las bibliotecas, se llevó a cabo una investigación con la participación de especialistas en información. El objetivo era conocer sus opiniones, preocupaciones y evaluaciones éticas sobre las aplicaciones de esta tecnología en el entorno bibliotecario, específicamente en el contexto de la herramienta de investigación Keenious.

Metodología
Se realizaron cinco talleres idénticos de dos horas entre mayo y junio de 2023, con la participación de 52 especialistas en información provenientes de 21 instituciones ubicadas en 9 países diferentes. Los talleres incluyeron:

  • Discusión grupal sobre el uso de la IA generativa en bibliotecas a través de ejercicios individuales y colaborativos.
  • Evaluación ética de ocho casos hipotéticos de uso de la tecnología LLM.
  • Prueba y creación de solicitudes en un prototipo basado en LLM para evaluar la aplicabilidad práctica de la tecnología.

Para facilitar la interacción y organización de las actividades, se utilizó la plataforma colaborativa Mural, permitiendo que los participantes compartieran comentarios y opiniones a través de notas digitales.

Resultados Principales

  1. Evaluación Ética de los Casos de Uso
    Los participantes evaluaron la ética de diversos casos de uso de la IA generativa en las bibliotecas. Los casos de uso relacionados con «retroalimentación sobre el lenguaje» (4.0/5.0) y «ayudar a aprender sobre un tema» (3.91/5.0) fueron considerados como los más éticos. En cambio, los casos donde se utilizaba la IA para «imitar una profesión relevante» (2.84/5.0) o «generar texto basado en la entrada del usuario» (2.43/5.0) fueron calificados como los menos éticos.
  2. Preocupaciones sobre la Adopción de IA Generativa
    Durante los talleres, se identificaron 16 temas relacionados con las preocupaciones sobre la adopción de IA generativa en las bibliotecas. Entre las principales preocupaciones destacaron el miedo a la sustitución de empleos, el riesgo de sesgos en los contenidos generados y la incertidumbre sobre cómo la IA podría afectar la autonomía profesional de los bibliotecarios.
  3. Preocupaciones sobre la No Adopción de IA Generativa
    También surgieron 4 temas relacionados con las preocupaciones por no adoptar la IA generativa. Los participantes expresaron temores sobre el retraso tecnológico y la pérdida de oportunidades para mejorar los servicios bibliotecarios, lo que podría poner a las bibliotecas en desventaja frente a otras instituciones que adoptaran la tecnología.
  4. Propuestas de Intervenciones para Manejar las Preocupaciones
    Para abordar las preocupaciones surgidas, los participantes sugirieron 5 posibles intervenciones, entre las que se incluyeron la necesidad de ofrecer formación continua a los bibliotecarios sobre el uso de la IA, el establecimiento de directrices éticas claras y la integración de herramientas tecnológicas de manera gradual.

Conclusiones
El uso de la IA generativa en las bibliotecas está destinado a ser un tema de interés creciente. A través de este estudio, se identificaron 25 temas clave que abarcan una amplia gama de opiniones, desde escépticas hasta optimistas. Las preocupaciones relacionadas con la adopción de esta tecnología fueron las más discutidas, lo que refleja una visión crítica pero consciente de los posibles impactos de la IA. En el futuro, la evaluación ética de los casos de uso de los Modelos de Lenguaje Grande será esencial para guiar el desarrollo de herramientas tecnológicas como Keenious en el campo bibliotecario.

Este estudio sirve como un punto de partida para comprender cómo los especialistas en bibliotecas perciben la integración de la IA generativa en sus entornos profesionales, y establece una base para futuras investigaciones y desarrollos en el uso de la tecnología en las bibliotecas.

Promoviendo la Alfabetización en IA a través de las bibliotecas universitarias de EE. UU.: un análisis de LibGuides utilizando el Marco de Alfabetización en IA de EDUCAUSE

Chun Ru, K., & Tang, R. (2025). Promoting AI literacy through U.S. academic libraries: an analysis of LibGuides from ARL and Oberlin group libraries using the EDUCAUSE AI literacy framework. Information Research an International Electronic Journal30(iConf), 847–865. https://doi.org/10.47989/ir30iConf47182

El estudio examina 70 guías de bibliotecas (LibGuides) sobre inteligencia artificial generativa de bibliotecas universitarias afiliadas a la Association of Research Libraries (ARL) y al Oberlin Group, utilizando el marco de alfabetización en IA de EDUCAUSE. El análisis, a través de la evaluación de contenido, reorganiza y mejora dicho marco para adaptarlo mejor a las necesidades de la educación superior, llenando las brechas del modelo original y proponiendo un enfoque más detallado sobre la alfabetización en IA, considerando los desafíos específicos de las bibliotecas académicas.

Los resultados muestran que la mayoría de las guías se enfocan en herramientas básicas de IA y su uso responsable, pero con menos atención a las competencias técnicas avanzadas relacionadas con la creación de IA. Se observó que las LibGuides de ARL ofrecen una cobertura más completa en comparación con las del Oberlin Group. El estudio sugiere que para mejorar la alfabetización en IA, es necesario establecer iniciativas de formación y compartir conocimientos de manera constante entre las bibliotecas universitarias.

El estudio ofrece valiosos insights sobre el papel de las bibliotecas en la promoción de la alfabetización en IA generativa y propone áreas para futuras asociaciones estratégicas y mejoras.

De la tiza al chip: el uso de la inteligencia artificial en las aulas

Donaire, José Antonio, Mònica Puntí Brun, Konstantina Zerva, Raquel Camprubí Subirana y Núria Galí Espelt. De la tiza al chip: el uso de la inteligencia artificial en las aulas. Girona: Edicions UdG, enero de 2025.

Texto completo

En 2023 un grupo de profesoras y profesores de la Universitat de Girona, con argumentos a favor de la inteligencia artificial en las aulas, e interesados por las posibilidades de ésta en la docencia universitaria, crearon un grupo de trabajo informal. Este libro recoge una parte de los resultados del trabajo del grupo, combinados con la búsqueda de la información sobre un tema que evoluciona de forma permanente​.

El texto describe el impacto de la inteligencia artificial (IA) en diversos ámbitos, desde la predicción de terremotos hasta la optimización del tráfico y la educación. La IA ya forma parte de la vida cotidiana, muchas veces de manera invisible, lo que plantea interrogantes sobre su incorporación en el ámbito educativo.

Ante su irrupción en las aulas, la primera reacción de muchos docentes ha sido prohibir su uso y aplicar medidas para evitar su influencia en la evaluación del alumnado. Sin embargo, esto plantea la necesidad de replantear los criterios de evaluación, ya que la IA puede facilitar tareas como la redacción de ensayos, la traducción o el análisis de textos sin un aprendizaje real.

A pesar de la resistencia, también hay argumentos a favor de su integración. Si la IA ya es efectiva en medicina, marketing o ingeniería, podría tener aplicaciones útiles en educación. Ignorarla podría generar una brecha entre la formación académica y el mundo laboral, como ocurrió con la llegada de los buscadores web. En respuesta a esta realidad, un grupo de docentes de la Universidad de Girona ha explorado el uso de la IA en la enseñanza mediante experimentos controlados, evaluando su impacto y utilidad real. Este libro recoge los resultados de sus investigaciones y reflexiones sobre la evolución de la IA en la educación.

Las grandes empresas de inteligencia artificial han hecho caso omiso de las leyes de copyright

Pastor, Javier. “Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias.” Xataka, 13 de marzo de 2025. https://www.xataka.com/legislacion-y-derechos/todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias

Las grandes empresas de inteligencia artificial utilizan material protegido por derechos de autor para entrenar sus modelos, y hasta ahora, no han enfrentado repercusiones significativas. La reciente demanda de editoriales francesas contra Meta es solo otro capítulo en una batalla legal que parece no tener fin.

Las grandes empresas de inteligencia artificial (IA) han sido objeto de múltiples demandas por presuntas violaciones de derechos de autor al utilizar contenido protegido para entrenar sus modelos. A pesar de la gravedad de estas acusaciones, muchas de estas compañías han logrado eludir consecuencias legales significativas.

Las editoriales francesas han decidido actuar contra Meta por el uso indebido de contenido protegido. Sin embargo, no son las primeras en dar este paso, ni probablemente serán las últimas. Desde hace años, compañías de IA han empleado materiales con derechos de autor para alimentar sus algoritmos sin autorización, y la respuesta judicial ha sido, hasta ahora, ineficaz.

Getty Images fue una de las primeras en llevar a los tribunales a una empresa de IA. En 2023, demandó a Stable Diffusion por el uso no autorizado de sus imágenes en la generación de contenido visual. Sin embargo, a pesar de la magnitud de este caso y de muchos otros que han surgido desde entonces, la falta de resoluciones contundentes ha permitido que el problema persista.

Demandas destacadas contra empresas de IA

  • Getty Images vs. Stability AI: En enero de 2023, Getty Images demandó a Stability AI, desarrolladora de Stable Diffusion, acusándola de copiar y procesar ilegalmente millones de imágenes protegidas por derechos de autor para entrenar su modelo de IA generativa.
  • Discográficas vs. Empresas de IA: En junio de 2024, las principales discográficas, incluyendo Sony Music Entertainment, Universal Music Group y Warner Records, demandaron a las empresas de IA Suno y Udio por supuesta infracción de derechos de autor al utilizar contenido musical protegido sin autorización en el entrenamiento de sus modelos.
  • Autores vs. Anthropic: En agosto de 2024, un grupo de escritores presentó una demanda contra la empresa de IA Anthropic, acusándola de construir su negocio utilizando cientos de miles de libros protegidos por derechos de autor sin permiso ni compensación.

Resultados legales favorables a las empresas de IA

A pesar de las numerosas demandas, varias empresas de IA han obtenido fallos judiciales favorables:

  • OpenAI: En julio de 2024, OpenAI logró que se desestimaran dos demandas en su contra por supuestas violaciones de derechos de autor, relacionadas con la eliminación de información de gestión de derechos en los datos de entrenamiento de ChatGPT.
  • GitHub Copilot: En noviembre de 2022, se presentó una demanda contra GitHub Copilot por presunta violación de acuerdos de licencia abierta al utilizar código protegido para entrenar su modelo de IA. Sin embargo, en julio de 2024, un juez desestimó prácticamente todas las reclamaciones de los demandantes.

Iniciativas regulatorias y debates legales

La creciente preocupación por el uso de contenido protegido en el entrenamiento de modelos de IA ha llevado a iniciativas regulatorias y debates legales:

  • Regulación en España: El Gobierno español aprobó en marzo de 2025 una norma que obliga a etiquetar claramente los contenidos creados con IA, adaptando la legislación al Reglamento Europeo de IA. Las infracciones pueden acarrear multas de hasta 35 millones de euros o entre el 5% y el 7% de la facturación mundial de las empresas infractoras.
  • Propuestas en EE. UU.: OpenAI y Google han sugerido al Gobierno de Estados Unidos relajar las medidas de copyright para permitir un entrenamiento más eficiente de los modelos de IA, lo que ha generado debates sobre el equilibrio entre la innovación tecnológica y la protección de los derechos de autor.

La tensión entre el avance de la inteligencia artificial y la protección de los derechos de autor continúa siendo un tema central en la industria tecnológica. Mientras las empresas de IA buscan acceder a vastos conjuntos de datos para mejorar sus modelos, creadores y titulares de derechos exigen mecanismos que garanticen el uso ético y legal de sus obras. El desarrollo de marcos legales y regulaciones claras será esencial para equilibrar la innovación tecnológica con la protección de la propiedad intelectual.

La biblioteca y la construcción de la cultura de alfabetización en inteligencia artificial generativa

La biblioteca y la construcción de la cultura de alfabetización en inteligencia artificial generativa

por Julio Alonso Arévalo. Jornadas Técnicas Asociación de Bibliotecarios de la Iglesia en España. Valladolid 14/0372025

Ver en Youtube

En la era de la IA, la alfabetización informacional está evolucionando, adquiriendo una nueva dimensión. Es fundamental desarrollar la capacidad de comprender, evaluar e interactuar con la información generada por máquinas. La alfabetización en IA va más allá de la tradicional, enfrentando desafíos únicos como la identificación de medios manipulados, la comprensión de las implicaciones éticas y la distinción entre textos escritos por humanos y por IA. A medida que la IA transforma industrias, medios y comunicaciones, esta alfabetización capacita a las personas para juzgar la credibilidad de la información generada por IA, fomentando un uso ético y responsable de esta tecnología revolucionaria.

El 52% de los adultos en EE. UU. utilizan modelos de lenguaje de inteligencia artificial

Elon University’s Imagining the Digital Future Center. «Close Encounters of the AI Kind: The Increasingly Human-Like Way People Are Engaging with Language ModelsMailchimp, 12 de marzo de 2025.

Texto completo

El Centro de Imaginación del Futuro Digital de la Universidad de Elon ha publicado una encuesta nacional que revela que el 52% de los adultos en EE. UU. utilizan modelos de lenguaje de inteligencia artificial (LLMs) como ChatGPT, Gemini, Claude y Copilot, convirtiéndolos en una de las tecnologías de adopción más rápida de la historia.

Los usuarios de LLMs describen interacciones cada vez más humanas con estas herramientas:

  • 65% ha mantenido conversaciones habladas con LLMs, con un 34% que lo hace varias veces por semana.
  • 49% cree que los modelos son más inteligentes que ellos.
  • 40% considera que los modelos los entienden en cierta medida.
  • 32% percibe que los LLMs tienen sentido del humor.
  • 25% cree que los modelos hacen juicios morales y los animan.
  • 22% siente que los LLMs expresan empatía.

Sin embargo, también generan sentimientos negativos:

  • 50% se ha sentido perezoso al usarlos.
  • 35% ha sentido que estaba haciendo trampa.
  • 33% cree que se ha vuelto demasiado dependiente de los LLMs.
  • 23% ha cometido errores importantes por confiar en la información generada.
  • 21% se ha sentido manipulado.

El estudio desafía la idea de que los LLMs son solo herramientas de trabajo, ya que la mayoría los usa con fines personales:

  • 51% los emplea principalmente para aprendizaje informal, frente a un 24% que los usa para el trabajo.
  • 34% los usa diariamente, y un 10% lo hace casi constantemente.

Respecto a plataformas:

  • 72% ha usado ChatGPT, 50% Gemini, 39% Copilot, 20% LLaMa, 12% Grok y 9% Claude.

Además, 54% afirma que los LLMs han mejorado su productividad y 42% su creatividad.

Aunque los usuarios creen que los modelos podrían causar daño social en la próxima década, también confían en su potencial para avances científicos y médicos y en que seguirán bajo control humano.

Elsevier lanza ScienceDirect AI, una herramienta diseñada para facilitar el trabajo de los investigadores.

Elsevier. «ScienceDirect AI: Eureka, Every DayShorthand Stories. https://elsevier.shorthandstories.com/sciencedirect-ai/

Su objetivo es permitir la extracción, resumen y comparación instantánea de información confiable a partir de millones de artículos y capítulos de libros disponibles en ScienceDirect, la mayor plataforma de investigación revisada por pares.

Los investigadores se enfrentan a un volumen de información cada vez mayor y abrumador, y necesitan obtener rápidamente información precisa en la que puedan confiar. Los estudios demuestran que dedican entre el 25% y el 35% de su tiempo a examinar la bibliografía. ScienceDirect AI ayuda a afrontar este reto recurriendo al conjunto de contenidos más amplio y profundo de millones de artículos de investigación y capítulos de libros a texto completo revisados por pares para generar resúmenes precisos instantáneos y destacar los hallazgos clave, al tiempo que proporciona referencias para apoyar la reproducibilidad y la integridad de la investigación.

ScienceDirect AI incluye las siguientes funciones:

Ask ScienceDirect AI  – búsqueda y resúmenes de artículos a texto completo y capítulos de libros.

Los usuarios pueden buscar y obtener respuestas en el texto completo de 14 millones de artículos y capítulos de libros, utilizando sus propias palabras para describir lo que necesitan y por qué. La IA de ScienceDirect buscará entre los millones de documentos de su índice para proporcionar una Respuesta Resumida con referencias, Source Snippets para cada referencia y breves resúmenes de Related Insights, al tiempo que enlaza con el documento original.

Reading Assistant – conversar con un documento en ScienceDirect

Esta función conversacional responde a preguntas sobre el contenido de un determinado artículo o capítulo de libro a texto completo y permite a los investigadores formular más preguntas al documento. Los usuarios pueden hacer clic en las referencias dentro de los resúmenes para saltar a los lugares del artículo de donde procede la respuesta, también sugiere preguntas de investigación.

Compare Experiments  – tabla resumen de experimentos

Comparar y sintetizar la literatura puede llevar mucho tiempo. La herramienta exclusiva Compare Experiments de ScienceDirect AI toma un conjunto de artículos y crea una tabla que desglosa cada experimento dentro de ellos, destacando los aspectos clave de cada uno, incluyendo objetivos, métodos y resultados.

Las 100 principales aplicaciones de IA generativa en 2025: Tendencias, crecimiento y competencia

Andreessen Horowitz. “The Top 100 Gen AI Consumer Apps – 4th Edition.a16z, marzo 2025. https://a16z.com/100-gen-ai-apps-4/

El informe de a16z destaca la rápida evolución y adopción de las aplicaciones de IA generativa en el ámbito del consumo. La competencia es feroz, y las aplicaciones que ofrecen valor real y se integran en la vida diaria de los usuarios son las que están logrando mantenerse y crecer en este dinámico ecosistema.

El artículo «The Top 100 Gen AI Consumer Apps – 4th Edition» de Andreessen Horowitz (a16z) ofrece una visión detallada de las aplicaciones de inteligencia artificial generativa (GenAI) que están moldeando el futuro del consumo digital. A continuación, se presenta un resumen exhaustivo de los puntos más destacados del informe.

Panorama Actual de las Aplicaciones de GenAI

En los últimos seis meses, el panorama de las aplicaciones de IA generativa ha experimentado cambios significativos. Algunas aplicaciones han emergido rápidamente, mientras que otras han perdido relevancia. Por ejemplo, Deepseek pasó de ser desconocida a convertirse en una fuerte competidora de ChatGPT. Además, los modelos de video generativo han avanzado de ser experimentales a bastante confiables, al menos para clips cortos. Este dinamismo refleja una competencia más intensa y mayores expectativas en el mercado de GenAI.

Metodología del Ranking

El informe presenta el cuarto ranking bianual de las 100 principales aplicaciones de consumo de GenAI, dividiéndose en:

  • Top 50 Aplicaciones Web AI-First: Clasificadas según visitas mensuales únicas, basadas en datos de Similarweb. Ver
  • Top 50 Aplicaciones Móviles AI-First: Clasificadas según usuarios activos mensuales, basadas en datos de Sensor Tower. Ver

Es importante destacar que solo se incluyeron productos nativos de IA. Aplicaciones que han incorporado características de IA generativa pero no son nativas de IA, como Canva y Notion, no fueron consideradas en este ranking. Además, se introdujo la «Brink List», que destaca las 10 empresas (cinco web y cinco móviles) que estuvieron cerca de entrar en el top 100, mostrando el rápido movimiento y la competitividad en el ámbito de GenAI.

Principales Observaciones del Informe

  1. Crecimiento de ChatGPT: Desde su lanzamiento en noviembre de 2022, ChatGPT alcanzó 100 millones de usuarios en dos meses, convirtiéndose en la aplicación de consumo de más rápido crecimiento. Aunque inicialmente su crecimiento se estabilizó, experimentó un resurgimiento significativo, alcanzando 400 millones de usuarios activos semanales para febrero de 2025. Este crecimiento se atribuye a la introducción de modelos y capacidades más avanzadas, como GPT-4o y el Modo de Voz Avanzado, que han ampliado las aplicaciones prácticas de ChatGPT.
  2. Emergencia de Deepseek: Lanzada en enero de 2025, Deepseek rápidamente se posicionó como una alternativa sólida a ChatGPT, destacándose por sus capacidades y funcionalidades innovadoras.
  3. Evolución de los Modelos de Video Generativo: Los modelos de video generativo han pasado de ser experimentales a bastante confiables, al menos para clips cortos, ampliando las posibilidades creativas en diversas industrias.
  4. Tendencia de «Vibecoding»*: Esta tendencia está cambiando quién puede crear con IA, no solo quién puede usarla, democratizando la creación de contenido y permitiendo que más personas participen en procesos creativos asistidos por IA.

«Vibecoding» es un término de internet que se refiere a la práctica de crear o experimentar un estado de ánimo específico a través de música, estética, ambiente o actividades. Básicamente, se trata de codificar (como en programación) una vibra o energía determinada en un momento o espacio. En esencia, es la idea de «programar» tu entorno o estado emocional para alinearlo con una vibración específica.

Cómo hacer que ChatGPT proporcione mejores fuentes y citas

Nellis, Stephan. 2024. «How to Make ChatGPT Provide Better Sources and CitationsZDNet, March 4, 2024. https://www.zdnet.com/article/how-to-make-chatgpt-provide-better-sources-and-citations/.

Nellis explica que una de las principales críticas a ChatGPT es su falta de precisión en las fuentes que proporciona. A menudo, la IA no cita sus fuentes o brinda enlaces incorrectos. Sin embargo, existen estrategias para mejorar la calidad de las referencias obtenidas

Una de las críticas más recurrentes a ChatGPT es la dificultad para verificar la precisión de la información que proporciona. Esto se debe a que no siempre incluye fuentes, notas a pie de página o enlaces que respalden sus respuestas.

Según la propia descripción de ChatGPT: «En su versión gratuita, GPT-4o ofrece citas básicas y esenciales, priorizando referencias rápidas y concisas para facilitar la trazabilidad de la información. En cambio, la versión de pago proporciona citas más detalladas y frecuentes, incorporando múltiples fuentes y anotaciones contextuales para una verificación y comprensión más completas. Esto garantiza una experiencia más sólida y fiable, especialmente útil para quienes necesitan información en profundidad y validación rigurosa de las fuentes.»

Para mejorar la precisión de las fuentes y citas proporcionadas por ChatGPT, es esencial adoptar estrategias que incrementen la fiabilidad de sus respuestas. A continuación, se detallan algunas recomendaciones respaldadas por recursos externos:

  • Solicitar fuentes y citas explícitamente: Se recomienda preguntar directamente por fuentes y enlaces, especificando la cantidad deseada o el tipo de fuente (académica, revisada por pares, etc.).
  • Refinar las solicitudes: Se pueden mejorar los resultados pidiendo fuentes confiables o ajustando los rangos de fechas para evitar información obsoleta.
  • Verificar la validez de las fuentes: Muchos enlaces proporcionados por ChatGPT son incorrectos o irrelevantes, por lo que es esencial contrastarlos con búsquedas en Google Scholar, JSTOR u otras bases de datos académicas.
  • Utilizar ChatGPT como asistente de investigación: En lugar de confiar ciegamente en sus respuestas, se recomienda usar sus sugerencias como punto de partida para investigaciones más profundas.

El futuro de Internet pasa probablemente por comunidades más pequeñas, centradas en experiencias personalizadas.

Wong, Edwin, y Andrew Melnizek. “The Future of the Internet Is Likely Smaller Communities, with a Focus on Curated Experiences.The Verge, 25 de febrero de 2025. https://www.theverge.com/press-room/617654/internet-community-future-research

El futuro de internet se orienta hacia comunidades más pequeñas y experiencias curadas, según un estudio de The Verge y Vox Media. Con la fragmentación de la red y el auge de la IA, el concepto de comunidad se está redefiniendo. La investigación muestra que los usuarios buscan conexiones más significativas, seguras y auténticas, alejándose de las grandes plataformas en favor de espacios más íntimos y confiables.

El futuro de internet está cambiando, alejándose de las grandes plataformas para dar paso a comunidades más pequeñas y enfocadas en experiencias curadas. Un estudio realizado por The Verge y Vox Media analiza esta fragmentación de la red y cómo la era de la inteligencia artificial está redefiniendo el concepto de comunidad y conexión humana. En este nuevo panorama digital, los usuarios buscan relaciones más auténticas y significativas, priorizando la seguridad y la confianza en los espacios donde interactúan.

Uno de los principales hallazgos del estudio es la creciente pérdida de confianza en las grandes plataformas tecnológicas. Empresas como Google y las redes sociales tradicionales están perdiendo relevancia a medida que los usuarios perciben una falta de autenticidad en sus interacciones digitales. En su lugar, están emergiendo nuevas plataformas y comunidades más especializadas que ofrecen experiencias más personalizadas y de confianza. El 42 % de los encuestados considera que los motores de búsqueda, como Google, son cada vez menos útiles, lo que indica una posible transformación en la manera en que las personas acceden a la información en internet.

El estudio también señala que, aunque las redes sociales han sido fundamentales para conectar a las personas, muchas de ellas han contribuido a la polarización y al distanciamiento real entre los usuarios. La publicidad invasiva y los algoritmos que priorizan el contenido comercial sobre las interacciones genuinas han provocado que el 60 % de los encuestados perciba negativamente el estado actual de las redes sociales. Muchas personas sienten que se han convertido en meros números dentro de un sistema diseñado para la rentabilidad, en lugar de en espacios de interacción auténtica.

Otro aspecto clave es el papel del contenido en la construcción de comunidades digitales. No es necesario ser un creador activo para sentirse parte de un grupo en línea. De hecho, el 90 % de los usuarios solo consume contenido sin interactuar directamente, mientras que el 9 % publica ocasionalmente y solo el 1 % genera el 80 % del contenido. Sin embargo, incluso los observadores pasivos experimentan un sentido de pertenencia, lo que demuestra que el contenido sigue siendo el eje central de la participación en comunidades en línea.

A pesar de los avances en inteligencia artificial, la automatización excesiva genera desconfianza en muchos usuarios. Casi la mitad de los encuestados prefieren formar parte de comunidades donde el contenido generado por IA esté restringido o prohibido. La sensación de interacción manipulada o impersonal es un factor que aleja a las personas de ciertos espacios digitales. Esto sugiere que las plataformas que logren equilibrar la tecnología con la autenticidad humana serán las más exitosas en el futuro.

Finalmente, el informe concluye que el futuro de internet se dirige hacia comunidades más pequeñas y con propósito. Los usuarios buscan espacios donde la confianza y los valores compartidos sean prioritarios, alejándose de las grandes redes impersonales. En este contexto, las marcas y plataformas que logren crear entornos íntimos y auténticos tendrán mayores posibilidades de éxito. En lugar de depender de algoritmos masivos, el futuro digital se perfila como un regreso a la esencia de las comunidades reales, donde la interacción humana y la confianza sean el centro de la experiencia en línea.