Archivo de la etiqueta: Inteligencia artificial

Las grandes empresas de inteligencia artificial han hecho caso omiso de las leyes de copyright

Pastor, Javier. “Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias.” Xataka, 13 de marzo de 2025. https://www.xataka.com/legislacion-y-derechos/todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias

Las grandes empresas de inteligencia artificial utilizan material protegido por derechos de autor para entrenar sus modelos, y hasta ahora, no han enfrentado repercusiones significativas. La reciente demanda de editoriales francesas contra Meta es solo otro capítulo en una batalla legal que parece no tener fin.

Las grandes empresas de inteligencia artificial (IA) han sido objeto de múltiples demandas por presuntas violaciones de derechos de autor al utilizar contenido protegido para entrenar sus modelos. A pesar de la gravedad de estas acusaciones, muchas de estas compañías han logrado eludir consecuencias legales significativas.

Las editoriales francesas han decidido actuar contra Meta por el uso indebido de contenido protegido. Sin embargo, no son las primeras en dar este paso, ni probablemente serán las últimas. Desde hace años, compañías de IA han empleado materiales con derechos de autor para alimentar sus algoritmos sin autorización, y la respuesta judicial ha sido, hasta ahora, ineficaz.

Getty Images fue una de las primeras en llevar a los tribunales a una empresa de IA. En 2023, demandó a Stable Diffusion por el uso no autorizado de sus imágenes en la generación de contenido visual. Sin embargo, a pesar de la magnitud de este caso y de muchos otros que han surgido desde entonces, la falta de resoluciones contundentes ha permitido que el problema persista.

Demandas destacadas contra empresas de IA

  • Getty Images vs. Stability AI: En enero de 2023, Getty Images demandó a Stability AI, desarrolladora de Stable Diffusion, acusándola de copiar y procesar ilegalmente millones de imágenes protegidas por derechos de autor para entrenar su modelo de IA generativa.
  • Discográficas vs. Empresas de IA: En junio de 2024, las principales discográficas, incluyendo Sony Music Entertainment, Universal Music Group y Warner Records, demandaron a las empresas de IA Suno y Udio por supuesta infracción de derechos de autor al utilizar contenido musical protegido sin autorización en el entrenamiento de sus modelos.
  • Autores vs. Anthropic: En agosto de 2024, un grupo de escritores presentó una demanda contra la empresa de IA Anthropic, acusándola de construir su negocio utilizando cientos de miles de libros protegidos por derechos de autor sin permiso ni compensación.

Resultados legales favorables a las empresas de IA

A pesar de las numerosas demandas, varias empresas de IA han obtenido fallos judiciales favorables:

  • OpenAI: En julio de 2024, OpenAI logró que se desestimaran dos demandas en su contra por supuestas violaciones de derechos de autor, relacionadas con la eliminación de información de gestión de derechos en los datos de entrenamiento de ChatGPT.
  • GitHub Copilot: En noviembre de 2022, se presentó una demanda contra GitHub Copilot por presunta violación de acuerdos de licencia abierta al utilizar código protegido para entrenar su modelo de IA. Sin embargo, en julio de 2024, un juez desestimó prácticamente todas las reclamaciones de los demandantes.

Iniciativas regulatorias y debates legales

La creciente preocupación por el uso de contenido protegido en el entrenamiento de modelos de IA ha llevado a iniciativas regulatorias y debates legales:

  • Regulación en España: El Gobierno español aprobó en marzo de 2025 una norma que obliga a etiquetar claramente los contenidos creados con IA, adaptando la legislación al Reglamento Europeo de IA. Las infracciones pueden acarrear multas de hasta 35 millones de euros o entre el 5% y el 7% de la facturación mundial de las empresas infractoras.
  • Propuestas en EE. UU.: OpenAI y Google han sugerido al Gobierno de Estados Unidos relajar las medidas de copyright para permitir un entrenamiento más eficiente de los modelos de IA, lo que ha generado debates sobre el equilibrio entre la innovación tecnológica y la protección de los derechos de autor.

La tensión entre el avance de la inteligencia artificial y la protección de los derechos de autor continúa siendo un tema central en la industria tecnológica. Mientras las empresas de IA buscan acceder a vastos conjuntos de datos para mejorar sus modelos, creadores y titulares de derechos exigen mecanismos que garanticen el uso ético y legal de sus obras. El desarrollo de marcos legales y regulaciones claras será esencial para equilibrar la innovación tecnológica con la protección de la propiedad intelectual.

La biblioteca y la construcción de la cultura de alfabetización en inteligencia artificial generativa

La biblioteca y la construcción de la cultura de alfabetización en inteligencia artificial generativa

por Julio Alonso Arévalo. Jornadas Técnicas Asociación de Bibliotecarios de la Iglesia en España. Valladolid 14/0372025

Ver en Youtube

En la era de la IA, la alfabetización informacional está evolucionando, adquiriendo una nueva dimensión. Es fundamental desarrollar la capacidad de comprender, evaluar e interactuar con la información generada por máquinas. La alfabetización en IA va más allá de la tradicional, enfrentando desafíos únicos como la identificación de medios manipulados, la comprensión de las implicaciones éticas y la distinción entre textos escritos por humanos y por IA. A medida que la IA transforma industrias, medios y comunicaciones, esta alfabetización capacita a las personas para juzgar la credibilidad de la información generada por IA, fomentando un uso ético y responsable de esta tecnología revolucionaria.

El 52% de los adultos en EE. UU. utilizan modelos de lenguaje de inteligencia artificial

Elon University’s Imagining the Digital Future Center. «Close Encounters of the AI Kind: The Increasingly Human-Like Way People Are Engaging with Language ModelsMailchimp, 12 de marzo de 2025.

Texto completo

El Centro de Imaginación del Futuro Digital de la Universidad de Elon ha publicado una encuesta nacional que revela que el 52% de los adultos en EE. UU. utilizan modelos de lenguaje de inteligencia artificial (LLMs) como ChatGPT, Gemini, Claude y Copilot, convirtiéndolos en una de las tecnologías de adopción más rápida de la historia.

Los usuarios de LLMs describen interacciones cada vez más humanas con estas herramientas:

  • 65% ha mantenido conversaciones habladas con LLMs, con un 34% que lo hace varias veces por semana.
  • 49% cree que los modelos son más inteligentes que ellos.
  • 40% considera que los modelos los entienden en cierta medida.
  • 32% percibe que los LLMs tienen sentido del humor.
  • 25% cree que los modelos hacen juicios morales y los animan.
  • 22% siente que los LLMs expresan empatía.

Sin embargo, también generan sentimientos negativos:

  • 50% se ha sentido perezoso al usarlos.
  • 35% ha sentido que estaba haciendo trampa.
  • 33% cree que se ha vuelto demasiado dependiente de los LLMs.
  • 23% ha cometido errores importantes por confiar en la información generada.
  • 21% se ha sentido manipulado.

El estudio desafía la idea de que los LLMs son solo herramientas de trabajo, ya que la mayoría los usa con fines personales:

  • 51% los emplea principalmente para aprendizaje informal, frente a un 24% que los usa para el trabajo.
  • 34% los usa diariamente, y un 10% lo hace casi constantemente.

Respecto a plataformas:

  • 72% ha usado ChatGPT, 50% Gemini, 39% Copilot, 20% LLaMa, 12% Grok y 9% Claude.

Además, 54% afirma que los LLMs han mejorado su productividad y 42% su creatividad.

Aunque los usuarios creen que los modelos podrían causar daño social en la próxima década, también confían en su potencial para avances científicos y médicos y en que seguirán bajo control humano.

MASK: El nuevo test que revela cuán deshonestos pueden ser los modelos de IA

Rajkumar, Radhika. «This New AI Benchmark Measures How Much Models LieZDNet, March 11, 2025. https://www.zdnet.com/article/this-new-ai-benchmark-measures-how-much-models-lie/

Los resultados de la evaluación muestran que los modelos de IA no solo son capaces de mentir, sino que a mayor escala y capacidad, parecen volverse más deshonestos. Este fenómeno se denomina «alignment faking» o fingimiento de alineación, cuando un modelo aparenta seguir valores éticos mientras, en realidad, actúa de manera opuesta cuando está bajo presión.

Investigadores del Center for AI Safety y Scale AI han desarrollado un nuevo referente para evaluar la honestidad de los modelos de inteligencia artificial (IA). Llamado MASK (Model Alignment between Statements and Knowledge), este benchmark mide la capacidad de los modelos para mentir de manera consciente, diferenciando entre precisión y honestidad. Hasta ahora, la industria no contaba con una herramienta eficaz para evaluar si un modelo generaba información falsa con intención de engañar.

El estudio incluyó más de 1.500 consultas diseñadas para inducir respuestas falsas, evaluando 30 modelos avanzados. Uno de los principales descubrimientos fue que una mayor precisión en los modelos no implica mayor honestidad. De hecho, algunos de los modelos más avanzados en términos de conocimiento demostraron ser especialmente hábiles en el engaño.

Los hallazgos muestran que modelos más grandes y avanzados no son necesariamente más honestos. De hecho, a mayor escala, parecen volverse más deshonestos. Grok 2 fue el modelo con mayor proporción de respuestas deshonestas (63%), mientras que Claude 3.7 Sonnet tuvo el mayor porcentaje de respuestas honestas (46.9%).

El estudio destaca que la capacidad de los modelos de IA para mentir representa un serio riesgo para la seguridad, la privacidad y la confianza en la tecnología. Ejemplos de estas amenazas incluyen:

  • Errores financieros y legales: Si un modelo de IA informa erróneamente sobre una transacción bancaria, podría generar pérdidas económicas significativas.
  • Desinformación deliberada: Los modelos podrían difundir información errónea de forma intencionada, con posibles consecuencias en ámbitos como la política, la salud o el derecho.
  • Filtraciones de datos sensibles: Si un modelo no es honesto sobre su acceso a información privada, podría poner en riesgo la seguridad de los usuarios.

MASK benchmark marca un avance significativo en la evaluación de la ética de la IA, al centrarse en la intencionalidad detrás de las respuestas falsas. Sus hallazgos sugieren que la industria debe replantearse cómo se desarrollan y regulan estos modelos, especialmente en aplicaciones donde la transparencia y la confianza son esenciales.

Turnitin Clarity, un complemento con asistencia de IA guiada por educadores para evaluar la integridad académica.

«New Turnitin Product Offers AI-Powered Writing Tools with Instructor GuardrailsThe Journal, 4 de marzo de 2025. https://thejournal.com/Articles/2025/03/04/New-Turnitin-Product-Offers-AI-Powered-Writing-Tools-with-Instructor-Guardrails.aspx

Turnitin ha lanzado Turnitin Clarity, un complemento de pago para Turnitin Feedback Studio que ofrece un espacio de redacción con asistencia de IA guiada por educadores, retroalimentación automatizada y herramientas para evaluar la integridad académica.

Los estudiantes pueden acceder a sus tareas dentro de Turnitin Clarity, con instrucciones, rúbricas y directrices sobre el uso de IA generativa, y trabajar en sus textos en varias sesiones. Los docentes pueden habilitar un asistente de escritura con IA según las políticas del curso.

Para los educadores, Turnitin Clarity centraliza el establecimiento de pautas sobre el uso aceptable de la IA en cada asignación y facilita la promoción de un uso responsable de estas herramientas. Los docentes pueden visualizar la actividad de escritura de los estudiantes y acceder a información que les permite evaluar la originalidad, garantizando una evaluación justa y equitativa

Además, los instructores pueden visualizar el proceso de escritura del estudiante, incluyendo texto pegado, patrones de escritura, tiempo de construcción y versiones previas, detectando cualquier posible uso de IA. Esto les permite evaluar si el trabajo cumple con los estándares de integridad académica.

Según la directora de producto de Turnitin, Annie Chechitelli, la herramienta ayuda a docentes y estudiantes a integrar la IA en la escritura sin comprometer el aprendizaje. Además, Turnitin Clarity proporciona a las instituciones datos que respaldan las políticas de integridad académica y el uso de la IA, asegurando que las expectativas de aprendizaje se cumplan, ya sea con o sin asistencia de IA. Este enfoque busca equilibrar la integración de herramientas de IA en la educación, permitiendo a los estudiantes utilizarlas de manera ética y responsable bajo la supervisión de sus educadores.

La Biblioteca Pública de Boston amplía el acceso a sus colecciones mediante digitalización e inteligencia artificial

Boston Public Library. 2024. “Boston Public Library Expands Access to Collections through AI-Enhanced Digitization.” Boston Public Library. https://www.bpl.org/news/boston-public-library-expands-access-to-collections-through-ai-enhanced-digitization/.

La Biblioteca Pública de Boston (BPL) ha iniciado un ambicioso proyecto de digitalización para hacer accesibles cientos de miles de materiales históricos previamente inaccesibles al público. Mediante herramientas de inteligencia artificial (IA), la iniciativa busca modernizar los procesos de digitalización y mejorar el acceso y la exploración de las colecciones de la biblioteca.

La Biblioteca Pública de Boston (BPL) ha iniciado un ambicioso proyecto de digitalización a gran escala para hacer accesibles al público cientos de miles de artículos históricos previamente inaccesibles. Este esfuerzo multietapa busca modernizar los procesos de digitalización e integrar herramientas de inteligencia artificial (IA) para ampliar el acceso y la capacidad de descubrimiento de sus vastas colecciones.

Desde su fundación en 1848, la BPL ha acumulado una amplia variedad de materiales, incluyendo libros, documentos gubernamentales, mapas y periódicos. Aunque se han realizado esfuerzos de digitalización en el pasado, la magnitud de las colecciones ha dificultado su acceso completo al público. Este nuevo proyecto pretende cambiar esa realidad, proporcionando al público nuevas formas de descubrir e interactuar con los extensos fondos de la biblioteca.

Una colaboración destacada en este proyecto es con la Institutional Data Initiative (IDI) de la Biblioteca de la Facultad de Derecho de Harvard. Esta iniciativa de investigación trabaja con instituciones de conocimiento, desde bibliotecas y museos hasta grupos culturales y agencias gubernamentales, para refinar y publicar sus colecciones como datos accesibles. La IDI y la BPL explorarán procesos que equilibren la tecnología de IA con la experiencia curatorial al mejorar los metadatos de las colecciones y modernizar el programa de digitalización de la BPL para ampliar el acceso.

Además, la BPL cuenta con el apoyo de la iniciativa NextGenAI de OpenAI, lo que refuerza su compromiso de garantizar que las tecnologías emergentes de IA sirvan a una amplia gama de usuarios, desde investigadores académicos hasta aprendices de por vida. Este respaldo es parte de un esfuerzo más amplio para asegurar que las bibliotecas públicas puedan aprovechar las oportunidades que ofrece la IA, mejorando y optimizando sus servicios para beneficiar tanto a los usuarios como a los profesionales de las bibliotecas.

Este proyecto de la BPL refleja una tendencia más amplia en el mundo bibliotecario hacia la adopción de la IA para mejorar la accesibilidad y la eficiencia. Por ejemplo, la Biblioteca de la Facultad de Derecho de Harvard, a través de la IDI, ha publicado recientemente un conjunto de datos de alta calidad de casi un millón de libros de dominio público. Este conjunto de datos está disponible para que cualquier persona lo utilice en el entrenamiento de grandes modelos de lenguaje y otras herramientas de IA, lo que subraya el potencial de la IA para transformar la gestión y el acceso a los recursos bibliotecarios.

Seguimiento de la evolución de la IA en bibliotecas universitarias y de investigación

Lo, Leo S., y Cynthia Hudson Vitale. «Tracking the AI Evolution in Research Libraries: Findings from ARL’s Third AI Quick PollAssociation of Research Libraries, 12 de marzo de 2025. https://www.arl.org/blog/tracking-the-ai-evolution-in-research-libraries-findings-from-arls-third-ai-quick-poll/

El tercer sondeo de la Association of Research Libraries (ARL), realizado en enero de 2025, recopiló respuestas de 40 directores y decanos de bibliotecas sobre la integración de la inteligencia artificial (IA) en sus instituciones. Este estudio continúa la evaluación de tendencias en la adopción de IA en bibliotecas de investigación.

En los últimos dos años, el debate sobre la inteligencia artificial generativa en bibliotecas de investigación ha evolucionado desde un interés inicial hasta una adopción estratégica. A medida que estas tecnologías avanzan, las bibliotecas buscan comprender sus implicaciones en la investigación, la enseñanza y la gestión de la información. Para seguir de cerca esta transformación, la Asociación de Bibliotecas de Investigación (ARL) ha llevado a cabo una serie de encuestas rápidas dirigidas a sus miembros, con el objetivo de recopilar perspectivas, desafíos y estrategias en la adopción de la IA.

La tercera y más reciente encuesta, realizada en enero de 2025, recoge las opiniones de 40 directores y decanos de bibliotecas de la ARL sobre la integración y respuesta de sus instituciones ante la inteligencia artificial. Este sondeo sigue la evolución observada en encuestas anteriores: la primera, en abril de 2023, reflejaba un interés inicial y un optimismo cauteloso; la segunda, en diciembre de 2023, mostró un incremento en la exploración y confianza en la tecnología; y la más reciente, en 2025, indica una adopción más estratégica, con un enfoque en implementación y políticas.

En cuanto al potencial de la IA generativa, la mayoría de los encuestados tiene una visión positiva. Un 28 % considera que su impacto será muy beneficioso para las bibliotecas en el próximo año, mientras que un 63 % lo ve con cierto optimismo, aunque con reservas ante los desafíos. Solo un 10 % se mantiene neutral, lo que indica un creciente reconocimiento de su papel en la transformación de los servicios bibliotecarios.

Respecto a la implementación de la IA, un 28 % de las bibliotecas ya está aplicando soluciones basadas en inteligencia artificial, mientras que un 53 % se encuentra en fase de exploración, analizando posibles usos. Un 19 % aún no ha iniciado el proceso, pero planea hacerlo en el futuro.

La ética es otro aspecto clave en la integración de la IA. Un 9 % de las bibliotecas ha desarrollado y aplica políticas formales sobre su uso, mientras que un 41 % está en proceso de elaboración. Un 25 % se rige por directrices informales y un 19 % no tiene planes de establecer regulaciones al respecto.

En cuanto a la inversión financiera, el 75 % de los encuestados destina fondos a la capacitación del personal, lo que refleja la importancia de mejorar la alfabetización en IA. Un 63 % invierte en herramientas y tecnologías de IA, mientras que un 25 % contrata formadores o consultores especializados. Solo un 9 % no ha realizado inversiones en este ámbito.

El desarrollo profesional en IA también es una prioridad. Un 63 % de los encuestados ha explorado la tecnología por cuenta propia, mientras que un 47 % ha asistido a talleres o conferencias. Sin embargo, solo un 6 % ha obtenido certificaciones formales en IA.

Las bibliotecas también están forjando alianzas para fortalecer la adopción de la IA. Las colaboraciones internas incluyen trabajo conjunto con departamentos de TI, oficinas de investigación y centros de aprendizaje. A nivel externo, las bibliotecas se asocian con proveedores tecnológicos y grupos de investigación interdisciplinarios, además de acceder a financiamiento mediante subvenciones.

En cuanto a las actitudes del personal hacia la IA, se observa un amplio rango de respuestas. Mientras algunos empleados muestran entusiasmo y curiosidad, otros mantienen una postura escéptica por preocupaciones éticas y laborales. La clave para la integración de la IA en las bibliotecas radica en una comunicación estructurada y programas de formación para abordar estos temores.

Las percepciones sobre la IA han cambiado en el último año. Muchos encuestados han incrementado su optimismo tras probar herramientas como ChatGPT para generación de metadatos y transcripción. No obstante, persisten preocupaciones sobre desinformación, transparencia y desigualdades en el acceso a recursos.

El análisis de las tres encuestas realizadas hasta la fecha muestra una transición desde el optimismo cauteloso hasta la exploración activa. En abril de 2023, solo un 10 % de las bibliotecas implementaba IA; en diciembre de 2023, esta cifra aumentó al 12 %, y en enero de 2025 alcanzó el 28 %. Paralelamente, la colaboración ha emergido como un factor clave en la adopción de la IA, con bibliotecas fortaleciendo alianzas tanto internas como externas.

Los principales aprendizajes de esta tercera encuesta destacan que el optimismo sobre la IA está respaldado por experiencias concretas, como la mejora en la generación de metadatos y servicios de descubrimiento. La colaboración sigue siendo un pilar esencial en la estrategia de adopción, permitiendo a las bibliotecas acceder a conocimientos y recursos clave. No obstante, la expansión de la IA enfrenta obstáculos, como la falta de recursos en algunas instituciones, la resistencia del personal y los dilemas éticos.

En conclusión, la IA está integrándose de manera progresiva en las bibliotecas de investigación, con un enfoque cada vez más estratégico. Si bien hay desafíos pendientes, como la equidad en el acceso y la formación del personal, las bibliotecas están avanzando en su rol de líderes en el uso responsable de la IA, equilibrando innovación y principios éticos.

Principales Hallazgos

  1. Visión sobre el Potencial de la IA Generativa
  2. Exploración e Implementación de IA
    • El 28% de las bibliotecas ya implementan soluciones de IA.
    • El 53% se encuentra en fase exploratoria.
    • Un 19% planea considerar la IA en el futuro cercano.
  3. Políticas de Uso Ético
  4. Inversiones Financieras en IA
  5. Desarrollo Profesional en IA

Cambios en la Percepción de la IA

  • Mayor Optimismo: Proyectos piloto exitosos, como generación de metadatos y mejora en transcripciones, han reforzado la confianza en la IA.
  • Preocupaciones Persistentes: Se mantienen inquietudes sobre ética, desinformación y disparidades en el acceso a recursos.
  • Exploración Temprana: La adopción de IA sigue en sus primeras etapas, requiriendo más experimentación e inversión.

Tendencias y Conclusiones

  • De un enfoque cauteloso a una exploración más segura.
  • Aumento del compromiso con la IA.
  • La colaboración es clave para avanzar.
  • Retos en la escalabilidad de la adopción.
  • La adopción temprana sigue con miras al futuro y sus implicaciones a largo plazo.

Elsevier lanza ScienceDirect AI, una herramienta diseñada para facilitar el trabajo de los investigadores.

Elsevier. «ScienceDirect AI: Eureka, Every DayShorthand Stories. https://elsevier.shorthandstories.com/sciencedirect-ai/

Su objetivo es permitir la extracción, resumen y comparación instantánea de información confiable a partir de millones de artículos y capítulos de libros disponibles en ScienceDirect, la mayor plataforma de investigación revisada por pares.

Los investigadores se enfrentan a un volumen de información cada vez mayor y abrumador, y necesitan obtener rápidamente información precisa en la que puedan confiar. Los estudios demuestran que dedican entre el 25% y el 35% de su tiempo a examinar la bibliografía. ScienceDirect AI ayuda a afrontar este reto recurriendo al conjunto de contenidos más amplio y profundo de millones de artículos de investigación y capítulos de libros a texto completo revisados por pares para generar resúmenes precisos instantáneos y destacar los hallazgos clave, al tiempo que proporciona referencias para apoyar la reproducibilidad y la integridad de la investigación.

ScienceDirect AI incluye las siguientes funciones:

Ask ScienceDirect AI  – búsqueda y resúmenes de artículos a texto completo y capítulos de libros.

Los usuarios pueden buscar y obtener respuestas en el texto completo de 14 millones de artículos y capítulos de libros, utilizando sus propias palabras para describir lo que necesitan y por qué. La IA de ScienceDirect buscará entre los millones de documentos de su índice para proporcionar una Respuesta Resumida con referencias, Source Snippets para cada referencia y breves resúmenes de Related Insights, al tiempo que enlaza con el documento original.

Reading Assistant – conversar con un documento en ScienceDirect

Esta función conversacional responde a preguntas sobre el contenido de un determinado artículo o capítulo de libro a texto completo y permite a los investigadores formular más preguntas al documento. Los usuarios pueden hacer clic en las referencias dentro de los resúmenes para saltar a los lugares del artículo de donde procede la respuesta, también sugiere preguntas de investigación.

Compare Experiments  – tabla resumen de experimentos

Comparar y sintetizar la literatura puede llevar mucho tiempo. La herramienta exclusiva Compare Experiments de ScienceDirect AI toma un conjunto de artículos y crea una tabla que desglosa cada experimento dentro de ellos, destacando los aspectos clave de cada uno, incluyendo objetivos, métodos y resultados.

Las 100 principales aplicaciones de IA generativa en 2025: Tendencias, crecimiento y competencia

Andreessen Horowitz. “The Top 100 Gen AI Consumer Apps – 4th Edition.a16z, marzo 2025. https://a16z.com/100-gen-ai-apps-4/

El informe de a16z destaca la rápida evolución y adopción de las aplicaciones de IA generativa en el ámbito del consumo. La competencia es feroz, y las aplicaciones que ofrecen valor real y se integran en la vida diaria de los usuarios son las que están logrando mantenerse y crecer en este dinámico ecosistema.

El artículo «The Top 100 Gen AI Consumer Apps – 4th Edition» de Andreessen Horowitz (a16z) ofrece una visión detallada de las aplicaciones de inteligencia artificial generativa (GenAI) que están moldeando el futuro del consumo digital. A continuación, se presenta un resumen exhaustivo de los puntos más destacados del informe.

Panorama Actual de las Aplicaciones de GenAI

En los últimos seis meses, el panorama de las aplicaciones de IA generativa ha experimentado cambios significativos. Algunas aplicaciones han emergido rápidamente, mientras que otras han perdido relevancia. Por ejemplo, Deepseek pasó de ser desconocida a convertirse en una fuerte competidora de ChatGPT. Además, los modelos de video generativo han avanzado de ser experimentales a bastante confiables, al menos para clips cortos. Este dinamismo refleja una competencia más intensa y mayores expectativas en el mercado de GenAI.

Metodología del Ranking

El informe presenta el cuarto ranking bianual de las 100 principales aplicaciones de consumo de GenAI, dividiéndose en:

  • Top 50 Aplicaciones Web AI-First: Clasificadas según visitas mensuales únicas, basadas en datos de Similarweb. Ver
  • Top 50 Aplicaciones Móviles AI-First: Clasificadas según usuarios activos mensuales, basadas en datos de Sensor Tower. Ver

Es importante destacar que solo se incluyeron productos nativos de IA. Aplicaciones que han incorporado características de IA generativa pero no son nativas de IA, como Canva y Notion, no fueron consideradas en este ranking. Además, se introdujo la «Brink List», que destaca las 10 empresas (cinco web y cinco móviles) que estuvieron cerca de entrar en el top 100, mostrando el rápido movimiento y la competitividad en el ámbito de GenAI.

Principales Observaciones del Informe

  1. Crecimiento de ChatGPT: Desde su lanzamiento en noviembre de 2022, ChatGPT alcanzó 100 millones de usuarios en dos meses, convirtiéndose en la aplicación de consumo de más rápido crecimiento. Aunque inicialmente su crecimiento se estabilizó, experimentó un resurgimiento significativo, alcanzando 400 millones de usuarios activos semanales para febrero de 2025. Este crecimiento se atribuye a la introducción de modelos y capacidades más avanzadas, como GPT-4o y el Modo de Voz Avanzado, que han ampliado las aplicaciones prácticas de ChatGPT.
  2. Emergencia de Deepseek: Lanzada en enero de 2025, Deepseek rápidamente se posicionó como una alternativa sólida a ChatGPT, destacándose por sus capacidades y funcionalidades innovadoras.
  3. Evolución de los Modelos de Video Generativo: Los modelos de video generativo han pasado de ser experimentales a bastante confiables, al menos para clips cortos, ampliando las posibilidades creativas en diversas industrias.
  4. Tendencia de «Vibecoding»*: Esta tendencia está cambiando quién puede crear con IA, no solo quién puede usarla, democratizando la creación de contenido y permitiendo que más personas participen en procesos creativos asistidos por IA.

«Vibecoding» es un término de internet que se refiere a la práctica de crear o experimentar un estado de ánimo específico a través de música, estética, ambiente o actividades. Básicamente, se trata de codificar (como en programación) una vibra o energía determinada en un momento o espacio. En esencia, es la idea de «programar» tu entorno o estado emocional para alinearlo con una vibración específica.

Cómo hacer que ChatGPT proporcione mejores fuentes y citas

Nellis, Stephan. 2024. «How to Make ChatGPT Provide Better Sources and CitationsZDNet, March 4, 2024. https://www.zdnet.com/article/how-to-make-chatgpt-provide-better-sources-and-citations/.

Nellis explica que una de las principales críticas a ChatGPT es su falta de precisión en las fuentes que proporciona. A menudo, la IA no cita sus fuentes o brinda enlaces incorrectos. Sin embargo, existen estrategias para mejorar la calidad de las referencias obtenidas

Una de las críticas más recurrentes a ChatGPT es la dificultad para verificar la precisión de la información que proporciona. Esto se debe a que no siempre incluye fuentes, notas a pie de página o enlaces que respalden sus respuestas.

Según la propia descripción de ChatGPT: «En su versión gratuita, GPT-4o ofrece citas básicas y esenciales, priorizando referencias rápidas y concisas para facilitar la trazabilidad de la información. En cambio, la versión de pago proporciona citas más detalladas y frecuentes, incorporando múltiples fuentes y anotaciones contextuales para una verificación y comprensión más completas. Esto garantiza una experiencia más sólida y fiable, especialmente útil para quienes necesitan información en profundidad y validación rigurosa de las fuentes.»

Para mejorar la precisión de las fuentes y citas proporcionadas por ChatGPT, es esencial adoptar estrategias que incrementen la fiabilidad de sus respuestas. A continuación, se detallan algunas recomendaciones respaldadas por recursos externos:

  • Solicitar fuentes y citas explícitamente: Se recomienda preguntar directamente por fuentes y enlaces, especificando la cantidad deseada o el tipo de fuente (académica, revisada por pares, etc.).
  • Refinar las solicitudes: Se pueden mejorar los resultados pidiendo fuentes confiables o ajustando los rangos de fechas para evitar información obsoleta.
  • Verificar la validez de las fuentes: Muchos enlaces proporcionados por ChatGPT son incorrectos o irrelevantes, por lo que es esencial contrastarlos con búsquedas en Google Scholar, JSTOR u otras bases de datos académicas.
  • Utilizar ChatGPT como asistente de investigación: En lugar de confiar ciegamente en sus respuestas, se recomienda usar sus sugerencias como punto de partida para investigaciones más profundas.