Archivo de la etiqueta: Inteligencia artificial

Hacer que la inteligencia artificial sea generativa para la educación superior

CNI. 2025. “Making Artificial Intelligence Generative for Higher Education: A Multi-Institution Research Project.” Accessed August 27, 2025. https://www.cni.org/topics/teaching-learning/making-artificial-intelligence-generative-for-higher-education-a-multi-institution-research-project

El proyecto Making Artificial Intelligence Generative for Higher Education, liderado por Ithaka S+R, reunió a 18 instituciones de educación superior de EE. UU. y Canadá para investigar cómo la inteligencia artificial generativa (IA generativa) está transformando la enseñanza, el aprendizaje y la investigación en la educación superior.

Desde su inicio en septiembre de 2023 hasta su culminación en el verano de 2025, el proyecto recopiló datos a través de entrevistas semiestructuradas con docentes e investigadores, proporcionando información valiosa sobre la adopción de la IA generativa en estos contexto.

Los hallazgos del estudio destacan que la IA generativa se está integrando de manera significativa en diversas áreas académicas, desde la creación de contenidos hasta la asistencia en la investigación. Sin embargo, también se identificaron desafíos importantes, como la necesidad de formación adecuada para los usuarios y la gestión de preocupaciones éticas relacionadas con el uso de estas tecnologías. Además, se subrayó la importancia de desarrollar infraestructuras de apoyo que faciliten la implementación efectiva de la IA generativa en el ámbito académico.

Este proyecto no solo proporciona una visión detallada de las tendencias actuales en el uso de la IA generativa en la educación superior, sino que también ofrece recomendaciones prácticas para instituciones que buscan integrar estas tecnologías de manera efectiva y ética en sus entornos académicos.

BooksAI.com: resúmenes y aprendizaje rápido de libros mediante inteligencia artificial

https://booksai.com/

BooksAI.com es una plataforma impulsada por inteligencia artificial que permite generar resúmenes, ideas clave, citas y elementos prácticos a partir de libros, utilizando modelos avanzados como ChatGPT. Su objetivo es facilitar el acceso rápido a los conceptos esenciales de una obra, sin necesidad de leerla en su totalidad.

Entre sus características principales, BooksAI.com ofrece resúmenes instantáneos: los usuarios pueden obtener resúmenes concisos de libros ingresando el título y el autor. La plataforma procesa la información y proporciona un resumen detallado, destacando los puntos más relevantes. Además, ofrece las ideas principales y citas destacadas de cada libro, lo que facilita una comprensión más profunda del contenido. También identifica acciones o lecciones prácticas que los lectores pueden aplicar en su vida diaria basándose en el contenido del libro.

La plataforma cuenta con una interfaz conversacional que, gracias a la tecnología de procesamiento de lenguaje natural, permite interactuar de manera fluida con el contenido del libro, responder preguntas y proporcionar aclaraciones adicionales. BooksAI.com ofrece acceso gratuito, permitiendo a los usuarios explorar y obtener resúmenes de una amplia variedad de libros sin costo alguno. Está diseñada para estudiantes, profesionales, investigadores y cualquier persona interesada en comprender rápidamente un libro sin dedicarle demasiado tiempo.

Una tormenta perfecta para la lectura. La inteligencia artificial (IA) 

Allington, Daniel. 2025. “AI Is Making Reading Books Feel Obsolete and Students Have a Lot to Lose.The Conversation, August 28, 2025. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

La IA está redefiniendo la educación y la lectura, ofreciendo herramientas poderosas pero también presentando desafíos significativos. Es crucial encontrar un equilibrio que permita a los estudiantes aprovechar los beneficios de la tecnología sin sacrificar las habilidades cognitivas esenciales desarrolladas a través de la lectura tradicional.

Naomi S. Baron escribe: «Se avecina una tormenta perfecta para la lectura. La inteligencia artificial (IA) llegó justo cuando tanto niños como adultos dedicaban menos tiempo a la lectura que en un pasado no tan lejano. Un estudio reciente revela que la lectura por placer en Estados Unidos ha disminuido un 40 % desde principios de los 2000. La IA está transformando radicalmente cómo las personas interactúan con los textos, ya sea para estudio, investigación o entretenimiento, y esto podría depreciar el valor percibido de la lectura como actividad humana significativa. Incluso antes de la popularización de la IA, la lectura ya estaba en declive. En EE. UU., el porcentaje de estudiantes de cuarto grado que leen por placer casi todos los días cayó del 53 % en 1984 al 39 % en 2022, y los de octavo grado del 35 % al 14 % en 2023. Entre los adultos, solo el 54 % de los estadounidenses leyó al menos un libro en 2023. Factores como el tiempo dedicado a redes sociales y la priorización de la eficiencia mediante la IA contribuyen a que muchos lectores se conviertan en “lectores caídos”, es decir, aquellos que solían leer pero ya no lo hacen.

Aunque la IA ofrece ventajas en términos de eficiencia, su uso excesivo puede tener efectos negativos en el aprendizaje profundo y la retención de información. La lectura activa de libros fomenta habilidades cognitivas como la concentración, la comprensión crítica y la reflexión profunda, habilidades que pueden verse comprometidas si los estudiantes dependen demasiado de las soluciones automatizadas.

La inteligencia artificial está transformando la forma en que accedemos y consumimos información, lo que ha llevado a que la lectura tradicional de libros impresos sea percibida como obsoleta por algunos. Herramientas como resúmenes automáticos, asistentes de lectura y plataformas de aprendizaje basadas en IA permiten a los estudiantes obtener información de manera más rápida y eficiente, reduciendo la necesidad de leer libros completos. Herramientas como BooksAI o BookAI.chat permiten interactuar con libros sin necesidad de leerlos personalmente, eliminando experiencias esenciales de aprendizaje y reflexión crítica.

Así, los educadores y bibliotecas enfrentan el desafío de equilibrar el uso de la tecnología con métodos tradicionales de enseñanza. Es esencial promover la alfabetización digital crítica, enseñando a los estudiantes a evaluar la información proporcionada por la IA y a complementar su aprendizaje con la lectura profunda de textos completos.

Cuando la inteligencia artificial reemplaza la experiencia: bibliotecas y catalogación en riesgo

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism/

Las bibliotecas y su personal se ven afectados por la automatización, la externalización y la mercantilización del trabajo informativo en la era del capitalismo digital.

Se destaca cómo la consolidación de proveedores y la automatización mediante inteligencia artificial están eliminando el trabajo invisible que sostiene los sistemas bibliotecarios. Por ejemplo, la reciente reducción de personal en OCLC, la organización sin fines de lucro que gestiona el Sistema Dewey y WorldCat, refleja una contradicción fundamental en la valoración de la experiencia en catalogación: mientras que la organización cita la inteligencia artificial como justificación para los recortes laborales, también está desarrollando herramientas de inteligencia artificial para el procesamiento de metadatos. Esta contradicción pone de manifiesto cómo los avances tecnológicos celebrados por su eficiencia están borrando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

Además, el artículo señala que la mano de obra bibliotecaria ejemplifica lo que Maurizio Lazzarato identifica como «trabajo inmaterial»: trabajo que produce tanto contenido informativo como estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados. La devaluación de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante los recortes presupuestarios. Por ejemplo, el despido de Violet Fox, una de las voces líderes en catalogación crítica y creadora del Cataloging Lab, ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Los catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad en lugar de los términos genéricos proporcionados por los proveedores, haciendo que las colecciones sean descubribles y accesibles, y manteniendo la calidad de los metadatos que permite la investigación académica.

El artículo también destaca cómo los catálogos en línea actuales funcionan cada vez más como interfaces de sistemas de descubrimiento controlados por proveedores que agregan metadatos de múltiples fuentes con una supervisión local mínima. Esto representa una pérdida de autonomía institucional, ya que las decisiones sobre encabezamientos de materia, clasificación y referencias cruzadas se toman cada vez más en función de las necesidades de los proveedores en lugar de las necesidades de las colecciones y comunidades locales.

El camino hacia la Inteligencia Artificial General: comprender el cambiante panorama informático del futuro.

The Road to Artificial General Intelligence: Understanding the Evolving Compute Landscape of Tomorrow. MIT Technology Review Insights. En colaboración con Arm. Agosto de 2025.

Texto completo

El artículo aborda el núcleo del desafío de la Inteligencia Artificial General (AGI): los modelos actuales, capaces de escribir código o descubrir fármacos, todavía fracasan en tareas simples que cualquier persona puede resolver en minutos. Esta paradoja refleja la dificultad de crear una IA que no solo sobresalga en dominios específicos, sino que iguale o supere la inteligencia humana en múltiples campos. La pregunta central es si la actual revolución de la IA puede realmente dar ese salto, y cuáles serían los habilitadores clave —hardware, software o una combinación de ambos— necesarios para hacerlo posible.

Expertos del sector ofrecen predicciones audaces. Dario Amodei, cofundador de Anthropic, anticipa la llegada de una “IA poderosa” tan pronto como en 2026. Según él, esta tendría propiedades extraordinarias: inteligencia de nivel Nobel en dominios concretos, capacidad de moverse entre interfaces como texto, audio o entornos físicos, y la autonomía para razonar hacia metas propias, en lugar de limitarse a responder preguntas. Por su parte, Sam Altman, CEO de OpenAI, asegura que ya empiezan a verse características similares a la IAG, con un potencial transformador comparable al de la electricidad o internet. Destaca que el progreso se debe a tres factores: la mejora continua en el entrenamiento y los datos, el abaratamiento del cómputo y un valor socioeconómico que describe como “superexponencial”.

El optimismo no se limita a los fundadores de startups. Proyecciones agregadas indican al menos un 50% de probabilidad de que los sistemas de IA alcancen varios hitos de AGI antes de 2028. Encuestas de expertos sugieren que la probabilidad de que las máquinas superen a los humanos en todas las tareas sin ayuda externa es del 10% para 2027 y del 50% para 2047. Además, los plazos se acortan con cada nuevo avance: lo que con GPT-3 se estimaba en 50 años, a finales de 2024 ya se veía factible en cinco años. Para Ian Bratt, vicepresidente de tecnología de machine learning en Arm, los grandes modelos de lenguaje y razonamiento ya están transformando prácticamente todas las industrias, y son la antesala de este cambio radical.

¿Por qué es importante la alfabetización en IA?

EIT Deep Tech Talent Initiative. 2025. “Why AI Literacy Matters in 2025.” EIT Deep Tech Talent. Accessed September 3, 2025. https://www.eitdeeptechtalent.eu/news-and-events/news-archive/why-ai-literacy-matters-in-2025/

La alfabetización en inteligencia artificial se ha convertido en un pilar fundamental para desenvolverse en la sociedad contemporánea, del mismo modo en que en el pasado lo fueron la alfabetización básica y las competencias digitales.

En 2025, la alfabetización en IA se está volviendo tan importante como la lectura, la escritura e incluso las habilidades digitales básicas. Sin embargo, no se trata solo de formular mejores preguntas en ChatGPT o usar asistentes inteligentes para ahorrar tiempo; se trata de comprender cómo funcionan estos sistemas, qué los impulsa y cómo impactan a la sociedad en todos los niveles.

La alfabetización en IA requiere más que solo usar tecnología; requiere pensamiento crítico. Y hay mucho en juego, porque a medida que la IA se integra cada vez más en todos los aspectos de nuestras vidas, desde la educación y la atención médica hasta la contratación y los servicios gubernamentales, la falta de comprensión pública conlleva graves riesgos. El Foro Económico Mundial ahora clasifica la alfabetización en IA como una habilidad cívica, esencial para la participación en los procesos democráticos. Sin ella, las personas pueden ser vulnerables a la desinformación, sistemas sesgados o decisiones tomadas por algoritmos opacos.

Ya sea por confiar demasiado en los resultados de la IA o por confiar ciegamente en sistemas que no han sido probados éticamente, las consecuencias son personales y sociales.

Pero cerrar esta brecha de conocimiento va más allá de la mejora de las competencias digitales; se trata de brindar a las personas las herramientas necesarias para pensar críticamente, proteger sus derechos y participar en la configuración del uso de la IA.

La Ley de IA de la UE y su papel en la promoción del conocimiento sobre la IA

La Ley de IA de la UE (AIA), adoptada formalmente en 2024, es la primera legislación importante del mundo destinada a regular la inteligencia artificial. Establece normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en la Unión Europea, con el fin de garantizar que la IA se utilice de forma segura y transparente.

La AIA prohíbe ocho prácticas:

  • Manipulación y engaño perjudiciales basados ​​en IA
  • Explotación perjudicial de vulnerabilidades basada en IA
  • Clasificación o ranking social
  • Evaluación o predicción del riesgo individual de delito
  • Extracción no dirigida de material de internet o CCTV para crear o ampliar bases de datos de reconocimiento facial
  • Reconocimiento de emociones en lugares de trabajo e instituciones educativas
  • Categoría biométrica para deducir ciertas características protegidasIdentificación biométrica remota en tiempo real para fines policiales en espacios públicos accesibles

Clasifica los sistemas de IA por riesgo: inaceptable, alto, limitado y mínimo, y establece normas estrictas sobre cómo debe desarrollarse e implementarse cada tipo. Esto ya está teniendo un efecto dominó mucho más allá del sector tecnológico.

Pero su impacto va más allá de la regulación. Al aumentar la comprensión pública sobre cómo funciona la IA y dónde se utiliza, ayuda a los usuarios a convertirse en consumidores más informados y críticos de las tecnologías de IA. Los requisitos prácticos de la Ley están priorizando la alfabetización en IA. Esto significa que las empresas que implementan sistemas de IA de alto riesgo, como los utilizados en la contratación o la educación, deben asegurarse de que su personal esté adecuadamente capacitado para comprender cómo funcionan los sistemas de IA, reconocer sus limitaciones y ser consciente de posibles sesgos.

En otras palabras, la alfabetización en IA ya no es solo una habilidad técnica, sino una cuestión de cumplimiento normativo.

¿Qué es el Artículo 4 de la AIA?

El Artículo 4 exige a las organizaciones, tanto a las que desarrollan sistemas de IA como a las que los utilizan, que se aseguren de que todos los involucrados comprendan cómo funciona la IA, incluidos sus riesgos e impactos.

Por alfabetización en IA, la ley se refiere a que las personas tengan los conocimientos y la concienciación suficientes para implementar la IA de forma inteligente. Esto incluye comprender dónde la IA puede ser beneficiosa o perjudicial, y conocer qué derechos y responsabilidades legales están en juego, y abarca a todos los empleados, contratistas, proveedores de servicios y otros terceros que trabajen con IA en nombre de una organización.

Bruselas no ha definido una lista de verificación de capacitación estricta, pero las organizaciones deben cubrir áreas clave para cumplir:

  • Un conocimiento básico de la IA: qué es y cómo funciona, incluyendo sus beneficios y riesgos.
  • Claridad sobre el rol de la organización: ¿es usted el creador de la IA o simplemente utiliza la herramienta de otra persona?
  • Conocimiento de los riesgos asociados a los sistemas de IA en cuestión, especialmente si son de alto riesgo.
  • Programas personalizados que reflejen la experiencia de los usuarios, sus niveles de conocimiento técnico y el contexto real de su trabajo.

Aunque las pruebas formales no son obligatorias, se espera que las organizaciones consideren el nivel de comprensión de la IA de su personal y desarrollen la capacitación o la orientación adecuadas. Para los sistemas de mayor riesgo, podrían requerirse medidas adicionales en virtud del Artículo 26, que establece la obligación de que el personal que trabaja con los sistemas de IA en la práctica esté suficientemente capacitado para manejar el sistema y garantizar la supervisión humana.

La norma del Artículo 4 entró en vigor el 2 de febrero de 2025, pero su aplicación no comenzará hasta el 3 de agosto de 2026, lo que da tiempo a las organizaciones para establecer registros internos, como registros de capacitación, materiales de orientación u otras pruebas, aunque no necesariamente certificados formales.

El cumplimiento del Artículo 4 consiste en adecuar los esfuerzos de alfabetización en IA de una organización a la composición de su personal, la IA que utiliza y cómo podría afectar a otros. Basta con un enfoque flexible y basado en el riesgo, pero debe ser real.

Empoderar a los alumnos para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education (Review Draft). OECD, Paris, mayo de 2025. PDF. Disponible en: AILitFramework Review Draft.

Texto completo

Este borrador de mayo de 2025 presenta el AILit Framework, un marco de alfabetización en IA dirigido a los niveles de educación primaria y secundaria. Es fruto de una iniciativa conjunta de la Comisión Europea y la OCDE, con el patrocinio de Code.org y la participación de expertos internacionales.

El marco contribuye al desarrollo del dominio de Evaluación de la Alfabetización en Medios e IA (Media & AI Literacy) en PISA 2029. Además, está en sintonía con los esfuerzos de la UE en la transformación digital educativa: el Plan de Acción para la Educación Digital 2021-2027, recomendaciones del Consejo Europeo de 2023, directrices éticas sobre IA y datos (2022), el Marco de Competencia Digital DigComp 2.2 y el Reglamento Europeo de IA (AI Act), que promueve un enfoque centrado en las personas y basado en el riesgo, exigiendo niveles adecuados de alfabetización en IA a quienes desarrollen o desplieguen sistemas de IA

.

  1. Principios fundamentales y estructura del marco
    El AILit Framework se apoya en principios clave que orientan su diseño:
    • Duradero: define competencias que seguirán siendo relevantes a medida que evoluciona la IA.
    • Interdisciplinario: busca integrarse en diversas asignaturas y contextos educativos.
    • Ilustrativo: incluye escenarios y ejemplos didácticos para hacer tangibles las competencias.
    • Práctico: ofrece un enfoque viable dentro del entorno escolar.
    • Global: incorpora perspectivas de educadores y expertos de diferentes regiones del mundo.
    1. Competencias clave del alumnado
      El marco distingue cuatro dominios principales de competencias que los estudiantes deben desarrollar:
    • Interactuar con la IA (engage with AI) – comprender y abordar sistemas de IA de forma crítica y consciente.
    • Crear con IA (create with AI) – usar herramientas de IA para producir contenido o soluciones.
    • Gestionar la IA (manage AI) – supervisar y controlar el uso de la IA de forma informada.
    • Diseñar la IA (design AI) – comprender cómo se construyen los sistemas de IA y participar en su diseño ético.
    • Estas áreas suman 22 competencias específicas, pensadas para proporcionar una base sólida para la interacción educativa con la IA.
    1. Participación y horizonte de implementación
      Este borrador invita a educadores, líderes educativos y responsables de políticas públicas a dar retroalimentación. La versión final del marco está prevista para 2026, acompañada de materiales didácticos y ejemplos prácticos listos para usar en el aula

    Mientras tanto, se está fomentando la colaboración para enriquecer este proceso de elaboración mediante consultas y revisión continua.

    Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

    AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

    Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

    El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

    La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

    Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

    Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

    ¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

    Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

    Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

    Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

    Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

    Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

    1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
    2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
    3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

    Por qué los modelos de lenguaje locales están ganando terreno frente a la IA en la nube

    Bring your own brain? Why local LLMs are taking off.The Register, August 31, 2025. https://www.theregister.com/2025/08/31/local_llm_opinion_column/

    El crecimiento del uso de modelos de lenguaje grande ejecutados localmente (local LLMs) responde en parte a una creciente desconfianza hacia las grandes empresas de tecnología y sus políticas de manejo de datos. Una encuesta del Pew Research Center indica que el 81 % de los estadounidenses teme el mal uso de sus datos por parte de compañías de IA. Este temor ha llevado incluso a que la FTC advirtiera a empresas de IA sobre el cumplimiento de sus promesas de protección de la privacidad.

    Este contexto de desconfianza se agrava al revelar prácticas como la retención prolongada de datos. OpenAI afirma “olvidar” los chats si se lo solicita el usuario, pero en realidad está obligado por orden judicial a conservar dichos registros. Igualmente, la empresa Anthropic extendió recientemente sus reglas de retención de datos de 30 días a cinco años, y comenzó a entrenar sus modelos con datos de usuario. Aunque ofrece opciones para desactivar esa función, se trata de configuraciones opt-out, no opt-in.

    El artículo también toca la dimensión de soberanía tecnológica. En Europa, algunos desarrolladores están adoptando LLMs locales para garantizar el cumplimiento del RGPD. Por ejemplo, la empresa alemana Makandra integró internamente un modelo de IA local para asegurar el manejo conforme a las normativas europeas.

    Desde una perspectiva ideológica, promover los LLM locales representa una visión de democratización tecnológica. Emre Can Kartal, ingeniero de crecimiento en Jan (un proyecto de Menlo Research), destaca que el objetivo es «garantizar que la IA siga estando en manos de las personas, no concentrada en unos pocos gigantes tecnológicos».

    Otro factor clave es el costo práctico. Muchas compañías de IA ofrecen computación a pérdida y tienden a restringir el acceso en momentos de alta demanda. Esto es frustrante para usuarios avanzados que pagan suscripciones costosas pero se encuentran limitados durante sesiones intensivas, por ejemplo, en programación asistida por IA.

    Este cambio hacia LLMs locales refleja una tendencia creciente: mayor control sobre la privacidad, independencia frente a empresas externas, ahorro financiero, y una cultura que promueve la accesibilidad tecnológica para todos.