Archivo de la categoría: Tecnologías de la información

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.

Cómo utiliza la gente la IA generativa en 2025

Eliot, Lance. “HBR’s Top 10 Uses of AI Puts Therapy and Companionship at the No. 1 Spot.Forbes, May 14, 2025. https://www.forbes.com/sites/lanceeliot/2025/05/14/top-ten-uses-of-ai-puts-therapy-and-companionship-at-the-1-spot/?utm_source=chatgpt.com

El infirme visualiza los principales usos que las personas están dando a la inteligencia artificial generativa en 2025, según un análisis de miles de publicaciones en foros recogido por Harvard Business Review y presentado por Marc Zao-Sanders. La IA generativa experimenta un giro hacia usos más centrados en las personas.

Las tareas tradicionales como generar ideas o búsquedas específicas han sido desplazadas por usos más personales y orientados al bienestar, destacando que la primera posición la ocupa “Therapy & Companionship” (terapia y compañía). Esto indica que muchas personas están recurriendo a la IA no solo como herramienta productiva, sino como apoyo emocional o interlocución constante.

En los nuevos rankings aparecen casos de uso inéditos como “Organize Life” (organizar la vida) y “Find Purpose” (encontrar propósito), posicionándose en segundo y tercer lugar, respectivamente. Estas categorías reflejan que la IA se está integrando en aspectos cotidianos y existenciales de la vida de las personas, ayudando en planificación, reflexión y toma de decisiones personales.

Además, otros usos como “Enhance Learning” (mejorar el aprendizaje) han subido posiciones, lo que sugiere una mayor adopción de la IA para profundizar en comprensión y educación. Usos técnicos como generar código también siguen presentes, aunque más abajo, y categorías lúdicas o creativas como fun & nonsense (diversión y tonterías) siguen teniendo relevancia.

En conjunto, estas tendencias reflejan una evolución desde aplicaciones centradas en tareas específicas o de productividad hacia aplicaciones de bienestar, auto-gestión y apoyo emocional, lo que tiene implicaciones tanto para educadores como para diseñadores de tecnología y políticas públicas.

La IA en 2026: predicciones de analistas y consultoras

Grothaus, Michael. «What Will AI Look Like in 2026? Deloitte, Gartner, Perplexity, and OpenAI Weigh In.» Fast Company, 10 de diciembre de 2024. https://www.fastcompany.com/91454789/2026-ai-deloitte-gartner-perplexity-chatgpt.

En 2025, la inteligencia artificial (IA) —especialmente modelos como ChatGPT y herramientas como Perplexity y Google Gemini— atravesó una etapa de adopción masiva, con cientos de millones de usuarios interactuando semanalmente con sistemas de generación de texto y respuestas. Con 2026 apenas comenzando, expertos de la industria y firmas consultoras han compartido sus previsiones sobre cómo evolucionará la influencia de la IA en tecnología, negocios y sociedad en general.

Uno de los puntos optimistas viene de analistas como Dan Ives de Wedbush, quien afirma que las preocupaciones sobre una “burbuja de IA” están exageradas. Según él, la revolución de la IA apenas empieza y se espera que continúe impulsando el crecimiento del mercado tecnológico durante toda la década, especialmente con la expansión de la automatización y los robots, así como con la adopción empresarial y global de estas soluciones. En su opinión, 2026 será solo el tercer año de un ciclo de diez años de desarrollo y crecimiento sostenido.

No todas las proyecciones son igualmente entusiastas. Gartner advierte sobre un efecto secundario cultural de la creciente dependencia en chatbots y sistemas de IA: una posible “atrofia del pensamiento crítico”. La firma predice que muchas organizaciones podrían confiar demasiado en las respuestas generadas automáticamente por IA, reduciendo la capacidad de evaluar información de forma independiente. Con esta preocupación, Gartner sugiere que hasta la mitad de las organizaciones puedan introducir evaluaciones de habilidades sin IA para contrarrestar esta tendencia.

Otro cambio significativo que se anticipa es la integración más profunda de la IA generativa en herramientas cotidianas, especialmente los motores de búsqueda. Según Deloitte, el uso de IA incrustada directamente en buscadores o aplicaciones populares será mucho más común que el acceso a chatbots independientes. Se proyecta que, a medida que los motores de búsqueda incorporen capacidades de síntesis de lenguaje natural, estas funciones integradas serán utilizadas al menos tres veces más que plataformas de IA aisladas como sitios web de chatbots. Esto podría transformar cómo las personas buscan y procesan información digital en su vida diaria.

En conjunto, estas perspectivas indican que 2026 será un año de consolidación y expansión para la IA, con impactos importantes en mercados financieros, habilidades laborales, comportamiento de los usuarios y arquitectura de las herramientas digitales. La IA no solo seguirá siendo un tema dominante en tecnología, sino que también planteará nuevos desafíos sociales y culturales sobre cómo interactuamos con la información y las máquinas.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

¿Qué está pasando con la lectura? Para muchas personas la IA podría estar poniendo fin a la era del texto tradicional.

Rothman, Joshua. “What’s Happening to Reading?The New Yorker, junio, 2025. https://www.newyorker.com/culture/open-questions/whats-happening-to-reading

El ensayo reflexiona sobre cómo ha cambiado radicalmente la experiencia de la lectura en la era digital. Durante décadas, leer un libro —práctica sostenida y profunda— era una actividad relativamente constante. Sin embargo, la omnipresencia de los teléfonos inteligentes, la diversidad de contenidos y la velocidad de la información han fragmentado ese acto. La lectura intensa, entendida como el seguimiento paciente y reflexivo de un texto, ya no es lo habitual; en su lugar, predomina una lectura dispersa, alternando entre distintos formatos, plataformas y dispositivos.

Hoy, leer implica interactuar con múltiples medios: libros impresos o digitales, audiolibros, blogs, redes sociales y mensajes breves. Este cambio ha creado una lectura que es a la vez dispersa y concentrada: difusa en su distribución, pero intensamente personalizada en su consumo. La competencia de otros entretenimientos —series, videojuegos, podcasts o videos— reduce la disponibilidad de tiempo y concentración para la lectura profunda, modificando la manera en que los lectores se relacionan con los textos.

El ensayo también aborda el impacto de la inteligencia artificial. Con herramientas capaces de resumir, condensar o reformular textos, la lectura se convierte en una experiencia modular y pragmática. Muchos lectores podrían depender de versiones abreviadas o reinterpretadas generadas por máquinas, lo que podría desplazar el hábito de enfrentarse directamente a la obra original. Esto redefine lo que significa leer, privilegiando la eficiencia y la utilidad sobre la comprensión profunda y sostenida.

Finalmente, se reflexiona sobre las consecuencias culturales de estos cambios. La lectura tradicional podría convertirse en una práctica minoritaria, apreciada por unos pocos, mientras que la mayoría interactúa con textos a través de formatos asistidos por IA o simplificados. La lectura no desaparece, pero su naturaleza y propósito se transforman: deja de ser un ejercicio de concentración y pensamiento crítico para convertirse en una práctica más flexible, inmediata y mediada por la tecnología.

Inteligencia artificial y huella ambiental

Crownhart, Casey. “In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, 21 ago. 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/

Un análisis basado en un informe técnico de Google que desglosa, por primera vez con detalle, la huella ambiental de las consultas al sistema de inteligencia artificial Gemini.

Google reveló que una consulta de texto típica —evaluada por la mediana de uso, es decir, aquella que se sitúa en el centro de la distribución de todos los prompts— consume aproximadamente 0,24 vatios-hora (Wh) de electricidad, genera cerca de 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere alrededor de 0,26 mililitros de agua, lo que equivale a unas cinco gotas. Para ponerlo en perspectiva cotidiana, la compañía equiparó esa cifra energética con la que emplea encender una televisión durante menos de nueve segundos. Estas métricas son parte de una metodología “full stack” desarrollada por Google, que intenta medir no solo el consumo directo de los procesadores de IA, sino también el uso de energía en sistemas auxiliares, memoria, infraestructura en reposo y refrigeración.

Google además destacó que la eficiencia de Gemini ha mejorado de forma dramática en el último año: desde mayo de 2024 hasta mayo de 2025, el consumo energético por consulta se redujo 33 veces y la huella de carbono se redujo 44 veces, mientras que, paralelamente, la calidad de las respuestas del modelo fue incrementándose. Estos avances se atribuyen a mejoras tanto de software —optimización de los modelos y algoritmos— como de hardware e infraestructura en los centros de datos de Google. La divulgación de estos datos se presenta como un paso hacia una mayor transparencia en el sector tecnológico, dada la creciente preocupación global por el impacto ambiental de los grandes modelos de IA y el uso masivo de energía de los centros de datos que los soportan.

Sin embargo, este enfoque también ha generado debate entre expertos ambientales. Algunos especialistas señalan que las cifras oficiales de Google, aunque impresionantes, pueden quedar cortas si no consideran factores indirectos más amplios, como la energía consumida por la generación eléctrica o el impacto del entrenamiento de los modelos a gran escala, que históricamente ha requerido volúmenes de energía y recursos muchísimo mayores que la inferencia diaria. Además, la extrapolación del consumo por prompt individual a escala global —con miles de millones de interacciones diarias— subraya que incluso pequeños valores por consulta pueden traducirse en una carga energética significativa cuando se multiplican por volumen de uso. Estas discusiones ponen de relieve la complejidad de medir con precisión el impacto ecológico de las tecnologías de IA y la necesidad de métricas estandarizadas en toda la industria.

La tecnología no es neutral

«La tecnología que mantiene internet funcionando no es neutral, y la que encontramos o instalamos en nuestros teléfonos móviles tampoco. En la última década, todas han evolucionado de una manera premeditada, con un objetivo muy específico: mantenerte pegado a la pantalla durante el mayor tiempo posible, sin que alcances nunca el punto de saturación».

Marta Peirano «El Enemigo Conoce el Sistema»

De la IA a los chips: las grandes tecnológicas están consiguiendo lo que quieren de Trump.

Kang, Cecilia. New York Times. “From AI to Chips, Big Tech Is Getting What It Wants From Trump.The New York Times, 28 de diciembre de 2025. https://www.nytimes.com/2025/12/28/technology/tech-trump.html

Donald Trump ha impulsado políticas favorables a las grandes empresas tecnológicas, particularmente en el contexto de la inteligencia artificial (IA) y los semiconductores.

En un contexto en que las políticas tecnológicas de Estados Unidos ocupan un papel central en la agenda política de 2025, el New York Times describe cómo la administración de Donald Trump ha implementado decisiones que favorecen ampliamente a las grandes empresas tecnológicas (Big Tech) en temas clave como inteligencia artificial (IA) y semiconductores. Aunque Trump llegó al poder con promesas de dinamizar la economía y restablecer la competitividad nacional, muchas de sus acciones han coincidido con las demandas y prioridades estratégicas de compañías como Nvidia, Google, Meta y otras, consolidando una alianza práctica entre el gobierno y el sector tecnológico que ha desbloqueado políticas regulatorias, cambios en comercio internacional y promoción de inversiones en infraestructura tecnológica.

Según la cobertura disponible, Trump ha eliminado o debilitado diversas restricciones a la exportación de chips semiconductores avanzados, como los fabricados por Nvidia, y ha promovido la expansión de la infraestructura tecnológica —incluidos centros de datos y producción de chips— con el argumento de mantener la competitividad estadounidense en la carrera global por la IA. Estos movimientos reflejan una clara alineación con las prioridades de Silicon Valley y otros gigantes tecnológicos, que han visto beneficios en la reducción de regulaciones y la apertura de mercados internacionales

Uno de los elementos más destacados de esta relación es la revocación o debilitación de restricciones que limitaban la exportación de chips avanzados y la regulación de tecnologías emergentes. La administración ha eliminado barreras regulatorias, acelerado la construcción de centros de datos y aprobado la venta de chips de IA más potentes en mercados sensibles, como China, medidas que muchos ejecutivos tecnológicos consideran esenciales para mantener la dominancia global de la industria estadounidense en IA y hardware. Esto se ha logrado tras esfuerzos coordinados entre líderes del sector y altos funcionarios de la Casa Blanca, que integran a la industria en posiciones de influencia técnica y política.

Además, el gobierno ha emitido órdenes ejecutivas y desarrollado un “AI Action Plan” nacional, orientado a impulsar la innovación de IA eliminando lo que Trump y sus asesores consideran barreras burocráticas y políticas que podrían frenar la competitividad de Estados Unidos frente a rivales como China. Estas políticas priorizan la expansión de la infraestructura tecnológica, la expansión de exportaciones y la coordinación federal única de normativas, reduciendo el papel de regulaciones estatales y enfocando el crecimiento en un marco de mercado libre que favorece a los grandes actores establecidos. Si bien estas medidas han sido aplaudidas por sectores empresariales como impulsores del crecimiento económico, también han generado críticas desde sectores que advierten sobre riesgos de falta de regulación, concentración de poder corporativo y posibles impactos negativos en la protección de derechos y seguridad pública.

Aulas inteligentes: experiencias y propuestas educativas con IA y herramientas digitales.

Palacios, Solangel Materón, María Naranjo-Crespo y Miguel Valdivia Pinto, eds. Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales. Barquisimeto, Venezuela: Fondo Editorial Red Holos XXI, 2025

Texto completo

Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales es una obra colectiva que invita a repensar críticamente la educación en el marco de la transformación digital contemporánea. El libro articula experiencias y propuestas pedagógicas que conciben la inteligencia artificial y las herramientas digitales como mediaciones al servicio del aprendizaje, la reflexión docente y la formación integral. A través de investigaciones, experiencias situadas y marcos metodológicos diversos, los capítulos evidencian cómo la planificación, la investigación formativa, el currículo y la práctica pedagógica pueden enriquecerse cuando la tecnología dialoga con principios éticos, pedagógicos y humanistas sólidos.

La obra destaca por su pluralidad de voces y contextos, abarcando desde la educación superior hasta la educación primaria, así como campos como la formación docente, la investigación cualitativa, la neurodidáctica y la educación médica. En su conjunto, el libro no solo muestra usos innovadores de la IA, sino que problematiza sus tensiones —autoría, citación académica, ética y toma de decisiones—, reafirmando que la verdadera inteligencia del aula reside en la capacidad de los educadores para diseñar experiencias significativas, reflexivas y responsables. En este sentido, Aulas Inteligentes se consolida como un referente para docentes e investigadores que buscan integrar la tecnología sin renunciar al sentido profundamente humano de la educación.