Archivo de la etiqueta: Inteligencia artificial

El 85 % de las organizaciones ya están utilizando algún tipo de inteligencia artificial

Waters, John K. “Report: 85% of Organizations Are Leveraging AI.Wiz, 28 de febrero de 2025.

Texto completo

El informe State of AI in the Cloud 2025 de Wiz revela que el 85 % de las organizaciones ya están utilizando algún tipo de inteligencia artificial. A pesar del crecimiento de la IA en innovación y disrupción, persisten preocupaciones sobre seguridad y gobernanza.

Uno de los hallazgos más destacados es el rápido ascenso de DeepSeek, cuyo modelo DeepSeek-R1 ha acumulado 130.000 descargas en Hugging Face. Actualmente, el 7 % de las organizaciones que usan modelos de IA autoalojados ejecutan DeepSeek, duplicando su adopción en enero de 2025. Sin embargo, esta expansión ha generado preocupaciones de seguridad tras la exposición de una base de datos con información sensible.

A pesar del aumento de la competencia, OpenAI sigue dominando el sector, con su tecnología presente en el 67 % de los entornos en la nube. El informe también destaca que el 75 % de las organizaciones emplea modelos de IA autoalojados, mientras que el 77 % utiliza software especializado en IA/ML.

El ecosistema de IA combina soluciones de código abierto y propietario. Ocho de las diez principales tecnologías de IA alojadas están vinculadas a modelos de código abierto, reflejando la tendencia de las empresas a integrar herramientas públicas y privadas para lograr soluciones más flexibles y escalables. Modelos como BERT han visto un crecimiento significativo, aumentando su adopción del 49 % al 74 % en un año, mientras que nuevas opciones como Mistral AI y Qwen2 de Alibaba Cloud están ganando terreno.

A pesar de las oportunidades que ofrece la IA, su rápida implementación plantea desafíos en seguridad, gobernanza y gestión de costos. El informe advierte sobre la falta de estándares claros, lo que aumenta los riesgos de uso indebido. Para mitigar estos problemas, es fundamental la colaboración entre equipos de seguridad y desarrolladores, asegurando un uso responsable de la IA en los entornos en la nube.

Estrategias para promover la Alfabetización en IA en bibliotecas universitarias

Lo, Leo S. «AI Literacy: A Guide for Academic LibrariesCollege & Research Libraries News 85, no. 2 (2024): 46–49. https://crln.acrl.org/index.php/crlnews/article/view/26704/34626

A medida que la inteligencia artificial sigue transformando la forma en que accedemos y procesamos la información, la alfabetización en IA se convierte en una competencia esencial para la comunidad universitaria. Las bibliotecas, como centros de conocimiento y aprendizaje, tienen la responsabilidad de liderar este proceso educativo mediante la implementación de programas estructurados, la integración de herramientas de IA en sus servicios, el fomento de la investigación y la colaboración interdisciplinaria.

Las bibliotecas universitarias tienen la oportunidad de convertirse en líderes en la enseñanza y promoción de la alfabetización en inteligencia artificial. Para ello, deben desarrollar estrategias integrales que no solo introduzcan a los usuarios en los conceptos básicos de la IA, sino que también los ayuden a aplicar de manera crítica y ética estas tecnologías en sus estudios e investigaciones. Un enfoque estructurado garantizará que tanto estudiantes como personal bibliotecario y docente puedan navegar en un mundo cada vez más influenciado por algoritmos y sistemas automatizados.

Una de las estrategias clave es el desarrollo de programas educativos que aborden la IA desde una perspectiva accesible y escalonada. Estos programas pueden incluir desde talleres introductorios sobre qué es la IA y cómo funciona hasta cursos más avanzados sobre el impacto de los algoritmos en la difusión de información. Es fundamental que las bibliotecas adapten estos contenidos a diferentes niveles de conocimiento, permitiendo que tanto principiantes como expertos encuentren recursos adecuados para su aprendizaje. Además, estos programas deben abarcar no solo los aspectos técnicos, sino también las dimensiones éticas y sociales de la IA, preparando a los participantes para un uso más responsable y consciente de la tecnología.

Otra iniciativa esencial es la integración de herramientas de IA en los servicios bibliotecarios. Las bibliotecas pueden mejorar la experiencia del usuario mediante la implementación de chatbots de asistencia automatizada, sistemas de recomendación personalizados o motores de búsqueda optimizados con IA. Estas tecnologías permiten una navegación más eficiente de los recursos disponibles y facilitan la recuperación de información de manera más precisa. Al exponer a los usuarios a estas herramientas en su entorno cotidiano, las bibliotecas no solo mejoran sus propios servicios, sino que también brindan oportunidades para que los estudiantes y docentes comprendan la funcionalidad y las limitaciones de la IA en la práctica.

Asimismo, la colaboración interdisciplinaria juega un papel fundamental en la alfabetización en IA. Las bibliotecas pueden trabajar junto con departamentos de informática, filosofía, sociología y ciencias de la información para diseñar programas que aborden la IA desde múltiples perspectivas. Esta colaboración permite desarrollar iniciativas más completas que incluyen tanto el desarrollo tecnológico como las implicaciones éticas y sociales de la IA. De esta manera, los estudiantes pueden adquirir una comprensión más amplia y crítica de cómo la inteligencia artificial afecta diferentes áreas del conocimiento y la vida cotidiana.

Además de servir como centros de enseñanza, las bibliotecas pueden impulsar la investigación en IA dentro de sus comunidades universitarias. Esto implica no solo facilitar el acceso a literatura científica sobre inteligencia artificial, sino también apoyar activamente proyectos de investigación que exploren nuevas aplicaciones de la IA en la gestión del conocimiento, la catalogación de información o la preservación digital. Al fomentar la investigación en este campo, las bibliotecas contribuyen al avance del conocimiento sobre IA y fortalecen su papel como espacios de innovación en la educación superior.

Es importante también reconocer que la alfabetización en IA no puede existir sin una sólida base de alfabetización digital. Las bibliotecas deben continuar ofreciendo recursos y programas que ayuden a los usuarios a desarrollar competencias digitales esenciales, como la evaluación crítica de fuentes en línea, el manejo de herramientas de búsqueda avanzada y la comprensión de los principios de seguridad digital. Estas habilidades son fundamentales para que los usuarios puedan interactuar de manera efectiva con herramientas impulsadas por IA y distinguir entre información fiable y sesgada en un entorno digital cada vez más automatizado.

Por último, para garantizar el éxito de estas iniciativas, las bibliotecas deben establecer mecanismos de evaluación continua y adaptación. La rápida evolución de la IA requiere que los programas de alfabetización en esta área se actualicen constantemente para reflejar los últimos avances tecnológicos y los desafíos emergentes. Implementar encuestas, análisis de impacto y espacios de retroalimentación con los usuarios permitirá ajustar y mejorar los recursos disponibles para que sigan siendo relevantes y efectivos.

Al adoptar un enfoque proactivo y flexible, las bibliotecas no solo garantizan que sus usuarios estén preparados para interactuar con la IA de manera crítica y ética, sino que también refuerzan su papel como actores clave en la educación y la innovación tecnológica.

Normas ISO sobre Inteligencia Artificial

International Organization for Standardization. ISO/IEC 22989:2022: Information Technology—Artificial Intelligence—Artificial Intelligence Concepts and Terminology. International Organization for Standardization. Última modificación el 2022. https://www.iso.org/es/contents/data/standard/07/42/74296.html

International Organization for Standardization. ISO/IEC 23894:2023: Artificial Intelligence — Guidance on Risk Management. International Organization for Standardization. Última modificación en 2023. https://www.iso.org/es/contents/data/standard/07/73/77304.html

La norma ISO/IEC 22989:2022, titulada «Tecnologías de la información — Inteligencia artificial — Conceptos y terminología de inteligencia artificial», establece una terminología común y describe los conceptos fundamentales en el ámbito de la inteligencia artificial (IA). Esta norma, publicada en julio de 2022, tiene como objetivo facilitar la comunicación entre diversos actores, incluyendo empresas, investigadores y organismos reguladores, proporcionando un lenguaje común que mejore la comprensión y la interoperabilidad en el desarrollo y uso de sistemas de IA.

Principales aspectos de la ISO/IEC 22989:2022:

  1. Definición de conceptos clave: La norma aborda una amplia gama de términos relacionados con la IA, tales como:
    • Tipos de IA: Diferencia entre IA general (capaz de realizar múltiples tareas como un humano) e IA estrecha (diseñada para tareas específicas).
    • Aprendizaje automático (Machine Learning): Explica métodos como aprendizaje supervisado, no supervisado, por refuerzo y transferencia de aprendizaje.
    • Redes neuronales: Introduce términos como perceptrón, redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN).
    • Confiabilidad de la IA: Aborda factores como sesgo algorítmico, explicabilidad, transparencia y controlabilidad.
    • Ciclo de vida de los sistemas de IA: Desde el diseño y desarrollo hasta la operación y monitoreo continuo.
  2. Facilitación de la interoperabilidad: Al establecer un marco de referencia común, la norma promueve la interoperabilidad entre diferentes tecnologías y sistemas de IA, lo que es esencial en un entorno tecnológico diverso y en constante evolución. iso.org
  3. Mejora de la transparencia y confianza: Proporcionar definiciones claras y consistentes ayuda a mejorar la transparencia en los sistemas de IA, lo que a su vez aumenta la confianza de los usuarios y facilita la adopción ética y responsable de estas tecnologías.
  4. Aplicaciones prácticas: La norma es aplicable a una amplia gama de organizaciones, incluyendo empresas comerciales, agencias gubernamentales y organizaciones sin fines de lucro. Su adopción puede beneficiar a sectores como el desarrollo de asistentes virtuales, sistemas de detección de fraudes y otras aplicaciones de IA, permitiendo a las organizaciones tomar decisiones más informadas y alineadas con las mejores prácticas internacionales. iso.org

La ISO/IEC 22989:2022 es una herramienta esencial para profesionales y organizaciones involucradas en el desarrollo, implementación y regulación de sistemas de IA. Su adopción contribuye a la construcción de sistemas más confiables, eficientes y éticamente alineados, promoviendo una mayor comprensión y colaboración en el campo de la inteligencia artificial.

La norma ISO/IEC 23894, titulada Artificial Intelligence — Guidance on Risk Management, publicada en 2023 proporciona directrices sobre cómo gestionar los riesgos asociados con la inteligencia artificial (IA). Se enfoca en la identificación, evaluación y mitigación de riesgos en el ciclo de vida de los sistemas de IA, incluyendo aspectos éticos, operativos y de seguridad. La norma busca asegurar que las organizaciones adopten prácticas responsables para minimizar los impactos negativos de la IA, fomentando una implementación más segura y confiable de estas tecnologías.

Resoomer es una aplicación en línea basada en IA que permite resumir textos automáticamente.

Resoomer

https://resoomer.com/

Resoomer es una aplicación en línea que permite resumir textos automáticamente. Es útil para estudiantes, profesionales y cualquier persona que necesite procesar rápidamente grandes volúmenes de información. Su algoritmo identifica las ideas principales, haciendo resúmenes claros y concisos. Permite subir documentos en diferentes formatos (PDF, DOCX, TXT) y tiene una extensión para navegador que facilita resumir artículos en línea. Es ideal para agilizar la lectura y mejorar la comprensión de textos largos.

Resoomer es una innovadora aplicación en línea diseñada para facilitar la lectura y comprensión de textos largos mediante el uso de algoritmos avanzados que permiten resumir automáticamente documentos y artículos. Esta herramienta es especialmente útil para estudiantes, profesionales, investigadores, periodistas y cualquier persona que necesite procesar rápidamente grandes cantidades de información, sin perder de vista las ideas clave. Gracias a su tecnología de procesamiento de lenguaje natural (PLN), Resoomer identifica y extrae las partes más relevantes de un texto, creando resúmenes claros y concisos en cuestión de segundos.

¿Cómo funciona Resoomer?

El algoritmo de Resoomer se basa en técnicas de análisis semántico, lo que le permite comprender la estructura y el contenido de un texto. Este análisis le permite identificar las frases o párrafos que contienen las ideas principales del documento. Posteriormente, la herramienta las reescribe de manera breve, eliminando las partes secundarias o menos relevantes, lo que da como resultado un resumen eficiente que facilita la lectura y comprensión del material original.

Resoomer también se adapta a diferentes tipos de documentos, permitiendo a los usuarios cargar archivos en varios formatos como PDF, DOCX y TXT. Esto es especialmente útil para quienes trabajan con documentos largos o complejos, ya que pueden obtener resúmenes de sus materiales de trabajo de forma rápida y precisa, sin necesidad de leer el texto completo.

Ventajas principales de Resoomer

Ahorro de tiempo: En lugar de leer páginas y páginas de información, los usuarios pueden obtener un resumen conciso de los puntos clave del contenido, lo que les permite optimizar su tiempo de estudio o trabajo.

Mejora de la comprensión: Al resaltar las ideas principales y eliminar información secundaria, ayuda a los usuarios a entender mejor el mensaje central de un texto, lo que mejora su capacidad para retener información.

Versatilidad: es compatible con diferentes formatos de documentos (como PDFs, DOCX y TXT), lo que lo convierte en una herramienta muy versátil para estudiantes, académicos, profesionales y cualquier persona que necesite procesar documentos de diferentes tipos.

Extensión de navegador: ofrece una extensión para navegador que permite resumir artículos en línea sin necesidad de copiar y pegar el texto en la aplicación. Esta funcionalidad es ideal para aquellos que leen artículos largos o informes en la web y desean obtener rápidamente un resumen.

Facilidad de uso: La interfaz es simple e intuitiva, lo que hace que cualquier persona pueda comenzar a utilizarla sin necesidad de tutoriales complicados. Solo se necesita cargar el documento o artículo, y en poco tiempo, el resumen estará listo para ser consultado.

Aplicaciones prácticas en distintos campos

La herramienta se utiliza en una amplia variedad de campos debido a su versatilidad y efectividad. Algunos ejemplos incluyen:

Estudiantes: Los estudiantes pueden utilizar la aplicación para procesar textos académicos, libros de texto o artículos de investigación. Esto les permite obtener resúmenes de gran calidad para sus trabajos y exámenes, ahorrando tiempo y mejorando su comprensión de los temas estudiados.

Investigadores y académicos: Aquellos que se dedican a la investigación a menudo deben leer una gran cantidad de documentos científicos y técnicos, ya que les ayuda a obtener resúmenes rápidos de los artículos y papers, lo que les permite filtrar la información relevante sin tener que leer el texto completo.

Profesionales: Los profesionales que manejan grandes volúmenes de información en su día a día (como abogados, médicos, consultores, etc.) pueden beneficiarse enormemente de Resoomer, ya que les permite obtener resúmenes rápidos de documentos complejos o largos, ayudándoles a tomar decisiones informadas más rápidamente.

Periodistas: Los periodistas que deben leer y analizar diversas fuentes para redactar artículos o informes pueden utilizarla para simplificar el proceso de análisis de las fuentes, permitiéndoles concentrarse en los aspectos más importantes de las noticias o temas que están cubriendo.

Limitaciones y recomendaciones

A pesar de sus numerosas ventajas, la herramientar tiene algunas limitaciones que deben tenerse en cuenta. Aunque el algoritmo es bastante preciso en la identificación de ideas principales, no siempre puede captar el tono o contexto de un texto, lo que podría llevar a resúmenes que omiten matices importantes. Además, la calidad del resumen puede variar según la complejidad del texto original. En textos muy técnicos o especializados, es posible que se necesite una revisión manual para asegurarse de que todas las ideas clave han sido capturadas correctamente.

Para obtener los mejores resultados, se recomienda utilizar la aplicación como una herramienta complementaria en lugar de una solución única. Es ideal para obtener un primer borrador de un resumen que luego puede ser ajustado y enriquecido según las necesidades del usuario.

Alertan sobre propaganda rusa infiltrada en los principales chatbots de IA

NewsGuard. «A Well-Funded, Moscow-Based Global Disinformation Machine Flooded the Internet with Russian Propaganda—Now It’s Polluting AI ChatbotsNewsGuard Reality Check, March 6, 2025. https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global.

Un informe reciente de NewsGuard, compartido por Axios, revela que una operación de desinformación rusa sigue afectando a los principales chatbots de inteligencia artificial (IA), los cuales están replicando propaganda pro-Kremlin.

Según el informe, una red de unos 150 sitios web vinculados a Rusia, conocida como la red Pravda, ha inundado internet con noticias falsas desde abril de 2022. Esto no solo engaña a los buscadores, sino también a los sistemas de IA que se entrenan con datos de la web, alterando la forma en que procesan y presentan información.

NewsGuard evaluó a 10 de los principales chatbots, entre ellos ChatGPT-4o (OpenAI), Gemini (Google), Copilot (Microsoft), Claude (Anthropic), Meta AI, entre otros. En el estudio, se probaron 15 narrativas falsas promovidas por la red Pravda, utilizando distintos estilos de preguntas para simular interacciones reales con los usuarios.

Principales resultados del informe:

  • Los chatbots repitieron desinformación rusa en un 33,55% de las respuestas.
  • En un 18,22% no ofrecieron respuesta.
  • Solo un 48,22% refutó o corrigió la información falsa.
  • Todos los chatbots replicaron, en algún momento, narrativas falsas de Pravda.
  • Siete de ellos citaron directamente artículos de Pravda como fuente.
  • Se identificaron 92 artículos diferentes de Pravda usados como referencia en las respuestas de los chatbots.

Estos hallazgos confirman otro informe de febrero de 2025 del grupo estadounidense American Sunlight Project (ASP), que alertó que la red Pravda no busca tanto atraer lectores humanos, sino influir en los modelos de lenguaje de IA. A esta estrategia la denominaron «LLM grooming», es decir, entrenar indirectamente a los modelos para normalizar narrativas falsas.

El informe advierte que los riesgos de este tipo de manipulación son elevados, tanto a nivel político como social y tecnológico, debido a la capacidad de los modelos de IA para amplificar desinformación a gran escala.

Elicit lanza Elicit Reports resúmenes de investigación totalmente automatizados pensados para investigadores reales

Elicit Reports

https://elicit.com/?ref=blog.elicit.com

Elicit ha lanzado Elicit Reports, resúmenes de investigación totalmente automatizados pensados para investigadores reales, inspirados en las revisiones sistemáticas (el estándar de referencia para sintetizar literatura científica).

Estos informes realizan automáticamente una revisión rápida (búsqueda, selección y extracción de datos) utilizando el mismo motor que su flujo de trabajo de revisión sistemática. Además, permiten al usuario revisar y editar cada paso intermedio para asegurar confianza en los resultados.

A diferencia de otras herramientas de IA pensadas para usos más generales (como compras o viajes), Elicit Reports está diseñado para investigadores que necesitan precisión, control y transparencia en contextos donde la exactitud es clave.

El funcionamiento de Elicit Reports comienza con la formulación de una pregunta de investigación, que la herramienta ayuda a aclarar y enfocar, sugiriendo posibles ángulos de análisis. A partir de ahí, realiza de manera automática una revisión rápida que incluye la búsqueda, selección y extracción de datos para generar el informe. Durante el proceso, permite al usuario revisar y modificar cada etapa, desde los estudios incluidos hasta los resúmenes elaborados. Cada afirmación del informe se respalda con citas textuales exactas de las fuentes originales, lo que facilita la verificación de la información. Además, ofrece la posibilidad de interactuar con el informe a través de un chat, desde el que se pueden ampliar datos, resolver dudas concretas o solicitar resúmenes adicionales.

La eficacia de Elicit Reports fue evaluada por un grupo de 17 investigadores con doctorado, quienes probaron la herramienta respondiendo 29 preguntas dentro de sus respectivas áreas de especialización. Los resultados indicaron que Elicit Reports ofrece informes más precisos, fundamentados y útiles que otras soluciones como OpenAI, Perplexity y Gemini. Además, destacó por ahorrar más tiempo durante el proceso de investigación en comparación con estas alternativas. Está previsto que próximamente se publiquen los detalles completos de la metodología empleada en esta evaluación.

Puedes probarlos gratis o revisar un ejemplo: ¿Cuáles son los efectos de la exposición a microplásticos durante el embarazo?

Google continúa integrando la inteligencia artificial (IA) en su motor de búsqueda

Pierce, David. «Google Is Adding More AI Overviews and a New ‘AI Mode’ to SearchThe Verge, March 5, 2025. https://www.theverge.com/2025/3/5/24089613/google-search-ai-overviews-mode-gemini

Google continúa integrando la inteligencia artificial (IA) en su motor de búsqueda con dos importantes novedades: la expansión de los AI Overviews y la introducción de un nuevo «AI Mode».

A partir de ahora, los AI Overviews —resúmenes generados por IA al inicio de los resultados de búsqueda— aparecerán en más tipos de consultas y estarán disponibles para usuarios de todo el mundo, incluso sin iniciar sesión en Google.

Por otro lado, Google está probando AI Mode, una función experimental que convierte la búsqueda en una experiencia similar a la de un chatbot. Disponible solo para suscriptores de Google One AI Premium, AI Mode permite a los usuarios recibir respuestas generadas por IA directamente desde el índice de búsqueda de Google, acompañadas de algunos enlaces relevantes. A diferencia de otros chatbots como ChatGPT o Perplexity, AI Mode utiliza modelos como Gemini 2.0, optimizados para ofrecer respuestas basadas en información actualizada y tareas complejas como matemáticas y programación.

Aunque estas herramientas refuerzan la apuesta de Google por la IA generativa, la compañía asegura que no pretende reemplazar los enlaces tradicionales ni perjudicar el ecosistema web. Según Robby Stein, vicepresidente de producto, los AI Overviews ayudan a que los usuarios accedan mejor informados a los sitios web, permaneciendo más tiempo y participando de manera más activa. Google defiende que estas innovaciones buscan mejorar la experiencia de búsqueda, atender preguntas más complejas y atraer nuevos usos, sin sustituir por completo el modelo clásico de buscador.

En definitiva, Google avanza hacia una experiencia de búsqueda cada vez más mediada por la IA, transformando tanto la forma de consultar información como la relación entre los usuarios y los sitios web.

Alfabetización en Inteligencia Artificial en la educación primaria, secundaria y superior

Gu, Xingjian, y Barbara J. Ericson. 2024. «AI Literacy in K-12 and Higher Education in the Wake of Generative AI: An Integrative ReviewarXiv. Publicado el 1 de marzo de 2024. https://arxiv.org/abs/2503.00079

En los últimos años, especialmente tras la popularización de herramientas de inteligencia artificial generativa como ChatGPT, la alfabetización en IA (AI literacy) se ha convertido en un tema clave en la educación tanto primaria y secundaria como superior. Sin embargo, existe una falta de definición clara y consensuada sobre qué significa exactamente ser «alfabetizado» en IA y cómo debe abordarse desde una perspectiva educativa.

En los últimos años, y de manera especialmente notable desde la irrupción de tecnologías de inteligencia artificial generativa como ChatGPT, la alfabetización en inteligencia artificial (IA) ha comenzado a consolidarse como un tema prioritario dentro de los entornos educativos, tanto en la enseñanza primaria y secundaria (K-12) como en la educación superior. Sin embargo, a pesar de su creciente relevancia, persiste una notable falta de consenso acerca de qué debe entenderse por «alfabetización en IA» y cómo debería abordarse de manera pedagógica. El concepto resulta amplio y, en ocasiones, ambiguo: bajo su paraguas caben desde programas diseñados para enseñar a estudiantes universitarios a utilizar de manera eficiente herramientas como ChatGPT hasta actividades que promueven la interacción de niños de educación infantil con robots sociales. Esta amplitud de enfoques y objetivos genera confusión y dificulta el diseño de intervenciones educativas claras, estructuradas y coherentes.

Ante esta falta de definición precisa, Gu y Ericson llevan a cabo una revisión integradora de 124 estudios publicados desde el año 2020, tanto de carácter empírico como teórico. Mediante este análisis exhaustivo, los autores buscan mapear el estado actual del campo de la alfabetización en IA y ofrecer una perspectiva integradora que permita clarificar cómo se está abordando este concepto desde distintas disciplinas y niveles educativos. La revisión de la literatura revela la existencia de múltiples interpretaciones y objetivos, lo que refuerza la idea de que, para avanzar en este ámbito, es necesario disponer de un marco común que permita ordenar las distintas aproximaciones y facilitar el diálogo entre investigadores, educadores y responsables políticos.

A partir del análisis de los estudios revisados, los autores proponen una doble clasificación que permite comprender las principales formas en las que se conceptualiza la alfabetización en IA en los ámbitos educativos. Por un lado, identifican tres maneras de entender la alfabetización en IA: funcional, crítica y de beneficios indirectos. La alfabetización funcional se centra en el desarrollo de habilidades prácticas para utilizar herramientas de IA de forma eficiente, como escribir mejores indicaciones (prompts) para obtener resultados óptimos con sistemas generativos. La alfabetización crítica, por su parte, busca fomentar una mirada reflexiva y ética sobre la IA, cuestionando cuestiones como los sesgos algorítmicos, la privacidad de los datos o las implicaciones sociales de su uso. Finalmente, la alfabetización con beneficios indirectos engloba aquellas experiencias de aprendizaje que, mediante el uso de IA, favorecen el desarrollo de competencias transversales como el pensamiento computacional, la resolución de problemas o el trabajo colaborativo.

Paralelamente, los autores también identifican tres perspectivas principales desde las que se aborda la IA en los estudios analizados: como detalle técnico, como herramienta y como fenómeno sociocultural. La primera perspectiva pone el foco en los fundamentos técnicos de la IA, enseñando a los estudiantes conceptos como los algoritmos de aprendizaje automático o el funcionamiento de las redes neuronales. La segunda trata la IA como un recurso práctico que permite optimizar tareas, resolver problemas y mejorar procesos en distintos contextos. Por último, la perspectiva sociocultural analiza la IA como un fenómeno que influye e interactúa con los entornos sociales, económicos y culturales, abordando sus impactos éticos, legales y políticos.

Fruto de esta doble clasificación, Gu y Ericson proponen un marco integrador que organiza el espectro actual de aproximaciones a la alfabetización en IA y que ayuda a detectar lagunas tanto teóricas como prácticas dentro del campo. Una de sus conclusiones más relevantes es la necesidad de desarrollar una terminología más precisa y especializada dentro del discurso educativo sobre IA. En su opinión, contar con términos específicos —como “alfabetización técnica en IA”, “alfabetización crítica en IA” o “alfabetización sociocultural en IA”— permitiría diseñar programas formativos mejor adaptados a los objetivos perseguidos y a las características de cada nivel educativo.

Por último, los autores destacan algunos vacíos importantes en la investigación sobre alfabetización en IA. Mientras que los enfoques funcionales y técnicos han recibido una considerable atención en los últimos años, los enfoques críticos y socioculturales permanecen relativamente desatendidos, lo que sugiere la necesidad de impulsar más investigaciones e intervenciones educativas que promuevan una comprensión ética, inclusiva y socialmente consciente de la inteligencia artificial.

La nueva tendencia de la IA: modelos más pequeños, rápidos y sostenibles

Emslie, Karen. «The Big Shrink in LLMsCommunications of the ACM, 28 de febrero de 2025. Disponible en: https://cacm.acm.org/news/the-big-shrink-in-llms/

La inteligencia artificial está empezando a usar modelos más pequeños y rápidos que gastan menos energía y funcionan mejor en dispositivos como los móviles. Así se consiguen resultados más precisos y fáciles de usar sin necesitar tantos recursos.

El crecimiento acelerado de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) ha traído consigo problemas como disputas de propiedad intelectual, sesgos, preocupaciones por la privacidad y el alto consumo energético. Además, en sectores especializados como el legal o financiero, los LLMs no siempre ofrecen resultados precisos o útiles, y los errores (llamados «alucinaciones») se han vuelto comunes.

Ante estos desafíos, está surgiendo una tendencia hacia modelos más pequeños y eficientes, gracias a técnicas como knowledge distillation (transferencia de conocimientos de modelos grandes a otros más pequeños), pruning (eliminación de parámetros innecesarios) y avances en edge computing (procesamiento local en dispositivos). Estos modelos reducidos permiten menor consumo de recursos, mayor velocidad y mejor adaptación a contextos específicos como la salud, donde la precisión es clave.

Expertos como Amir H. Gandomi y Julian Faraway destacan que los conjuntos de datos pequeños y bien seleccionados pueden ser más precisos y fiables que los grandes volúmenes de datos ruidosos, especialmente cuando se busca comprender causas y no solo hacer predicciones.

Grandes compañías tecnológicas también se han sumado a esta tendencia:

  • Google lanzó versiones reducidas de su modelo Gemini y la familia ligera Gemma.
  • Meta investiga estrategias de eliminación de capas sin pérdida significativa de rendimiento.
  • Nvidia logró reentrenar un modelo con solo el 3% de sus datos originales, creando la serie Minitron.
  • Microsoft presentó phi-3.5-mini, diseñado para funcionar directamente en smartphones.

El auge de la informatica de bajo coste y alto rendimiento (edge computing) impulsa esta transformación hacia modelos más pequeños, sostenibles y accesibles, cambiando la mentalidad de «más grande es mejor» por la de «más inteligente y eficiente».

A medida que la sostenibilidad y la personalización ganan importancia, estos modelos compactos podrían convertirse en el nuevo estándar de la IA.

El desafío ambiental de la inteligencia artificial generativa y las claves para un desarrollo sostenible

Capgemini Research Institute. 2025. Developing Sustainable Gen AI. Capgemini. https://www.capgemini.com/insights/research-library/sustainable-gen-ai/

Ver informe

El informe Developing Sustainable Gen AI de Capgemini analiza el elevado impacto ambiental de la inteligencia artificial generativa debido a su alto consumo energético, uso intensivo de agua y generación de residuos electrónicos. Destaca la falta de medidas sostenibles en las organizaciones y la necesidad urgente de incorporar criterios ambientales en el desarrollo y uso de Gen AI. Propone estrategias para reducir su huella, como optimizar modelos, emplear energías renovables y fomentar una gobernanza responsable.

El informe del Capgemini Research Institute advierte sobre el fuerte impacto ambiental que está generando la inteligencia artificial generativa (Gen AI). Esta tecnología, que se ha popularizado rápidamente por su capacidad para crear textos, imágenes o vídeos de manera automática, requiere un uso intensivo de recursos. Para funcionar, Gen AI precisa procesar enormes cantidades de datos mediante potentes sistemas computacionales, lo que implica un consumo energético desmesurado, la explotación de materiales críticos para la fabricación de hardware y una alta generación de residuos electrónicos. Por ejemplo, entrenar un modelo como GPT-4 supone un gasto energético equivalente al consumo anual de unos 5.000 hogares estadounidenses, y se estima que para 2030, Gen AI podría generar hasta cinco millones de toneladas de desechos electrónicos, mil veces más que en 2023.

Los centros de datos que soportan estos sistemas también requieren grandes volúmenes de agua para evitar el sobrecalentamiento de los servidores. De hecho, se calcula que realizar entre 20 y 50 consultas a un modelo de lenguaje grande (LLM) puede llegar a consumir medio litro de agua solo para refrigeración. Esta situación preocupa especialmente si se considera el aumento global del estrés hídrico. Además, el hardware necesario para la IA, como las tarjetas gráficas (GPU), utiliza metales escasos cuya extracción es altamente contaminante y acelera la degradación de los ecosistemas.

El informe también pone de relieve que casi la mitad de las organizaciones que utilizan Gen AI han observado un incremento en sus emisiones de carbono. Sin embargo, pese a este impacto, la sostenibilidad aún no es un criterio prioritario a la hora de desarrollar o implementar estas tecnologías. Solo el 12% de las empresas mide la huella ambiental de sus modelos de Gen AI y apenas un 20% tiene en cuenta ese impacto como un factor decisivo al seleccionar modelos o proveedores. La mayoría de las compañías prioriza aspectos como el coste, la eficiencia y la escalabilidad, dejando en un segundo plano los efectos medioambientales.

Ante este panorama, Capgemini propone una serie de medidas para avanzar hacia una Gen AI más sostenible. En primer lugar, recomienda elegir cuidadosamente la tecnología en función de las necesidades reales del negocio, combinando soluciones de IA tradicional con IA generativa cuando sea posible, ya que esto reduce el consumo energético. Asimismo, destaca la importancia de medir y mitigar la huella de carbono durante todo el ciclo de vida de los modelos, desde su desarrollo hasta su uso diario. Para ello, las organizaciones deberían optar por modelos más pequeños y optimizados, emplear hardware reciclable y energéticamente eficiente, utilizar centros de datos que funcionen con energías renovables y monitorizar el impacto ambiental de manera continua.

El informe también resalta el potencial de Gen AI para contribuir a la sostenibilidad empresarial si se aplica en casos de uso adecuados. Algunas de sus aplicaciones más prometedoras son la automatización de informes medioambientales (ESG), el diseño de productos sostenibles, la evaluación de ciclos de vida o la optimización de procesos productivos para reducir desperdicios y consumo energético. No obstante, para que estas iniciativas generen un impacto positivo, es imprescindible equilibrar los beneficios económicos y operativos con los costes ambientales.

Finalmente, Capgemini subraya la necesidad urgente de establecer una gobernanza específica para la sostenibilidad en el ámbito de Gen AI. Esto implica exigir transparencia a los proveedores tecnológicos sobre la huella de carbono de sus modelos, establecer objetivos claros de reducción de emisiones y colaborar con otras organizaciones para compartir buenas prácticas y desarrollar estándares comunes. Solo así será posible aprovechar el potencial de la inteligencia artificial generativa sin comprometer los objetivos climáticos y minimizando su impacto en el planeta.