Archivo de la etiqueta: Inteligencia artificial

Cómo desarrollar la alfabetización en IA

Hennig, Nicole, y Daniel Pfeiffer. «A Tech Librarian Explains How to Build AI Literacy.» Choice: The Leading Online Resource for Library and Information Professionals, 26 de abril de 2023. https://www.choice360.org/libtech-insight/a-tech-librarian-explains-how-to-build-ai-literacy/.

El concepto de alfabetización en inteligencia artificial (IA) ha cobrado una relevancia creciente debido al impacto de tecnologías como ChatGPT y otras herramientas basadas en IA. Esta alfabetización se ha convertido en una habilidad imprescindible para la sociedad moderna, y los bibliotecarios, como profesionales clave en la educación, jugarán un papel fundamental en su enseñanza. En una entrevista con Nicole Hennig, experta en experiencia del usuario y tecnologías emergentes, se abordan los aspectos clave de la alfabetización en IA y cómo los bibliotecarios pueden integrarla en su labor educativa.

¿Qué es la alfabetización en IA? La alfabetización en IA no es solo el conocimiento básico sobre el funcionamiento de estas tecnologías, sino un conjunto de competencias que capacitan a los individuos para:

  1. Evaluar críticamente las tecnologías de IA.
  2. Comunicarse y colaborar eficazmente con la IA.
  3. Usar la IA de manera ética y efectiva tanto en el hogar como en el trabajo.

Además de estas competencias, Hennig añade la necesidad de entender cómo funciona la IA, incluidos temas como el aprendizaje automático, las redes neuronales y los modelos de lenguaje grande, así como la capacidad para tomar decisiones informadas sobre el uso de estas tecnologías.

La conexión entre alfabetización en IA y otras formas de alfabetización La alfabetización en IA está estrechamente relacionada con otras formas de alfabetización digital y de datos, ya que la IA se basa en datos digitales y algoritmos. Los bibliotecarios, que ya están involucrados en la enseñanza de la alfabetización digital, de datos y mediática, deben incorporar la alfabetización en IA en sus programas debido a la creciente integración de la IA en herramientas cotidianas y su presencia en diversas industrias.

El impacto de la IA en el trabajo de los bibliotecarios La adopción de la IA, y en particular herramientas como ChatGPT, plantea nuevas oportunidades y desafíos en el ámbito bibliotecario. Hennig señala que la alfabetización en IA se está convirtiendo en una habilidad clave que los bibliotecarios deben adquirir, no solo para educarse a sí mismos, sino también para educar a los usuarios. La IA está cada vez más presente en los requisitos laborales en diferentes campos, lo que hace que su comprensión sea crucial para todos los profesionales, incluidos los bibliotecarios.

La IA y sus críticas Aunque la IA está rodeada de críticas, especialmente en torno a temas como la desinformación, el plagio y los sesgos, Hennig destaca que la alfabetización en IA puede ayudar a navegar estos problemas. Al entender mejor cómo funciona la IA, los usuarios pueden aprender a utilizarla de manera ética y efectiva, y también podrán evaluar los riesgos y las limitaciones de estas tecnologías. Además, destaca que la IA está ayudando a democratizar la creación de contenido, lo que puede ser un aspecto positivo cuando se aborda de manera adecuada.

Ejemplo de uso efectivo de ChatGPT Hennig también ofrece ejemplos prácticos de cómo usar ChatGPT de manera efectiva. Un consejo clave es cómo formular preguntas adecuadas o «prompts» para obtener respuestas útiles. Por ejemplo, si un bibliotecario necesita ideas para una clase sobre alfabetización informacional, puede pedir a ChatGPT que genere un esquema detallado y actividades relacionadas.

Primeros pasos para bibliotecarios sin experiencia técnica Para aquellos bibliotecarios que no tienen una formación técnica en IA, Hennig recomienda comenzar con recursos accesibles como cursos cortos. Ejemplos incluyen una serie de lecciones por correo electrónico publicada por The New York Times y el curso Nano Tips for Using ChatGPT de LinkedIn Learning, que ofrece lecciones breves pero efectivas.

Mantenerse al día con los avances en IA Dado el ritmo acelerado de la evolución de la IA, es esencial seguir a expertos en el campo para mantenerse actualizado. Hennig sugiere seguir a investigadores y profesionales de la IA a través de sus boletines y redes sociales para estar al tanto de las últimas tendencias y avances.

En resumen, la alfabetización en IA es una habilidad esencial para los bibliotecarios en la actualidad. No solo deben educarse a sí mismos sobre la IA, sino que también deben ser capaces de enseñar a sus usuarios cómo utilizarla de manera ética y efectiva. Esta competencia se integra cada vez más en las herramientas que usamos diariamente y será crucial en la educación de las generaciones futuras.

Estrategia inicial y hoja de ruta de despliegue de la Inteligencia Artificial – 2024-2025

European Court of Auditors, Artificial Intelligence initial strategy and deployment roadmap – 2024-2025, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2865/317443

En octubre de 2023, el Tribunal de Cuentas Europeo (ECA) inició una reflexión interna sobre la aplicación de la inteligencia artificial (IA) en sus actividades, tras una serie de avances en este campo. Esta reflexión dio lugar al documento “Oportunidades y desafíos en la respuesta y uso de la inteligencia artificial”, que establece un análisis inicial y propone una estrategia de IA y una hoja de ruta para su implementación. La estrategia actual del ECA cubre el período 2021-2025 y se prevé que la próxima incorpore aspectos relacionados con la IA. El objetivo es iniciar las actividades de IA de manera estructurada y proporcionar insumos para la siguiente estrategia del ECA.

Si bien la IA es una tecnología transformadora, se destaca que no reemplazará el juicio profesional ni el pensamiento crítico de los auditores, sino que los asistirá, mejorando la eficiencia y la base de las auditorías. El uso de la IA se centrará en aumentar las capacidades del personal del ECA para realizar auditorías más rápidas, eficaces y fundamentadas. Además, se subraya la importancia de mantener los más altos estándares éticos, priorizando la transparencia y aplicando un escepticismo profesional.

El documento también aclara la distinción entre el uso de la IA para la auditoría y la auditoría de los sistemas de IA, proponiendo un conjunto de objetivos y acciones concretas. Aunque el campo de la IA es aún incipiente, se consideran realistas las acciones propuestas basadas en pruebas de concepto exitosas y en la experiencia de otras instituciones. Además, se incluye un análisis preliminar sobre las herramientas de IA, considerando soluciones basadas en la nube y locales.

Se reconoce que la IA no revolucionará los procesos principales ni aumentará la productividad de manera significativa en el corto y medio plazo, pero se espera un aumento de la productividad de alrededor del 10%, lo que tendrá un impacto positivo en la eficiencia general. A medida que la IA sigue evolucionando, se ha diseñado un plan de comunicación para mantener a los empleados del ECA informados sobre las actualizaciones de este ámbito.

En cuanto a la auditoría, la IA se utilizará para mejorar la eficiencia del proceso auditivo, realizando tareas repetitivas y análisis de documentos, evaluación de riesgos y automatización de procesos rutinarios. Para aprovechar al máximo la IA, será esencial la capacitación del personal, que deberá entender tanto los aspectos operativos de las herramientas de IA como sus limitaciones, los posibles sesgos y las implicaciones éticas de su uso.

Finalmente, la auditoría de los sistemas de IA será un componente adicional en las metodologías tradicionales de auditoría de TI. Se deberá evaluar el uso de la IA por parte de las entidades auditadas, su impacto en los resultados, la toma de decisiones y el cumplimiento de estándares éticos y normativos, incluyendo los riesgos asociados con el uso de IA por terceros con los que las entidades auditadas tengan relaciones contractuales.

Creación de un marco de alfabetización en IA

Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor & Francis 2024

Texto completo

Con las crecientes discusiones en torno a herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a tecnologías de IA accesibles que los estudiantes están utilizando para facilitar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han comenzado a surgir numerosos talleres liderados por bibliotecarios para ayudar a los estudiantes a crear indicaciones para chats, verificar la información proporcionada por ChatGPT y usar herramientas de IA de manera crítica. Aunque se ha iniciado cierta discusión sobre el Framework for Information Literacy de la ACRL y el lugar que ocupa la IA dentro de él, proponemos que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento tiene como objetivo informar sobre entrevistas realizadas a bibliotecarios especializados en instrucción sobre alfabetización en IA. A partir del análisis de estas entrevistas, identificaremos los principales temas y preocupaciones relacionadas con la IA y desarrollaremos un marco sólido para la alfabetización en IA. Los lectores de este documento deberían obtener una mejor comprensión del papel de la alfabetización en IA dentro de la instrucción en alfabetización informacional y podrán utilizar una estructura rigurosa para planificar sus propias intervenciones.

Tras realizar 15 entrevistas a bibliotecarios de Canadá y Estados Unidos, los autores concluyeron que, aunque el 67 % de los bibliotecarios han enseñado contenido relacionado con IA en el último año, la mayoría no utilizó el Framework for Information Literacy in Higher Education de la ACRL para diseñar sus sesiones de instrucción. Además, los autores identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, como:

• La ingeniería de prompts, una entre muchas habilidades necesarias para usar herramientas de IA.
• La evaluación crítica que va más allá de la autoridad y analiza aspectos éticos y sesgos.
• La comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
• Nuevas formas de atribuir la creación y edición de contenido.

El marco propuesto para la alfabetización en IA se centrará en los siguientes aspectos:

  1. Conocer los principios básicos de la IA.
  2. Comprender las diferencias fundamentales entre los tipos de IA.
  3. Experimentar con herramientas de IA.
  4. Revisar los resultados y productos generados por las herramientas de IA.
  5. Evaluar el impacto de la IA a escala social.
  6. Participar activamente en el discurso sobre la IA.

Las «alucinaciones» de la inteligencia artificial (IA) no se pueden eliminar por completo, pero existen técnicas para minimizar su impacto

Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their DamageNature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5

Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.

Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».

Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.

El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.

Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.

Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.

Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.

Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.

Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.

Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.

¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.

Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).

No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.

Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.

Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.

Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica

Ai2 ScholarQA

Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica. Desarrollada por el Instituto Allen para la Inteligencia Artificial (Ai2), esta herramienta permite a los investigadores formular preguntas científicas que requieren la comparación y el resumen de múltiples documentos. Ai2 ScholarQA utiliza un modelo avanzado de IA, Claude Sonnet 3.5, y un corpus de artículos de acceso abierto para proporcionar respuestas detalladas y contextualizadas. Aunque la herramienta puede ser menos coherente en algunos casos debido a su enfoque en la evidencia, busca mejorar la eficiencia en las revisiones de literatura. Ai2 planea abrir el código fuente de la funcionalidad principal y continuar explorando formas de personalizar y mejorar el apoyo a la investigación científica con IA.

El optimismo global sobre la IA aumenta a medida que crece su uso

Our Life with AI: From innovation to application. Ipsos y Google, 2025

Texto completo

El informe analiza cómo la inteligencia artificial ha pasado a formar parte de la corriente principal en el último año, mostrando su potencial transformador en diversos campos. Según una encuesta global realizada por Ipsos y Google, el uso de la IA ha aumentado un 10%, alcanzando el 48% a nivel mundial. Esta mayor adopción ha llevado a una percepción más positiva de la tecnología, con un 57% de las personas mostrando entusiasmo por su potencial, superando el 43% que aún expresa preocupaciones.

Las personas están comenzando a experimentar los beneficios prácticos de la IA, como la simplificación de tareas cotidianas y mejoras en sistemas de pronóstico, lo que ha contribuido a una mayor aceptación. Aunque persisten ciertas inquietudes, como el impacto negativo en la economía que el 29% de los encuestados anticipa, estas cifras han disminuido respecto al 33% del año anterior.

El estudio también destaca que 7 de cada 10 encuestados esperan que la IA tenga un impacto positivo en la ciencia y la medicina, subrayando su potencial para avances significativos en estas áreas. Además, el 65% de los participantes se muestra entusiasmado por la aplicación de la IA en asistencia personal, mientras que el 74% ya utiliza esta tecnología en su trabajo, considerándola una herramienta clave para mejorar la productividad y la eficiencia.

A nivel global, prevalece un sentimiento pro-innovación, con una mayoría de personas prefiriendo fomentar un entorno que apoye el desarrollo de la IA en lugar de imponer regulaciones restrictivas. Este deseo de impulsar la innovación es evidente incluso en regiones tradicionalmente más cautelosas, como Estados Unidos y Europa.

En general, el artículo subraya la importancia de la colaboración entre gobiernos, empresas, y otros actores para garantizar un desarrollo responsable de la IA, que maximice sus beneficios y aborde las preocupaciones públicas, con el fin de construir un futuro mejor para todos.

Europa en la era inteligente: de las ideas a la acción

Europe in the Intelligent Age: From Ideas to Action. World Economic Forum y McKinsey & Company, 2025

Texto completo

El informe «Europe in the Intelligent Age: From Ideas to Action» propone ideas para acelerar la competitividad y el entorno de inversión en Europa, enfocándose en el impacto rápido y a gran escala. Recomienda una estrategia para definir dónde jugar y cómo ganar, junto con iniciativas emblemáticas del sector privado y 10 «grands projets» públicos para impulsar el emprendimiento, la innovación y la inversión europea. A pesar de su potencial tecnológico, Europa invirtió €700 mil millones menos anualmente en comparación con EE. UU. entre 2015 y 2022, logrando menores retornos. El documento aboga por la colaboración público-privada para que Europa logre liderazgo tecnológico y económico.

La docencia universitaria en tiempos de IA

«La docencia universitaria en tiempos de IA | Editorial Octaedro», accedido 20 de enero de 2025,

Texto completo

¿Está la inteligencia artificial (IA) transformando la enseñanza universitaria? En este volumen, se exploran los desafíos y oportunidades que surgen al integrar la IA en el ámbito educativo superior. El libro reúne investigaciones y experiencias innovadoras, evaluadas mediante un riguroso proceso de revisión por pares, con contribuciones de académicos y expertas/os de diversas universidades.

La obra, compuesta por 8 capítulos, abarca un amplio espectro de temas, incluyendo el uso de sistemas de tutoría inteligente, análisis de datos educativos y herramientas generativas como ChatGPT. Se presentan casos prácticos y reflexiones críticas sobre cómo estas tecnologías están redefiniendo los roles docentes, transformando las dinámicas de aula y modificando el proceso de aprendizaje de las y los estudiantes.

En este monográfico, se destaca la capacidad del profesorado para adaptarse y liderar el cambio, demostrando una vez más su maestría al integrar estas herramientas emergentes en los procesos de enseñanza-aprendizaje. Una lectura indispensable para quienes buscan comprender el impacto de la IA en la educación superior y explorar estrategias pedagógicas que potencien el aprendizaje en la era digital.

El impacto ambiental de la IA generativa

MIT News. «Explained: Generative AI’s Environmental ImpactMIT Computer Science and Artificial Intelligence Laboratory (CSAIL). Última modificación en 2024. https://www.csail.mit.edu/news/explained-generative-ais-environmental-impact.

MIT News examina las implicaciones ambientales y de sostenibilidad de las tecnologías de IA generativa en una serie de dos partes. En este artículo, se analiza por qué esta tecnología consume tantos recursos. La segunda parte abordará las estrategias para reducir la huella de carbono de la IA generativa.

MIT News ha investigado el impacto ambiental de las tecnologías de inteligencia artificial generativa, que incluyen modelos como GPT-4 de OpenAI, destacando que estas tecnologías, a pesar de sus numerosos beneficios, son intensivas en recursos y tienen consecuencias ambientales significativas.

La IA generativa, como GPT-4 de OpenAI, requiere una enorme potencia computacional, demandando grandes cantidades de electricidad y aumentando las emisiones de CO₂. Además, el enfriamiento del hardware consume grandes volúmenes de agua, afectando los ecosistemas locales. La fabricación y transporte del hardware también generan impactos ambientales indirectos.

El entrenamiento de modelos de IA generativa, que a menudo tienen miles de millones de parámetros, requiere una enorme potencia computacional. Esto lleva a un consumo masivo de electricidad, aumentando las emisiones de dióxido de carbono y ejerciendo presión sobre las redes eléctricas.

Los centros de datos, esenciales para entrenar y ejecutar modelos de IA, son grandes consumidores de electricidad. El uso de modelos de IA generativa, como ChatGPT, consume más energía que búsquedas web simples, lo que incrementa aún más la demanda de electricidad y agua para enfriamiento.

El enfriamiento del hardware en los centros de datos, esenciales para la IA generativa, utiliza grandes cantidades de agua, lo que puede tensar los suministros municipales y afectar los ecosistemas locales. Se estima que por cada kilovatio-hora de energía consumida por un centro de datos, se necesitan dos litros de agua para el enfriamiento.

El impacto ambiental no se detiene después del entrenamiento de los modelos. Cada vez que se utiliza un modelo de IA generativa, como al hacer una consulta en ChatGPT, se consume energía. Las consultas a ChatGPT requieren aproximadamente cinco veces más electricidad que una búsqueda web estándar.

La fabricación de hardware especializado, como las GPUs, implica procesos complejos y una considerable huella de carbono. El mercado de GPUs para centros de datos ha crecido rápidamente, lo que apunta a un camino insostenible.

Elsa A. Olivetti, profesora en el Departamento de Ciencia de Materiales e Ingeniería del MIT, y Noman Bashir, investigador postdoctoral, subrayan la necesidad de un enfoque integral para entender y mitigar el impacto ambiental de la IA generativa, promoviendo un desarrollo responsable que considere tanto los costos como los beneficios.

5 predicciones sobre IA para 2025

Rob Howard, «5 AI Predictions for 2025 (AI Hype Dying; Real Opportunities Rising)Innovating with AI, https://go.innovatingwithai.com/posts/ai-predictions-for-2025.

5 predicciones sobre IA para 2025

El declive de la codificación tradicional: Para finales de 2025, el 80% de las tareas de codificación podrán ser realizadas por personas sin conocimientos avanzados de programación gracias a herramientas de IA, lo que transformará el panorama laboral para desarrolladores y no desarrolladores.

Películas de calidad Hollywood creada por IA: Se espera que una película de calidad Hollywood, completamente generada por IA (incluyendo guión, visuales y actuación), se produzca este año, probablemente impulsada por creadores independientes en lugar de estudios tradicionales.

El auge de los agentes de IA: Los agentes de IA, capaces de operar de manera autónoma, se convertirán en una realidad más común, permitiendo a los usuarios delegar tareas complejas a estas herramientas avanzadas.

Mejoras en costo y rendimiento de la IA: Las grandes empresas tecnológicas como Google, Meta, OpenAI y Amazon lanzarán modelos de IA más potentes y económicos, lo que facilitará su adopción masiva.

La fiebre del oro de la IA continuará sin regulación gubernamental: Se prevé que el desarrollo de la IA seguirá sin regulaciones significativas, impulsado por incentivos económicos y la competencia global, con escasas barreras legales para frenar el avance.