La IA se cuela en la rutina diaria

Melo, María Florencia. «La IA se cuela en la rutina diaria.» Inteligencia Artificial. 25 de abril de 2025. https://es.statista.com/grafico/34355/encuestados-que-estan-de-acuerdo-en-que-las-herramientas-de-ia-forman-parte-de-su-vida-cotidiana/.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

Desde que se lanzó públicamente ChatGPT a finales de 2022, las herramientas de inteligencia artificial generativa han captado una enorme atención mediática y curiosidad por parte del público. No obstante, su uso cotidiano todavía no es tan extendido como podría pensarse.

Según una encuesta de Statista Consumer Insights, para agosto de 2024 solo alrededor del 30% de los adultos estadounidenses habían usado alguna vez herramientas como ChatGPT o Meta AI, las más populares en ese momento.

Sin embargo, una cosa es probar una herramienta por curiosidad y otra muy distinta incorporarla a la rutina diaria. En ese sentido, solo el 20% de los encuestados en EE. UU. aseguraron utilizar IA en su día a día. Esta cifra se repite en países como Alemania, México y el Reino Unido, aunque se dispara en países como Brasil (33%) e India (41%), donde el uso diario de herramientas de IA es mucho más común.

Un aspecto clave del informe es que muchas personas están expuestas a la IA sin saberlo, ya que esta tecnología se encuentra integrada de forma silenciosa en aplicaciones y servicios que usamos a diario: desde recomendaciones en plataformas de streaming y comercio electrónico, hasta funciones de asistencia en teléfonos, correos o mapas.

Este fenómeno evidencia una transición: la IA ya no es solo una herramienta para tecnófilos o profesionales, sino una parte invisible pero constante de la experiencia digital cotidiana. Aunque aún hay una brecha entre expectación y uso intensivo, la tendencia indica que la IA se está consolidando como una infraestructura fundamental en nuestras vidas. Su adopción plena probablemente dependerá de tres factores: la facilidad de uso, la confianza del usuario y la integración natural con las tareas del día a día.

Por ejemplo, aplicaciones como asistentes virtuales, funciones de escritura automática o edición inteligente en imágenes ya utilizan IA, pero muchas veces el usuario no asocia estas funcionalidades con «inteligencia artificial». La normalización de esta tecnología podría estar ocurriendo sin que seamos del todo conscientes.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

Juan Rulfo y Augusto Monterroso, escritores que se ganaron la vida como escribientes para otros

“ …. recordar una historia de copistas en México: la de Juan Rulfo y Augusto Monterroso, que durante años fueron escribientes en una tenebrosa oficina en la que, según mis noticias, se comportaban siempre como puros bartlebys, le tenían miedo al jefe porque éste tenía la manía de estrechar la mano de sus empleados cada día al terminar la jornada. Rulfo y Monterroso, copistas en Ciudad de México, se escondían muchas veces detrás de una columna porque pensaban que el jefe no quería despedirse de ellos sino despedirles para siempre.”

Enrique Villa-Matas. “Bartleby y compañía”

En Bartleby y compañía, Enrique Villa-Matas habla de aquellos que dejan de escribir, y hace alusión a los motivos de Juan Rulfo. El nombre de la novela “Bartleby y compañía” procede de un cuento del escritor estadounidense Herman Melville titulado “Bartleby, el escribiente”, un escribano que trabaja con títulos de propiedad, hipotecas y obligaciones de hombres ricos. Un día Bartleby decide no escribir más, por lo que es despedido, pero se niega a irse de la oficina. Sobre el porqué deja de escribir es todo un enigma, se ha hablado de esquizofrenia o de autismo, pero la verdadera razón como escribió el filósofo francés Gilles Deleuzees en un ensayo sobre la obra titulado en «Bartleby o la fórmula»: «Bartleby no es un enfermo, sino el médico de una América enferma».

Del libro: Alonso Arévalo, Julio. Los libros, la lectura y los lectores: a través de la literatura y las artes. Buenos Aires: Alfagrama Ediciones, 2019. https://alfagrama.com.ar/producto/los-libros-la-lectura-y-los-lectores/

Una librería abierta toda la noche

«Por fin encuentro un antro abierto
una ergástula de placeres solitarios
el peep-show oculto entre los árboles:
una librería abierta toda la noche
donde revolcarme entre los libros
gozar con versos de otros
y al fin, llegar al orgasmo
con un poema autodestructivo de Allen Ginsberg.»

Cristina Peri Rossi  «Sábado a la noche»

¿Es sostenible el consumo energético de la inteligencia artificial?

Rajkumar, Radhika, y Sabrina Ortiz. «How Much Energy Does AI Really Use? The Answer Is Surprising — and a Little ComplicatedZDNet. Última modificación marzo 27, 2024. https://www.zdnet.com/article/how-much-energy-does-ai-really-use-the-answer-is-surprising-and-a-little-complicated/

La inteligencia artificial (IA) se ha consolidado como una tecnología esencial en múltiples sectores, pero su desarrollo y operación requieren un consumo energético considerable que plantea importantes retos ambientales. El gasto de energía asociado a la IA no es uniforme, sino que varía según las etapas de su ciclo de vida, principalmente el entrenamiento de modelos y la fase de inferencia o uso.

Durante el entrenamiento, que consiste en “enseñar” a los modelos de IA a partir de grandes cantidades de datos, se utiliza una enorme potencia computacional. Esta etapa es la más intensiva en consumo energético, ya que involucra grandes centros de procesamiento que pueden consumir decenas de megavatios durante días o semanas. Entrenar un solo modelo avanzado puede requerir tanta energía como la que consumen varias viviendas durante un año. Esto refleja la escala y complejidad del esfuerzo necesario para desarrollar IA de última generación.

Por otro lado, la fase de inferencia, en la que el modelo responde a consultas o realiza tareas específicas, consume mucha menos energía por operación individual. Sin embargo, dado el incremento exponencial en la demanda de estas herramientas, el consumo acumulado también es considerable. Además, la infraestructura de soporte, como los centros de datos que albergan los equipos y los sistemas de refrigeración, representa un porcentaje importante del gasto energético total.

Las proyecciones a futuro señalan que el consumo energético de la IA seguirá aumentando drásticamente. Para 2030, se estima que los centros de datos dedicados a IA podrían representar hasta el 17% del consumo eléctrico total de Estados Unidos, una cifra que subraya la necesidad urgente de soluciones para hacer más sostenible esta tecnología. Esta demanda creciente está impulsando la construcción y expansión de centros de datos, que requieren cada vez más fuentes de energía.

Como admitió recientemente en un artículo de opinión la doctora Sasha Luccioni, responsable de IA y clima en la plataforma de desarrollo Hugging Face, todavía no sabemos realmente cuánta energía consume la IA, porque muy pocas empresas publican datos sobre su uso. Sin embargo, varios estudios indican que el consumo de energía va en aumento, impulsado por la creciente demanda de IA. Un análisis de 2024 Berkeley Lab descubrió que el consumo de electricidad ha crecido exponencialmente a la par que la IA en los últimos años.

Los servidores acelerados por GPU -hardware utilizado específicamente para IA- se multiplicaron en 2017; un año después, los centros de datos representaban casi el 2% del consumo anual total de electricidad en Estados Unidos, y esa cifra crecía anualmente un 7%. En 2023, esa tasa de crecimiento se había disparado hasta el 18%, y se prevé que alcance el 27% en 2028. Aunque no podamos empalmar cuánta energía de los centros de datos se gasta en IA, la tendencia entre más consumo y expansión de la IA es clara. Boston Consulting Group estima que los centros de datos representarán el 7,5% de todo el consumo eléctrico de Estados Unidos en 2030, o el equivalente a 40 millones de hogares estadounidenses.

En respuesta a estos desafíos, la industria tecnológica está invirtiendo en mejorar la eficiencia energética mediante el desarrollo de hardware más eficiente y la optimización de los modelos de IA para reducir su necesidad computacional. Paralelamente, se promueve el uso de fuentes de energía renovables, como la solar y la eólica, e incluso la energía nuclear, para alimentar estas instalaciones con un menor impacto ambiental. Donald Trump anunció el Proyecto Stargate, una iniciativa de 500.000 millones de dólares apoyada por empresas como OpenAI, Softbank y Oracle para construir «colosales» centros de datos de 500.000 metros cuadrados. Estas empresas son conocidas como hiperescaladores, un grupo pequeño pero dominante de corporaciones como Microsoft, Google, Meta y AWS que están construyendo la mayor parte de la infraestructura.

Finalmente, el consumo energético de la IA no es solo un asunto técnico, sino también ético y social. Es imprescindible balancear la huella de carbono con los beneficios sociales y económicos que ofrece la inteligencia artificial. Asimismo, es fundamental fomentar la transparencia y la responsabilidad en el uso y desarrollo de estas tecnologías para asegurar que sean sostenibles y beneficiosas para la sociedad en su conjunto.

Datos clave sobre el consumo energético de la IA

  • Crecimiento acelerado:
    • En 2018, los centros de datos representaban casi el 2% del consumo eléctrico anual de EE. UU.
    • Para 2023, ese crecimiento se aceleró al 18% anual
    • Se proyecta que alcance hasta un 27% anual para 2028
  • Infraestructura intensiva:
    • La IA requiere chips potentes, múltiples GPUs y centros de datos masivos
    • Entrenar modelos de IA consume mucho más que tareas informáticas tradicionales
  • Impacto de una sola consulta:
    • Una simple pregunta a un chatbot puede consumir tanta energía como una bombilla LED encendida durante 45 minutos
  • El “cloud” no es etéreo:
    • Lo que llamamos “la nube” son en realidad centros físicos de datos que consumen grandes cantidades de electricidad para almacenar y procesar datos
  • Tendencia a la expansión:
    • A medida que la IA se vuelve más accesible y barata, la demanda de estos centros de datos crece exponencialmente

Seis claves para entender y manejar la inteligencia artificial en la era de la información

6 things to know about AI. News Literacy Project. (2024).

Infografía PDF

La inteligencia artificial (IA) no es una tecnología nueva, pero los avances recientes en IA generativa han revolucionado la forma en que consumimos y producimos información. Esta tecnología está transformando el panorama informativo, por lo que es fundamental entender sus particularidades para navegarla con sentido crítico.

1. La IA generativa no es objetiva: Las herramientas de IA reflejan los sesgos presentes en sus creadores y en los datos con los que se entrenan. Esto significa que los resultados que producen pueden contener prejuicios y distorsiones que se heredan del contexto humano.

2. La IA no es siempre fiable ni precisa: Aunque las respuestas de la IA pueden parecer confiables y bien fundamentadas, con frecuencia contienen errores y datos inexactos. No debe considerarse una fuente definitiva o incuestionable.

3. La IA tiene beneficios importantes: A pesar de sus limitaciones, estas tecnologías facilitan avances en campos como la investigación científica y permiten que tareas complejas, como la programación o la creación de sitios web, sean más accesibles para más personas.

4. La creación de contenido es ahora más fácil y masiva — pero también más falsa: Los chatbots y generadores de imágenes basados en IA producen textos y gráficos a una escala sin precedentes, lo que puede amplificar la difusión de información errónea y falsificaciones digitales. Esto aumenta la necesidad de ser crítico con la procedencia y autenticidad de lo que consumimos.

5. Cambia la naturaleza de las pruebas visuales: Las imágenes y videos falsificados son cada vez más realistas. Por eso, en lugar de confiar solo en pistas visuales para determinar la veracidad, es vital investigar la fuente y el contexto de esos materiales, utilizando herramientas como la búsqueda inversa de imágenes.

6. Las fuentes confiables son más importantes que nunca: Con la proliferación de contenido generado por IA, la confianza debe depositarse en medios y entidades que aplican procesos rigurosos de verificación antes de compartir información, ya que esto protege frente a la desinformación.

Finalmente, es clave no perder la capacidad de confiar en la información que recibimos, pero sí hacerlo con cautela y sentido crítico para discernir entre lo auténtico y lo manipulado.

Vuelta a los exámenes a mano ante el temor al uso indebido de la inteligencia artificial

Cohen, Ben. 2025. “They Were Every Student’s Worst Nightmare. Now Blue Books Are Back.” The Wall Street Journal, 23 de mayo de 2025. https://www.wsj.com/business/chatgpt-ai-cheating-college-blue-books-5e3014a6.

Las universidades estadounidenses están reintroduciendo los tradicionales «blue books» (cuadernos azules) para los exámenes presenciales como respuesta al creciente uso de herramientas de inteligencia artificial, como ChatGPT, en prácticas de plagio académico.

El regreso a los exámenes escritos a mano como respuesta al temor por el uso indebido de la inteligencia artificial (IA) es un fenómeno cada vez más común en universidades y centros educativos. La preocupación principal radica en que los estudiantes puedan apoyarse en herramientas de IA para obtener respuestas rápidas y completas, lo que podría afectar la evaluación real de sus conocimientos y habilidades.

Las herramientas de IA generativa permiten a los estudiantes generar ensayos y resolver problemas complejos sin necesidad de comprender el contenido, lo que ha generado preocupaciones sobre la integridad académica. Algunos educadores consideran que los exámenes escritos a mano en clase, utilizando los blue books, son una forma efectiva de garantizar la autenticidad del trabajo estudiantil. Sin embargo, este enfoque ha sido criticado por su falta de accesibilidad y por no abordar las causas subyacentes del uso de IA en el ámbito académico. Por ejemplo, en Estados Unidos, universidades como la de Florida y la de Texas han observado un aumento en la venta de los tradicionales «blue books», cuadernos utilizados para escribir exámenes a mano, como resultado de esta política

Además, la implementación de estas tecnologías plantea cuestiones éticas relacionadas con la privacidad y la autonomía de los estudiantes. Investigaciones han señalado que el uso de sistemas de monitoreo en línea puede percibirse como una forma de vigilancia intrusiva, lo que podría afectar la confianza de los estudiantes en el sistema educativo.

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de supervisión de exámenes y explorando alternativas menos invasivas. Por ejemplo, la Universidad de Reading en el Reino Unido ha decidido alejarse de los exámenes en línea no supervisados y está desarrollando evaluaciones que incluyen la aplicación práctica de conocimientos en entornos del mundo real.

Aunque las tecnologías de IA ofrecen una herramienta potencial para garantizar la integridad académica, su implementación debe equilibrarse cuidadosamente con la protección de la privacidad y los derechos de los estudiantes. Es esencial que las instituciones educativas consideren estos aspectos al adoptar nuevas tecnologías de supervisión.

En este contexto, es esencial encontrar un equilibrio que permita aprovechar las ventajas de la IA en la educación sin comprometer la integridad del aprendizaje y la evaluación. Esto implica no solo implementar medidas como los exámenes escritos a mano, sino también promover el uso ético de la tecnología, desarrollar herramientas de detección de plagio basadas en IA y fomentar habilidades críticas y analíticas en los estudiantes que les permitan utilizar la tecnología de manera responsable y efectiva.

Las universidades recurren a la IA para controlar los exámenes en línea ante la preocupación de posibles trampas con los modelos generativos

CBC News. 2025. “Universities Turn to AI to Monitor Exams Amid ChatGPT Concerns.” CBC News, 22 de junio de 2025. https://www.cbc.ca/news/canada/university-ai-exams-1.7551617.

Las universidades canadienses están usando inteligencia artificial para supervisar exámenes y prevenir el uso no autorizado de herramientas como ChatGPT, pero esto genera preocupaciones sobre la privacidad y posibles errores en la detección. Algunas instituciones buscan alternativas menos invasivas para equilibrar integridad académica y derechos estudiantiles. Este debate refleja el desafío de integrar IA en la educación de manera ética y efectiva.

Las universidades canadienses están adoptando cada vez más herramientas de inteligencia artificial (IA) para la supervisión de exámenes, con el objetivo de prevenir el uso de tecnologías como ChatGPT por parte de los estudiantes. Instituciones como la Universidad de Toronto, la Universidad de Columbia Británica y la Universidad McMaster han implementado sistemas de monitoreo basados en IA que analizan el comportamiento de los estudiantes durante las evaluaciones en línea. Estos sistemas pueden detectar patrones inusuales, como la falta de interacción con el teclado o movimientos sospechosos, lo que podría indicar el uso de dispositivos no autorizados.

Sin embargo, esta tendencia ha generado preocupaciones entre estudiantes y defensores de la privacidad. Estudios indican que las herramientas de detección de IA, como las utilizadas por Turnitin, pueden no ser precisas y, en algunos casos, pueden identificar erróneamente trabajos legítimos como generados por IA, lo que podría llevar a acusaciones injustas de plagio

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de monitoreo y buscando un equilibrio entre la integridad académica y la protección de la privacidad de los estudiantes. Se están considerando alternativas como la implementación de evaluaciones en persona o el uso de tecnologías menos invasivas para supervisar los exámenes en línea.

Nature ha anunciado que comenzará a publicar automáticamente los archivos de revisión por pares junto con los artículos científicos

Hernández, María (editora). 2025. “Nature Looks to Open Up ‘Black Box’ of Science by Publishing Peer‑Review Files.” NBC News, 18 de junio de 2025. https://www.nbcnews.com/science/science-news/nature-looks-open-black-box-science-publishing-peer-review-files-rcna213359.

La revista Nature, una de las más influyentes del mundo científico, ha decidido dar un paso crucial hacia la transparencia editorial: comenzará a publicar automáticamente los archivos de revisión por pares de los artículos aceptados.

Esta medida implica que los informes de los revisores, junto con la respuesta de los autores y las decisiones editoriales, estarán disponibles para el público como parte del registro científico. Aunque los revisores seguirán siendo anónimos, su trabajo será visible, lo que representa un cambio significativo en una práctica tradicionalmente cerrada.

Esta iniciativa responde a las críticas recurrentes sobre la opacidad del sistema de revisión por pares, un pilar esencial en la validación del conocimiento científico. Según un estudio publicado en PLOS ONE, el 64 % de los investigadores encuestados considera que el sistema necesita más apertura. Publicaciones como eLife o F1000Research ya aplican modelos transparentes de revisión, lo que ha incrementado la confianza en sus procesos.

Además, Nature forma parte de Springer Nature, grupo editorial que impulsa la ciencia abierta (Open Science). Esta nueva política alinea la revista con estándares como los de la Iniciativa FAIR (Findable, Accessible, Interoperable, Reusable), promovidos por la Comisión Europea para mejorar la reproducibilidad y reutilización del conocimiento científico.

Sin embargo, la medida también genera debate. Algunos revisores temen que la exposición de sus comentarios, incluso de forma anónima, pueda llevar a represalias o influir en su libertad de crítica. Otros señalan que su labor, aún siendo central, no recibe suficiente reconocimiento. En ese sentido, plataformas como Publons y ORCID buscan mejorar la visibilidad del trabajo de los revisores, una tarea muchas veces no remunerada.

Otra preocupación emergente es la posible utilización de estos archivos como datasets para entrenar modelos de inteligencia artificial, lo que plantea desafíos éticos en cuanto al consentimiento y al uso de datos sensibles. Algunos expertos, como Jonas Heller, señalan que el acceso masivo a estos textos puede alimentar sistemas de IA que emulen el proceso de revisión sin intervención humana, lo que plantea un nuevo escenario para la publicación científica.

En conjunto, la decisión de Nature marca un cambio histórico que puede transformar la relación entre autores, editores y lectores, acercando la ciencia a un modelo más participativo, accesible y confiable.

Microsoft presenta un avance médico revolucionario en inteligencia artificial que logra diagnosticar correctamente el 85,5 % de los casos

King, Dominic, y Harsha Nori. 2025. “The Path to Medical Superintelligence.” Microsoft AI Blog, 30 de junio de 2025. https://shorturl.at/NXj3Y

Microsoft ha presentado MAI‑DxO (Microsoft AI Diagnostic Orchestrator), un sistema de IA médica que ha alcanzado una precisión de 85,5 % en el diagnóstico de 304 casos clínicamente complejos extraídos del New England Journal of Medicine (NEJM)

A diferencia de sistemas anteriores basados en un solo modelo, MAI‑DxO simula un panel virtual de especialistas: usa agentes con funciones específicas (como formular hipótesis, ordenar pruebas, controlar costos y verificar razonamientos), que interactúan en una cadena de debate iterativa . Esta técnica, también llamada “chain of debate” o “Sequential Diagnosis Benchmark (SDBench)”, permite formular preguntas, ordenar pruebas, revisar costos y confirmar los pasos antes de emitir el diagnóstico final

Además de su alto rendimiento en precisión, MAI‑DxO demostró ser más eficiente económicamente. En una configuración se redujeron los costos de pruebas hasta un 20-50 %, sin sacrificar la calidad diagnóstica. Esta eficiencia es particularmente relevante en EE. UU., donde el gasto sanitario representa cerca del 20 % del PIB, y entre el 20 y el 25 % se estima que es desperdiciado por pruebas innecesarias

A pesar del entusiasmo, este sistema todavía no está listo para su uso clínico real. Los estudios se llevaron a cabo en un entorno controlado, y no han sido revisados por pares ni validados con pacientes reales . Además, los médicos participantes trabajaron en aislamiento, sin los recursos habituales, lo que podría haber afectado sus desempeños. Se requieren ensayos clínicos, supervisión regulatoria y pruebas en escenarios cotidianos antes de su adopción generalizada.

Microsoft y expertos coinciden en que MAI‑DxO es una herramienta para asistir a los médicos, no un reemplazo: la relación médico-paciente, la empatía y el juicio ante situaciones ambiguas siguen siendo esenciales. Mustafa Suleyman, CEO de la división AI de Microsoft, lo describió como un paso hacia la “superinteligencia médica”, con potencial para aliviar la escasez de personal sanitario. Expertos como el Dr. Eric Topol resaltan su potencial, pero subrayan que se debe continuar con estudios rigurosos en entornos clínicos