Archivo de la categoría: Tecnologías de la información

Europa en la era inteligente: de las ideas a la acción

Europe in the Intelligent Age: From Ideas to Action. World Economic Forum y McKinsey & Company, 2025

Texto completo

El informe «Europe in the Intelligent Age: From Ideas to Action» propone ideas para acelerar la competitividad y el entorno de inversión en Europa, enfocándose en el impacto rápido y a gran escala. Recomienda una estrategia para definir dónde jugar y cómo ganar, junto con iniciativas emblemáticas del sector privado y 10 «grands projets» públicos para impulsar el emprendimiento, la innovación y la inversión europea. A pesar de su potencial tecnológico, Europa invirtió €700 mil millones menos anualmente en comparación con EE. UU. entre 2015 y 2022, logrando menores retornos. El documento aboga por la colaboración público-privada para que Europa logre liderazgo tecnológico y económico.

La docencia universitaria en tiempos de IA

«La docencia universitaria en tiempos de IA | Editorial Octaedro», accedido 20 de enero de 2025,

Texto completo

¿Está la inteligencia artificial (IA) transformando la enseñanza universitaria? En este volumen, se exploran los desafíos y oportunidades que surgen al integrar la IA en el ámbito educativo superior. El libro reúne investigaciones y experiencias innovadoras, evaluadas mediante un riguroso proceso de revisión por pares, con contribuciones de académicos y expertas/os de diversas universidades.

La obra, compuesta por 8 capítulos, abarca un amplio espectro de temas, incluyendo el uso de sistemas de tutoría inteligente, análisis de datos educativos y herramientas generativas como ChatGPT. Se presentan casos prácticos y reflexiones críticas sobre cómo estas tecnologías están redefiniendo los roles docentes, transformando las dinámicas de aula y modificando el proceso de aprendizaje de las y los estudiantes.

En este monográfico, se destaca la capacidad del profesorado para adaptarse y liderar el cambio, demostrando una vez más su maestría al integrar estas herramientas emergentes en los procesos de enseñanza-aprendizaje. Una lectura indispensable para quienes buscan comprender el impacto de la IA en la educación superior y explorar estrategias pedagógicas que potencien el aprendizaje en la era digital.

El impacto ambiental de la IA generativa

MIT News. «Explained: Generative AI’s Environmental ImpactMIT Computer Science and Artificial Intelligence Laboratory (CSAIL). Última modificación en 2024. https://www.csail.mit.edu/news/explained-generative-ais-environmental-impact.

MIT News examina las implicaciones ambientales y de sostenibilidad de las tecnologías de IA generativa en una serie de dos partes. En este artículo, se analiza por qué esta tecnología consume tantos recursos. La segunda parte abordará las estrategias para reducir la huella de carbono de la IA generativa.

MIT News ha investigado el impacto ambiental de las tecnologías de inteligencia artificial generativa, que incluyen modelos como GPT-4 de OpenAI, destacando que estas tecnologías, a pesar de sus numerosos beneficios, son intensivas en recursos y tienen consecuencias ambientales significativas.

La IA generativa, como GPT-4 de OpenAI, requiere una enorme potencia computacional, demandando grandes cantidades de electricidad y aumentando las emisiones de CO₂. Además, el enfriamiento del hardware consume grandes volúmenes de agua, afectando los ecosistemas locales. La fabricación y transporte del hardware también generan impactos ambientales indirectos.

El entrenamiento de modelos de IA generativa, que a menudo tienen miles de millones de parámetros, requiere una enorme potencia computacional. Esto lleva a un consumo masivo de electricidad, aumentando las emisiones de dióxido de carbono y ejerciendo presión sobre las redes eléctricas.

Los centros de datos, esenciales para entrenar y ejecutar modelos de IA, son grandes consumidores de electricidad. El uso de modelos de IA generativa, como ChatGPT, consume más energía que búsquedas web simples, lo que incrementa aún más la demanda de electricidad y agua para enfriamiento.

El enfriamiento del hardware en los centros de datos, esenciales para la IA generativa, utiliza grandes cantidades de agua, lo que puede tensar los suministros municipales y afectar los ecosistemas locales. Se estima que por cada kilovatio-hora de energía consumida por un centro de datos, se necesitan dos litros de agua para el enfriamiento.

El impacto ambiental no se detiene después del entrenamiento de los modelos. Cada vez que se utiliza un modelo de IA generativa, como al hacer una consulta en ChatGPT, se consume energía. Las consultas a ChatGPT requieren aproximadamente cinco veces más electricidad que una búsqueda web estándar.

La fabricación de hardware especializado, como las GPUs, implica procesos complejos y una considerable huella de carbono. El mercado de GPUs para centros de datos ha crecido rápidamente, lo que apunta a un camino insostenible.

Elsa A. Olivetti, profesora en el Departamento de Ciencia de Materiales e Ingeniería del MIT, y Noman Bashir, investigador postdoctoral, subrayan la necesidad de un enfoque integral para entender y mitigar el impacto ambiental de la IA generativa, promoviendo un desarrollo responsable que considere tanto los costos como los beneficios.

5 predicciones sobre IA para 2025

Rob Howard, «5 AI Predictions for 2025 (AI Hype Dying; Real Opportunities Rising)Innovating with AI, https://go.innovatingwithai.com/posts/ai-predictions-for-2025.

5 predicciones sobre IA para 2025

El declive de la codificación tradicional: Para finales de 2025, el 80% de las tareas de codificación podrán ser realizadas por personas sin conocimientos avanzados de programación gracias a herramientas de IA, lo que transformará el panorama laboral para desarrolladores y no desarrolladores.

Películas de calidad Hollywood creada por IA: Se espera que una película de calidad Hollywood, completamente generada por IA (incluyendo guión, visuales y actuación), se produzca este año, probablemente impulsada por creadores independientes en lugar de estudios tradicionales.

El auge de los agentes de IA: Los agentes de IA, capaces de operar de manera autónoma, se convertirán en una realidad más común, permitiendo a los usuarios delegar tareas complejas a estas herramientas avanzadas.

Mejoras en costo y rendimiento de la IA: Las grandes empresas tecnológicas como Google, Meta, OpenAI y Amazon lanzarán modelos de IA más potentes y económicos, lo que facilitará su adopción masiva.

La fiebre del oro de la IA continuará sin regulación gubernamental: Se prevé que el desarrollo de la IA seguirá sin regulaciones significativas, impulsado por incentivos económicos y la competencia global, con escasas barreras legales para frenar el avance.

Los errores de la IA son muy diferentes a los errores humanos

Schneier, Bruce, y Nathan E. Sanders. «AI Mistakes Are Very Different Than Human Mistakes: We Need New Security Systems Designed to Deal with Their Weirdness.» IEEE Spectrum. Última modificación el 13 de enero de 2025. https://spectrum.ieee.org/ai-mistakes-schneier.

Los errores humanos son comunes y predecibles, pero los errores de la inteligencia artificial (IA), como los cometidos por modelos de lenguaje grande (LLMs), son diferentes y a menudo extraños. Mientras los errores humanos se concentran en áreas específicas del conocimiento y suelen estar acompañados de un reconocimiento de ignorancia, los errores de la IA son aleatorios y distribuidos por todo el espacio del conocimiento, con una confianza inquebrantable incluso en respuestas incorrectas.

La necesidad de crear nuevos sistemas de seguridad que aborden estos errores únicos de la IA es esencial. Se sugieren dos líneas de investigación: hacer que los LLMs cometan errores más parecidos a los humanos y desarrollar sistemas para corregir errores específicos de la IA.

Algunos métodos, como el aprendizaje por refuerzo con retroalimentación humana, han demostrado eficacia en alinear los LLMs con los objetivos humanos, pero se requieren enfoques adicionales para manejar su «extrañeza». Por ejemplo, hacer que los modelos verifiquen sus respuestas varias veces puede ayudar a reducir errores, algo que no funciona bien con humanos pero sí con máquinas.

Entender dónde divergen los errores de la IA de los humanos sigue siendo un desafío. Algunas peculiaridades de los LLMs, como la sensibilidad a los cambios en las preguntas o la tendencia a repetir información común, se parecen a los comportamientos humanos, lo que sugiere que la IA puede ser más humana de lo que parece.

En última instancia, se deben limitar las aplicaciones de toma de decisiones de la IA a ámbitos que se ajusten a sus habilidades, teniendo en cuenta las posibles consecuencias de sus errores.

El acceso abierto como alternativa a las licencias restrictivas sobre el uso de la investigación para entrenar sistema de IA

Waibel, Günter, y Dave Hansen. «AI Deals Underscore the Importance of Open AccessInside Higher Ed, 7 de enero de 2025. https://www.insidehighered.com/opinion/views/2025/01/07/ai-deals-underscore-importance-open-access-opinion

Günter Waibel y Dave Hansen abordan la preocupación creciente en la comunidad académica sobre los lucrativos acuerdos entre editoriales y empresas de inteligencia artificial (IA) para el uso de publicaciones académicas como datos de entrenamiento. Argumentan que la respuesta adecuada no es recurrir a licencias más restrictivas, sino abogar por el acceso abierto, una práctica que beneficiaría tanto a los académicos como al público en general.

Explican que muchos autores académicos, al publicar sus obras, transfieren los derechos de autor a las editoriales, lo que permite a estas controlar legalmente el contenido y negociar con empresas de IA sin necesidad de consultar a los creadores originales. Esto ha generado críticas y dudas sobre la equidad de estas prácticas, especialmente considerando las grandes sumas de dinero involucradas.

Waibel y Hansen subrayan que, aunque puede ser tentador para los autores recurrir a la publicación detrás de un muro de pago para proteger sus obras de ser utilizadas por la IA, esta estrategia es contraproducente. En realidad, refuerza el monopolio de las editoriales sobre el contenido académico, permitiendo que sigan explotando el trabajo de los académicos para beneficio comercial.

En contraste, proponen que el acceso abierto no solo democratiza el acceso al conocimiento, sino que también permite un uso más ético y productivo de las tecnologías de IA en la investigación. Al eliminar las barreras económicas para acceder a la literatura académica, se crea un corpus accesible para la investigación computacional, impulsando nuevas metodologías y avances científicos.

Además, señalan que el uso justo (fair use) es un principio fundamental que permite tanto a las empresas de IA como a los investigadores académicos utilizar el contenido de manera transformadora para promover el progreso de la ciencia y la cultura. Limitar este uso solo para las empresas desfavorecidas podría erosionar los derechos de uso justo para todos, incluidos los académicos.

Finalmente, Waibel y Hansen hacen un llamado a la comunidad académica para que adopte el acceso abierto como un medio para maximizar el impacto público de la investigación. Argumentan que esto no solo es beneficioso para los académicos, que tendrían acceso pleno a las herramientas y metodologías más avanzadas, sino que también fortalece el bien público al ampliar el alcance del conocimiento generado en las universidades.

Uso y percepción de herramientas de inteligencia artificial (IA) entre los estadounidenses

The University of South Carolina AI INDEX. University of South Carolina, 2025

Texto completo

Este estudio refleja cómo la IA está cambiando la percepción pública y su integración en diversas áreas, desde el contenido digital hasta las campañas políticas.

Un equipo de investigación del College of Information and Communications de la Universidad de Carolina del Sur realizó una encuesta nacional sobre el uso y la percepción de herramientas de IA en diciembre de 2024, con más de 1,000 participantes adultos. Los principales hallazgos incluyen un creciente interés público en la IA, con ChatGPT liderando, aunque enfrentando competencia de Gemini y Copilot. El 35% de la población usa IA para crear contenido, principalmente en sectores técnicos, mientras que las preocupaciones por la seguridad laboral han disminuido. Sin embargo, persisten temores sobre la desinformación y la necesidad de una mayor supervisión ética.

  • Interés creciente en la IA: La discusión pública sobre la IA ha aumentado, con el interés en herramientas como ChatGPT alcanzando niveles comparables a eventos políticos importantes. Sin embargo, el conocimiento sobre estas herramientas es variado: el 57% del público está familiarizado en algún grado, y solo un tercio las conoce bien, principalmente personas jóvenes, con formación y con ingresos altos.
  • Cambio en la popularidad de herramientas de IA: Aunque ChatGPT sigue siendo la herramienta de IA líder, alternativas como Gemini y Copilot han ganado terreno, superando colectivamente a ChatGPT en uso.
  • Adopción en creación de contenido: El 35% de la población usa herramientas de IA para crear contenido de comunicación, especialmente en sectores técnicos, de negocios y comunicaciones. La adopción es menor en industrias como la manufactura, agricultura y transporte.
  • Disminución de preocupaciones laborales: Las preocupaciones sobre la pérdida de empleo debido a la IA han disminuido un 10% desde junio de 2024.
  • Sentimientos mixtos sobre el impacto de la IA: Aunque se reconoce el aumento de la productividad impulsada por la IA, persisten preocupaciones sobre su impacto futuro.
  • Baja conciencia sobre desafíos éticos: Solo un tercio del público está consciente de los problemas éticos relacionados con la IA, aunque los profesionales de la comunicación piden una mayor supervisión gubernamental.
  • Impacto en el periodismo: Se espera que la IA mejore la calidad del periodismo, aunque esta creencia no es ampliamente compartida.
  • Miedo a la desinformación: Prevalecen las preocupaciones sobre el papel de la IA en la amplificación de la desinformación, especialmente durante las elecciones de 2024.
  • Influencia en campañas políticas: Las herramientas de IA han tenido un papel notable en las campañas presidenciales de EE.UU., utilizadas regularmente por el 25% de los encuestados para comprender cuestiones políticas.
  • Tendencias en redes sociales: Después de las elecciones, la actividad en redes sociales ha disminuido, con YouTube superando a Facebook como principal plataforma para el consumo de noticias.

La IA está descifrando textos antiguos y podría reescribir la historia

Jo Marchant, «How AI is Unlocking Ancient Texts — and Could Rewrite HistoryNature (October 18, 2023). https://www.nature.com/articles/d41586-024-04161-z.

La inteligencia artificial (IA) está revolucionando el estudio de textos antiguos, permitiendo a los investigadores acceder a información que ha permanecido inaccesible durante siglos. Desde pergaminos carbonizados por la erupción del Vesubio hasta tabletas de escritura cuneiforme desmoronadas, los avances en redes neuronales están proporcionando a los estudiosos datos valiosos que podrían redefinir nuestra comprensión de la historia antigua.

En octubre de 2023, Federica Nicolardi, papirologista de la Universidad de Nápoles, recibió un correo electrónico con una imagen que transformaría su investigación. Mostraba un fragmento de un pergamino quemado durante la erupción del Vesubio en el año 79 d.C., que hasta entonces había sido ilegible. Este descubrimiento fue posible gracias al proyecto Vesuvius Challenge, que utiliza técnicas avanzadas de IA para revelar el contenido de estos textos carbonizados. Con el uso de redes neuronales, los investigadores han logrado leer líneas completas de textos griegos que habían estado inaccesibles durante 2,000 años.

El proyecto del Vesubio es solo un ejemplo de cómo las redes neuronales están redefiniendo el estudio de textos antiguos. Estas tecnologías se están utilizando para descifrar lenguas clásicas como el griego y el latín, así como lenguajes menos conocidos como el Script de Hueso de Oráculo de China. Los modelos de redes neuronales están ayudando a interpretar archivos demasiado vastos para que los humanos los lean, completando caracteres faltantes y descifrando lenguas raras y perdidas.

La colaboración entre historiadores antiguos y científicos informáticos ha dado lugar a modelos como Pythia e Ithaca, que pueden sugerir palabras o caracteres faltantes en inscripciones griegas. Estas herramientas no solo aceleran tareas tediosas, sino que también permiten realizar conexiones que antes eran imposibles para los especialistas humanos. Por ejemplo, Ithaca ha demostrado ser capaz de restaurar textos antiguos con una precisión del 62%, superando el 25% de los expertos humanos y elevando esa precisión al 72% cuando los expertos utilizan las sugerencias de IA.

En Corea del Sur, los investigadores están utilizando redes neuronales para abordar uno de los archivos históricos más grandes del mundo: los registros detallados de los reyes coreanos, que datan desde el siglo XIV hasta el XX. Estos registros están escritos en Hanja, un sistema de escritura basado en caracteres chinos antiguos. Las técnicas de IA están acelerando la traducción de estos textos a un ritmo que de otro modo llevaría décadas.

El éxito en la lectura de los pergaminos de Herculano es solo el comienzo. Los investigadores están explorando la posibilidad de utilizar estas técnicas en otros textos inaccesibles, como los manuscritos egipcios antiguos y los papiros de Petra, Jordania. Sin embargo, este flujo de nuevos datos plantea desafíos éticos y metodológicos. ¿Cómo se garantiza la precisión y la reproducibilidad en el análisis de estos textos? ¿Quién debería tener acceso a estos datos?

Los expertos enfatizan la necesidad de trabajar en equipos multidisciplinarios que incluyan a especialistas en humanidades y ciencias computacionales. Además, proponen que todos los datos, incluidos los textos sin procesar y los algoritmos utilizados, se hagan de código abierto para garantizar la transparencia y la confianza en los resultados.

La IA está proporcionando a los papirologistas y otros especialistas en estudios antiguos herramientas sin precedentes para acceder a textos históricos. Esta tecnología no solo está haciendo su trabajo más importante que nunca, sino que también está planteando nuevas preguntas y posibilidades para la investigación histórica. A medida que los algoritmos de IA continúan evolucionando, el potencial para descubrir y entender textos antiguos nunca antes leídos se está convirtiendo en una realidad emocionante para el campo de las humanidades.

Este resumen amplía el artículo original, proporcionando un panorama detallado de cómo la IA está revolucionando la forma en que los investigadores abordan los textos antiguos, destacando los proyectos clave, los avances tecnológicos, los desafíos éticos y las colaboraciones interdisciplinarias necesarias para aprovechar al máximo estas innovaciones.

Lo que los estudiantes universitarios necesitan saber y realmente saben sobre la IA generativa

Rismanchian, Sina, Eesha Tur Razia Babar, y Shayan Doroudi. «GenAI-101: What Undergraduate Students Need to Know and Actually Know About Generative AIEdWorkingPapers, enero de 2025. https://edworkingpapers.com/ai25-1119

Este estudio aborda la comprensión y percepción que tienen los estudiantes universitarios sobre las tecnologías de inteligencia artificial generativa, con un enfoque particular en los chatbots como ChatGPT, lanzado por OpenAI en noviembre de 2022. Desde su introducción, estos modelos han encontrado diversas aplicaciones en la educación, incluyendo tutorías, asistencia en la redacción, formación de profesores y evaluación de ensayos. A pesar de su uso generalizado entre estudiantes de secundaria y universidad en Estados Unidos, hay poca investigación sobre cuánto saben realmente estos estudiantes sobre estas tecnologías y cómo las perciben.

Para llenar este vacío, los autores desarrollaron un marco novedoso de alfabetización en inteligencia artificial generativa (GenAI), centrándose en lo que los estudiantes saben sobre la IA generativa y cómo perciben las capacidades de los chatbots de IA. Diseñaron una encuesta de alfabetización en GenAI para medir el conocimiento y las percepciones de los estudiantes, recolectando datos de 568 estudiantes universitarios.

Los resultados del estudio muestran que aproximadamente el 60% de los estudiantes utiliza regularmente chatbots de IA para tareas académicas. Sin embargo, a menudo sobreestiman las capacidades de estas herramientas. El estudio encontró que un mayor conocimiento sobre cómo funciona la IA generativa se correlaciona con una estimación más precisa de sus capacidades en tareas del mundo real.

Principales resultados:

  • Uso de chatbots de IA: Aproximadamente el 60% de los estudiantes encuestados utilizan regularmente chatbots de IA para tareas académicas.
  • Percepción de capacidades: Muchos estudiantes tienden a sobreestimar las capacidades de estas herramientas, atribuyéndoles habilidades más allá de sus funcionalidades reales.
  • Conocimiento y precisión: Se encontró una correlación positiva entre el conocimiento sobre cómo funciona la IA generativa y una estimación más precisa de sus capacidades en tareas del mundo real.

Las conclusiones destacan la necesidad de mejorar la alfabetización en IA generativa para asegurar que los estudiantes usen estas herramientas de manera efectiva y responsable. El artículo subraya la importancia de desarrollar estrategias y políticas educativas que preparen a los estudiantes para un compromiso crítico e informado con las tecnologías de IA.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.