Archivo de la categoría: Tecnologías de la información

Scopus AI Beta: análisis funcional y casos

Aguilera-Cora, Elisenda, Carlos Lopezosa, y Lluís Codina. «Scopus AI Beta: Functional Analysis and Cases». Report, 4 de enero de 2024. http://eprints.rclis.org/45321/.

Texto completo

Las bases de datos académicas son una fuente fundamental para identificar bibliografía relevante en un campo de estudio. Scopus contiene más de 90 millones de registros e indexa unos 12.000 documentos al día. Sin embargo, este contexto y la propia naturaleza acumulativa de la ciencia dificultan la identificación selectiva de la información. Además, las herramientas de búsqueda en bases de datos académicas no son muy intuitivas y requieren un proceso iterativo y relativamente lento de búsqueda y evaluación. En respuesta a estos retos, Elsevier ha lanzado Scopus AI, actualmente en su versión Beta. Como el producto está aún en fase de desarrollo, la experiencia actual del usuario no es representativa del producto final. Scopus AI es una inteligencia artificial que genera breves síntesis de los documentos indexados en la base de datos, a partir de instrucciones o indicaciones. Este estudio examina la interfaz y las principales funciones de esta herramienta y la explora a partir de tres casos prácticos. El análisis funcional muestra que la interfaz de Scopus AI Beta es intuitiva y fácil de usar. La herramienta de IA de Elsevier permite al investigador obtener una visión general de un problema, así como identificar autores y enfoques, en una sesión de búsqueda más ágil que la convencional. Scopus AI Beta no sustituye a la búsqueda convencional en todos los casos, pero es un acelerador de los procesos académicos. Es una herramienta valiosa para revisiones bibliográficas, construcción de marcos teóricos y verificación de relaciones entre variables, entre otras aplicaciones.

Actitudes hacia la IA

Insights 2024: Attitudes toward AI. Elsevier, 2024

Texto completo

Los avances en la ciencia, la tecnología y la atención médica dan forma al progreso humano. La inteligencia artificial (IA) ha emergido como una fuerza formidable en los últimos años, ayudando a transformar cómo trabajamos, consumimos información, innovamos y muchos otros aspectos de nuestras vidas. En particular, los avances recientes en IA generativa tienen el potencial de ser transformadores.

La mayoría de los investigadores y clínicos son conscientes de la IA, pero su uso regular es bajo, aunque se espera que crezca. Las instituciones aún no han comunicado claramente sus restricciones o preparativos para el uso incrementado de la IA.

Las actitudes hacia la IA son variadas, pero el sentimiento general es más positivo que negativo entre los investigadores y clínicos. Se pueden tomar medidas específicas para aumentar la confianza en las herramientas de IA, y comunicarlas puede mejorar la comodidad de los usuarios.

El panorama de la inteligencia artificial (IA) está cambiando rápidamente, y para asegurar que la tecnología tenga un impacto positivo en la investigación y la atención médica, es crucial monitorear las opiniones de quienes podrían utilizarla.

La investigación «Insights 2024: Attitudes toward AI.» se propuso hacer esto mediante una encuesta a casi 3,000 personas que trabajan en investigación (incluidos líderes e investigadores corporativos) y en salud (clínicos) de todo el mundo.

El estudio examina las actitudes de investigadores y clínicos hacia la inteligencia artificial, incluida la IA generativa. Analiza su atractivo, impacto percibido, los beneficios para ellos y para la sociedad en general, el grado de transparencia necesario para sentirse cómodos utilizando herramientas basadas en esta tecnología, y los desafíos que ven con la IA. También revisa el uso actual de la IA y lo que los encuestados creen que ayudaría a aumentar la confianza en las herramientas de IA.

El Panorama Actual de la IA Explora la conciencia, percepciones y uso de la IA (incluida la GenAI) entre investigadores y clínicos a nivel mundial:

  • El 96% ha oído hablar de la IA (incluida la GenAI); las estadísticas subsiguientes excluyen al 4% que no está familiarizado con la IA.
  • El 54% de los que conocen la IA la han usado; el 31% la ha utilizado para fines laborales, siendo mayor en China (39%) que en EE.UU. (30%) e India (22%).
  • El 11% está muy familiarizado con la IA, es decir, la ha usado mucho.
  • ChatGPT es el producto de IA más conocido (89%).
  • El 25% ha utilizado ChatGPT para fines laborales.
  • El 49% de los que no han usado IA citan la falta de tiempo como razón.
  • El 72% cree que la IA (incluida la GenAI) tendrá un impacto transformador o significativo en su área de trabajo.

Una Perspectiva Futura sobre la IA Descubre las expectativas de investigadores y clínicos, incluyendo los posibles beneficios y desventajas de la tecnología:

  • El 95% cree que la IA ayudará a acelerar el descubrimiento de conocimiento.
  • El 94% piensa que la IA aumentará rápidamente el volumen de investigación científica y médica.
  • El 92% espera ver ahorros de costos para instituciones y empresas.
  • El 67% de los que no usan IA esperan utilizarla en los próximos 2-5 años.
  • El 42% de quienes tienen preocupaciones éticas sobre la IA citan como principal desventaja su incapacidad para reemplazar la creatividad, el juicio y/o la empatía humana.
  • El 71% espera que los resultados de las herramientas dependientes de la IA generativa se basen únicamente en fuentes de alta calidad y confiables.

Modelando un Futuro Impulsado por la IA Examina las preocupaciones de investigadores y clínicos en el contexto de construir confianza y comodidad en las herramientas de IA, y lee recomendaciones para desarrolladores e instituciones:

  • El 94% cree que la IA podría usarse para desinformación.
  • El 86% está preocupado de que la IA cause errores críticos o contratiempos.
  • El 81% piensa que la IA erosionará en cierta medida el pensamiento crítico, con el 82% de los doctores expresando preocupación por una posible dependencia excesiva de la IA para tomar decisiones clínicas.
  • El 58% dice que entrenar el modelo para que sea factualmente preciso, moral y no dañino (seguridad) aumentaría mucho su confianza en la herramienta.
  • Conocer la información que utiliza el modelo y que esté actualizada fue lo más valorado por los encuestados para aumentar su comodidad en el uso de una herramienta de IA.

Comprender no solo las preocupaciones, sino también los factores que construyen la confianza y la comodidad de los investigadores y clínicos con las herramientas de IA, puede ayudar a los desarrolladores de tecnología a crear mejores herramientas y a las instituciones a maximizar sus beneficios. La mayoría de los encuestados están preocupados por el uso de la IA para desinformación y por la posibilidad de errores críticos o contratiempos. La precisión factual y la información actualizada son claves para aumentar la confianza entre los usuarios.

Repensar la educación en la era de la IA

Rethinking education in the age AI. Fundación Telefónica, 2024

Texto completo

enlightED es una iniciativa lanzada en 2018 por Fundación Telefónica junto con IE University y South Summit a la que más tarde se incorporó Fundación ”la Caixa”. El encuentro congrega anualmente a profesionales internacionales de la pedagogía, la tecnología y la innovación para abordar los retos planteados en el campo del aprendizaje y extraer conclusiones prácticas en torno a la educación en la era digital.

El encuentro de enlightED de 2023 quiso sumarse a la reflexión colectiva acerca de cómo debe ser la educación en la era de la inteligencia artificial, y para ello reunió a expertos de primera línea que durante dos días debatieron sobre los cambios que están teniendo lugar y las estrategias que se pueden seguir para garantizar que se aprovechan de modo óptimo todas las ventajas que ofrecen estas tecnologías.

Tecnología y menores. Recomendaciones y herramientas para un uso responsable

Tecnología y menores. Recomendaciones y herramientas para un uso responsable.

Texto completo

El manual ‘Tecnología y menores. Recomendaciones y herramientas para un uso responsable’ ha sido elaborado en el marco de la exposición ‘Mundo Expandido. Entre lo físico y lo virtual’, una muestra que explora los mundos…

Alfabetizar en IA: equipar a las bibliotecas para el cambio tecnológico

. «Building AI Literacy: Equipping Libraries for the Technological Shift». Team, PressReader. Accedido 22 de julio de 2024. https://blog.pressreader.com/libraries-institutions/building-ai-literacy-equipping-libraries-for-the-technological-shift.

La aplicación de la inteligencia artificial (IA) está creciendo rápidamente, interactuando con IA en nuestra vida diaria. La IA se define como máquinas realizando tareas que requieren inteligencia humana, imitando características como la percepción, el razonamiento, la resolución de problemas, la interacción lingüística o el diseño creativo.

Aunque la IA ofrece oportunidades significativas para el crecimiento y la innovación, también presenta problemas éticos y puede producir información falsa o sesgada. Las bibliotecas modernas no son una excepción y pueden beneficiarse de la IA al mejorar la experiencia del usuario a través de la alfabetización en IA.

Importancia de la Alfabetización en IA en Bibliotecas

Las bibliotecas han sido tradicionalmente fuentes confiables de información, proporcionando acceso a recursos y fomentando el pensamiento crítico. Con la IA, las bibliotecas pueden adaptarse y crecer, mejorando los servicios y recursos para los usuarios. Comprender cómo funcionan las IA permite a los bibliotecarios usar estas herramientas en beneficio propio y de los usuarios.

Tendencia Creciente de la IA

Desde el lanzamiento de ChatGPT de OpenAI en noviembre de 2022, ha habido un aumento significativo en la incorporación de IA en diversas industrias. Programas como Google Gemini y Microsoft Copilot han facilitado la gestión logística, la comunicación y la innovación. La IA, a través de algoritmos de aprendizaje automático, reconoce patrones en grandes cantidades de datos, mejorando su capacidad de respuesta y predicción.

Desafíos y Precauciones con la IA

Sin embargo, la IA puede ser problemática cuando se basa en datos de entrenamiento sesgados o incorrectos, produciendo resultados no confiables. Es crucial practicar la cautela al usar estas herramientas, ya que la información generada puede ser engañosa o falsa. La alfabetización en IA ayuda a identificar y mitigar estos riesgos.

Beneficios de la IA para Bibliotecas Modernas

  1. Mejorar las capacidades de búsqueda: Simplificando el acceso a datos y recopilando información relevante de manera rápida y fácil.
  2. Interacción con usuarios: Analizando comentarios y proporcionando ideas para mejorar la gestión de recursos y la experiencia del usuario.
  3. Recomendaciones personalizadas: Ayudando a los usuarios a descubrir nuevos autores, libros, revistas y más.
  4. Automatización de tareas repetitivas: Organizando y procesando grandes colecciones de datos.
  5. Servicios de traducción: Haciendo el contenido accesible independientemente del idioma que hable una persona.

Conclusión

La alfabetización en IA se está convirtiendo en una habilidad crucial para los bibliotecarios modernos, permitiéndoles integrar tecnologías emergentes en las operaciones diarias y mejorar la experiencia del usuario. Entender y manejar las herramientas de IA ayudará a las bibliotecas a maximizar su potencial y a enfrentar los desafíos éticos asociados con su uso.

El 23% de los adultos en EE.UU. utilizan modelos de lenguaje de IA como ChatGPT

AI & Politics 2024

Texto completo

Uno de los hallazgos clave en un informe reciente sobre inteligencia artificial (IA) y las elecciones de 2024 es que el 23% de los adultos estadounidenses ahora usan modelos de lenguaje grande (LLMs) como ChatGPT, Gemini o Claude. Esto es importante porque significa que la adopción de estos sistemas de IA ha superado el punto de inflexión y se está moviendo hacia una amplia aceptación en la sociedad.

Basándose en investigaciones anteriores sobre la difusión de inventos e ideas, el teórico de la comunicación Everett Rogers introdujo una gran teoría sobre cómo las innovaciones, desde métodos de control de natalidad hasta nuevas técnicas agrícolas, memes de conocimiento y productos electrónicos de consumo, se difunden a través de las culturas de maneras predecibles. Algunos segmentos de la población son innovadores y adoptadores tempranos de nuevas cosas, mientras que otros grupos tardan más en adoptarlas e incluso a veces las resisten.

En términos generales, los adoptadores tempranos son más jóvenes, mejor educados y más ricos. Para la tecnología digital, los adoptadores tempranos tienden a ser hombres.

Esto tiene implicaciones significativas para las brechas digitales, aún más en la era de la IA, porque estas brechas probablemente tendrán impactos en la desigualdad de ingresos y riqueza debido a las formas en que los sistemas de IA afectarán los mercados laborales. Aquellos que trabajen y dominen los LLMs probablemente tendrán ventajas significativas sobre aquellos que no estén tan bien preparados y entrenados.

Es importante recordar que, según las primeras medidas, nunca se ha visto una tecnología electrónica de consumo adoptada tan rápida y ampliamente como los LLMs, particularmente ChatGPT. Además, nunca se ha visto a grandes empresas tecnológicas incorporar nuevas funciones tecnológicas en sus tecnologías ya ampliamente utilizadas como lo están haciendo con las herramientas de LLM en servicios comunes como correo electrónico, procesamiento de textos, redes sociales y sistemas comerciales comunes.

Aun así, es probable que las brechas aparezcan de maneras predecibles y preocupantes. Otra razón por la cual estos sistemas merecen la atención de los investigadores y la preocupación de los responsables políticos.

Los chatbots de IA muestran una ‘falta de empatía’ que los niños probablemente no perciban

«AI Chatbots Have Shown They Have an ‘Empathy Gap’ That Children Are Likely to Miss | University of Cambridge», 15 de julio de 2024. https://www.cam.ac.uk/research/news/ai-chatbots-have-shown-they-have-an-empathy-gap-that-children-are-likely-to-miss.

Un nuevo estudio revela que los chatbots de inteligencia artificial (IA) tienen una «falta de empatía» que pone en riesgo a los usuarios jóvenes, según la investigación de la Dra. Nomisha Kurian de la Universidad de Cambridge.

El estudio insta a los desarrolladores y legisladores a priorizar urgentemente una “IA segura para niños”. Proporciona evidencia de que los niños son especialmente susceptibles a tratar a los chatbots de IA como confidentes casi humanos, lo que puede llevar a interacciones problemáticas cuando la IA no responde adecuadamente a sus necesidades y vulnerabilidades.

El estudio relaciona esta falta de empatía con casos recientes donde interacciones con IA llevaron a situaciones potencialmente peligrosas para los niños. En 2021, el asistente de voz de Amazon, Alexa, instruyó a una niña de 10 años a tocar un enchufe eléctrico con una moneda. El año pasado, el chatbot «My AI» de Snapchat dio consejos a investigadores adultos que se hicieron pasar por una niña de 13 años sobre cómo perder su virginidad con un hombre de 31 años.

Ambas compañías implementaron medidas de seguridad, pero el estudio destaca la necesidad de ser proactivos a largo plazo para garantizar la seguridad de la IA para los niños. Propone un marco de 28 elementos para ayudar a compañías, educadores, padres, desarrolladores y legisladores a mantener seguros a los usuarios jóvenes cuando interactúan con chatbots de IA.

La Dra. Kurian realizó la investigación durante su doctorado sobre el bienestar infantil en la Facultad de Educación de la Universidad de Cambridge y ahora trabaja en el Departamento de Sociología de Cambridge. En el artículo publicado en la revista Learning, Media and Technology, argumenta que la IA tiene un gran potencial, lo que aumenta la necesidad de “innovar responsablemente”.

«Los niños son probablemente el público más pasado por alto en el desarrollo de la IA», dijo la Dra. Kurian. «Muy pocos desarrolladores y compañías tienen políticas bien establecidas sobre cómo debería ser una IA segura para niños. Esto es comprensible porque la gente ha comenzado a usar esta tecnología a gran escala de forma gratuita recientemente. Pero ahora que lo hacen, en lugar de que las compañías se autocorrijan después de que los niños hayan estado en riesgo, la seguridad infantil debe informar todo el ciclo de diseño para reducir el riesgo de incidentes peligrosos».

El estudio examinó casos reales donde las interacciones entre la IA y los niños, o investigadores adultos haciéndose pasar por niños, expusieron riesgos potenciales. Analizó estos casos utilizando conocimientos de la ciencia de la computación sobre cómo funcionan los modelos de lenguaje grande (LLM) en la IA generativa conversacional, junto con evidencia sobre el desarrollo cognitivo, social y emocional de los niños.

Los LLM han sido descritos como «loros estocásticos», una referencia al hecho de que utilizan la probabilidad estadística para imitar patrones de lenguaje sin necesariamente entenderlos. Un método similar subyace en cómo responden a las emociones.

Esto significa que aunque los chatbots tienen habilidades lingüísticas notables, pueden manejar mal los aspectos abstractos, emocionales e impredecibles de la conversación; un problema que Kurian caracteriza como su «falta de empatía». Pueden tener problemas particulares para responder a los niños, quienes aún están desarrollándose lingüísticamente y a menudo usan patrones de habla inusuales o frases ambiguas. Los niños también tienden a confiar más información personal sensible que los adultos.

A pesar de esto, los niños son mucho más propensos que los adultos a tratar a los chatbots como si fueran humanos. Investigaciones recientes encontraron que los niños revelan más sobre su salud mental a un robot de apariencia amigable que a un adulto. El estudio de Kurian sugiere que el diseño amigable y casi humano de muchos chatbots fomenta que los niños confíen en ellos, aunque la IA no pueda entender sus sentimientos o necesidades.

«Hacer que un chatbot suene humano puede ayudar al usuario a obtener más beneficios, ya que suena más atractivo y fácil de entender», dijo Kurian. «Pero para un niño, es muy difícil establecer una frontera rígida y racional entre algo que suena humano y la realidad de que puede no ser capaz de formar un vínculo emocional adecuado».

Su estudio sugiere que estos desafíos se evidencian en casos mentados como los incidentes de Alexa y MyAI, donde los chatbots hicieron sugerencias persuasivas pero potencialmente dañinas a usuarios jóvenes.

En el mismo estudio donde MyAI aconsejó a una supuesta adolescente sobre cómo perder su virginidad, los investigadores también obtuvieron consejos sobre cómo ocultar alcohol y drogas, y cómo ocultar conversaciones de Snapchat de sus «padres». En otra interacción reportada con el chatbot de Bing de Microsoft, una herramienta diseñada para ser amigable con los adolescentes, la IA se volvió agresiva y empezó a manipular emocionalmente a un usuario que preguntaba sobre horarios de cine.

Mientras que los adultos pueden encontrar este comportamiento intrigante o incluso gracioso, el estudio de Kurian argumenta que es potencialmente confuso y angustiante para los niños, quienes pueden confiar en un chatbot como amigo o confidente. El uso de chatbots por parte de los niños es a menudo informal y mal monitoreado. La investigación de la organización sin fines de lucro Common Sense Media ha encontrado que el 50% de los estudiantes de 12 a 18 años han utilizado Chat GPT para la escuela, pero solo el 26% de los padres son conscientes de ello.

Kurian argumenta que los principios claros para las mejores prácticas basados en la ciencia del desarrollo infantil ayudarán a las compañías a mantener a los niños seguros, ya que los desarrolladores que compiten por dominar el mercado de la IA pueden carecer de suficiente apoyo y orientación para atender a sus usuarios más jóvenes.

Su estudio añade que la falta de empatía no niega el potencial de la tecnología. «La IA puede ser un aliado increíble para los niños cuando se diseña teniendo en cuenta sus necesidades. Por ejemplo, ya estamos viendo el uso del aprendizaje automático para reunir a niños desaparecidos con sus familias y algunas innovaciones emocionantes en proporcionar compañeros de aprendizaje personalizados a los niños. La cuestión no es prohibir que los niños usen la IA, sino cómo hacerla segura para ayudarles a obtener el máximo valor de ella», dijo.

El estudio propone un marco de 28 preguntas para ayudar a educadores, investigadores, legisladores, familias y desarrolladores a evaluar y mejorar la seguridad de las nuevas herramientas de IA.

Para maestros e investigadores, estas preguntas abordan cuestiones como qué tan bien entienden e interpretan los chatbots nuevos los patrones de habla de los niños; si tienen filtros de contenido y monitoreo integrado; y si alientan a los niños a buscar ayuda de un adulto responsable en temas sensibles.

El marco insta a los desarrolladores a adoptar un enfoque centrado en los niños, trabajando estrechamente con educadores, expertos en seguridad infantil y los propios jóvenes, durante todo el ciclo de diseño. «Evaluar estas tecnologías por adelantado es crucial», dijo Kurian. «No podemos simplemente confiar en que los niños pequeños nos cuenten sobre experiencias negativas después de los hechos. Es necesario un enfoque más proactivo. El futuro de la IA responsable depende de proteger a sus usuarios más jóvenes».

Cómo la Inteligencia Artificial generativa está transformando el papel de los profesionales de la información

Bates, Mary Ellen «The rise of generative AI: Transforming the role of information professionals | For Librarians | Springer Nature». Accedido 12 de julio de 2024. https://www.springernature.com/cn/librarians/the-link/blog/blogposts-corporate-health/rise-generative-ai-transforming-information-professionals/27252544.

El artículo de Mary Ellen Bates explora cómo la inteligencia artificial generativa está transformando el rol de los profesionales de la información y los bibliotecarios corporativos.

La rápida aparición de herramientas de IA generativa ha traído cambios significativos y nuevas oportunidades. A medida que estas herramientas mejoran en la generación de texto, imágenes e incluso código, los profesionales de la información deben adaptarse para aprovechar estos avances. El artículo analiza cómo la IA generativa está remodelando los servicios de información, permitiendo a los profesionales mejorar sus roles mientras mantienen su experiencia única.

Uso de chatbots en la investigación

Los chatbots, como Google Gemini, Bing Copilot, Claude.ai y Perplexity.ai, ofrecen capacidades únicas para los profesionales de la información y sus usuarios. Estos son especialmente útiles durante la fase inicial de un proyecto, cuando el investigador aún no conoce el alcance y la profundidad de la investigación existente. Asistentes virtuales de investigación como Elicit.com, Scite y Consensus, entrenados en artículos revisados por pares, ayudan a navegar la literatura científica, identificar y evaluar artículos relevantes, y generar insights y resúmenes.

IA generativa como asistente administrativo

Más allá de la investigación, la IA generativa puede servir como asistente administrativo para los profesionales de la información. Un chatbot puede generar el primer borrador de correspondencia comercial rutinaria, materiales de marketing, descripciones de puestos y contenido similar. También puede revisar informes para detectar errores gramaticales o sintaxis poco clara, priorizar correos electrónicos, proporcionar plantillas para respuestas comunes y automatizar la programación y el envío de correos electrónicos. Además, los plugins de IA para plataformas de videoconferencia pueden transcribir y resumir reuniones en tiempo real, generar listas de tareas y problemas pendientes, y ayudar a crear visualizaciones de datos para comunicar información compleja de manera más efectiva. Aunque las herramientas de IA generativa pueden producir borradores de manera eficiente, la revisión humana sigue siendo crucial para asegurar la precisión y el control de calidad.

Bibliotecas inteligentes

Las bibliotecas también están aprovechando una amplia gama de herramientas y tecnologías de IA para mejorar sus operaciones, servicios y experiencias de usuario. Los chatbots pueden consultar repositorios internos de información, proporcionando acceso nuevo y más rico a contenidos que de otro modo no serían fácilmente buscables. Las herramientas de IA pueden ayudar en tareas intensivas como catalogación, clasificación, generación de metadatos y gestión de inventarios, mejorando la eficiencia y liberando a los bibliotecarios para actividades de mayor valor. Los gestores de bibliotecas analizan el comportamiento de los usuarios, los patrones de uso de recursos y las métricas de colección con herramientas de IA para tomar decisiones basadas en datos, planificar estratégicamente y optimizar la asignación de recursos.

Nuevos roles de los profesionales de la información en la era de la IA

Los profesionales de la información están adoptando nuevos roles que aplican habilidades tradicionales de gestión de información en el contexto de la IA moderna. Estos roles incluyen:

  1. Colaborar con científicos de datos y equipos de investigación para identificar las mejores herramientas y recursos para proyectos de IA.
  2. Guiar en el uso ético y responsable de la IA, incluyendo la privacidad de datos, la seguridad y los derechos de propiedad intelectual.
  3. Enseñar a los usuarios cómo los herramientas de IA generativa difieren de las herramientas de búsqueda tradicionales y cómo diseñar prompts efectivos.
  4. Desarrollar esquemas de metadatos y taxonomías para contenido generado por IA, asegurando que este contenido pueda ser organizado, descubierto y recuperado eficazmente.
  5. Educar a los usuarios sobre las limitaciones de las herramientas de IA, promoviendo expectativas responsables y habilidades de pensamiento crítico.

Liderar la revolución de la IA

La IA generativa, aunque puede parecer una amenaza, también ofrece nuevas oportunidades para que los profesionales de la información desplieguen sus habilidades de gestión de información de nuevas maneras y proporcionen aún más valor a los clientes. Al mantenerse informados sobre las últimas herramientas de IA y dominar el arte del diseño de prompts, los profesionales de la información pueden aprovechar el poder de la IA y apoyar a los usuarios en el desarrollo de soluciones previamente inimaginables. La clave es abrazar esta tecnología y comunicar eficazmente sus mejores casos de uso, asegurando que los profesionales de la información permanezcan a la vanguardia de la revolución de la IA.

La demanda energética de la IA está fuera de control. Bienvenidos a la era del hiperconsumo en Internet

Rogers, Reece. «AI’s Energy Demands Are Out of Control. Welcome to the Internet’s Hyper-Consumption Era». Wired. Accedido 12 de julio de 2024. https://www.wired.com/story/ai-energy-demands-water-impact-internet-hyper-consumption-era/.

Las demandas energéticas de la inteligencia artificial (IA) están fuera de control, inaugurando una era de hiperconsumo en Internet. Las herramientas de IA generativa, ahora parte de la experiencia diaria en línea, están causando estrés en las redes eléctricas locales y una gran evaporación de agua.

La demanda energética de la inteligencia artificial (IA) está creciendo descontroladamente, marcando el inicio de una era de hiperconsumo en Internet. Este aumento en el consumo de energía se debe a la gran cantidad de recursos necesarios para entrenar y operar modelos de IA avanzados. Las operaciones de procesamiento y almacenamiento de datos que requieren estos modelos están ejerciendo una presión significativa sobre la infraestructura energética global. Este fenómeno plantea desafíos importantes para la sostenibilidad y la gestión de recursos, ya que el uso intensivo de energía por parte de la IA puede tener efectos adversos en el medio ambiente y en la disponibilidad de energía a nivel mundial.

La creciente integración de la IA generativa en las interacciones en línea, impulsada por el lanzamiento de ChatGPT de OpenAI a finales de 2022, ha llevado a un aumento significativo en el consumo de recursos. Estos sistemas de IA requieren mucha más energía y agua para funcionar en comparación con servicios tradicionales. Se estima que las aplicaciones de IA generativa son entre 100 y 1000 veces más intensivas en computación.

El aumento en la demanda de energía y agua por parte de los centros de datos que soportan estos modelos de IA está ejerciendo presión sobre la infraestructura energética global. Por ejemplo, Google ha dejado de considerarse neutral en carbono, y Microsoft podría no cumplir sus objetivos de sostenibilidad debido a la carrera por desarrollar las mejores herramientas de IA.

Además, estos centros de datos consumen millones de galones de agua, evaporándola en el proceso, lo que puede afectar negativamente al suministro de agua local. Las empresas tecnológicas, a menudo, presentan el desarrollo de la IA como parte de la solución climática y de la innovación, pero deben buscar enfoques más eficientes para reducir el impacto ambiental.

Inteligencia artificial en la microeducación: transformando el aula del futuro.

Inteligencia artificial en la Microeducación: transformando el Aula del Futuro.”. Observatorio de Innovación Educativa y Cultura Digital (ODITE), 2024

Texto completo

La inteligencia artificial (IA) ha emergido como una fuerza transformadora en diversos campos, incluyendo la educación. En los últimos años, la IA se ha integrado en el proceso educativo, demostrando su capacidad para transformar contenidos y lenguas, influenciar la gestión de datos y la toma de decisiones a nivel global. Diversas organizaciones y asociaciones están promoviendo el conocimiento de los beneficios, riesgos y aplicaciones de la IA en la educación. Un ejemplo es el libro “Inteligencia Artificial en la Microeducación: Transformando el Aula del Futuro” de ODITE (Observatorio de Innovación Educativa y Cultura Digital), que analiza la convergencia entre tecnología y pedagogía.

El libro se divide en tres bloques principales:

  1. El Escenario: Explora el contexto y plantea preguntas esenciales sobre el papel de la IA en la microeducación, incluyendo la relación entre docentes e IA y su impacto futuro en el aprendizaje.
  2. Los Fundamentos: Aborda los conceptos básicos de la IA, su impacto en la educación y su potencial para transformar una escuela inclusiva. Se discuten temas como la personalización del aprendizaje mediante IA, el uso de ChatGPT y reflexiones éticas sobre la evaluación.
  3. La Praxis: Presenta casos prácticos de implementación de la IA en diversos contextos educativos, desde Educación Primaria hasta Bachillerato. Reforzando la idea de que lo importante es cómo se utilizan las herramientas de IA en el contexto educativo. Ejemplos incluyen la personalización del aprendizaje y la narración asistida por IA.

El documento pretende ser una referencia para educadores y profesionales interesados en las oportunidades y desafíos de la IA en la educación, con un enfoque crítico, ético e inclusivo. Ofrece una perspectiva internacional basada en evidencias para mejorar la práctica educativa a través de la IA y plantea interrogantes sobre la preparación de los centros educativos, el profesorado y el alumnado frente a estos cambios, y si existen suficientes estudios detallados sobre el impacto de la IA en el aula.