Archivo de la etiqueta: Inteligencia artificial

El papel de las bibliotecas en la era de la inteligencia artificial (IA)


Alonso-Arévalo, Julio; Quinde-Cordero, Marlene. El papel de las bibliotecas en la era de la inteligencia artificial (IA). Boletín de la Asociación Andaluza de Bibliotecarios, n. 127, Enero-Junio 2024, pp. 27-37

Texto completo


La integración de la inteligencia artificial (IA) en las bibliotecas marca una evolución hacia “bibliotecas inteligentes”, adaptadas a las necesidades tecnológicas y educativas actuales. Estas instituciones están aprovechando la IA para mejorar la experiencia del usuario, ofreciendo desde recomendaciones personalizadas hasta servicios de búsqueda avanzada y gestión eficiente de datos. Sin embargo, este avance también plantea desafíos, como la privacidad de los datos y la fiabilidad de la información generada por IA. Las bibliotecas están liderando la alfabetización en IA, capacitando a sus usuarios para interactuar de manera responsable con esta tecnología y preparándolos para el mercado laboral digital del futuro. En este contexto, las bibliotecas continúan siendo cruciales como espacios de aprendizaje continuo y acceso equitativo al conocimiento en una sociedad cada vez más influenciada por la IA.

Las altmetrics en tiempos de la IA


Stuart, David. Have we reached the limits of altmetrics? | Research Information. (2024.). Recuperado 29 de junio de 2024,

Ver original



Las altmetrics han crecido en popularidad, pero la IA amenaza su legitimidad al facilitar la manipulación de métricas. A medida que la creación de contenido automatizado aumenta, la relevancia y precisión de las altmetrics se debilitan. Las métricas web deberán adaptarse para seguir siendo útiles en el futuro.

Es fascinante observar el crecimiento de las altmetrics y otras métricas web en los últimos 20 años. Han pasado de ser una curiosidad a estar integradas en las páginas web de las universidades y editoriales académicas más grandes del mundo. Los desarrollos tecnológicos, la estandarización y el creciente interés en métricas alternativas han llevado a que la información sobre el número de vistas o menciones en redes sociales de una publicación se destaque junto a otras métricas más establecidas.

Sin embargo, el éxito pasado no garantiza el crecimiento futuro, y la web está en constante cambio. El mayor disruptor de la web hoy en día es indudablemente la inteligencia artificial (IA), y aunque el impacto futuro completo de la IA es actualmente desconocido, surge la pregunta de si hemos llegado a los límites de las altmetrics.

En un mundo que cambia rápidamente, las métricas apelan a la objetividad. Ya sea que se utilicen para evaluación, motivación o celebración, ofrecen la promesa de algo más sólido que una simple opinión individual. Durante mucho tiempo, en la publicación académica, las métricas dominantes se basaron en citas. A pesar de que se reconocen las limitaciones del análisis de citas, se siente que al agregar y normalizar citas de diferentes maneras, se puede indicar algo de valor.

El cambio a la publicación en línea aumentó considerablemente las métricas disponibles. La rica variedad de datos en tiempo real sobre el uso de una publicación y el surgimiento de altmetrics de las redes sociales prometieron proporcionar una comprensión más rápida y matizada del impacto de la investigación, más allá del ámbito académico y de las publicaciones formales. Sin embargo, las publicaciones informales son más susceptibles a la manipulación que las formales, y parece que justo cuando las altmetrics comienzan a ganar mayor aceptación, su legitimidad podría verse socavada. Hasta ahora, los problemas de manipulación han sido mínimos, pero con la IA, existe el riesgo de que estas métricas informales se vuelvan rápidamente insignificantes.

La IA incrementa tanto el riesgo de manipulación deliberada de métricas como el ruido general en el sistema de publicaciones académicas. Todas las métricas están abiertas a la manipulación, y es inevitable que individuos y organizaciones actúen de manera que logren la impresión más favorable. Como establece la ley económica de Goodhart: “Cuando una medida se convierte en un objetivo, deja de ser una buena medida”. Aunque las consecuencias negativas de las métricas en la publicación académica pueden no ser tan evidentes como cuando un médico solo quiere atender a pacientes con resultados favorables, o la policía solo registra delitos que son fáciles de resolver, el énfasis excesivo en las métricas corre el riesgo de socavar el sistema. El problema de las fábricas de artículos de investigación, que producen artículos que luego son retractados, ha crecido recientemente, y es probable que el problema aumente a medida que las mejoras en la IA generativa hagan cada vez más difícil identificar dichos artículos. En la publicación académica, sin embargo, todavía hay muchos controles humanos, pocos de los cuales se aplican a las altmetrics.

La historia de las métricas web ha sido tanto de la creciente facilidad con la que se pueden recopilar como de la facilidad con la que se pueden manipular. Hace casi 20 años, la unidad de elección para contar era el hipervínculo. Aunque cualquiera podría haber creado múltiples sitios web con diferentes dominios para aumentar el impacto de su presencia en línea, el costo en tiempo y dinero, y el poco interés en las métricas web en la comunidad académica, significaba que la mayoría de las personas preferían dedicar su tiempo a crear mejores publicaciones académicas. La estandarización de los grandes sitios de redes sociales, sin embargo, proporcionó tanto mayor interés en las métricas web como una menor barrera para crear un impacto en línea. Ya no era necesario crear múltiples sitios web, solo diferentes perfiles en múltiples plataformas de redes sociales. El costo, en su mayoría, se había reducido a cero, todo lo que se necesitaba era tiempo. Con la IA, sin embargo, el tiempo involucrado también puede reducirse a cero, al menos después de la configuración inicial.

No es difícil imaginar un futuro cercano en el que, si se desea generar cientos o incluso miles de cuentas de microblogging para elogiar la calidad de una investigación, simplemente se puede pedir a un programa de IA generativa que lo haga. No será necesario curar cuidadosamente la imagen de cada cuenta para distinguirlas de los spambots, ya que el contenido se generará automáticamente. Puede resultar un poco molesto descubrir que los insights artificiales ganan más seguidores que los posts cuidadosamente curados, pero el rápido aumento de la puntuación de atención sin duda aliviará el dolor.

No todo el ruido será deliberado. A medida que el contenido se crea automáticamente, la idea de que las piezas de contenido pueden contarse como si cada una hubiera sido creada por un ser humano se volverá cada vez más defectuosa. Proporciones crecientes de la web ya vienen con una advertencia de que «esta página ha sido creada automáticamente con la ayuda de IA», y estas secciones inevitablemente crecerán más rápido que las creadas por humanos. A medida que la creación de contenido se basa cada vez más en otro contenido que ya ha sido creado, la ventaja de ser el primer artículo mencionado sobre un tema será cada vez más difícil de superar.

Con una distribución de atención cada vez más sesgada, también se vuelve cada vez más importante asegurarse de que las menciones se asocien con el documento académico correcto. La mala atribución de menciones académicas y las fluctuaciones resultantes en las métricas solo aumentarán a medida que se genere más contenido automáticamente.

A primera vista, parecería que el uso creciente de la IA generativa inevitablemente anunciará el fin de las altmetrics, pero eso solo si todo lo demás permanece igual. Sin duda, no será así. Los sitios y servicios de redes sociales también cambiarán de muchas maneras. Es posible que los sitios de redes sociales gratuitos sean reemplazados por servicios de suscripción o distribuidos, donde haya mayores restricciones en la generación de contenido, permitiendo que formen la base de nuevas y más robustas métricas. El interés en el impacto académico en un servicio genérico como X podría ser reemplazado por el interés en cuentas verificadas o en servidores seleccionados que formen parte de una red distribuida.

También parece probable que se amplíe el interés en las métricas web más allá de las altmetrics. Se puede obtener una amplia gama de insights de la web, o de rincones de la misma, desde el análisis de las actividades de búsqueda de las personas en Google Trends para conocer el estado de la sociedad hasta cómo el enlace entre sitios web proporciona información sobre las relaciones en el mundo real y la robustez de una economía local. Sin embargo, estas alternativas a menudo han sido marginadas con un enfoque en las métricas evaluativas a gran escala.

Las métricas web siempre han tenido que adaptarse a medida que surgían nuevas tecnologías. Aunque la IA indudablemente marcará el fin de una era de las altmetrics, surgirán nuevas áreas de investigación. La inclusión de literatura gris y citas de patentes que anteriormente se habrían excluido de la bibliometría probablemente continuará, pero la idea de capturar contenido informal a gran escala puede ser cada vez más dudosa.

Las métricas web siempre han tenido fundamentos más suaves que las bibliométricas, más propensas a ofrecer insights interesantes que autoritativos, y no es necesariamente malo que eso sea hasta donde lleguen. Las métricas evaluativas a menudo tienen un impacto negativo, especialmente cuando se les da demasiada credibilidad, por lo que limitar las altmetrics justo cuando están ganando interés no es necesariamente algo negativo.

Principios Globales de las Naciones Unidas para la Integridad de la Información

United Nations Global Principles for Information Integrity. ONU, 2024

Texto completo

Los avances tecnológicos han revolucionado las comunicaciones, conectando a las personas a una escala antes inimaginable. Han apoyado a las comunidades en tiempos de crisis, elevado las voces marginadas y ayudado a movilizar movimientos globales por la justicia racial y la igualdad de género.

Sin embargo, estos mismos avances han permitido la propagación de desinformación, información errónea y discursos de odio a un volumen, velocidad y viralidad sin precedentes, poniendo en riesgo la integridad del ecosistema de la información.

Los nuevos y crecientes riesgos derivados de los avances en tecnologías de inteligencia artificial han hecho que fortalecer la integridad de la información sea una de las tareas más urgentes de nuestro tiempo.

Esta amenaza global clara y presente exige una acción internacional coordinada.

Los Principios Globales para la Integridad de la Información de las Naciones Unidas nos muestran que otro futuro es posible.

Recomendaciones

Las recomendaciones dentro de los Principios Globales están diseñadas para fomentar espacios de información más saludables y seguros que promuevan los derechos humanos, sociedades pacíficas y un futuro sostenible.

Las propuestas incluyen:

  • Evitar la desinformación y el discurso de odio: Los gobiernos, empresas tecnológicas, anunciantes, medios de comunicación y otros actores deben abstenerse de usar, apoyar o amplificar la desinformación y el discurso de odio para cualquier propósito.
  • Acceso a la información y libertad de prensa: Los gobiernos deben proporcionar acceso oportuno a la información, garantizar un panorama mediático libre, viable, independiente y plural, y asegurar fuertes protecciones para periodistas, investigadores y la sociedad civil.
  • Seguridad y privacidad por diseño: Las empresas tecnológicas deben asegurar la seguridad y privacidad desde el diseño en todos sus productos, junto con una aplicación consistente de políticas y recursos en todos los países e idiomas, prestando especial atención a los grupos que a menudo son atacados en línea. Deben mejorar la respuesta a crisis y tomar medidas para apoyar la integridad de la información durante las elecciones.
  • Desarrollo responsable de IA: Todos los involucrados en el desarrollo de tecnologías de inteligencia artificial deben tomar medidas urgentes, inclusivas y transparentes para garantizar que todas las aplicaciones de IA se diseñen, desplieguen y utilicen de manera segura, responsable y ética, y respeten los derechos humanos.
  • Modelos de negocio éticos: Las empresas tecnológicas deben explorar modelos de negocio que no dependan de la publicidad programática y que no prioricen el engagement por encima de los derechos humanos, la privacidad y la seguridad, permitiendo a los usuarios una mayor elección y control sobre su experiencia en línea y sus datos personales.
  • Transparencia en la publicidad digital: Los anunciantes deben exigir transparencia en los procesos de publicidad digital del sector tecnológico para garantizar que los presupuestos publicitarios no financien inadvertidamente la desinformación o el odio ni socaven los derechos humanos.
  • Transparencia y auditorías independientes: Las empresas tecnológicas y los desarrolladores de IA deben asegurar una transparencia significativa y permitir el acceso a datos a investigadores y académicos, respetando la privacidad de los usuarios, encargar auditorías independientes y co-desarrollar marcos de responsabilidad industrial.
  • Protección y empoderamiento de los niños: Gobiernos, empresas tecnológicas, desarrolladores de IA y anunciantes deben tomar medidas especiales para proteger y empoderar a los niños, proporcionando recursos para padres, tutores y educadores.

¿Cómo están usando los profesores la IA Generativa en el aula?

Ruediger, Dylan, et al. «Generative AI and Postsecondary Instructional Practices: Findings from a National Survey of Instructors.» Ithaka S+R
. Ithaka S+R. 20 June 2024. Web. 24 June 2024. https://doi.org/10.18665/sr.320892

Para obtener información sobre cómo están evolucionando las prácticas de enseñanza, Ithaka S+R realizó su encuesta trienal a profesores de educación superior, centrándose en la instrucción y con una sección dedicada específicamente a la IA generativa. Hoy publicamos los resultados de la encuesta, con respuestas de 2.654 instructores universitarios de una amplia variedad de disciplinas e instituciones—la mayor encuesta sobre este tema de la que tenemos conocimiento.

El informe proporciona una instantánea de las prácticas de enseñanza dos semestres después de la aparición dramática de la IA generativa, y ofrece evidencia convincente de que los instructores están explorando el uso de la IA generativa en gran número. También destaca la incertidumbre continua sobre cómo usar mejor esta tecnología. Nuestros hallazgos clave son:

  • La mayoría de los instructores tienen al menos un conocimiento superficial de las herramientas de IA generativa. Pero muchos, especialmente los instructores mayores, no confían en sus habilidades para usarlas con fines pedagógicos o en su valor en contextos educativos.
  • Una gran mayoría (72 por ciento) de los instructores ha experimentado con el uso de la IA generativa como herramienta de enseñanza. Sin embargo, aunque los instructores están utilizando la IA generativa de muchas maneras diferentes, ningún caso de uso individual se ha establecido particularmente bien.
  • La mayoría de los instructores desean algún tipo de apoyo institucional para ayudarlos a integrar la IA generativa en sus cursos. Pero solo una minoría busca algún servicio de apoyo específico, lo que probablemente crea un dilema para quienes invierten en proporcionar dichos servicios.
  • Muchos profesores, especialmente en las humanidades, aún prohíben el uso de la IA generativa por parte de los estudiantes.

En el Reino Unido se espera que la IA consuma un 500% más de energía en la próxima década

«AI’s Insatiable Need for Energy Is Straining Global Power Grids». Accedido 24 de junio de 2024. https://www.bloomberg.com/graphics/2024-ai-data-centers-power-grids/.



En el Reino Unido, se espera que la IA consuma un 500% más de energía en la próxima década. Y en los EE. UU., se proyecta que los centros de datos utilicen el 8% del total de energía para 2030, en comparación con el 3% en 2022, según Goldman Sachs, que lo describió como «el tipo de crecimiento en el consumo de electricidad que no se ha visto en una generación».

Loudoun County, en el norte de Virginia, anteriormente conocido por sus granjas de caballos y sitios de batallas de la Guerra Civil, ha sido transformado en los últimos 15 años. Sus campos y bosques se han despejado para construir centros de datos, esenciales para nuestras vidas digitales. El auge de la inteligencia artificial (IA) está acelerando la demanda de centros de datos más grandes, cambiando aún más el paisaje y sobrecargando las redes eléctricas de la región.

Esta primavera, una nueva instalación de 200,000 pies cuadrados estaba casi terminada. Una vez operativa, podría consumir tanta energía como 30,000 hogares en EE.UU. DataBank, el proveedor de centros de datos que posee la instalación, tiene un cliente «grande de tecnología» que ya ha instalado servidores antes de que DataBank tenga electricidad disponible para ellos.

James Mathes, quien administra algunas instalaciones de DataBank, comentó que la IA necesita mucha energía y la demanda es inmediata una vez disponible. El aumento repentino en la demanda eléctrica de los centros de datos supera la oferta en muchas partes del mundo, lo que genera largas esperas para acceder a la red, preocupaciones por cortes de energía y aumentos de precios en los mercados de centros de datos más densos.

El aumento dramático en la demanda de energía debido al enfoque de crecimiento a cualquier costo de Silicon Valley para la IA también amenaza los planes de transición energética de países enteros y los objetivos de energía limpia de las compañías tecnológicas multimillonarias. En algunos países, como Arabia Saudita, Irlanda y Malasia, la energía requerida para operar todos los centros de datos planificados excede la oferta disponible de energía renovable.

En Suecia, la demanda de energía de los centros de datos podría duplicarse en esta década y volver a duplicarse para 2040. En el Reino Unido, se espera que la IA consuma un 500% más de energía en la próxima década. En EE.UU., se proyecta que los centros de datos utilicen el 8% del total de energía para 2030, frente al 3% en 2022, según Goldman Sachs, que lo describió como “el tipo de crecimiento en el consumo de electricidad que no se ha visto en una generación”.

¿Por qué alucina la inteligencia artificial?


MIT Technology Review. «Why Does AI Hallucinate?» Accedido 19 de junio de 2024. https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/.



El artículo «¿Por qué la inteligencia artificial alucina?» de Will Douglas Heaven, publicado en junio de 2024 por MIT Technology Review, profundiza en los desafíos que enfrentan los chatbots y los modelos de lenguaje como GPT-3.5 debido a su propensión a generar respuestas incorrectas, un fenómeno conocido como alucinación. Este problema no solo afecta la precisión de los chatbots, sino que también influye en la confianza que las personas depositan en ellos.

El artículo comienza ilustrando el problema con el caso del chatbot SARAH de la Organización Mundial de la Salud, diseñado para proporcionar consejos de salud en varios idiomas las 24 horas del día. SARAH, respaldado por el modelo GPT-3.5, fue lanzado con buenas intenciones pero rápidamente se descubrió que daba información incorrecta, incluyendo direcciones y nombres ficticios de clínicas en San Francisco. Este ejemplo subraya cómo incluso organizaciones prestigiosas pueden enfrentar desafíos con la precisión de los chatbots.

El efímero chatbot científico Galactica de Meta inventó artículos académicos y generó artículos wiki sobre la historia de los osos en el espacio. En febrero, Air Canada recibió la orden de cumplir una política de reembolso inventada por su chatbot de atención al cliente. El año pasado, un abogado fue multado por presentar documentos judiciales llenos de opiniones judiciales falsas y citas legales inventadas por ChatGPT. Estos ejemplos destacan cómo la alucinación puede llevar a errores significativos y potencialmente costosos.

El problema es que los grandes modelos lingüísticos son tan buenos en lo que hacen que lo que inventan parece correcto la mayoría de las veces. Y eso hace que sea difícil confiar en ellos. Esta tendencia a inventar -conocida como alucinación- es uno de los mayores obstáculos que impiden la adopción generalizada de los chatbots. ¿Por qué lo hacen? ¿Y por qué no podemos solucionarlo?

Para entender por qué los grandes modelos lingüísticos alucinan, tenemos que ver cómo funcionan. Lo primero que hay que tener en cuenta es que inventar cosas es exactamente para lo que están diseñados estos modelos. Cuando se hace una pregunta a un chatbot, éste extrae su respuesta del gran modelo lingüístico que lo sustenta. Pero no es como buscar información en una base de datos o utilizar un motor de búsqueda en Internet.

A diferencia de buscar información en una base de datos o en la web, estos modelos utilizan números para calcular respuestas desde cero. Cada modelo está compuesto por billones de parámetros que ajustan sus predicciones con base en patrones lingüísticos encontrados en grandes cantidades de datos textuales de internet. Cuando se les hace una pregunta, estos modelos generan secuencias de palabras nuevas basadas en probabilidades estadísticas, no en conocimiento específico almacenado.

Los grandes modelos lingüísticos generan texto prediciendo la siguiente palabra de una secuencia. Si un modelo ve «el gato se sentó», puede adivinar «en». Esa nueva secuencia se vuelve a introducir en el modelo, que ahora puede adivinar «el». Si da otra vuelta, puede adivinar «mat», y así sucesivamente. Este truco es suficiente para generar casi cualquier tipo de texto que se pueda imaginar, desde listados de Amazon hasta haiku, pasando por ficción de fans, código informático, artículos de revistas y mucho más. Como dice Andrej Karpathy, informático y cofundador de OpenAI: los grandes modelos lingüísticos aprenden a soñar con documentos de Internet.

Para adivinar una palabra, el modelo simplemente ejecuta sus números. Calcula una puntuación para cada palabra de su vocabulario que refleja la probabilidad de que esa palabra sea la siguiente en la secuencia en juego. La palabra con la mejor puntuación gana. En resumen, los grandes modelos lingüísticos son máquinas tragaperras estadísticas. Gire la palanca y saldrá una palabra.

¿Podemos controlar lo que generan los grandes modelos lingüísticos para que produzcan un texto cuya exactitud esté garantizada? Estos modelos son demasiado complicados para que sus números puedan manipularse a mano. Pero algunos investigadores creen que entrenarlos con aún más texto seguirá reduciendo su tasa de error. Es una tendencia que hemos observado a medida que los grandes modelos lingüísticos han ido creciendo y mejorando. Pero, ninguna técnica puede eliminar completamente la alucinación. Debido a su naturaleza probabilística, siempre existe un elemento de riesgo en lo que producen estos modelos.

El artículo concluye destacando la importancia de gestionar las expectativas sobre las capacidades de estos modelos. A medida que mejoren en precisión, será crucial mantener una vigilancia constante para identificar y corregir los errores que puedan surgir. Además, subraya la necesidad de una mayor investigación y desarrollo en métodos que mitiguen la alucinación en los modelos de lenguaje.

Otro método consiste en pedir a los modelos que comprueben su trabajo sobre la marcha, desglosando las respuestas paso a paso. Este método, conocido como «cadena de pensamiento», ha demostrado aumentar la precisión de los resultados de un chatbot. Todavía no es posible, pero en el futuro los grandes modelos lingüísticos podrán comprobar los hechos del texto que producen e incluso rebobinar cuando empiecen a descarrilar.

Declaración de Heredia: Principios sobre el uso de inteligencia artificial en la edición científica

Penabad Camacho, Liana, María Amalia Penabad Camacho, Andrea Mora Campos, Gerardo Cerdas Vega, Yuri Morales López, Mónica Ullate, Andrea Mendez Solano, Nidya Nova Bustos, María Fernanda Vega Solano, y María Milagro Castro Solano. «Declaración de Heredia: Principios sobre el uso de inteligencia artificial en la edición científica». Revista Electrónica Educare 28, n.o Extra 1 (2024): 1. https://dialnet.unirioja.es/servlet/articulo?codigo=9573390.

La Declaración de Heredia propone, desde la perspectiva de la edición científica, una serie de consideraciones para el uso responsable de la inteligencia artificial (IA) en los procesos de investigación que llevan a la publicación científica. Se reconoce a la IA como una herramienta cuyo uso se debe evidenciar y transparentar para un ejercicio claro, trazable y reproducible del conocimiento. Se llama la atención sobre los retos que supone la incorporación de la IA a la edición científica en cuanto a la diversidad de opciones, el evitar la propagación de sesgos y desinformación, y el respeto a la propiedad intelectual. Principios. Están organizados en cuatro grupos: general, para los roles de autoría, revisión por pares y edición. Resaltan la importancia de utilizar la IA como una herramienta cuyos resultados son filtrados por seres humanos que, desde una perspectiva ética y responsable, reportan, de forma transparente, a qué modelo, qué se consultó y cuándo se hizo la consulta. Reflexión final. Pone de manifiesto que se trata de un escenario en constante evolución cuyo fin último debe ser el bienestar humano y la calidad de vida.

La IA en la Educación: desafíos y oportunidades globales

Oxford University Press. «AI in education: where we are and what happens next». Accedido 18 de junio de 2024. https://corp.oup.com/feature/ai-in-education-where-we-are-and-what-happens-next/.

A lo largo de los 500 años de historia, Oxford University Press ha respondido a los avances del mundo para satisfacer las necesidades de estudiantes, profesores y la comunidad en general. En 2023, se ha observado un crecimiento notable en la adopción global de la inteligencia artificial (IA), impulsado por la disponibilidad y conocimiento de herramientas de IA generativa (GAI).

En el ámbito educativo, ya sea en la enseñanza tradicional o el aprendizaje de idiomas, el interés creciente en la Inteligencia Artificial Generativa plantea muchas consideraciones. Por un lado, se debate cómo educar a las futuras generaciones en el uso y desarrollo de tecnologías habilitadas por IA. Por otro, surge la pregunta urgente sobre cómo integrar positivamente estas tecnologías en los enfoques actuales de enseñanza y aprendizaje. Aunque ambos escenarios suelen ir de la mano, este informe se centra principalmente en el segundo. Queremos analizar nuestra situación actual y qué pasos debemos seguir.

Esta tecnología avanzada tiene un gran potencial en la educación, pero no es la primera tecnología digital que ha transformado la educación, ni la primera instancia de IA en el aula. Los recursos digitales, como aquellos que ofrecen aprendizaje adaptativo y personalizado, a veces respaldados por el aprendizaje automático, ya se utilizan en muchos entornos educativos.

Como editorial global, existe el compromiso de adoptar la tecnología de la manera correcta para mejorar la educación para todos. Se cree firmemente que la educación debe impulsar la tecnología, y no al revés. Con un profundo conocimiento de la pedagogía y la comprensión de las necesidades cambiantes de profesores y estudiantes, se busca desarrollar soluciones que realmente mejoren los resultados de aprendizaje y encontrar las mejores formas de avanzar juntos en este camino.

En el centro de este enfoque están los profesores y la necesidad de apoyarlos con recursos de calidad. El 88% de los profesores con los que hablamos dijeron que se beneficiarían de tener investigaciones e experiencias relevantes. Este informe se basa en una red global de expertos, investigaciones de fuentes confiables y perspectivas de comunidades de estudiantes, profesores escolares y de inglés.

El informe cubre:

  1. Una visión global: La IA ya juega un papel importante en la educación a nivel mundial, pero ¿cómo varía esto entre países?
  2. El impacto en los profesores: ¿Son optimistas los profesores sobre la IA? ¿Se sienten preparados o necesitan más apoyo?
  3. El impacto en el aprendizaje: Los estudiantes ya están utilizando IA; ¿cómo podemos aprovechar los beneficios, enseñar las habilidades adecuadas y protegernos contra los riesgos de la desinformación?
  4. Brecha digital: ¿La IA es un peligro o un nivelador? Muchos no tienen acceso a internet, mucho menos a la IA; ¿puede la nueva tecnología ayudar a cerrar las brechas existentes o las ampliará?
  5. ¿Qué sigue?: Presentamos cinco recomendaciones para líderes escolares, cuerpos educativos y gobiernos sobre cómo asegurar que la educación impulse la tecnología, y no al revés.

Un panorama global:

Los enfoques actuales hacia la IA en la educación varían considerablemente entre países. Algunos avanzan con cautela o prohíben nuevas herramientas de IA, mientras que otros las adoptan rápidamente. Esto refleja los desafíos y oportunidades únicos de cada país, así como su cultura, políticas y necesidades sociales. Los educadores han sido una fuerza impulsora en muchos países, mostrando optimismo, pero también precaución, respecto a la IA. Un porcentaje significativo de profesores en el Reino Unido y Europa ve beneficios en la IA para la educación, pero también riesgos como errores no detectados y plagio. La IA se utiliza tanto como tema de estudio como herramienta, siendo este último un tema más controvertido.

El impacto en los profesores:

Más del 70% de los profesores son optimistas sobre el papel de la IA en la educación. La IA puede resolver muchos desafíos educativos, permitiendo a los docentes dedicar más tiempo a la instrucción directa y la interacción en vivo. Actualmente, una parte considerable de los profesores utiliza herramientas basadas en IA, especialmente para la preparación de contenido, evaluación y personalización del aprendizaje. Sin embargo, la preparación de los profesores para manejar estas herramientas varía, siendo necesario un mayor apoyo y formación para garantizar un uso ético y beneficioso.

El impacto en el aprendizaje:

Una parte significativa de los estudiantes ya utiliza herramientas de IA para tareas escolares, aunque esto varía según la región. Los profesores están divididos sobre si la IA tiene un impacto positivo en los resultados educativos, reconociendo tanto beneficios como riesgos. La enseñanza de habilidades necesarias para el futuro, como el pensamiento crítico y la capacidad de identificar información fiable, es crucial, especialmente ante la creciente desinformación impulsada por la IA.

Conclusiones:

La IA es inevitable en la educación y la vida futura de los estudiantes. La educación debe apoyarlos para usarla eficazmente, asegurando que aprendan habilidades esenciales y reciban una educación basada en recursos e información de calidad. Aunque la adopción de la IA presenta desafíos, también ofrece oportunidades como la creación de nuevos roles laborales y el enfoque en habilidades fundamentales. Es esencial equipar a los jóvenes con las habilidades necesarias para usar estas herramientas de manera segura y ética, incluyendo la identificación de contenido confiable frente a la desinformación.

¿Cómo están respondiendo los investigadores a la Inteligencia Artificial (IA), que les entusiasma y preocupa?

Heaton, Benedict. «How are researchers responding to AI?» Oxford University Press, 23 de mayo de 2024. https://corp.oup.com/news/how-are-researchers-responding-to-ai/.

Oxford University Press recientemente llevó a cabo una encuesta entre más de 2,000 investigadores de diversas geografías, disciplinas académicas —incluyendo Humanidades, Ciencias STM (Science, Technology, Medicine), y Ciencias Sociales— y diferentes etapas de carrera, con el objetivo de conocer directamente de la comunidad investigadora cómo están reaccionando y utilizando la inteligencia artificial en su trabajo.

Encuesta a más de 2,000 investigadores de diversas geografías, disciplinas académicas —incluyendo Humanidades, Ciencias STM y Ciencias Sociales— y diferentes etapas de carrera, para conocer directamente de la comunidad de investigación cómo están reaccionando y utilizando la IA en su trabajo.

Los resultados revelan las consideraciones clave en las decisiones de los investigadores para involucrarse con la IA, incluyendo qué aspectos les entusiasman y les preocupan, y cómo están utilizando —o planean utilizar— las herramientas ya disponibles para ellos.

La mayoría de los investigadores académicos y autores de investigación afirman estar utilizando herramientas de inteligencia artificial (IA) en su práctica investigativa, a pesar de preocupaciones sobre la pérdida de habilidades críticas de pensamiento, el respeto por los derechos de propiedad intelectual (IP) y la desconfianza en los proveedores de IA.

Resumen de los hallazgos generales

  • Poco más de tres cuartas partes (76%) de los investigadores reportan utilizar alguna forma de herramienta de inteligencia artificial (IA) en su investigación actualmente. Las herramientas de traducción automática (49%) y los chatbots (43%) son las más populares, seguidas de los motores de búsqueda o herramientas de investigación impulsadas por IA (25%).
  • Un poco más de una cuarta parte (27%) indica tener un buen entendimiento general de las herramientas de IA.
  • Al considerar las etapas de la investigación, la IA se utiliza principalmente para descubrir investigaciones existentes, así como para la edición y resumen de investigaciones ya realizadas.
  • Aquellos que utilizan la IA en cualquier etapa de su investigación tienden a sentir que se han beneficiado al hacerlo, principalmente porque ayuda con la eficiencia.
  • La mitad (46%) de los investigadores informa que la institución donde trabajan no tiene una política de IA, y otro cuarto (26%) indica que no lo sabe.
  • En general, la confianza en las compañías de IA es muy baja, con solo un 8% confiando en que las compañías de IA no usarán sus datos sin permiso, y un 6% confiando en que cumplirán con los requisitos de privacidad y seguridad de datos.
  • También existen fuertes preocupaciones sobre las implicaciones para la propiedad intelectual y cómo la IA impactará la investigación académica en general, con una cuarta parte (25%) del grupo creyendo que la IA reduce la necesidad de pensamiento crítico.

En conclusión, la mayoría dice haber utilizado alguna forma de IA y más de dos tercios han sentido los beneficios de usar IA. También, la gran mayoría expresa desconfianza hacia las compañías de IA. Les preocupa cómo la IA podría afectar la calidad de la investigación, en concreto tienen temores sobre las cuestiones de propiedad intelectual, la posible reducción de habilidades críticas de pensamiento debido a la IA. También reconocen la importancia de considerar las implicaciones del uso de IA y más de la mitad dicen que buscaría orientación sobre IA en sociedades académicas.

    Potencial de la inteligencia artificial (IA) para las colecciones y las instituciones de patrimonio cultural

    Europeana PRO. «HAICu: Using AI to Access, Connect and Analyse Heritage Collections». Accedido 17 de junio de 2024. https://pro.europeana.eu/post/haicu-using-ai-to-access-connect-and-analyse-heritage-collections.

    El potencial de la inteligencia artificial (IA) para las colecciones y las instituciones de patrimonio cultural es enorme. La comunidad EuropeanaTech a través del proyecto HAICu ofrece colaboraciones entre investigadores e instituciones de patrimonio para explorar nuevas aplicaciones de la IA.

    HAICu, un proyecto para acceder, enlazar y analizar colecciones digitales de patrimonio utilizando IA, recibió una subvención de €10.3 millones del Consejo de Investigación de los Países Bajos en 2023 y comenzó en febrero de 2024.

    Un legado de ‘CATCH’

    Los orígenes de HAICu provienen del programa Continuous Access to Cultural Heritage, (CATCH), un programa de investigación de 15 años financiado por el Consejo de Investigación de los Países Bajos y el Ministerio de Educación, Cultura y Ciencia de los Países Bajos. Según Van der Veen-Oei, aunque HAICu no se basa directamente en CATCH, muchos de los mismos miembros de la comunidad están involucrados. CATCH hizo una importante contribución a la investigación en la intersección de TI y las instituciones de patrimonio, y más tarde se incluyeron las humanidades, con el objetivo de hacer accesibles las colecciones digitales.

    Construyendo sobre una colaboración única

    Los estudiantes de doctorado financiados por CATCH trabajaban en instituciones de patrimonio dos días a la semana, lo que resultó en doctorados y postdoctorados con experiencia tanto en el sector del patrimonio como en el ámbito académico. Esta colaboración permitió que las instituciones de patrimonio dieran sus primeros pasos creando una nueva clase de conocimientos y experiencia para ambas partes. Fue la primera vez que muchas instituciones de patrimonio cooperaron estrechamente con investigadores de TI, quienes a su vez tuvieron acceso a grandes cantidades de datos para entrenar sus herramientas y algoritmos.

    Un proyecto subsiguiente, CATCHPlus, buscó convertir prototipos o demostraciones en herramientas prácticas, aunque no todos los desarrollos fueron adoptados por las instituciones de patrimonio. Con HAICu, se busca ir un paso más allá, esta vez aplicando técnicas de IA.

    Introduciendo la inteligencia artificial

    Los investigadores y profesionales de las instituciones de patrimonio involucrados en CATCH querían continuar con la comunidad creada, incorporando nuevas técnicas de IA. Van der Veen-Oei señala que, aunque la IA ha estado en desarrollo durante décadas, hoy puede dar sentido a las colecciones de una manera responsable. Se busca utilizar estas innovaciones para acceder, enlazar y analizar colecciones.

    Instituciones como la Biblioteca Nacional de los Países Bajos (KB) enfrentan un aumento en los datos. Actualmente, KB tiene unos tres petabytes de datos digitales, y se espera que para 2027 tenga más de cinco petabytes. Para gestionar esto, se necesitan nuevas herramientas y técnicas, y ahí es donde entra el proyecto HAICu.

    Nuevas perspectivas

    La IA también aporta nuevas perspectivas a las colecciones. Lo que antes era normal, hoy puede no ser aceptable. La IA puede mostrar múltiples perspectivas, como en el caso del término Zwarte Piet (Pedro el Negro), sujeto a debate en la actualidad. La KB busca formas de detectar automáticamente este sesgo en los metadatos.

    Además, la IA proporciona contexto a los datos. El objetivo es usar los datos del patrimonio para ofrecer una reflexión transparente y confiable de la realidad, ayudando en las búsquedas con sugerencias contextuales y colocando las fuentes en contexto. Los laboratorios de innovación se utilizan para probar nuevos desarrollos dentro de HAICu.

    Enfoques multimodales

    En los últimos dos años, la IA generativa ha ganado prominencia con sistemas como ChatGPT. HAICu planea usar estos métodos de búsqueda para las colecciones de instituciones de patrimonio. La multimodalidad, utilizando diferentes fuentes, juega un papel importante. HAICu busca enlazar colecciones de texto, video, audio y más, como conectar escaneos de periódicos con material audiovisual del Instituto de Sonido y Visión de los Países Bajos, permitiendo reunir toda la información en una sola búsqueda.

    Más información

    HAICu va más allá de desarrollar y utilizar técnicas y herramientas de IA. El proyecto promueve la colaboración interdisciplinaria e institucional a través de laboratorios de innovación y proyectos de ciencia ciudadana, involucrando a aquellos que aún no participan activamente. HAICu espera proporcionar un terreno fértil para aportes y servicios curatoriales de todas las partes interesadas, asegurando la integración a largo plazo de los resultados en las organizaciones y sus redes.