Archivo de la etiqueta: Inteligencia artificial

Razones por las cuales ChatGPT nunca reemplazará a los profesores

Leng, Ellier. «5 Reasons Why ChatGPT Will Never Replace Real Teachers • LatinHire Online Tutoring», 10 de julio de 2023. https://www.latinhire.com/5-reasons-why-chatgpt-will-never-replace-real-teachers/.

Los profesores pueden adaptar sus estrategias de enseñanza según las reacciones de los estudiantes y crear un entorno de aprendizaje animado y estimulante. Por otro lado, ChatGPT se basa en interacciones basadas en texto y carece de la capacidad para responder a señales no verbales o modificar el plan de lecciones según las necesidades en tiempo real de los estudiantes.

Toda esta conversación sobre ChatGPT en los últimos meses ha hecho que muchos se preocupen por el futuro de la educación. Como un hito importante en el avance de la inteligencia artificial, ChatGPT ha suscitado más debates sobre el potencial de la tecnología para reemplazar varios trabajos humanos. Un área que a menudo se debate es el papel de los profesores.

Aunque los modelos de lenguaje impulsados por IA como ChatGPT han avanzado significativamente en el procesamiento y la comprensión del lenguaje, es extremadamente improbable que alguna vez reemplacen a los profesores y exploraremos las muchas razones por las que.

  1. Conexión Emocional y Empatía Uno de los aspectos fundamentales de la enseñanza efectiva es la conexión emocional y la empatía que los profesores establecen con sus estudiantes. Los profesores tienen la capacidad de comprender las necesidades, motivaciones y desafíos únicos de sus estudiantes. Proporcionan aliento, apoyo y orientación personalizada que va más allá del alcance de un chatbot. Los profesores crean un entorno seguro y enriquecedor que fomenta el crecimiento intelectual y emocional, inspirando a los estudiantes a explorar y alcanzar su máximo potencial.
  2. Instrucción Personalizada Cada estudiante es diferente, con sus propias fortalezas, debilidades y estilos de aprendizaje. Los profesores tienen la experiencia para adaptar sus métodos de enseñanza para satisfacer las diversas necesidades de sus estudiantes. Pueden identificar áreas que requieren atención individual, adaptar su enfoque y proporcionar comentarios personalizados. Mientras que la IA puede ofrecer respuestas estandarizadas basadas en algoritmos preprogramados, carece de la capacidad para proporcionar la instrucción matizada y personalizada que los profesores pueden ofrecer.
  3. Aprendizaje Social y Emocional La educación no se trata únicamente de impartir conocimientos, también se trata de desarrollar individuos bien formados que puedan prosperar en la sociedad. Los profesores desempeñan un papel crucial en fomentar habilidades de aprendizaje social y emocional como la empatía, el trabajo en equipo y la resolución de conflictos. Las aulas presenciales crean oportunidades para que los estudiantes colaboren, se comuniquen y construyan relaciones significativas con sus compañeros. ChatGPT, como modelo de lenguaje de IA, carece de la capacidad para facilitar de manera efectiva el crecimiento social y emocional en los estudiantes.
  4. Entorno Dinámico en el Aula Un aula, ya sea en persona u en línea, es un espacio dinámico donde tiene lugar el aprendizaje activo, la discusión y el pensamiento crítico. Los profesores dan vida a la materia a través de actividades atractivas, debates y discusiones interactivas. Los profesores pueden adaptar sus estrategias de enseñanza según las reacciones de los estudiantes y crear un entorno de aprendizaje animado y estimulante. ChatGPT, por otro lado, se basa en interacciones basadas en texto y carece de la capacidad para responder a señales no verbales o modificar el plan de lecciones según las necesidades en tiempo real de los estudiantes.
  5. Mentoría y Modelado de Roles Los profesores sirven como mentores y modelos a seguir, guiando a los estudiantes no solo académicamente sino también en el desarrollo personal y ético. Inspiran la curiosidad, fomentan el pensamiento independiente e inculcan valores que ayudan a dar forma al carácter de los estudiantes. Los profesores a menudo comparten sus propias experiencias y proporcionan ejemplos de la vida real, lo que puede tener un impacto profundo en el crecimiento y las aspiraciones de los estudiantes. Mientras que ChatGPT puede proporcionar información, no puede emular la profundidad de la mentoría y el modelado de roles que los profesores humanos pueden proporcionar.

El papel invaluable de los profesores no puede ser replicado solo con tecnología. ¿Qué otras razones se te ocurren para explicar por qué programas de IA como ChatGPT nunca reemplazarán a los profesores? ¡Compártelas en los comentarios abajo!

ChatGPT cambiará la educación, no la destruirá

ChatGPT is going to change education, not destroy it (Will Douglas Heaven). Larry Cuban on School Reform and Classroom Practice, 2023

Ver original

Pocos días después de que OpenAI lanzara ChatGPT a finales de noviembre de 2022, el chatbot fue ampliamente condenado como una herramienta gratuita para escribir ensayos y hacer trampas en los exámenes. El Distrito Escolar Unificado de Los Ángeles, el segundo más grande de los EE. UU., bloqueó de inmediato el acceso al sitio web de OpenAI desde la red de sus escuelas. Otros siguieron pronto. Para enero, los distritos escolares en todo el mundo de habla inglesa comenzaron a prohibir el software, desde Washington, Nueva York, Alabama y Virginia en los Estados Unidos, hasta Queensland y Nueva Gales del Sur en Australia.

Este pánico inicial del sector educativo era comprensible. ChatGPT, disponible para el público a través de una aplicación web, puede responder preguntas y generar bloques de texto pulidos y bien estructurados de varios miles de palabras sobre casi cualquier tema, desde la teoría de cuerdas hasta Shakespeare. Cada ensayo que produce es único, incluso cuando se le da el mismo estímulo nuevamente, y su autoría es (prácticamente) imposible de identificar. Parecía que ChatGPT socavaría la forma en que evaluamos lo que los estudiantes han aprendido, una piedra angular de la educación.

Sin embargo, después de tres meses, la perspectiva ha cambiado. Maestros y educadores están reconsiderando cómo los chatbots, como ChatGPT, podrían mejorar la educación. Se sugiere que estos chatbots podrían utilizarse como herramientas poderosas en el aula, haciendo que las lecciones sean más interactivas, enseñando alfabetización mediática, generando planes de lecciones personalizados y ahorrando tiempo a los profesores en tareas administrativas.

Empresas de tecnología educativa como Duolingo y Quizlet ya han integrado el chatbot de OpenAI en sus aplicaciones. OpenAI también ha colaborado con educadores para proporcionar información sobre el impacto potencial de ChatGPT en las escuelas.

Aunque hay preocupaciones sobre el riesgo de trampas, se destaca que la tecnología podría ayudar a cambiar la forma en que se evalúa el aprendizaje, fomentando el pensamiento crítico y permitiendo a los estudiantes interactuar de manera más creativa con la información.

Se subraya que es demasiado pronto para determinar el impacto duradero de ChatGPT, pero se reconoce que los chatbots de redacción de ensayos son una realidad que está aquí para quedarse y evolucionar. La clave será cómo la educación puede adaptarse y aprovechar estas tecnologías de manera efectiva.

El algoritmo Q* y la destitución y readmisión de Sam Altman de Open AI

Melissa Heikkilä. «Unpacking the Hype around OpenAI’s Rumored New Q* Model». MIT Technology Review Accedido 28 de noviembre de 2023.

Ver original

Desde los dramáticos eventos de la semana pasada en OpenAI, el rumor se ha desatado sobre por qué el director científico de la compañía, Ilya Sutskever, y su junta decidieron destituir al CEO Sam Altman (solo para recontratarlo unos días después y reemplazar a las únicas dos mujeres en su junta con hombres blancos. ¡Con clase!).

Aunque aún no conocemos todos los detalles, ha habido informes de que los investigadores de OpenAI hicieron un «avance» en IA que alarmó a los miembros del personal. Reuters y The Information informaron que los investigadores habían ideado una nueva forma de crear sistemas de IA potentes y habían creado un nuevo modelo llamado Q* (pronunciado Q estrella) capaz de realizar operaciones matemáticas de nivel escolar.

Según personas que hablaron con Reuters, algunos en OpenAI creen que esto podría ser un hito en la búsqueda de la compañía para construir una inteligencia artificial general, un concepto muy promocionado de un sistema de IA más inteligente que los humanos. La compañía declinó hacer comentarios sobre Q*.

Las redes sociales están llenas de especulaciones y exageraciones, así que llamé a algunos expertos para saber qué importante sería realmente cualquier avance en matemáticas e IA.

Durante años, los investigadores han intentado que los modelos de IA resuelvan problemas matemáticos. Modelos de lenguaje como ChatGPT y GPT-4 pueden hacer algo de matemáticas, pero no muy bien ni de manera confiable. Actualmente, no tenemos los algoritmos ni las arquitecturas adecuadas para resolver problemas matemáticos de manera confiable con IA, según Wenda Li, profesora de IA en la Universidad de Edimburgo. El aprendizaje profundo y los transformers (un tipo de red neural), que es lo que usan los modelos de lenguaje, son excelentes para reconocer patrones, pero eso solo no es suficiente, agrega Li.

Las matemáticas son un referente para el razonamiento, dice Li. Una máquina que pueda razonar sobre matemáticas podría, en teoría, aprender a realizar otras tareas que se basen en información existente, como escribir código informático o sacar conclusiones de un artículo de noticias. Las matemáticas son un desafío particularmente difícil porque requieren que los modelos de IA tengan la capacidad de razonar y comprender realmente con qué están tratando.

Un sistema de IA generativo que pueda hacer matemáticas de manera confiable necesitaría tener un conocimiento sólido de definiciones concretas de conceptos particulares que pueden volverse muy abstractos. Muchos problemas matemáticos también requieren algún nivel de planificación a lo largo de múltiples pasos, dice Katie Collins, una investigadora de doctorado en la Universidad de Cambridge especializada en matemáticas e IA. De hecho, Yann LeCun, científico jefe de IA de Meta, publicó en X e LinkedIn el fin de semana que cree que Q* probablemente sea «un intento de OpenAI de planificación».

Las personas preocupadas por si la inteligencia artificial representa un riesgo existencial para los humanos, una de las preocupaciones fundacionales de OpenAI, temen que tales capacidades puedan llevar a la aparición de IA no controlada. Preocupaciones sobre la seguridad podrían surgir si se permite que dichos sistemas de IA establezcan sus propios objetivos y comiencen a interactuar con un mundo real, ya sea físico o digital, de alguna manera, dice Collins.

Pero aunque la capacidad matemática podría acercarnos un paso más a sistemas de IA más potentes, resolver este tipo de problemas matemáticos no señala el nacimiento de una superinteligencia.

«No creo que nos lleve de inmediato a la AGI o situaciones aterradoras», dice Collins. También es muy importante subrayar qué tipo de problemas matemáticos está resolviendo la IA, agrega.

«Resolver problemas de matemáticas de la escuela primaria es muy, muy diferente de empujar los límites de las matemáticas al nivel de algo que puede hacer un medallista Fields», dice Collins, refiriéndose a un prestigioso premio en matemáticas.

La investigación en aprendizaje automático se ha centrado en resolver problemas de la escuela primaria, pero los sistemas de IA de vanguardia aún no han superado completamente este desafío. Algunos modelos de IA fallan en problemas de matemáticas muy simples, pero luego pueden destacar en problemas realmente difíciles, dice Collins. OpenAI, por ejemplo, ha desarrollado herramientas dedicadas que pueden resolver problemas desafiantes planteados en competiciones para los mejores estudiantes de matemáticas en la escuela secundaria, pero estos sistemas superan a los humanos solo ocasionalmente.

Sin embargo, construir un sistema de IA que pueda resolver ecuaciones matemáticas es un desarrollo interesante, si eso es realmente lo que Q* puede hacer. Un entendimiento más profundo de las matemáticas podría abrir aplicaciones para ayudar a la investigación científica e ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudarnos a desarrollar una tutoría personalizada mejor, o ayudar a los matemáticos a hacer álgebra más rápido o resolver problemas más complicados.

Esto tampoco es la primera vez que un nuevo modelo ha generado hype sobre la AGI. Justo el año pasado, los expertos tecnológicos decían las mismas cosas sobre Gato de Google DeepMind, un modelo de IA «generalista» que puede jugar videojuegos de Atari, describir imágenes, chatear y apilar bloques con un brazo robot real. En ese momento, algunos investigadores de IA afirmaban que DeepMind estaba «a punto» de lograr la AGI debido a la capacidad de Gato para hacer tantas cosas diferentes bastante bien. La misma máquina de hype, diferente laboratorio de IA.

Y aunque puede ser una excelente estrategia de relaciones públicas, estos ciclos de hype hacen más daño que bien para todo el campo, distrayendo a las personas de los problemas reales y tangibles en torno a la IA. Los rumores sobre un nuevo y potente modelo de IA también podrían ser un gran autogol para el sector tecnológico que evita la regulación. La UE, por ejemplo, está a punto de finalizar su amplia Ley de IA. Una de las mayores disputas actualmente entre los legisladores es si dar a las empresas tecnológicas más poder para regular modelos de IA de vanguardia por sí mismas.

La junta de OpenAI fue diseñada como el interruptor de apagado interno y el mecanismo de gobierno de la compañía para evitar el lanzamiento de tecnologías dañinas. El drama de la junta de la semana pasada ha demostrado que la línea de fondo siempre prevalecerá en estas empresas. También dificultará argumentar por qué deberían confiarse a sí mismas la autorregulación. Legisladores, tomen nota.

Amazon se compromete a capacitar a 2 millones de personas en habilidades de inteligencia artificial para 2025

Swami Sivasubramanian, Amazon aims to provide free AI skills training to 2 million people by 2025 with its new ‘AI Ready’ commitment. Amazon November 20, 2023

Texto completo

La inteligencia artificial (IA) es la tecnología más transformadora de nuestra generación. Si queremos desbloquear todo el potencial de la IA para abordar los problemas más desafiantes del mundo, debemos hacer que la educación en IA sea accesible para cualquier persona que desee aprender.

En una nueva iniciativa llamada «AI Ready» (AI Listo), Amazon se compromete a proporcionar capacitación y educación gratuita en habilidades de inteligencia artificial a 2 millones de personas en todo el mundo para 2025. Este esfuerzo se suma a las inversiones existentes de la empresa en la capacitación en habilidades de computación en la nube, que ya han brindado capacitación gratuita a más de 21 millones de personas en habilidades tecnológicas demandadas.

La iniciativa AI Ready de Amazon surge cuando un nuevo estudio de AWS encuentra una fuerte demanda de talento en IA y el potencial de que los trabajadores con habilidades en IA ganen hasta un 47% más en salarios.

La necesidad de una fuerza laboral experta en IA nunca ha sido mayor. Un nuevo estudio realizado por AWS y la firma de investigación Access Partnership encontró lo siguiente:

  • Contratar talentos capacitados en IA es una prioridad para el 73 % de los empleadores, pero entre ellos, tres de cada cuatro dicen que no pueden satisfacer sus necesidades de talento en IA.
  • Los empleadores esperan que sus trabajadores ganen hasta un 47% más en salarios si mejoran sus habilidades en IA.
  • La IA será una parte más integral de la forma en que se hacen negocios: el 93% de las empresas espera utilizar soluciones de IA en sus organizaciones en los próximos cinco años.

Es por eso que Amazon anuncia «AI Ready», un nuevo compromiso diseñado para brindar capacitación gratuita en habilidades de IA a 2 millones de personas en todo el mundo para 2025. Para lograr este objetivo, se han lanzando nuevas iniciativas para adultos y jóvenes estudiantes, y ampliando las plataformas gratuitas existentes. Programas de capacitación en IA: eliminar los costos como barrera para acceder a estas habilidades críticas.

Las tres nuevas iniciativas son:

  • Ocho cursos nuevos y gratuitos de IA e IA generativa
  • Beca de IA generativa de Amazon Web Services (AWS), que proporciona a más de 50.000 estudiantes de secundaria y universidades de todo el mundo acceso a un nuevo curso de IA generativa en Udacity.
  • Nueva colaboración con Code.org diseñada para ayudar a los estudiantes a aprender sobre IA generativa

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.

Impacto de la inteligencia artificial, el aprendizaje automático, la automatización y la robótica en la profesión de la información

The impact of AI, machine learning, automation and robotics on the information professions: A report for CILIP. CILIP, 2021

Texto completo

El propósito de esta investigación independiente es ayudar a nuestra comunidad profesional a comprender cómo la inteligencia artificial, el aprendizaje automático, la automatización de procesos y la robótica están impactando o probablemente impactarán en el trabajo diario de los profesionales de la información en el ámbito de la salud.

En el informe, el autor, el Dr. Andrew Cox de la Universidad de Sheffield, hace un llamado a una respuesta unificada y coherente de los profesionales de la información, permitiéndonos maximizar los beneficios de la inteligencia artificial, el aprendizaje automático, la automatización y la robótica para los usuarios de información al tiempo que mitigamos los riesgos emergentes.

El informe completo de investigación, publicado por CILIP con el apoyo de Health Education England, presenta un análisis detallado y metódico de los desafíos y oportunidades presentados por esta nueva generación de tecnologías.

La investigación ha resaltado un conjunto de habilidades y competencias que los profesionales de la información deberán desarrollar para respaldar a sus usuarios y organizaciones en esta Cuarta Revolución Industrial. CILIP ya ha comenzado el proceso de integrar estos conocimientos en nuestro trabajo a través de la próxima revisión de la Base de Conocimientos y Habilidades Profesionales (PKSB) de CILIP, el estándar de habilidades del sector para personas que trabajan en conocimiento, información y bibliotecas.

Específicamente, busca responder a las siguientes preguntas:

  1. ¿Cómo aseguramos que la fuerza laboral actual tenga las habilidades y la comprensión necesarias para permitirles respaldar a sus usuarios en participar de manera segura y exitosa en un mundo moderno que está cada vez más impulsado por la inteligencia artificial (IA), el aprendizaje automático, la automatización de procesos y la robótica?
  2. ¿Cuáles son las implicaciones éticas de nuestro enfoque hacia estas tecnologías? ¿Cómo podemos implementar el marco ético existente para bibliotecarios y asegurarnos de que se alinee con el trabajo emergente sobre Ética de Datos y tecnología responsable?
  3. ¿Cómo debería ser el conjunto de habilidades de la futura fuerza laboral y cuál es el plan de estudios mediante el cual garantizaremos que la próxima generación de profesionales de la información tenga las habilidades para mantenerse al día con los futuros desarrollos tecnológicos?

Desarrollando una Respuesta Estratégica de la Biblioteca a la Inteligencia Artificial (IFLA)

Developing a library strategic response to Artificial Intelligence. The Hague: IFLA, 2023

Texto completo

El propósito de este documento de trabajo es presentar consideraciones relevantes para las bibliotecas que están desarrollando una respuesta estratégica a la Inteligencia Artificial.

Este documento de trabajo para la discusión fue preparado por Andrew Cox, como coordinador del Grupo de Interés en Inteligencia Artificial. Se invitan comentarios para futuras iteraciones del documento (enlace al formulario de comentarios; si tiene dificultades para acceder a este formulario, envíe comentarios a a.m.cox@sheffield.ac.uk).

El texto está organizado en torno al desarrollo de un conjunto de preguntas que estimulan la reflexión y la acción (sección 4). Se espera que el documento pueda respaldar la toma de decisiones locales sobre la Inteligencia Artificial.

Las ideas iniciales para el informe se derivaron de un evento llevado a cabo en la Universidad de Sheffield en abril de 2023. Una versión inicial de este documento como borrador para comentarios se publicó el 4 de junio de 2023. Queremos agradecer a todos los que añadieron pensamientos y comentarios a este borrador. También hemos incorporado datos de una encuesta (N=111) vinculada al evento de Sheffield y recirculada en julio; los encuestados eran una mezcla de bibliotecarios de educación superior y educación superior técnica, así como bibliotecarios de salud. Dado que la audiencia era principalmente del Reino Unido, estos datos deben entenderse simplemente como una instantánea de opiniones en un contexto específico.

El documento de trabajo está organizado en las siguientes secciones:

Sección 1: Definición de la Inteligencia Artificial Sección 2: Impacto de la Inteligencia Artificial en las bibliotecas Sección 3: Contexto estratégico y un análisis FODA de la biblioteca Sección 4: Respuestas estratégicas a la Inteligencia Artificial: Pros y contras Sección 5: Tres estrategias importantes

1: Definición de la Inteligencia Artificial

Se destacan diversas perspectivas, como la de la UNESCO, que enfatiza la imitación de la comprensión humana, la del UKRI, que ve la IA como un conjunto de tecnologías para reproducir habilidades inteligentes, y la de la Comisión Europea, que destaca la combinación de datos, algoritmos y potencia informática.

Se señala que la IA no es nueva y ya está presente en aplicaciones como la sugerencia automática, detección de plagio y traducción. En el contexto bibliotecario, la Minería de Texto y Datos y el aprendizaje automático se consideran formas de IA. A pesar de sus beneficios, la IA plantea desafíos éticos, como sesgo, privacidad y transparencia.

Se destaca la importancia de la «IA descriptiva» para las bibliotecas, que convierte diversos materiales en datos legibles mediante técnicas como la visión por computadora. Aunque la IA promete mejorar el acceso al conocimiento, existen preocupaciones éticas significativas, especialmente en aplicaciones desarrolladas por grandes empresas tecnológicas.

El documento menciona la relevancia de la IA generativa, como ChatGPT, que ha generado interés, pero también plantea preocupaciones éticas, como afirmaciones sesgadas, inexactitudes y amenazas a empleos humanos. Se concluye destacando la necesidad de aumentar la formación en alfabetización de IA en lugar de aplicar directamente la IA al trabajo bibliotecario.

2: Impacto de la Inteligencia Artificial en las bibliotecas

Se espera que las bibliotecas adopten la IA de maneras que se alineen con roles existentes, estén vinculadas a las necesidades de los usuarios o requieran menos recursos. Se destaca la relevancia de la IA descriptiva para hacer que las colecciones de bibliotecas sean más accesibles, proporcionando metadatos iniciales y apareciendo en servicios de búsqueda. A medida que más académicos utilizan técnicas de IA, crece la necesidad de apoyar a las comunidades de científicos de datos en temas como descubrimiento de datos, problemas de derechos de autor y gestión de datos.

Se anticipa que la IA cambiará el trabajo diario, incluyendo traducción, resumen y generación de texto. Las bibliotecas pueden utilizar herramientas de IA como ResearchRabbit y Scite para apoyar revisiones de literatura y aplicaciones generativas en marketing bibliotecario.

La capacidad de la IA para realizar tareas rutinarias precisas sugiere su implementación en sistemas bibliotecarios internos, como el uso de RPA (Automatización de Procesos Robóticos) para procesar datos bibliográficos. Se mencionan también chatbots, robots físicos para responder consultas y automatización de sistemas de almacenamiento y recuperación.

La IA contribuirá a crear espacios bibliotecarios más inteligentes, incluyendo el desarrollo de robots para consultas y funciones físicas como ordenar estanterías. Además, se señala la relevancia de la IA en la educación, como la creación de contenido de aprendizaje adaptativo y chatbots de apoyo a la experiencia estudiantil.

La IA generativa, con su uso extendido por parte de los usuarios, destaca la necesidad de alfabetización en IA para el personal y los estudiantes. La alfabetización en IA, que incluye alfabetización de datos y algorítmica, se presenta como una función natural para las bibliotecas que buscan ampliar su promoción de la alfabetización informacional y habilidades digitales.

El documento concluye con preguntas clave sobre cómo la IA puede mejorar los servicios de las bibliotecas, los desafíos y riesgos asociados, y cómo integrar efectivamente la alfabetización en IA en la formación existente.

  • ¿Cuáles aplicaciones demandan menos recursos y se alinean más fuertemente con las necesidades de los usuarios y los roles existentes de la biblioteca?
  • ¿Cuáles son los desarrollos más críticos en la reconfiguración del papel de la biblioteca?
  • ¿Cuáles son los más probables de suceder y en qué escala de tiempo?
  • ¿Cómo pueden las tecnologías de IA mejorar nuestros servicios bibliotecarios? ¿Qué desafíos puede ayudar a abordar la IA? ¿Cuáles son los riesgos potenciales y consideraciones éticas, y cómo podemos mitigarlos?
  • ¿Cómo podemos monitorear de manera continua y mantenernos actualizados con las tendencias y avances emergentes en IA?
  • ¿Cómo pueden las bibliotecas enseñar de manera efectiva la alfabetización en IA a los usuarios?
  • ¿Cuáles son los resultados de aprendizaje clave necesarios y cómo varían según la disciplina?
  • ¿Cómo se debe integrar la alfabetización en IA en la formación existente de alfabetización informacional, académica y digital?
  • ¿Cómo se puede actualizar el material para mantenerse al día con la naturaleza cambiante de la IA?

3: Contexto estratégico y un análisis FODA de la biblioteca

En un contexto de cambio e incertidumbre, se reconoce la creciente importancia de pensar y actuar estratégicamente. Muchas instituciones están dando mayor énfasis a la estrategia, visualizando un estado futuro deseado y planificando para realizar esta visión. Para las bibliotecas, una cuestión clave es posicionarse sólidamente en relación con las prioridades institucionales, sectoriales y nacionales más amplias. Esto puede manifestarse como una alineación pasiva, buscando demostrar la contribución de la biblioteca a la misión organizativa, o incluso de manera proactiva, buscando asumir un papel de liderazgo en ciertas áreas.

Las respuestas de las bibliotecas a la IA ocurren en el contexto de políticas gubernamentales y marcos legales existentes y emergentes. Desde alrededor de 2019, muchos estados han reconocido la IA como una prioridad estratégica, con temas comunes como el desarrollo de capital humano, la aplicación ética de la IA, el desarrollo de una base de investigación, la regulación y el desarrollo de infraestructura y políticas de datos.

Los profesionales de la información pueden desempeñar un papel clave en la consecución de estas prioridades, educando a ciudadanos para desarrollar habilidades en una fuerza laboral con alfabetización en IA, abogando por su perspectiva única sobre la ética de la IA, apoyando a los investigadores y contribuyendo al diseño y uso de la infraestructura de datos.

Las estrategias nacionales de IA se dividen en tres grupos: desarrollo, control y promoción, con énfasis variables en diferentes políticas nacionales. La categorización refleja patrones persistentes en la cultura política de estos países. La controversia en torno a ChatGPT ha llevado a un posible cambio hacia la regulación a nivel internacional, lo que podría tener implicaciones radicales para el desarrollo y uso de la IA en el sector bibliotecario.

Las bibliotecas también deben responder a estrategias sectoriales y marcos legales existentes, y la estrategia de las organizaciones dentro de las cuales están insertas es de vital importancia. Hasta la fecha, la IA rara vez se menciona específicamente en las estrategias universitarias y de bibliotecas académicas.

Preguntas clave:

  • ¿Cómo es probable que la postura del estado hacia la IA afecte el uso en bibliotecas?
  • ¿Cuál es la postura estratégica de su institución y sector hacia la IA?
  • ¿Existen aspectos en las estrategias existentes donde la IA podría ser relevante?

La sección destaca la importancia de encontrar temas en las estrategias institucionales y de bibliotecas que puedan ser aprovechados para alinear las actividades relacionadas con la IA. Se proporciona un ejemplo en las estrategias existentes, y se presentan preguntas sobre cómo las prioridades estratégicas actuales pueden aprovechar la IA y si esta última afecta las prioridades de transformación digital de la institución.

4: Respuestas estratégicas a la Inteligencia Artificial: Pros y contras

Las respuestas estratégicas a la IA podrían incluir una o una combinación de los siguientes enfoques generales:

  • Contratar nuevo personal con habilidades especializadas en IA.
  • Mejorar las habilidades del personal existente.
  • Interactuar con los usuarios para comprender cómo están utilizando la IA.
  • Estudiar las mejores prácticas en el sector.
  • Ejecutar proyectos de prueba de concepto.
  • Conversar con los proveedores de sistemas y adquirir sistemas.
  • Alinear las acciones con lo que está sucediendo en la institución.
  • Colaborar con otras unidades.
  • Alinear las acciones con lo que está sucediendo en el sector.
  • Colaborar con otras bibliotecas y organizaciones.
  • Adoptar una postura de esperar y ver.

Sección 5: Tres estrategias importantes

Dada la amplitud del impacto de la IA, podría haber muchas estrategias para las bibliotecas. Sin embargo, hemos seleccionado tres que parecen ser importantes hoy.

  • Estrategia 1: Utilizar las capacidades de IA de la biblioteca para modelar aplicaciones responsables y explicables de la IA descriptiva
  • Estrategia 2: Utilizar las competencias de datos de los bibliotecarios para mejorar la capacidad de IA organizacional
  • Estrategia 3: Promover la alfabetización en IA para mejorar las capacidades de IA organizacionales y sociales

Los LLMs de la Inteligencia Artificial pueden amenazar la integridad científica debido a su propensión a generar información errónea o fantasiosa

Mittelstadt, Brent, Sandra Wachter, y Chris Russell. «To Protect Science, We Must Use LLMs as Zero-Shot Translators». Nature Human Behaviour 7, n.o 11 (noviembre de 2023): 1830-32. https://doi.org/10.1038/s41562-023-01744-0.

Un artículo escrito por los profesores Brent Mittelstadt, Chris Russell y Sandra Wachter del Instituto de Internet de Oxford aborda preocupaciones sobre los Modelos de Lenguaje Grandes (LLMs) que representan una amenaza directa para la ciencia debido al fenómeno de ‘alucinaciones’, la generación de respuestas no verídicas. El artículo destaca la necesidad de restricciones en los LLMs para salvaguardar la verdad científica.

Un nuevo informe elaborado por destacados investigadores de Inteligencia Artificial en el Instituto de Internet de Oxford advierte que los Grandes Modelos de Lenguaje (LLMs) constituyen una amenaza directa para la ciencia debido a las denominadas ‘alucinaciones’ y deben ser restringidos para proteger la verdad científica. Publicado en Nature Human Behaviour, el documento, redactado por los Profesores Brent Mittelstadt, Chris Russell y Sandra Wachter, explica que los LLMs están diseñados para proporcionar respuestas útiles y convincentes sin garantías definitivas sobre su precisión o alineación con los hechos.

La razón detrás de esto es que los datos utilizados por la tecnología para responder preguntas no siempre provienen de fuentes factualmente correctas. Los LLMs se entrenan en grandes conjuntos de datos de texto, generalmente extraídos de fuentes en línea, que pueden contener declaraciones falsas, opiniones y escritura creativa, entre otros tipos de información no factual.

El Prof. Mittelstadt explica que las personas tienden a confiar en los LLMs como si fueran fuentes de información humanas, en parte debido a su diseño como agentes útiles y con sonido humano que conversan con los usuarios y responden a prácticamente cualquier pregunta con texto seguro y bien escrito. Esto conlleva al riesgo de que los usuarios se convenzan fácilmente de la precisión de las respuestas, incluso cuando carecen de base factual o presentan versiones sesgadas de la verdad.

Para proteger la ciencia y la educación contra la propagación de información incorrecta y sesgada, los autores argumentan que deben establecerse expectativas claras sobre lo que los LLMs pueden contribuir de manera responsable y útil. Según el informe, «para tareas en las que la verdad es crucial, alentamos a los usuarios a redactar indicadores de traducción que incluyan información verificada y factual».

La Prof. Wachter destaca la importancia de cómo se utilizan los LLMs, especialmente en la comunidad científica, enfatizando la necesidad de confianza en la información fáctica y la responsabilidad en el uso de esta tecnología. El Prof. Russell agrega que es crucial reflexionar sobre las oportunidades que ofrecen los LLMs y considerar si realmente queremos otorgar esas oportunidades a una tecnología solo porque podemos.

Actualmente, los LLMs se tratan como bases de conocimiento y se utilizan para generar información en respuesta a preguntas, lo que hace que el usuario sea vulnerable tanto a la regurgitación de información falsa presente en los datos de entrenamiento como a las ‘alucinaciones’, es decir, información falsa generada espontáneamente por el LLM que no estaba presente en los datos de entrenamiento.

Para superar esto, los autores argumentan que los LLMs deberían utilizarse de manera orientativa. En lugar de depender del LLM como fuente de información relevante, el usuario simplemente debe proporcionar al LLM información apropiada y pedirle que la transforme en una salida deseada, como reescribir puntos clave como conclusión o generar código para transformar datos científicos en un gráfico.

Utilizar los LLMs de esta manera facilita la verificación de la corrección factual y la consistencia con la entrada proporcionada. Los autores reconocen que la tecnología seguramente ayudará en los flujos de trabajo científicos, pero enfatizan que la escrutinio de sus resultados es fundamental para proteger una ciencia robusta.

Cosas que los investigadores no deben esperar del ChatGPT

Bhosale, Uttkarsha. «ChatGPT’s Limitations in Research». Enago Academy (blog), 5 de junio de 2023. https://www.enago.com/academy/chatgpt-cannot-do-for-researchers-2/.

¿Puede ChatGPT competir realmente con la brillantez de las mentes humanas? Sólo puede imitar aquello para lo que ha sido entrenado, dejando la verdadera innovación fuera de la ecuación. Ninguna inteligencia artificial podrá sustituir a la experiencia humana en la investigación y la escritura académica.

1- Aporte ideas de investigación originales

Las ideas originales de investigación son la savia del progreso científico. Impulsan la innovación, amplían el conocimiento y allanan el camino para descubrimientos revolucionarios. Sin embargo, generar estas ideas va más allá de las capacidades de ChatGPT.

2- Interpretar análisis de datos complejos

ChatGPT puede tener dificultades para comprender los matices y complejidades de estos enfoques analíticos. Los investigadores, por su parte, poseen los conocimientos y la experiencia necesarios para navegar a través del análisis de datos complejos, algo que ChatGPT no puede adquirir. Además, ChatGPT no puede identificar posibles sesgos, factores de confusión o valores atípicos que puedan afectar a la validez de los resultados.

3- Participar en la revisión académica por pares

ChatGPT carece de la capacidad de evaluar la calidad y validez de los trabajos de investigación, por lo que no es adecuado para la revisión académica por pares. Los modelos de IA como ChatGPT se entrenan con una gran cantidad de datos de texto y pueden generar respuestas basadas en patrones y conocimientos dentro de sus datos de entrenamiento. Sin embargo, no poseen la experiencia específica del dominio ni las habilidades de pensamiento crítico necesarias para una rigurosa revisión académica por pares.

4- Proporcionar información en tiempo real sobre el progreso de la investigación

Dada su falta de comprensión contextual, ChatGPT no puede proporcionar información en tiempo real sobre los proyectos de investigación en curso. ChatGPT puede no ser capaz de evaluar el progreso de la investigación, lo que requiere un profundo conocimiento del área de investigación específica, las metodologías empleadas y la literatura y marcos teóricos relevantes.

5- Generar revisiones bibliográficas exhaustivas

ChatGPT puede tener dificultades para evaluar la calidad y pertinencia de las fuentes, lo que limita su capacidad para generar reseñas bibliográficas exhaustivas. No puede examinar artículos de investigación, libros, ponencias y otras fuentes académicas por su metodología, análisis de datos, marcos teóricos y contribución al campo.

6- Redactar propuestas de investigación o solicitudes de subvención

Es posible que ChatGPT no comprenda del todo los matices de los requisitos de financiación, por lo que resulta inadecuado para redactar propuestas de investigación o solicitudes de subvención. No puede cumplir los requisitos de redacción de una subvención a medida e incluir detalles sobre los objetivos del proyecto de investigación, la metodología, los resultados esperados, el presupuesto, el calendario y la alineación con las prioridades del organismo de financiación.

7- Desarrollar nuevas metodologías experimentales

ChatGPT carece de la experiencia y los conocimientos específicos necesarios para desarrollar nuevas metodologías experimentales. Los investigadores poseen los conocimientos necesarios para identificar lagunas en la investigación, formular preguntas de investigación y diseñar experimentos a medida para abordar objetivos específicos. El desarrollo de nuevas metodologías experimentales suele requerir una combinación de creatividad, pensamiento crítico y capacidad para resolver problemas, algo que ChatGPT o cualquier otra herramienta de IA no pueden hacer en sus formas actuales.

8- Tomar decisiones éticas en la investigación

ChatGPT no está equipado para emitir juicios morales ni para navegar por los complejos dilemas éticos que pueden encontrar los investigadores. Los propios investigadores proporcionan el marco ético necesario para unas prácticas de investigación responsables y éticas. No está capacitado para comprender y aplicar los principios y directrices éticos específicos de su campo, como los que establecen los comités de revisión ética o los comités de revisión institucional (CEI).

9- Contribuir a los avances científicos

ChatGPT puede proporcionar apoyo y ofrecer ideas basadas en patrones en sus datos de entrenamiento; sin embargo, no puede conducir de forma independiente a avances científicos. Aunque ChatGPT puede ayudar a los investigadores ofreciéndoles información e ideas iniciales, carece de la intuición, la creatividad y el pensamiento innovador de los investigadores humanos.

DALL-E: la herramienta de Open AI para generar imágenes por IA

DALL-E

https://openai.com/dall-e-2

DALL-E es un modelo generativo desarrollado por OpenAI que se basa en la arquitectura GPT (Generative Pre-trained Transformer). La particularidad de DALL-E es su capacidad para generar imágenes a partir de descripciones textuales. Fue presentado por OpenAI en enero de 2021.

A diferencia de otros modelos generativos que trabajan con texto, como GPT-3, DALL-E está diseñado específicamente para generar imágenes realistas a partir de descripciones textuales. Puede crear imágenes completamente nuevas y originales que se ajustan a las descripciones dadas como entrada. Por ejemplo, si se le proporciona un texto que dice «un elefante rosa con alas», DALL-E intentará generar una imagen que coincida con esa descripción. La herramienta es de pago, y se necesitan comprar créditos

DALL-E se entrena en grandes conjuntos de datos que contienen imágenes y sus descripciones correspondientes. Luego, se puede utilizar para generar imágenes nuevas a partir de descripciones textuales que no formaron parte de los datos de entrenamiento.


La función de edición de DALL·E ya permite realizar cambios dentro de una imagen generada o cargada, una capacidad conocida como «Inpainting». Ahora, con «Outpainting», los usuarios pueden ampliar la imagen original, creando imágenes a gran escala en cualquier relación de aspecto. «Outpainting» tiene en cuenta los elementos visuales existentes en la imagen, incluyendo sombras, reflejos y texturas, para mantener el contexto de la imagen original.

Este enfoque tiene aplicaciones en la generación de contenido visual, diseño gráfico, y en general, en cualquier situación en la que se desee convertir descripciones textuales en imágenes de manera automatizada y creativa.