Archivo de la categoría: Tecnologías de la información

ChatGPT elabora la guía Enseñar con IA

Teaching with AI

https://openai.com/blog/teaching-with-ai

Open AI empresa creadora de ChatGPT ha publicado una guía para profesores que utilicen ChatGPT en sus clases, que incluye sugerencias, una explicación del funcionamiento de ChatGPT y sus limitaciones, la eficacia de los detectores de IA y los prejuicios.

La herramienta, proporciona recursos adicionales de las principales organizaciones educativas sobre cómo enseñar con y sobre IA, y respuestas a las preguntas más frecuentes de los educadores sobre temas como el funcionamiento de ChatGPT, sus limitaciones, la eficacia de los detectores de IA y los prejuicios.

Cómo utilizan los profesores ChatGPT

  1. Interpretación de conversaciones difíciles
    La Dra. Helen Crompton, catedrática de Tecnología Educativa en la Universidad Old Dominion, anima a sus estudiantes de postgrado en educación a utilizar ChatGPT como un sustituto de una persona concreta, como un compañero de debate que les señalará los puntos débiles de sus argumentos, un reclutador que les está entrevistando para un trabajo o un nuevo jefe que podría darles su opinión de una manera específica. Dice que explorar la información en un contexto de conversación ayuda a los estudiantes a comprender el material con más matices y desde una nueva perspectiva.

2. Crear cuestionarios, exámenes y planes de clase a partir de materiales curriculares
Fran Bellas, profesor de la Universidade da Coruña (España), recomienda a los profesores que utilicen ChatGPT como asistente para elaborar cuestionarios, exámenes y planes de clase. Bellas dice que primero hay que compartir el plan de estudios con ChatGPT y luego pedirle ideas nuevas para los cuestionarios y las lecciones que utilicen ejemplos modernos o culturalmente relevantes. Bellas también recurre a ChatGPT para ayudar a los profesores a asegurarse de que las preguntas que ellos mismos escriben son inclusivas y accesibles para el nivel de aprendizaje de los alumnos. «Si vas a ChatGPT y le pides que cree exámenes de 5 preguntas sobre circuitos eléctricos, los resultados son muy novedosos. Puedes coger esas ideas y hacerlas tuyas».

3. Reducir la dificultad para los no angloparlantes
El Dr. Anthony Kaziboni, Jefe de Investigación de la Universidad de Johannesburgo, da clase a estudiantes que en su mayoría no hablan inglés fuera del aula. Kaziboni cree que el dominio del inglés es una enorme ventaja en el mundo académico, y que los malentendidos, incluso de pequeños detalles de la gramática inglesa, pueden frenar el reconocimiento y las oportunidades de los estudiantes. Anima a sus alumnos a utilizar ChatGPT como ayuda para traducir, mejorar su redacción en inglés y practicar la conversación.

4. Enseñar a los alumnos el pensamiento crítico
Geetha Venugopal, profesora de informática de secundaria en la American International School de Chennai (India), compara la enseñanza de las herramientas de IA con el uso responsable de Internet. En su clase, aconseja a los alumnos que recuerden que las respuestas que da ChatGPT pueden no ser creíbles y exactas todo el tiempo, y que piensen críticamente si deben confiar en la respuesta, y luego confirmen la información a través de otros recursos primarios. El objetivo es ayudarles a «comprender la importancia de trabajar constantemente sus habilidades originales de pensamiento crítico, resolución de problemas y creatividad».

La (nueva) biblioteca de Babel

Valenzuela Navarrete, G. (2013). La (nueva) biblioteca de Babel. Entretextos5(15), 1–7. https://doi.org/10.59057/iberoleon.20075316.201315475

Ha llegado el momento en el que nos resulta difícil concebir la vida sin computadoras e Internet; sin embargo, a menudo se desconoce el origen de un invento que se ha hecho tan omnipresente en nuestros días. En este artículo, se hace primero un repaso de cómo surgieron los primeros intentos por compactar la información en microchips hasta llegar a los actuales lectores electrónicos, tipo Kindle o Papyre. En segundo lugar, se hace referencia breve a la manera en la que Internet y las tecnologías relacionadas están transformando la literatura. Además, se propone al final una nueva manera de considerar los elementos básicos del ejercicio literario, lector, autor y editor.

El Impacto de la Inteligencia Artificial Generativa en las Bibliotecas: salvaguardando la excelencia, abrazando la innovación

The Impact of Generative AI on Libraries. Clarivate, 2023

Texto completo

Existen preocupaciones y desafíos válidos en torno a la IA generativa, lo que ha llevado a un creciente debate sobre la regulación. Sin embargo, las bibliotecas académicas no pueden pasar por alto su potencial beneficio significativo. Con el objetivo de ofrecer un servicio óptimo a los usuarios, las bibliotecas están explorando cómo sus proveedores y suministradores de confianza pueden utilizar la IA generativa para ayudarles a lograr este objetivo.

Con avances en «descubrimiento conversacional», podemos permitir que las bibliotecas ofrezcan contenido y recomendaciones personalizados y autorizados a sus usuarios sin comprometer los valores fundamentales.

Descarga este informe técnico gratuito y aprenda:

  • Cómo mejorar el descubrimiento y los servicios de usuario enfatizando la transparencia, la acreditación adecuada y los derechos de propiedad intelectual.
  • Cómo mejorar los resultados de aprendizaje en un entorno de aprendizaje más inclusivo y holístico.
  • Cómo simplificar los flujos de trabajo de la biblioteca y potenciar las soluciones bibliotecarias.
  • Cómo mantenerse a la vanguardia de la transformación digital aprovechando los beneficios de la IA generativa en las bibliotecas académicas.

¿Podemos asegurarnos de que los sistemas de detección de la IA generativa sean precisos y justos?:

Statement on Principles for the Development and Use of Systems to Detect Generative AI Content. ACM, oct. 2023

Texto completo

Con el interés público centrado en tecnologías de IA generativa en constante aumento, algunos de los problemas más apremiantes giran en torno a preguntas como «¿Se está utilizando la IA generativa para crear imágenes y videos falsos?» y «¿Los estudiantes están utilizando la IA generativa para escribir trabajos y hacer trampa en los exámenes?» Por estas razones, hay una creciente demanda de sistemas que puedan detectar si una imagen, archivo de audio o trabajo escrito ha sido creado por un humano o un sistema de IA.

A pesar de que los sistemas de detección de IA están comenzando a proliferar, no existen estándares de la industria ni regulaciones gubernamentales que garanticen que estos sistemas sean precisos o justos. Debido a que el impacto de estos sistemas en las personas puede ser significativo, el Association for Computing Machinery’s US Technology Policy Committee (ACM USTPC) ha emitido una Declaración de Principios para el Desarrollo y Uso de Sistemas de Detección de Contenido de IA Generativa.

La introducción a la nueva Declaración de USTPC destaca diversos escenarios en los que sería deseable contar con sistemas para detectar contenido generado por IA. Por ejemplo, los empleadores que desean saber si se utilizó IA generativa para completar una solicitud de trabajo o las empresas de medios que intentan determinar si los comentarios publicados en plataformas fueron dejados por humanos o chatbots.

Al mismo tiempo, la Declaración señala que «la demanda de tales sistemas no es un indicador de su equidad o precisión». El comité continúa explicando que «ninguna tecnología de detección actualmente disponible es lo suficientemente confiable como para basar exclusivamente decisiones críticas, potencialmente alteradoras de la vida y la carrera…»

La declaración proporciona un contexto técnico sobre por qué no se puede garantizar la equidad y precisión de los sistemas de detección de IA generativa existentes y establece seis principios y recomendaciones específicos:

  1. Bajo riesgo de rechazos incorrectos y proceso de apelación impulsado por humanos: El uso de sistemas para detectar imágenes generadas por IA y otros medios que automáticamente marcan las presentaciones para su rechazo solo debe ser aceptable si estos sistemas de detección tienen un riesgo extremadamente bajo de rechazos incorrectos y si se proporciona un proceso de apelación impulsado por humanos.
  2. Presentaciones de alto riesgo: Generalmente no es apropiado rechazar automáticamente presentaciones de texto en circunstancias de alto riesgo que se clasifican como producidas por un sistema de IA generativa, incluso si se proporciona un proceso para apelar dichos rechazos. Ejemplos de presentaciones de alto riesgo incluyen (pero no se limitan a) tareas en el aula y solicitudes de admisión a una institución educativa, crédito o empleo.
  3. Códigos de conducta: Las entidades que utilizan sistemas de detección de IA generativa deben adoptar directrices, como códigos de conducta, manuales del empleado y códigos de honor ejecutables, que requieran que aquellos afiliados a la entidad cumplan con las políticas de IA de la organización.
  4. Impugnación de resultados: De acuerdo con declaraciones anteriores de USTPC, las personas deben tener la oportunidad de impugnar resultados siempre que se tome una decisión adversa sobre ellas, en su totalidad o en parte, basada en la salida de un sistema de IA.
  5. Formación adecuada: Los evaluadores de contenido humano deben recibir una formación adecuada de manera continua sobre los métodos y herramientas adecuados para validar el contenido presentado.
  6. Aumento de la financiación: Sería prudente y beneficioso aumentar la financiación del sector público y privado para la investigación sobre cómo desarrollar mecanismos de detección mejores, realizar análisis de impacto, realizar investigaciones de usuario y otros asuntos relacionados.

En palabras de Simson Garfinkel, autor principal de la declaración y presidente del Subcomité de Gobierno Digital de USTPC: «En principio, detectar texto e imágenes generados por la IA es un problema abierto. Aunque podría ser posible construir un sistema que pueda detectar el contenido generado por la IA de hoy, tal detector podría utilizarse para construir el sistema de generación de IA del mañana que evite dicha detección. Esta declaración se emite para agregar una voz de experiencia técnica al pánico moral sobre el uso de la IA generativa. Estamos diciendo que el texto e imágenes producidos por sistemas de IA generativa no pueden detectarse de manera confiable hoy. También alentamos a todas las instituciones a abstenerse de desplegar sistemas que pretendan detectar y descartar automáticamente materiales porque supuestamente fueron creados por un sistema de IA generativa».

Larry Medsker, presidente del Comité de Política Tecnológica de ACM de los Estados Unidos, agregó: «Esta nueva Declaración es parte de una serie continua que el Comité de Tecnología de ACM de los Estados Unidos publica para informar al público sobre las nuevas tecnologías y sus impactos en la sociedad. Recientemente, hemos estado especialmente activos en brindar aportes oportunos para abordar los nuevos desarrollos en IA». En esta línea, los miembros de USTPC han publicado “Principles for the Development, Deployment and Use of Generative AI” y “Statement on Principles for Responsible Algorithmic Systems.”

Además del autor principal Simson Garfinkel, los principales contribuyentes a la “Statement on Principles for the Development and Use of Systems to Detect Generative AI Content” incluyen a los miembros del comité Houssam Abbas, Andrew Appel, Harish Arunachalam, Ricardo Baeza-Yates, David Bauman, Ravi Jain, Carl Landwehr, Larry Medsker, Neeti Pokhriyal, Arnon Rosenthal y Marc Rotenberg.

Investigadores de la Universidad de Stanford diseñan un modelo de revisión por pares utilizando ChatGPT-4 con resultados sorprendentes

Stanford HAI. «Researchers Use GPT-4 To Generate Feedback on Scientific Manuscripts». Accedido 31 de octubre de 2023. https://hai.stanford.edu/news/researchers-use-gpt-4-generate-feedback-scientific-manuscripts.

Combinando un amplio modelo lingüístico (LLM) y artículos científicos revisados por pares de código abierto, investigadores de Stanford han creado una herramienta basada en inteligencia Artificial que esperan pueda ayudar a otros investigadores a pulir y mejorar sus borradores.

La investigación científica tiene un problema con poder disponer de pares que analicen la validez de los artículos. No hay suficientes revisores cualificados para evaluar todos los estudios. Este problema afecta sobre todo a los investigadores jóvenes y a los de instituciones menos conocidas, que a menudo no tienen acceso a mentores experimentados que puedan dar su opinión a tiempo. Además, muchos estudios científicos son rechazados sumariamente sin revisión por pares.

Intuyendo una crisis creciente en una época de aumento de los estudios científicos, investigadores de IA de la Universidad de Stanford han utilizado el gran modelo lingüístico GPT-4 y un conjunto de datos de miles de artículos publicados anteriormente -repletos de los comentarios de sus revisores- para crear una herramienta que pueda «revisar previamente» los borradores de manuscritos.

«Esperamos que los investigadores puedan utilizar esta herramienta para mejorar sus borradores antes de presentarlos oficialmente a congresos y revistas», afirma James Zou, profesor adjunto de Ciencia de Datos Biomédicos en Stanford y miembro del Instituto de IA Centrada en el Ser Humano (HAI) de Stanford. Zou es el autor principal del estudio, publicado recientemente en arXiv.

Los investigadores empezaron comparando los comentarios realizados por un gran modelo lingüístico con los de revisores humanos. Afortunadamente, una de las revistas científicas más importantes, Nature, y sus quince subrevistas (Nature Medicine, etc.), no sólo publica cientos de estudios al año, sino que incluye los comentarios de los revisores de algunos de esos trabajos. Y Nature no es la única. La International Conference on Learning Representations (ICLR) hace lo mismo con todos los trabajos -tanto los aceptados como los rechazados- de su conferencia anual sobre aprendizaje automático.

«Entre los dos, curamos casi 5.000 estudios y comentarios revisados por pares para compararlos con los comentarios generados por GPT-4», dice Zou. «El modelo lo hizo sorprendentemente bien».

Las cifras se asemejan a un diagrama de Venn de comentarios superpuestos. Entre los cerca de 3.000 artículos de la familia Nature incluidos en el estudio, había una intersección entre GPT-4 y los comentarios humanos de casi el 31 por ciento. En el caso de ICLR, las cifras eran aún mayores: casi el 40% de los comentarios de GPT-4 y humanos coincidían. Es más, si se consideran únicamente los artículos rechazados del ICLR (es decir, los artículos menos maduros), el solapamiento de comentarios entre GPT-4 y humanos aumentó hasta casi el 44%: casi la mitad de todos los comentarios de GPT-4 y humanos coincidían.

La importancia de estas cifras se hace más patente si se tiene en cuenta que, incluso entre los humanos, existe una variación considerable entre los comentarios de los distintos revisores de un mismo artículo. El solapamiento entre humanos fue del 28% en las revistas Nature y del 35% en ICLR. Según estos parámetros, el rendimiento de GPT-4 es comparable al de los humanos.

Pero aunque las comparaciones entre ordenadores y humanos son instructivas, la verdadera prueba es si los autores de los artículos revisados valoran los comentarios aportados por uno u otro método de revisión. El equipo de Zou llevó a cabo un estudio de usuarios en el que investigadores de más de 100 instituciones enviaron sus artículos, incluidos muchos preprints, y recibieron los comentarios de GPT-4. La mitad de los investigadores participantes consideraron que GPT-4 era el método más eficaz. Más de la mitad de los investigadores participantes consideraron que los comentarios de GPT-4 eran «útiles/muy útiles» y el 82 por ciento los consideraron «más beneficiosos» que ciertos comentarios de algunos revisores humanos.

En el artículo, Zou se apresura a señalar que el método tiene sus limitaciones. En particular, los comentarios de GPT-4 pueden ser a veces más «genéricos» y no detectar los problemas técnicos más profundos del artículo. El GPT-4 también tiende a centrarse sólo en aspectos limitados de los comentarios científicos (por ejemplo, «añadir experimentos con más conjuntos de datos») y se queda corto a la hora de profundizar en los métodos de los autores.

Zou insistió en que el equipo no está sugiriendo que la GPT-4 elimine al «experto humano (par)» de la revisión por pares y sustituya a la revisión humana. La revisión por expertos humanos «es y debe seguir siendo» la base de la ciencia rigurosa, afirma.

«Pero creemos que la retroalimentación de la IA puede beneficiar a los investigadores en las primeras etapas de la redacción de sus artículos, sobre todo si se tienen en cuenta las crecientes dificultades para obtener a tiempo la opinión de los expertos sobre los borradores», concluye Zou. «Desde ese punto de vista, creemos que GPT-4 y la retroalimentación humana se complementan bastante bien».

Perspectivas de las Humanidades sobre la Inteligencia Artificial

Humanities Perspectives on Artificial Intelligence (AI), National Endowment For the Humanities (NEH), 2023

Acceder a la noticia

National Endowment For the Humanities (NEH) anuncia hoy una nueva e importante iniciativa de investigación, Humanities Perspectives on Artificial Intelligence (Perspectivas de las Humanidades sobre la Inteligencia Artificial). En el marco de esta iniciativa, la NEH apoyará proyectos de investigación que traten de comprender y abordar las implicaciones éticas, jurídicas y sociales de la inteligencia artificial (IA). El NEH está especialmente interesado en proyectos que exploren el impacto de las tecnologías relacionadas con la IA en la verdad, la confianza y la democracia; la seguridad y la protección; y la privacidad, los derechos civiles y las libertades civiles.

La IA es una de las tecnologías más potentes de nuestro tiempo. Las cuestiones sobre las implicaciones éticas, jurídicas y sociales de la IA están fundamentalmente enraizadas en las humanidades, que incluyen la ética, el derecho, la historia, la filosofía, la antropología, la sociología, el estudio de los medios de comunicación y los estudios culturales. De hecho, la legislación fundacional del NEH encomienda a la agencia hacer que el pueblo estadounidense sea «dueño de su tecnología y no su sirviente irreflexivo».

La iniciativa Perspectivas Humanas de la Inteligencia Artificial del NEH responde a la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence del Presidente Biden, que establece nuevas normas para la seguridad de la IA, protege la privacidad de los estadounidenses y fomenta la equidad y los derechos civiles. La inversión del NEH en la investigación de la IA también está en consonancia con las prioridades de la Administración Biden-Harris en materia de investigación y desarrollo (I+D) sobre IA, tal y como se recoge en el National AI R&D Strategic Plan de la Casa Blanca publicado a principios de este año.

«El rápido desarrollo de la inteligencia artificial tiene consecuencias de gran alcance para la sociedad, la cultura y la democracia estadounidenses», declaró la Presidenta del NEH, Shelly C. Lowe (Navajo). «Las humanidades proporcionan la brújula ética y el contexto histórico para ayudarnos a comprender todas las implicaciones de las tecnologías de IA, dando tanto a los creadores como a los usuarios de la IA las herramientas necesarias para navegar por sus riesgos y recompensas de manera responsable, crítica y deliberada.»

La iniciativa Humanities Perspectives on Artificial Intelligence del NEH apoyará numerosos proyectos de humanidades relacionados con la IA a través de las siguientes oportunidades de financiación:

  • Las universidades u organizaciones de investigación independientes que estén considerando establecer un centro de investigación centrado en la investigación humanística de la IA deberían considerar el programa de subvenciones más reciente del NEH,  Humanities Research Centers on Artificial Intelligence. Esta oportunidad de financiación ofrece hasta 750.000 dólares para apoyar la creación de centros de investigación en humanidades centrados en las implicaciones éticas, jurídicas o sociales de la inteligencia artificial.
  • Los académicos individuales o los equipos académicos con sede en una institución (por ejemplo, colegios y universidades) pueden considerar Peligros y oportunidades de la tecnología: Perspectivas desde las Humanidades. Los investigadores independientes o afiliados a una institución pueden solicitar becas, premios para profesores de HBCU, HSI y TCU, estipendios de verano o becas públicas.
  • Los equipos de colaboración interesados en planificar un proyecto internacional de investigación sobre IA o en organizar una reunión académica sobre IA deben considerar la investigación en colaboración.
  • Las instituciones interesadas en acoger programas de desarrollo profesional sobre las últimas investigaciones relacionadas con la IA humanística deben considerar los Institutos de Temas Avanzados en Humanidades Digitales.

Investigadores utilizan la inteligencia artificial para develar el contenidos de un antiguo pergamino quemado por el Vesubio


Sample, Ian, y Ian Sample Science editor. «Researchers Use AI to Read Word on Ancient Scroll Burned by Vesuvius». The Guardian, 12 de octubre de 2023, sec. Science. https://www.theguardian.com/science/2023/oct/12/researchers-use-ai-to-read-word-on-ancient-scroll-burned-by-vesuvius.

Cuando la erupción del Monte Vesubio alcanzó Herculano en el año 79 d.C., quemó cientos de antiguos rollos hasta dejarlos carbonizados en la biblioteca de una lujosa villa y sepultó la ciudad romana bajo ceniza y pómez. El desastre parecía haber destruido irreparablemente los rollos, pero casi 2.000 años después, los investigadores han extraído la primera palabra de uno de los textos, utilizando la inteligencia artificial para examinar en profundidad los delicados restos carbonizados.

El descubrimiento fue anunciado el jueves por el profesor Brent Seales, un científico de la computación de la Universidad de Kentucky, y otros que lanzaron el desafío Vesubio en marzo para acelerar la lectura de los textos. Respaldado por inversores del Silicon Valley, el desafío ofrece premios en efectivo a los investigadores que extraen palabras legibles de los rollos carbonizados.

«Esta es la primera vez que se recupera un texto de uno de estos rollos enrollados e intactos», dijo Stephen Parsons, un investigador del proyecto de restauración digital de la universidad. Desde entonces, los investigadores han descubierto más letras en el antiguo pergamino.

Para lanzar el desafío Vesubio, Seales y su equipo publicaron miles de imágenes de rayos X en 3D de dos rollos enrollados y tres fragmentos de papiro. También lanzaron un programa de inteligencia artificial que habían entrenado para leer letras en los rollos basándose en los sutiles cambios que la tinta antigua había provocado en la estructura del papiro.

Los rollos sin abrir forman parte de una colección que se encuentra en el Institut de France en París y pertenecen a los cientos recuperados de la biblioteca de la villa que se cree que pertenecía a un alto funcionario romano, posiblemente Lucius Calpurnius Piso Caesoninus, suegro de Julio César.

Dos estudiantes de informática, Luke Farritor en Nebraska y Youssef Nader en Berlín, que aceptaron el desafío Vesubio, mejoraron el proceso de búsqueda y encontraron independientemente la misma palabra griega antigua en uno de los rollos: «πορφύραc», que significa «púrpura». Farritor, quien fue el primero en encontrar la palabra, ganó 40,000$ y Nader ganó 10,000$.

Ahora la carrera está en marcha para leer el texto circundante. La Dra. Federica Nicolardi, una papiróloga de la Universidad de Nápoles Federico II, dijo que tres líneas del rollo, que contienen hasta 10 letras, son ahora legibles y se espera que haya más por venir. Una sección reciente muestra al menos cuatro columnas de texto.

«Esta palabra es nuestra primera inmersión en un antiguo libro sin abrir, evocando realeza, riqueza e incluso burla», dijo Seales. «¿Qué mostrará el contexto? Plinio el Viejo explora el ‘púrpura’ en su ‘Historia Natural’ como un proceso de producción para el púrpura de Tiro a partir de moluscos. El Evangelio de Marcos describe cómo Jesús fue objeto de burlas mientras vestía túnicas púrpuras antes de la crucifixión. Aún se desconoce de qué trata este rollo en particular, pero creo que pronto se revelará. Una vieja, nueva historia que comienza para nosotros con ‘púrpura’ es un lugar increíble para estar».

Dado que es la única biblioteca intacta que ha sobrevivido desde la antigüedad, existe un inmenso interés en los rollos de Herculano. La mayoría de los textos analizados hasta ahora están escritos en griego antiguo, pero algunos podrían ser textos en latín. Fragmentos han revelado letras del trabajo de Filodemo «Sobre Vicios y Virtudes Contrarias» y detalles de la historia dinástica helenística.

«La fuerte sospecha es que la parte no filosófica de la biblioteca aún está por descubrirse, y aquí la fantasía se desata: nuevas obras de Sófocles, poemas de Safo, los Anales de Ennio, libros perdidos de Livio y así sucesivamente», dijo Robert Fowler, profesor emérito de griego en la Universidad de Bristol. «También sería genial encontrar los llamados papiros documentales: cartas, documentos comerciales, y demás; serían un tesoro para los historiadores».

«Para mí, leer palabras de los rollos de Herculano es como dar un paso en la luna», agregó Seales. «Sinceramente, sabía que el texto estaba allí, esperando que llegáramos, pero la llegada solo ocurre en el último paso. Y con un equipo tan talentoso trabajando juntos, leer las palabras es ese paso hacia un nuevo territorio, y lo hemos dado. Ahora es hora de explorar».

Mejores Tecnologías para Bibliotecas Públicas: una exploración

29 August 2023 – Best Technologies for Public Libraries Embracing Innovation in Library Services

En el video «Mejores Tecnologías para Bibliotecas Públicas: una exploración» fue escrito por Nick Tanzi y publicado el 27 de septiembre de 2023. En este artículo, el autor presenta una ponencia sobre la adopción de tecnologías en bibliotecas públicas y cómo estas tecnologías pueden contribuir a la innovación en los servicios bibliotecarios. La ponencia se basa en un libro coescrito por el autor y explora el uso innovador de tecnologías actuales y emergentes en bibliotecas.

El autor destaca que la elección de las «mejores» tecnologías debe basarse en ciertos criterios. Estos criterios incluyen:

  1. Alineación con la Misión de la Biblioteca: La adopción de tecnología debe estar en línea con la misión de la biblioteca, que generalmente implica satisfacer las necesidades informativas y recreativas de la comunidad. Si una tecnología no se alinea con esta misión, no debería ser considerada.
  2. Proporcionar Acceso Comunitario Crítico: Las tecnologías costosas pueden ser inaccesibles para los individuos, pero asequibles para las organizaciones, como las bibliotecas. La adopción de tecnología en la biblioteca debe permitir a los usuarios acceder y aprender de manera práctica, lo que puede generar un alto retorno de inversión.
  3. Ayudar a Navegar la Disrupción: La adopción de tecnología puede ayudar a los usuarios a comprender y utilizar nuevas tecnologías que pueden estar causando disrupción en la sociedad. Esto es especialmente relevante en casos de avances tecnológicos que puedan impactar en los medios de vida de los usuarios.
  4. Basarse en las Necesidades de los Usuarios: La adopción de tecnología debe centrarse en las necesidades de los usuarios. No debe ser una búsqueda de tecnologías llamativas, sino una respuesta a las demandas reales de los usuarios.

En resumen, el artículo resalta la importancia de seleccionar tecnologías en bibliotecas públicas que estén alineadas con la misión de la biblioteca, proporcionen acceso a la comunidad, ayuden a los usuarios a comprender tecnologías disruptivas y estén basadas en las necesidades de los usuarios. Estos criterios ayudan a garantizar que la adopción de tecnología en bibliotecas sea efectiva y beneficiosa.

El impacto de la Inteligencia Artificial en el aprendizaje, la enseñanza y la educación

Tuomi, I. The Impact of Artificial Intelligence on Learning, Teaching, and Education. Policies for the future, Eds. Cabrera, M., Vuorikari, R & Punie, Y., EUR 29442 EN, Publications Office of the European Union, Luxembourg,
2018, ISBN 978-92-79-97257-7, doi:10.2760/12297, JRC113226.

Texto completo

Resumen en español

En el informe original -y en este documento queda patente- se plantean cuestiones sencillas que muestran la relevancia de la Inteligencia Artificial para las políticas y prácticas educativas, y para la comprensión del futuro del aprendizaje, la enseñanza y la educación: las profesiones que se volverán obsoletas a corto plazo, las competencias del siglo XXI que serán necesarias en un mundo donde la Inteligencia Artificial sea generalmente usada, la manera en que debe incorporarse la Inteligencia Artificial en el currículo de primaria y secundaria y, en general, en que cambiará la Inteligencia Artificial la enseñanza, si debería permitirse o no el seguimiento en tiempo real de las emociones de los estudiantes en las aulas, la capacidad de Inteligencia Artificial para evaluar de manera justa a los estudiantes, si necesitamos menos aulas debido a la Inteligencia Artificial, o si esta reduce el impacto de la dislexia, discalculia u otras dificultades de aprendizaje. Unas cuestiones sencillas cuyas respuestas, algo más complejas, no pretender ser proporcionadas por el informe que en estas páginas se sintetiza. Más bien pretende proporcionar un contexto que facilite el debate sobre esas y otras cuestiones importantes que deben plantearse a medida que la Inteligencia Artificial se hace cada vez más visible en la sociedad y la economía que nos rodea

Manual de ChatGPT: aplicaciones en investigación y educación universitaria

Torres-Salinas, Daniel Arroyo-Machado, Wenceslao «Manual de ChatGPT: Aplicaciones En Investigación y Educación Universitaria (v1.1.)». Accedido 21 de octubre de 2023.

Texto completo

Este manual se emplea como material didáctico en los cursos de Chat GPT de los autores. Por tanto, tiene dos características esenciales. Por un lado, nos sirve para anotar de manera básica las diferentes aplicaciones que se nos ocurren o que vamos descubriendo de Chat GPT. Por otro lado, está en permanente actualización, en función de las charlas y cursos que llevamos a cabo. Por tanto, es un texto, casi informal, incompleto y esquemático. Por ello, es importante verifica si la versión que estás utilizando es la más reciente; encontrarás esta información en el siguiente epígrafe. El objetivo final del libro, además de ser un recurso docente, es ofrecer al profesorado una visión positiva y empoderada de ChatGPT, sin miedos, y explorando todas sus posibilidades para ahorrar tiempo y mejorar nuestras tareas docentes e investigadoras. Todo ello bajo un prisma ético y responsable en el uso de estas herramientas de IA. La mayor parte de los contenidos son simplemente una colección de ‘prompts’ o instrucciones que ilustran lo que se puede hacer, con ejemplos. El lector puede acceder a estos, que son ilustrativos y no globales, a través de un enlace a un PDF o bien al propio chat. Los autores del libro entendemos que, como profesores e investigadores, somos los primeros que debemos comprender el alcance de este tipo de herramientas si queremos que nuestros alumnos hagan un buen uso de las mismas