Archivo de la categoría: Tecnologías de la información

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses: la encuesta de Reuters/Ipsos revela divisiones religiosas y políticas sobre la IA.

Tong, Anna, y Anna Tong. «AI Threatens Humanity’s Future, 61% of Americans Say: Reuters/Ipsos Poll». Reuters, 17 de mayo de 2023, sec. Technology. https://www.reuters.com/technology/ai-threatens-humanitys-future-61-americans-say-reutersipsos-2023-05-17/.

La mayoría de los estadounidenses cree que el auge de la tecnología de inteligencia artificial podría poner en peligro el futuro de la humanidad, según una encuesta de Reuters/Ipsos publicada el miércoles. La encuesta reveló que más de dos tercios de los encuestados están preocupados por los efectos adversos de la IA, mientras que el 61% la considera una amenaza potencial para la civilización.

La encuesta en línea, realizada del 9 al 15 de mayo, recogió las opiniones de 4.415 adultos estadounidenses. Tiene un intervalo de credibilidad (medida de la precisión) de más o menos dos puntos porcentuales.

Los resultados de la encuesta se producen en medio de la expansión del uso de la IA generativa en la educación, la administración pública, la medicina y la empresa, provocada en parte por el crecimiento explosivo de ChatGPT de OpenAI, que, según se informa, es la aplicación de software de más rápido crecimiento de todos los tiempos. El éxito de la aplicación ha desencadenado una carrera de rumores tecnológicos entre gigantes de la tecnología como Microsoft y Google, que se benefician de tener algo nuevo y de moda para aumentar potencialmente el precio de sus acciones.

Los temores sobre la IA, justificados o no, han retumbado últimamente en el discurso público debido a sucesos de gran repercusión como la carta de la «pausa de la IA» y la dimisión de Geoffery Hinton de Google. (Por temor a la «pérdida de control», los críticos de la IA piden una pausa de 6 meses en su desarrollo*) En un caso reciente de alto perfil de aprensión a la IA, el consejero delegado de OpenAI, Sam Altman, testificó el martes ante el Congreso de EE.UU., expresando su preocupación por el posible mal uso de la tecnología de IA y pidiendo una regulación que, según los críticos, podría ayudar a su empresa a mantener su liderazgo tecnológico y suprimir la competencia.

Los legisladores parecen compartir algunas de estas preocupaciones, como el senador demócrata Cory Booker: «No hay forma de meter a este genio en la botella. A nivel mundial, esto está explotando», informó Reuters.

Este mensaje negativo parece estar surtiendo efecto. Los temores de los estadounidenses sobre el potencial dañino de la IA superan con creces el optimismo sobre sus beneficios, y los que predicen resultados adversos superan a los que no lo hacen en una proporción de tres a uno. «Según los datos, el 61% de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que sólo el 22% está en desacuerdo y el 17% no está seguro», escribió Reuters.

La encuesta también reveló una división política en la percepción de la IA: el 70% de los votantes de Donald Trump expresaron mayor preocupación por la IA, frente al 60% de los votantes de Joe Biden. En cuanto a las creencias religiosas, los cristianos evangélicos estaban más «totalmente de acuerdo» en que la IA plantea riesgos para la civilización humana, con un 32%, frente al 24% de los cristianos no evangélicos.

* Landon Klein, director de política estadounidense del Future of Life Institute, la organización que está detrás de una carta abierta, firmada conjuntamente por Elon Musk, consejero delegado de Tesla (TSLA.O), en la que se exige una pausa de seis meses en la investigación de la IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

La inteligencia artificial y el futuro de la enseñanza y el aprendizaje

Artificial Intelligence and the Future of Teaching and Learning. The U.S. Department of Education Office of Educational Technology, 2023

Texto completo

El nuevo informe político de la Oficina de Tecnología Educativa del Departamento de Educación de los Estados Unidos, Artificial Intelligence and the Future of Teaching and Learning: Perspectivas y recomendaciones, aborda la clara necesidad de compartir conocimientos, implicar a los educadores y perfeccionar los planes y las políticas tecnológicas para el uso de la inteligencia artificial (IA) en la educación. El informe describe la IA como un conjunto de tecnologías en rápido avance para reconocer patrones en los datos y automatizar acciones, y orienta a los educadores para que comprendan lo que estas tecnologías emergentes pueden hacer para avanzar en los objetivos educativos, al tiempo que evalúan y limitan los riesgos clave.

A medida que la inteligencia artificial se extiende, los expertos predicen los mejores y peores cambios en la vida digital para 2035

Atske, Sara. «As AI Spreads, Experts Predict the Best and Worst Changes in Digital Life by 2035». Pew Research Center: Internet, Science & Tech (blog), 21 de junio de 2023.

Texto completo

Los expertos dicen estar muy preocupados por el bienestar general de las personas y de la sociedad. Pero también esperan grandes beneficios en atención sanitaria, avances científicos y educación.

Impulsados por la fulgurante aparición de la inteligencia artificial generativa y otras aplicaciones de la IA, los expertos participantes en un nuevo sondeo del Pew Research Center tienen grandes expectativas de avances digitales en muchos aspectos de la vida para 2035. Prevén mejoras sorprendentes en la atención sanitaria y la educación. Prevén un mundo en el que los medicamentos milagrosos se conciban y activen en espacios digitales; en el que la atención médica personalizada proporcione a los pacientes exactamente lo que necesitan cuando lo necesitan; en el que las personas lleven gafas y auriculares inteligentes que les mantengan conectados con las personas, las cosas y la información que les rodea; en el que los sistemas de IA puedan empujar el discurso hacia conversaciones productivas y basadas en hechos; y en el que se avance en la sostenibilidad medioambiental, la acción por el clima y la prevención de la contaminación.

Al mismo tiempo, los expertos en el nuevo sondeo se preocupan por los lados más oscuros de muchos de los avances que celebran. Ejemplos clave:

  • Algunos expresan temores que se alinean con la declaración publicada recientemente por líderes tecnológicos y especialistas en IA en la que se argumenta que la IA supone un «riesgo de extinción» para los humanos que debería tratarse con la misma urgencia que las pandemias y la guerra nuclear.
  • Algunos señalan los claros problemas que se han detectado con los sistemas generativos de IA, que producen cosas erróneas e inexplicables y ya se están utilizando para fomentar la desinformación y engañar a la gente.
  • Algunos están preocupados por la velocidad y el alcance aparentemente imparables de la tecnología digital, que temen pueda permitir la vigilancia generalizada de vastas poblaciones y destruir el entorno de la información, socavando los sistemas democráticos con deepfakes, desinformación y acoso.
  • Temen el desempleo masivo, la propagación de la delincuencia mundial y una mayor concentración de la riqueza y el poder mundiales en manos de los fundadores y dirigentes de unas pocas grandes empresas.
  • También hablan de cómo el armamentismo de las plataformas de medios sociales podría crear en la población estrés, ansiedad, depresión y sentimientos de aislamiento.

En resumen, los expertos de este sondeo señalaron que las decisiones de los seres humanos de utilizar las tecnologías para bien o para mal cambiarán el mundo de forma significativa.

Estas predicciones surgieron de una encuesta realizada por el Pew Research Center y el Imagining the Internet Center de la Universidad de Elon entre innovadores tecnológicos, desarrolladores, líderes empresariales y políticos, investigadores y académicos. Unos 305 respondieron a esta pregunta:

De cara al año 2035, ¿Cuáles son los cambios MEJORES Y MÁS BENEFICIOSOS que probablemente se producirán para entonces en la tecnología digital y en el uso de los sistemas digitales por parte de los seres humanos? … ¿Cuáles son los cambios MÁS PERJUDICIALES O MENACINANTES que es probable que se produzcan?

Muchos de estos expertos redactaron largas y detalladas evaluaciones en las que describían las oportunidades y amenazas potenciales que veían más probables. La pregunta completa les animaba específicamente a compartir sus ideas sobre los dos tipos de impactos: positivos y negativos. Y nuestra pregunta les invitaba a pensar en los beneficios y costes de cinco ámbitos concretos de la vida:.

  • Desarrollo de herramientas y sistemas digitales centrados en el ser humano
  • Derechos humanos
  • Conocimiento humano
  • Salud y bienestar humanos
  • Conexiones humanas, gobernanza e instituciones

También se les pidió que indicaran cómo se sienten ante los cambios que prevén.

  • El 42% de estos expertos se declararon a partes iguales entusiasmados y preocupados por los cambios en la evolución «humanos-más-tecnología» que prevén para 2035.
  • El 37% dijo estar más preocupado que entusiasmado con los cambios que esperan.
  • El 18% se declara más entusiasmado que preocupado por los cambios previstos.
  • El 2% no se muestra ni entusiasmado ni preocupado.
  • El 2% no cree que se produzcan grandes cambios de aquí a 2035.

Worldcat.Org y WorldCat Find integran recomendaciones de libros generadas por IA

OCLC. «OCLC Introduces AI-Generated Book Recommendations in WorldCat.Org and WorldCat Find Beta», 21 de junio de 2023. https://www.oclc.org/en/news/releases/2023/20230621-ai-book-recs-worldcatorg.html.

OCLC está realizando pruebas beta de recomendaciones de libros generadas por inteligencia artificial (IA) en WorldCat.org, el sitio Web que permite a los usuarios explorar las colecciones de miles de bibliotecas a través de una única búsqueda. Ahora, los usuarios pueden obtener recomendaciones de libros impresos y electrónicos generadas por IA y luego buscar esos materiales en las bibliotecas cercanas. La versión beta de las recomendaciones de libros generadas por IA ya está disponible en WorldCat.org y WorldCat Find, la extensión de la aplicación móvil para WorldCat.org.

La función de recomendaciones de libros es la última utilización de inteligencia artificial por parte de OCLC para enriquecer sus servicios. OCLC actualmente emplea aprendizaje automático, una rama de la IA, en el trabajo de detección de duplicados en WorldCat y continuará expandiendo el uso del aprendizaje automático y la IA en programas en curso para mejorar la calidad de WorldCat.

La nueva función utiliza inteligencia artificial para ayudar a los usuarios de WorldCat.org a identificar libros en las colecciones de bibliotecas representadas en WorldCat relacionados con el autor y el título de un libro conocido. Los usuarios de la aplicación WorldCat Find también pueden encontrar libros según el tema. En ambos casos, no se utiliza información personal, incluido el historial de búsqueda, para determinar las recomendaciones.

Durante la prueba beta, las recomendaciones de libros generadas por IA estarán disponibles para los usuarios de  WorldCat.org en los Estados Unidos y Canadá que vean la interfaz en inglés. Los usuarios deben iniciar sesión en sus cuentas de WorldCat.org y pueden utilizar la opción para obtener recomendaciones de libros impresos y electrónicos. La versión beta de recomendaciones de libros también estará disponible para todos los usuarios de la aplicación móvil WorldCat Find. Actualmente, WorldCat Find está disponible para los usuarios de los Estados Unidos que utilizan una interfaz en inglés.

OCLC alienta a los usuarios a proporcionar comentarios acerca de la nueva función de recomendaciones de libros a través del sitio WorldCat.org y de la aplicación WorldCat Find

WorldCat es la red global más completa de datos sobre colecciones y servicios bibliotecarios. Durante más de 50 años, los expertos en metadatos de OCLC, bibliotecas, proveedores de contenido y otros han contribuido, mejorado y compartido datos bibliográficos para conectar recursos culturales y académicos en bibliotecas de todo el mundo. WorldCat.org es el sitio web de acceso gratuito donde cualquier persona puede buscar las colecciones de miles de bibliotecas.

Estudio comparativo sobre ChatGPT basado en IA y sistemas bibliotecarios en la enseñanza superior para la recopilación de información

Aithal Shubhrajyotsna, & Aithal Sreeramana. (2023). Comparative Study on AI-Based ChatGPT and Library Systems in Higher Education for Information Collection. In Some Thrust Research in Interdisciplinary Humanities, Management and Informatics: In Knowledge Economy (pp. 23–64, ). New Delhi Publishers, New Delhi. https://doi.org/10.5281/zenodo.8066376

PDF

Los GPT basados en inteligencia artificial (IA) son capaces de proporcionar información experta en todos los sectores industriales. De ahí que se decida examinar la posibilidad de utilizar ChatGPT para sustituir a la Biblioteca convencional en la enseñanza superior.

En este capítulo, se realiza un estudio exploratorio sobre la comparación de los procesos de recopilación de información de ChatGPT basados en IA y las Bibliotecas de Educación Superior. Esto incluye una descripción del efecto de la tecnología en la recopilación de información y un análisis de las GPT basadas en IA en términos de su capacidad para proporcionar la información adecuada en cualquier momento, evaluando el modelo de las GPT basadas en IA en términos de generación y difusión de la información. También incluye una comparación sistemática de los servicios prestados por las bibliotecas tradicionales y las bibliotecas digitales con las GPT basadas en IA para estudiantes/lectores, un estudio de las ventajas, beneficios, limitaciones y desventajas de las ChatGPT en términos de prestación de servicios bibliotecarios a los lectores mediante el marco de análisis ABCD y la interpretación del impacto de las GPT basadas en IA en el proceso de recopilación de información del Sistema de Educación Superior.

Basándose en el análisis, la comparación y la evaluación de ChatGPT con los sistemas bibliotecarios tradicionales y digitales, se ofrecen algunas sugerencias sobre el uso de las GPT basadas en IA en la Educación Superior en función de sus ventajas y beneficios para los lectores de los recursos tangibles o intangibles proporcionados en las bibliotecas. Se constata que se espera que los GPT basados en IA sean complementarios a las bibliotecas tradicionales en cuanto a la provisión de apoyo informativo personalizado.

El uso de Chat GPT en los servicios de biblioteca

Mali, Tanaji, y Rahul Deshmukh. «Use of chat gpt in library services», 23 de abril de 2023. https://doi.org/10.1729/Journal.33816.

En general, el uso de Chat GPT en los servicios bibliotecarios tiene el potencial de revolucionar la forma en que las bibliotecas operan e interactúan con los usuarios. Sin embargo, también es importante tener en cuenta las posibles implicaciones y limitaciones éticas del uso de la IA en estos contextos.

En el contexto de los servicios de biblioteca, Chat GPT se puede utilizar para automatizar ciertas tareas, como responder preguntas de referencia, proporcionar recomendaciones de libros o artículos, y ayudar en la recuperación de información. Esto puede liberar al personal de la biblioteca para centrarse en interacciones más complejas y personalizadas con los usuarios, al tiempo que brinda un servicio más rápido y eficiente.

Algunos servicios que se verán afectados por el uso de ChatGPT:

Servicios de referencia virtual: Chat GPT puede utilizarse para proporcionar servicios de referencia virtual a los usuarios de la biblioteca. Los usuarios pueden hacer preguntas a través del chatbot y recibir respuestas en tiempo real, 24 horas al día, 7 días a la semana, sin tener que esperar a que un bibliotecario esté disponible. Chat GPT puede programarse para proporcionar información básica sobre los servicios, colecciones y políticas de la biblioteca, así como para ayudar con preguntas de investigación más complejas.

Búsqueda en el catálogo: los usuarios pueden utilizar ChatGPT para buscar libros, artículos y otros materiales en el catálogo de la biblioteca. ChatGPT puede utilizar el procesamiento del lenguaje natural para comprender las consultas de los usuarios y ofrecer resultados de búsqueda relevantes.

Recomendaciones de lectura personalizadas: Chat GPT puede utilizarse para ofrecer a los usuarios recomendaciones de lectura personalizadas basadas en su historial de lectura y sus preferencias. Analizando los libros que los usuarios han sacado en el pasado y sus respuestas a preguntas sobre sus hábitos de lectura, Chat GPT puede sugerirles libros que podrían interesarles.

Desarrollo de colecciones: Chat GPT puede utilizarse para ayudar a los bibliotecarios en el desarrollo de la colección mediante el análisis de las consultas de los usuarios para identificar temas y materias de gran demanda. Chat GPT también puede utilizarse para analizar datos sobre la circulación de libros y las tendencias populares con el fin de identificar áreas en las que la colección de la biblioteca podría ampliarse o actualizarse.

Traducción a otros idiomas: Chat GPT puede utilizarse para proporcionar servicios de traducción a los usuarios. Al integrar Chat GPT con herramientas de traducción, los usuarios pueden comunicarse con la biblioteca en su lengua materna y el chatbot puede responder en el idioma que elijan.

Recomendaciones de libros: ChatGPT puede analizar las preferencias de lectura de los usuarios y recomendarles libros en función de ellas. Esto puede ser útil para usuarios que buscan nuevo material de lectura o no están seguros de qué leer a continuación.

Tutoriales interactivos: ChatGPT puede utilizarse para ofrecer tutoriales interactivos sobre los recursos y servicios de la biblioteca. Por ejemplo, puede guiar a los usuarios a través del proceso de acceso a recursos electrónicos, como bases de datos y libros electrónicos.

Chatbot para preguntas frecuentes: ChatGPT puede ser entrenado para responder preguntas frecuentes (FAQs) sobre las políticas de la biblioteca, servicios, horarios y otra información.

Recomendaciones de lectura: ChatGPT puede utilizarse para ofrecer recomendaciones de lectura personalizadas a los usuarios de la biblioteca en función de sus preferencias de lectura, géneros y autores.

Proporcionar accesibilidad a discapacitados: ChatGPT puede utilizarse para proporcionar servicios de accesibilidad a usuarios con discapacidad. Por ejemplo, ChatGPT podría utilizarse para proporcionar descripciones de audio de contenidos visuales o para proporcionar transcripciones de contenidos de vídeo.

Aprendizaje de idiomas: ChatGPT puede utilizarse para proporcionar recursos de aprendizaje de idiomas y ejercicios prácticos. Los usuarios pueden interactuar con ChatGPT para recibir sugerencias sobre materiales de aprendizaje de idiomas o para practicar la expresión oral y escrita en un nuevo idioma.

Sistemas de recomendación: Chat GPT también puede utilizarse para recomendar libros, artículos y otros recursos de la biblioteca en función de los intereses de los usuarios y de su historial de búsquedas. Esto puede mejorar la visibilidad de los recursos de la biblioteca y facilitar que los usuarios encuentren lo que buscan.

Promover programas de biblioteca: ChatGPT puede utilizarse para promocionar programas y eventos de la biblioteca, como clubes de lectura, charlas de autores y talleres. Los usuarios pueden interactuar con ChatGPT para obtener más información sobre los próximos eventos e inscribirse.

Difusión y participación: ChatGPT puede ayudar a las bibliotecas a relacionarse con los usuarios a través de plataformas de medios sociales, proporcionando respuestas instantáneas a mensajes y comentarios.

VENTAJAS DE USO DE CHATGPT EN LA BIBLIOTECA

ChatGPT puede beneficiarse enormemente del uso de los servicios bibliotecarios de varias maneras, entre ellas:

  1. Acceso a una amplia gama de información: Las bibliotecas ofrecen una amplia gama de libros, revistas, artículos y otros recursos sobre diversos temas. Al utilizar los servicios bibliotecarios, ChatGPT puede acceder a esta información, lo que puede ayudarle a ofrecer respuestas más precisas y detalladas a las preguntas de los usuarios.
  2. Ahorro de tiempo: En lugar de dedicar una gran cantidad de tiempo a buscar información en Internet, ChatGPT puede utilizar los servicios de la biblioteca para acceder rápidamente a fuentes relevantes y fiables.
  3. Soporte 24/7: ChatGPT puede proporcionar soporte 24/7 a los usuarios de la biblioteca, incluso cuando las bibliotecas físicas están cerradas.
  4. Información de calidad: Las bibliotecas son conocidas por proporcionar información de calidad procedente de fuentes fiables. Esto puede ayudar a ChatGPT a evitar proporcionar información inexacta o engañosa a los usuarios.
  5. Información actualizada: Las bibliotecas actualizan constantemente sus colecciones con nueva información, lo que hace posible que ChatGPT acceda a las últimas investigaciones y tendencias sobre diversos temas.
  6. Asistencia en la investigación: Muchas bibliotecas ofrecen servicios de asistencia a la investigación que pueden ayudar a ChatGPT con preguntas o proyectos de investigación más complejos.
  7. Oportunidades de colaboración: Las bibliotecas suelen tener espacios de colaboración donde las personas pueden trabajar juntas en proyectos o compartir conocimientos. ChatGPT puede
  8. Soporte multilingüe: Muchas bibliotecas ofrecen recursos en varios idiomas, lo que puede ayudar a ChatGPT a proporcionar respuestas en diferentes idiomas y ampliar su base de usuarios.
  9. Acceso a recursos especializados: Las bibliotecas suelen tener recursos que no están fácilmente disponibles en Internet, como libros raros, manuscritos y archivos. Estos recursos pueden ser muy valiosos para ChatGPT a la hora de proporcionar información única y especializada.

DESVENTAJAS DE CHATGPT EN LA BIBLIOTECA

  1. Reducción del pensamiento crítico: La adopción de ChatGPT puede provocar una disminución de la capacidad de pensamiento crítico. Esto se debe a que el modelo puede proporcionar información de forma rápida y sencilla y responder a las consultas, eliminando potencialmente la necesidad de que las personas se dediquen al pensamiento crítico independiente y a la resolución de problemas. Además, si la información del modelo es fiable y precisa, puede hacer que la gente crea información errónea sin comprobarla.
  2. Dependencia de servicios de terceros: La capacidad de ChatGPT para funcionar y ofrecer resultados depende de bibliotecas y servicios externos, que pueden sufrir caídas o cambios en sus API. Si alguno de estos servicios se cae o deja de estar disponible, la funcionalidad de ChatGPT puede verse afectada.
  3. Cuestiones de privacidad y seguridad: El uso por parte de ChatGPT de servicios de terceros puede suscitar inquietudes en torno a la privacidad y seguridad de los datos. Si se comparte información sensible con ChatGPT, puede ser procesada y almacenada por estos servicios externos, lo que potencialmente podría exponerla a riesgos de seguridad o violaciones de datos.
  4. Limitaciones en la personalización: El uso de servicios externos por parte de ChatGPT puede limitar el grado de personalización o adaptación a casos de uso específicos. Los servicios en los que se basa pueden tener sus propias limitaciones y restricciones, lo que puede impedir que ChatGPT proporcione las respuestas más óptimas o pertinentes a determinadas consultas.
  5. Coste: algunas bibliotecas y servicios externos pueden tener un coste, lo que puede dificultar que las organizaciones más pequeñas o los particulares utilicen ChatGPT en todo su potencial.
  6. Plagio: El uso de ChatGPT para generar texto puede facilitar que los investigadores incurran en plagio al presentar el texto generado por el modelo como su trabajo.

En conclusión. ChatGPT puede ser una herramienta útil en los servicios bibliotecarios, sobre todo en áreas relacionadas con el procesamiento del lenguaje natural, el análisis de textos y la participación de los usuarios. Su capacidad para generar respuestas coherentes y contextualmente relevantes a las consultas de los usuarios puede mejorar la eficacia de los Chatbot y asistentes virtuales de las bibliotecas, cada vez más importantes en la prestación de servicios en línea a los usuarios de las bibliotecas.

Además, ChatGPT puede utilizarse para analizar grandes volúmenes de datos de texto generados por las interacciones de los usuarios con los servicios bibliotecarios. Esto puede ayudar a identificar patrones de comportamiento, preferencias y necesidades de los usuarios, que pueden servir de base para el desarrollo de servicios bibliotecarios más personalizados y eficaces. En general, ChatGPT tiene el potencial de transformar la forma en que se prestan y evalúan los servicios bibliotecarios, y puede desempeñar un papel importante en la mejora de la satisfacción y el compromiso de los usuarios. Sin embargo, es importante señalar que el uso de ChatGPT debe complementarse con otros métodos de investigación para garantizar una comprensión exhaustiva y precisa de las necesidades y preferencias de los usuarios.

Anthropic supera a OpenAI con un chatbot capaz de leer una novela en menos de un minuto

Vincent, James. «Anthropic Leapfrogs OpenAI with a Chatbot That Can Read a Novel in Less than a Minute». The Verge, 12 de mayo de 2023. https://www.theverge.com/2023/5/12/23720964/chatbot-language-model-context-window-memory-anthropic-claude.

Anthropic ha ampliado la ventana contextual de su chatbot Claude a 75.000 palabras, lo que supone una gran mejora respecto a los modelos actuales. Anthropic afirma que puede procesar una novela entera en menos de un minuto.

Una limitación de los chatbots que a menudo se pasa por alto es la memoria. Si bien es cierto que los modelos lingüísticos de IA que alimentan estos sistemas se entrenan con terabytes de texto, la cantidad que estos sistemas pueden procesar cuando están en uso -es decir, la combinación de texto de entrada y de salida, también conocida como su «ventana contextual»- es limitada. En el caso de ChatGPT, es de unas 3.000 palabras. Hay formas de evitarlo, pero sigue sin ser una gran cantidad de información con la que operar.

Ahora, la startup de IA Anthropic (fundada por antiguos ingenieros de OpenAI) ha ampliado enormemente la ventana de contexto de su propio chatbot Claude, elevándola a unas 75.000 palabras. Como señala la empresa en una entrada de su blog, eso es suficiente para procesar todo El Gran Gatsby de una sola vez. De hecho, la empresa probó el sistema editando una sola frase de la novela y pidiéndole a Claude que detectara el cambio. Lo hizo en 22 segundos.

La ventana contextual de Claude puede procesar ahora 100.000 tokens, frente a los 9.000 anteriores. En comparación, la GPT-4 de OpenAI procesa unos 8.000 tokens (no es el modelo estándar disponible en ChatGPT, hay que pagar para acceder a él), mientras que un modelo de GPT-4 completo de lanzamiento limitado puede manejar hasta 32.000 tokens.

De momento, la nueva capacidad de Claude sólo está disponible para los socios comerciales de Anthropic, que acceden al chatbot a través de la API de la empresa. También se desconoce el precio, pero es seguro que será un aumento significativo. Procesar más texto significa gastar más en computación.

Pero la noticia demuestra que la capacidad de los modelos lingüísticos de IA para procesar información está aumentando, lo que sin duda hará que estos sistemas sean más útiles. Como señala Anthropic, un humano tarda unas cinco horas en leer 75.000 palabras de texto, pero con la ventana de contexto ampliada de Claude, potencialmente puede asumir la tarea de leer, resumir y analizar un documento largo en cuestión de minutos (aunque no hace nada contra la persistente tendencia de los chatbots a inventarse información). Una ventana contextual más grande también significa que el sistema puede mantener conversaciones más largas. Uno de los motivos por los que los chatbots pueden divagar (alucinar) es que, cuando su ventana de contexto se llena, tienden a olvidar información previa. Para abordar este problema, el chatbot de Bing está limitado a 20 turnos de conversación. Esto significa que al proporcionar más contexto, se permite una mayor interacción y conversación fluida entre el usuario y el chatbot. Al establecer un límite en la cantidad de turnos, se busca mantener la relevancia de la información y evitar posibles desviaciones o malentendidos en la conversación.

Uno de los «padres» de la IA afirma que la preocupación por que esta tecnología pueda suponer una amenaza para la humanidad es «ridícula».

Yann LeCun, quien formó parte de un equipo ganador del Premio Turing en 2018 por sus avances en el aprendizaje automático, respondió a las afirmaciones de otros expertos, como Sam Altman, sobre los crecientes temores de que la IA se esté desarrollando demasiado rápido. LeCun afirmó que la preocupación de que la IA pueda representar una amenaza para la humanidad es «absurdamente ridícula».

Un experto en inteligencia artificial ha declarado que las preocupaciones de que la tecnología represente una amenaza para la humanidad son «absurdamente ridículas». LeCun, conocido como el «goodfather» de la inteligencia artificial, formó parte del equipo de tres personas, junto a Yoshua Bengio y Geoffrey Hinton, que recibió el Premio Turing en 2018 por sus avances en el aprendizaje automático. Actualmente, ocupa el cargo de científico jefe de IA en Meta.

Yann LeCun afirmó: «¿Tomará el control la inteligencia artificial del mundo? No, es una proyección de la naturaleza humana sobre las máquinas». Durante el evento, LeCun afirmó que «no hay duda» de que en el futuro las computadoras serán más inteligentes que los humanos, pero señaló que aún faltan años o incluso décadas para que eso suceda, según informó la BBC. También dijo que sería un error mantener la investigación sobre IA «bajo llave». La IA será cada vez más fiable y segura, y que las preocupaciones sobre la IA eran exageradas.

La reciente proliferación de inteligencia artificial generativa, que incluye chatbots como ChatGPT y Bing, y generadores de imágenes como DALL-E y Midjourney, ha generado un acalorado debate entre expertos sobre si se está desarrollando demasiado rápido. Las preocupaciones incluyen la capacidad de la IA para desarrollar sesgos y «alucinaciones», así como su papel en la difusión de desinformación e imágenes falsas.

Algunos líderes tecnológicos, científicos e influyentes empresarios han pedido una regulación global más cercana de la IA y un mayor enfoque en la ética. El colaborador de LeCun, Bengio, Elon Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre los firmantes de una carta abierta a principios de este año que pedían una pausa de seis meses en el desarrollo de la IA avanzada.

Varios expertos en IA también firmaron una declaración del Centro para la Seguridad de la IA el mes pasado, que afirmaba que «mitigar el riesgo de extinción causado por la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear».

Según una encuesta realizada a los principales CEO por el Instituto de Liderazgo Ejecutivo de Yale, informada por CNN, el 34% de los encuestados afirmaron que la IA podría «destruir a la humanidad» en 10 años, y el 8% dijo que incluso podría ocurrir en cinco años. El 58% dijo que no creía que la posible catástrofe de la IA estuviera exagerada.

Sin embargo, algunas figuras con influencia en el mundo tecnológico han elogiado los numerosos casos de uso de la IA y han advertido contra la introducción de una moratoria en su desarrollo. Bill Gates, por ejemplo, dijo que aunque existen preocupaciones comprensibles sobre la IA, esta podría tener efectos positivos importantes en la atención médica, la educación y la lucha contra la crisis climática. Marc Andreessen advirtió contra el «pánico moral generalizado sobre la IA» y afirmó que las personas tienen una «obligación moral» de fomentar su desarrollo.

La Biblioteca Pública de Los Ángeles cuenta con un laboratorio para que las personas puedan digitalizar soportes antiguos como cintas VHS y disquetes.

The Memory Lab | Los Angeles Public Library

El Laboratorio de la Memoria es un espacio para la digitalización gratuita de fotografías, documentos, grabaciones audiovisuales y otros formatos. Proporciona al personal y a los usuarios de la Biblioteca directrices, herramientas y formación para el archivo personal analógico y digital.


Cada vez más, los materiales que conforman la vida de las personas son más digitales, pero no todo el mundo tiene el equipo o los conocimientos necesarios para cuidarlos adecuadamente. Muchos formatos analógicos, como el VHS, se degradan con el tiempo y necesitan ser digitalizados antes de que las grabaciones se pierdan.

La Biblioteca Pública de Los Ángeles se suma a la preservación digital, con la creación de DIY Memory Lab, un nuevo espacio dentro de Octavia Lab en la Biblioteca Central. Con este laboratorio de autoservicio, los usuarios pueden preservar tesoros mediáticos del pasado utilizando herramientas de digitalización profesionales.

El uso del equipamiento del laboratorio es gratuito para los titulares de carnet de la Biblioteca Pública de Los Ángeles (que es gratuita para todos los residentes de California), aunque previamente debe de asistir a una orientación en línea y hacer una reserva.

La Biblioteca Pública de Los Ángeles ofrece los siguientes servicios para ayudar a las personas en su viaje personal de archivo y preservación digital.

Estos son algunos de los materiales que se pueden digitalizar en el laboratorio:

Documentos
Fotos, diapositivas, negativos
Película Super 8 y 8 mm (sólo imagen, sin audio)
Cintas de audio compactas
CD y DVD
DV y MiniDV (SP)
Disquetes de 3,5 pulgadas
Minidisco
Cinta de audio de bobina a bobina
VHS (SP y EP)
Discos de vinilo (LP y 45)

La Finalidad de estos laboratorios de la memorias son una forma de que las organizaciones conecten personalmente con sus comunidades, salven la historia compartida e impulsen los principios de conservación y acceso.