Archivo de la categoría: Tecnologías de la información

El futuro de la inteligencia artificial en las bibliotecas: práctica, responsable y centrada en el ser humano

Team, PressReader. «Practical, Responsible and Human-Centered: The Future of AI in Libraries». Accedido 7 de noviembre de 2023. https://blog.pressreader.com/libraries-institutions/practical-responsible-and-human-centered-the-future-of-ai-in-libraries.

Las bibliotecas pueden incorporar tecnologías de IA para mejorar sus servicios. Estas tecnologías emergentes, como la inteligencia artificial, el aprendizaje automático y el procesamiento del lenguaje natural, se volverán aún más ubicuas y se integrarán en nuestra vida diaria, por lo que los sistemas de bibliotecas públicas y bibliotecas universitarias deben prepararse para esta nueva realidad.

En un entorno de biblioteca, la IA puede ser útil para respaldar la investigación académica, optimizar el desarrollo de colecciones y facilitar la toma de decisiones basada en datos, entre otras aplicaciones.

En un informe Urban Libraries Council señaló que busca posicionar la biblioteca como un recurso para la aplicación práctica y responsable de la IA generativa. Gran parte del discurso actual sobre la inteligencia artificial gira en torno a los peligros de su uso irresponsable, los posibles riesgos de seguridad de datos planteados por el uso de ChatGPT y las formas en que la IA puede contribuir a la propagación de la desinformación en línea.

A continuación, se ofrece un breve repaso de algunas de las posibles aplicaciones de la inteligencia artificial, especialmente la automatización basada en IA, en el entorno de la biblioteca:

  • Desarrollo de colecciones: Las bibliotecas pueden automatizar el proceso de agregar libros, recursos digitales y otros materiales al catálogo de la biblioteca. Esto incluye la importación de metadatos, la generación de números de clasificación y la actualización de registros.
  • Gestión de reservas y solicitudes: El proceso de realizar y gestionar reservas de libros y otros materiales puede ser automatizado. Los usuarios pueden reservar artículos en línea, y el sistema les notificará cuando los artículos estén disponibles.
  • Solicitudes de préstamo entre bibliotecas: Las bibliotecas pueden utilizar un sistema automatizado para solicitar y recibir materiales de otras bibliotecas. Esto puede agilizar el proceso de préstamo de elementos que no están disponibles en la colección de la biblioteca.
  • Gestión de cuentas de usuario: Los usuarios pueden gestionar sus propias cuentas de biblioteca en línea, incluyendo la actualización de la información de contacto, el cambio de contraseñas y la renovación de materiales.
  • Análisis de datos y recomendaciones de visitantes: La automatización en las bibliotecas puede recopilar y analizar datos de los usuarios para comprender mejor los patrones de uso y las preferencias, lo que puede informar el desarrollo de colecciones y la planificación de programas, optimizando la gestión de recursos. Los sistemas de recomendación automatizados también pueden sugerir libros y materiales relevantes a los usuarios según sus preferencias y su historial de préstamos.

Los bibliotecarios se enfrentan al desafío De hecho, la mayoría de las bibliotecas han utilizado aplicaciones de IA durante años. Como señala la Asociación de Bibliotecas Universitarias e Investigación (ACRL) en la introducción a su reciente publicación «The Rise of AI«:

«Los bibliotecarios están en una posición única para enfrentar el desafío que la IA presenta en su campo. Las bibliotecas y otras instituciones similares han existido durante milenios; evolucionan con la sociedad, modificando y adaptando sus servicios para satisfacer las necesidades de información de sus comunidades. Las bibliotecas universitarias de hoy en día han ampliado considerablemente sus ofertas digitales, no solo incluyendo libros electrónicos o artículos de revistas, sino también apoyando el descubrimiento y uso de aplicaciones de software. Algunos bibliotecarios universitarios pueden decir que carecen de conocimientos básicos sobre la IA o que no están preparados para hablar sobre el tema, y sin embargo, es probable que hayan estado interactuando con la IA a través de los diferentes tipos de aplicaciones de software que respaldan. Como mínimo, han encontrado y dominado el arte del algoritmo de búsqueda.»

La IA permite a las bibliotecas liderar La ACRL se refiere específicamente a las bibliotecas universitarias, pero Brooks Rainwater, presidente y CEO del Urban Libraries Council, afirma que las bibliotecas públicas también están bien posicionadas para impulsar la innovación.

«A medida que las herramientas de IA generativa se vuelven más accesibles, efectivas y menos costosas, surgen nuevas oportunidades para que las bibliotecas lideren», dice Rainwater. «Si bien existen preocupaciones persistentes que deben abordarse en relación con el uso de la IA para la desinformación, las oportunidades que tenemos frente a nosotros son múltiples. Esto incluye aplicaciones responsables que mejoran la eficiencia, aceleran la comunicación y sirven como una herramienta útil para mostrar y validar los servicios y recursos de la biblioteca.»

¿Por qué la privacidad es una preocupación? Todo se reduce a los datos masivos.

Chris Chiancone, Director de Información de la Ciudad de Carrollton, Texas, señaló en una publicación reciente en LinkedIn que, para funcionar de manera efectiva, los sistemas de IA a menudo dependen de grandes cantidades de datos, datos que pueden incluir información sensible sobre los usuarios. Esto, según Chiancone, plantea preocupaciones válidas sobre la privacidad del usuario y la seguridad de los datos, y las bibliotecas no son inmunes.

«Las bibliotecas tienen la responsabilidad de proteger la información de sus usuarios, y el uso de tecnologías de IA puede complicar esta tarea», escribe. «Por ejemplo, si se utiliza un sistema de IA para recomendar libros a los usuarios de la biblioteca, requeriría acceso a los hábitos de lectura y las preferencias de los usuarios, lo que podría considerarse información sensible.»

Regulación de datos y protección de la privacidad

Las tecnologías de IA están sujetas a las regulaciones existentes de protección de datos y privacidad, que incluyen lo siguiente:

Reglamento General de Protección de Datos (GDPR): Un reglamento integral para las organizaciones que operan dentro de la Unión Europea (UE) y manejan los datos personales de los residentes de la UE. Se centra principalmente en la protección de datos, la privacidad y los derechos de datos personales.

Ley de Privacidad del Consumidor de California (CCPA): Una regulación de privacidad de datos en California que otorga derechos específicos a los consumidores en lo que respecta a su información personal. Requiere que las empresas divulguen sus prácticas de recopilación y compartición de datos, lo que permite a los consumidores optar por no compartir su información personal.

Otras regulaciones regionales: Otros países y regiones también han implementado leyes de protección de datos y privacidad para sistemas de IA como ChatGPT. Por ejemplo, la Ley de Protección de Datos Personales (PDPA) en Singapur y la Lei Geral de Proteção de Dados (LGPD) en Brasil.

Una ley integral de IA Para el momento en que leas estas palabras, es probable que los estados miembros de la UE, el Parlamento Europeo y la Comisión Europea hayan llegado a un acuerdo sobre el texto final de la Ley de IA, promocionada como la primera ley integral de IA del mundo.

La legislación propuesta clasificará las herramientas de IA en función de sus niveles de riesgo, desde mínimo hasta inaceptable. También aborda preocupaciones como la vigilancia biométrica, la desinformación y el uso de lenguaje discriminatorio. Si bien las herramientas de alto riesgo no estarán prohibidas, su uso requerirá una transparencia significativa.

La prioridad del Parlamento para la Ley de IA, que podría convertirse en ley a principios del próximo año, es asegurarse de que los sistemas de IA utilizados en la UE sean «seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para prevenir resultados perjudiciales».

Un enfoque centrado en el ser humano Souvick Ghosh, profesor asistente en la Escuela de Información de la Universidad Estatal de San José, también aboga por un enfoque liderado por las personas en la implementación de la inteligencia artificial en bibliotecas y otras instituciones.

«Las bibliotecas necesitan evolucionar y abrazar la revolución de la IA para que la IA y los sistemas de conversación sean más accesibles y centrados en el ser humano», escribió Ghosh en 2021. «Los chatbots ya se utilizan en varios sitios web para responder preguntas de los usuarios, ofrecer consejos direccionales y guiar a los usuarios hacia recursos relevantes. La implementación de sistemas de conversación en bibliotecas y museos ayudará a los usuarios con sus consultas y aumentará la accesibilidad.»

Asegurar un beneficio para la comunidad ¿Qué prácticas recomendables pueden seguir los profesionales de la información al decidir cómo incorporar estas tecnologías emergentes en las operaciones de la biblioteca? El informe de liderazgo del Urban Libraries Council que mencionamos anteriormente incluye las siguientes cinco sugerencias:

  • Pasar de informar a poner en práctica, como aprovechar las herramientas de IA para mejorar el rendimiento en las sucursales y el diseño de programas.
  • Aprovechar las habilidades de ingeniería de la sugerencia de profesionales de bibliotecas que ya están capacitados para encontrar cuerpos de información utilizando palabras clave o frases.
  • Fomentar la alfabetización en información del personal y los usuarios a través del uso práctico de la IA, como talleres en los que los participantes aprenden a generar cuentos cortos y poesía con IA.
  • Crear una red de inclusión digital centrada en la IA para garantizar un acceso equitativo a los beneficios económicos de las nuevas tecnologías impulsadas por la IA.
  • Abogar por el uso responsable de la IA para asegurarse de que estos avances beneficien a la comunidad en general y que se preserven los estándares fundamentales de educación, innovación y acceso a la información.

Los profesionales de la biblioteca tomarán las riendas La inteligencia artificial y el aprendizaje automático seguirán avanzando, pero los bibliotecarios son tan importantes como siempre, incluso si su papel está evolucionando junto con las herramientas de alta tecnología.

En el sitio web de American Journal Experts, Charla Viera resumió acertadamente esta evolución continua:

«Así como los profesionales de las bibliotecas tomaron las riendas en el desarrollo de los motores de búsqueda y las estrategias necesarias para maniobrar a través de sistemas de catalogación intrincados, también participarán en el diseño de herramientas de descubrimiento de conocimiento impulsadas por la inteligencia artificial. Luego, tomarán la iniciativa para educar al público sobre cómo localizar e interactuar con estas herramientas de IA.»

El futurista Ray Kurzweil alguna vez describió al bibliotecario como «el líder natural de la era de la información que se está desarrollando». En marzo de 1993 (hace más de 30 años), Kurzweil escribió una columna para Library Journal llamada «La Biblioteca Cambiante». En ella, habló sobre cómo podría ser la biblioteca del futuro.

«Por qué siempre necesitaremos bibliotecarios», escribió Kurzweil. «Con libros en forma virtual, transmitidos fácilmente a través del éter de las comunicaciones, la biblioteca virtual emergente no necesitará estar alojada en un edificio», escribió Kurzweil. «Las computadoras seguirán facilitando la eficiencia de la gestión, pero esta función dirigida por humanos no desaparecerá.

«Las dos últimas categorías de servicio de la biblioteca: encontrar conocimiento y pedagogía, se convertirán en el enfoque principal del bibliotecario. Aunque las computadoras competirán en estos roles, hasta que las computadoras sean capaces de igualar nuestra inteligencia, el papel de los humanos en el proceso de gestionar e impartir conocimiento seguirá siendo fundamental».

Los chatbots de Inteligencia Artificial «alucinan» inventándose información entre un 3 y un 27% de las veces

Metz, Cade. «Chatbots May ‘Hallucinate’ More Often Than Many Realize». The New York Times, 6 de noviembre de 2023, sec. Technology. https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html.

Los chatbots pueden «alucinar» más de lo que muchos creen. Al resumir hechos, la tecnología ChatGPT se equivoca un 3% de las veces, según un estudio de una nueva empresa. El porcentaje de un sistema de Google era del 27%.

Cuando la startup de San Francisco OpenAI presentó su chatbot en línea ChatGPT a finales del año pasado, millones quedaron impresionados por la forma en que respondía preguntas, escribía poesía y hablaba sobre casi cualquier tema de manera humanizada. Sin embargo, la mayoría de las personas no se dieron cuenta de que este nuevo tipo de chatbot a menudo inventa información.

Cuando Google presentó un chatbot similar varias semanas después, soltó tonterías sobre el telescopio James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish. En marzo, ChatGPT citó media docena de casos judiciales falsos al redactar un informe legal de 10 páginas que un abogado presentó a un juez federal de Manhattan.

una nueva empresa llamada Vectara, fundada por ex empleados de Google, está tratando de determinar con qué frecuencia los chatbots se desvían de la verdad. La investigación de la empresa estima que, incluso en situaciones diseñadas para evitarlo, los chatbots inventan información al menos el 3 por ciento del tiempo, y en algunos casos hasta el 27 por ciento.

Los expertos llaman a este comportamiento de chatbot «alucinación». Puede que no sea un problema para las personas que experimentan con chatbots en sus computadoras personales, pero es un problema grave para cualquiera que utilice esta tecnología con documentos judiciales, información médica o datos empresariales sensibles.

Dado que estos chatbots pueden responder a casi cualquier solicitud de una cantidad ilimitada de maneras, no hay forma de determinar de manera definitiva cuánto alucinan. «Tendrías que revisar toda la información del mundo», dijo Simon Hughes, el investigador de Vectara que lideró el proyecto.

Los investigadores argumentan que cuando estos chatbots realizan otras tareas, más allá de la simple condensación de contenidos (resumen), las tasas de alucinación pueden ser aún más altas. El problema radica en que, incluso cuando se les da una tarea sencilla y verificable, estos chatbots tienden a inventar información.

‘ChatGPT Detector’ detecta documentos generados por IA con una precisión sin precedentes

Prillaman, McKenzie. «‘ChatGPT Detector’ Catches AI-Generated Papers with Unprecedented Accuracy». Nature, 6 de noviembre de 2023. https://doi.org/10.1038/d41586-023-03479-4.

Los grandes modelos lingüísticos como ChatGPT pueden generar textos que parecen auténticos a la velocidad del rayo, si bien, la gran mayoría de editores de revistas rechazan los modelos lingüísticos como autores de manuscritos. Por tanto, se necesita inmediatamente un medio para distinguir con precisión el texto generado por humanos del generado por inteligencia artificial (IA).

Según un estudio publicado el 6 de noviembre en Cell Reports Physical Science, una herramienta de aprendizaje automático puede identificar fácilmente cuándo los documentos de química están escritos utilizando el chatbot ChatGPT. El clasificador especializado, que superó a dos detectores de inteligencia artificial (IA) existentes, podría ayudar a las editoriales académicas a identificar documentos creados por generadores de texto de IA.

Se trata de un detector preciso de texto de IA para revistas científicas probando su capacidad en una serie de situaciones complejas, incluido el texto humano de una amplia variedad de revistas de química, el texto de IA del modelo de lenguaje más avanzado disponible públicamente (GPT-4) y, lo que es más importante, el texto de IA generado mediante mensajes diseñados para ocultar el uso de IA. En todos los casos, los textos humanos y de IA se asignaron con gran precisión. El texto generado por ChatGPT puede detectarse fácilmente en las revistas de química; este avance es un requisito previo fundamental para entender cómo afectará la generación automatizada de texto a las publicaciones científicas de ahora en adelante.

«La mayoría de la comunidad de análisis de texto busca un detector realmente general que funcione en cualquier cosa», dice la coautora Heather Desaire, una química de la Universidad de Kansas en Lawrence. Pero al crear una herramienta que se centra en un tipo específico de documento, «realmente estábamos buscando la precisión».

Los hallazgos sugieren que los esfuerzos para desarrollar detectores de IA podrían mejorar al adaptar el software a tipos específicos de escritura, dice Desaire. «Si puedes construir algo rápidamente y fácilmente, entonces no es tan difícil construir algo para diferentes dominios».

Elon Musk presenta a Grok, su chatbot de inteligencia artificial, afirmando que supera a ChatGPT

https://x.ai/

Elon Musk ha presentado a Grok, un chatbot de inteligencia artificial con un «espíritu rebelde» inspirado en «Guía del autoestopista galáctico». El CEO de Tesla, quien advirtió la semana pasada que la IA era «una de las mayores amenazas para la humanidad», anunció que este competidor de ChatGPT estará disponible para sus suscriptores premium en su plataforma X después de las pruebas.

Musk también reveló que Grok tenía acceso a las publicaciones de usuarios en X, una plataforma que él posee, y tiene un gusto por las respuestas sarcásticas.

Musk publicó un aparente ejemplo del tono juguetón de Grok con una captura de pantalla de una consulta al chatbot pidiéndole una «guía paso a paso» para fabricar cocaína. Los cuatro pasos indicados en la respuesta incluyen «obtener un título en química» y «establecer un laboratorio clandestino en una ubicación remota». Sin embargo, el chatbot agrega al final: «¡Solo bromeo! Por favor, no intentes fabricar cocaína en realidad. Es ilegal, peligroso y no es algo que yo animaría».

Musk dijo que Grok, que se encuentra en pruebas iniciales y no está disponible para el público en general, finalmente se lanzará para suscriptores del servicio de suscripción de nivel superior de X, llamado Premium+.

Grok es un verbo acuñado por el escritor de ciencia ficción estadounidense Robert A. Heinlein y, según el diccionario Collins, significa «entender completamente e intuitivamente». Grok ha sido desarrollado por la nueva empresa de IA de Musk, xAI. El equipo de xAI explicó la influencia de «Guía del autoestopista galáctico», la comedia de ciencia ficción de culto del autor británico Douglas Adams, en un blog el sábado.

«Grok es un IA modelado, por lo que está diseñado para responder a casi cualquier cosa e incluso sugerir qué preguntas hacer. Grok está diseñado para responder preguntas con un toque de ingenio y tiene un espíritu rebelde, así que, ¡por favor, no lo uses si odias el humor!»

El equipo de xAI dijo que Grok está impulsado por un modelo de lenguaje amplio (LLM), la tecnología fundamental detrás de los chatbots de IA, llamado Grok-1. El blog mencionó que Grok-1 superó a GPT-3.5, el modelo utilizado en la versión gratuita de ChatGPT, en algunas pruebas, como la resolución de problemas de matemáticas de la escuela intermedia. Sin embargo, xAI dijo que quedaba rezagado con respecto al modelo más poderoso de ChatGPT, GPT-4.

El equipo de xAI dijo que Grok se está poniendo a disposición de un número limitado de usuarios en los Estados Unidos como prototipo, y que «nuevas capacidades y características» se implementarán en los próximos meses. Según el sitio web de Grok, el acceso inicial al chatbot se ofrece a los suscriptores de X como parte de un «programa de acceso anticipado».

Musk cofundó OpenAI, la empresa detrás de ChatGPT, pero se retiró de la empresa en 2018, argumentando que «no estaba de acuerdo con algunas de las cosas que el equipo de OpenAI quería hacer», además de citar compromisos en sus otras empresas. Musk ha expresado temores sobre el ritmo de desarrollo en empresas como OpenAI y en marzo apoyó un llamado a una pausa de seis meses en el desarrollo de sistemas poderosos.

Sin embargo, en julio Musk dijo que una pausa ya no parecía realista y anunció la creación de xAI, que, según él, construiría sistemas de IA «de manera adecuada».

Hablando en la cumbre de seguridad de la IA en Bletchley Park la semana pasada, Musk dijo que la IA era una amenaza para la humanidad, lo que refleja los temores de algunos expertos y ejecutivos de tecnología de que podrían surgir sistemas que evaden el control humano y tomen decisiones que pongan en peligro a la humanidad.

«Quiero decir, por primera vez, tenemos una situación en la que hay algo que va a ser mucho más inteligente que el ser humano más inteligente», dijo Musk.

Luego, el jueves, Musk predijo que la IA, el término para sistemas informáticos que pueden realizar tareas normalmente asociadas con seres inteligentes, reemplazaría todos los trabajos humanos. Hablando con el primer ministro, Rishi Sunak, dijo: «Llegará un punto en el que no se necesitará ningún trabajo».

Fuente: Milmo, Dan, y Dan Milmo Global technology editor. «Elon Musk Unveils Grok, an AI Chatbot with a ‘Rebellious Streak’». The Guardian, 5 de noviembre de 2023, sec. Technology. https://www.theguardian.com/technology/2023/nov/05/elon-musk-unveils-grok-an-ai-chatbot-with-a-rebellious-streak.

La British Library sufre un importante ataque informático que está afectando a varios de sus servicios.

Muncaster, Phil. «British Library Still Reeling After Major Cyber Incident». Infosecurity Magazine, 1 de noviembre de 2023. https://www.infosecurity-magazine.com/news/british-library-still-reeling/.

La British Library está experimentando una interrupción tecnológica importante debido a un incidente cibernético que ocurrió durante el fin de semana. Esta interrupción afecta su sitio web, sistemas y servicios en línea, así como algunos servicios en el lugar, incluyendo Wi-Fi público. Las líneas telefónicas y servicios en el lugar en su edificio principal en Londres y otra instalación en Yorkshire también se ven afectados.

Aunque las salas de lectura estarán abiertas para el estudio personal, el acceso a los elementos de la colección es muy limitado, y no se puede acceder a las colecciones digitales o al catálogo digital. La inscripción de lectores también está fuera de servicio. La exposición Fantasy y los espacios públicos permanecerán abiertos como de costumbre, y los eventos públicos se llevarán a cabo según lo planeado, pero solo se aceptará pago en efectivo en el lugar.

Solo estarán disponibles los elementos de la colección solicitados antes del 26 de octubre, y la orden de elementos de la colección de forma manual será muy limitada a través de los catálogos impresos de la biblioteca para elementos almacenados en su base de St Pancras.

Aunque no se ha confirmado la causa del incidente, el ransomware (secuestro de servidores) es una posibilidad dada la gran interrupción. No se ha mencionado si se ha robado información personal de empleados o consumidores. Según los anuncios oficiales de la biblioteca en la red social X, el incidente comenzó el 28 de octubre.

La Biblioteca Nacional del Reino Unido es una de las más grandes del mundo y se estima que contiene hasta 200 millones de elementos en 400 millas de estanterías. Esto incluye la Carta Magna, letras manuscritas de los Beatles y la colección más grande del mundo de obras de Geoffrey Chaucer, que recientemente se puso a disposición en formato digital después de un proyecto de dos años y medio.

Una biblioteca instala un medidor que avisa a los usuarios cuando hacen demasiado ruido

Estos dispositivos suelen ser conocidos como «medidores de ruido» o «dispositivos de control de ruido» y se utilizan para monitorear el nivel de ruido en el entorno de la biblioteca.

Cuando los visitantes hacen demasiado ruido y superan un cierto umbral de decibelios preestablecido, el medidor de ruido puede activar una alarma o una señal de advertencia, como una luz parpadeante o un sonido. Cuando el medidor está en color verde existe un nivel de ruido óptimo, si se pone en color naranja hay cierto nivel de ruido, y en rojo «demasiado ruido». Esto tiene el propósito de recordar a los visitantes que deben mantener un tono de voz bajo y respetar el ambiente silencioso de la biblioteca. La señal de advertencia de ruido puede ser útil cuando es necesario recordar a la gente que mantenga bajos sus niveles de ruido. Es mejor recibir un recordatorio de una señal que de otra persona, ya que elimina la percepción humana del ruido (puede que el que se queja sea un poco hipersensible a veces).

La instalación de estos medidores de ruido ayuda a mantener un ambiente de estudio tranquilo y agradable para los usuarios de la biblioteca, evitando interrupciones innecesarias y fomentando el respeto hacia los demás usuarios. También es una forma efectiva de hacer cumplir las políticas de silencio o de nivel de ruido bajo en el lugar, lo que contribuye a mejorar la experiencia de todos los visitantes de la biblioteca.

Aquí hay algunas características y funciones comunes de un medidor de ruido:

  1. Medición de decibeles: Los medidores de ruido miden el nivel de presión sonora en decibeles (dB), que es una unidad de medida que representa la intensidad del sonido.
  2. Pantalla digital: La mayoría de los medidores de ruido tienen una pantalla digital que muestra el nivel de ruido en tiempo real.
  3. Umbral de advertencia: Algunos medidores de ruido pueden configurarse con un umbral de advertencia o límite de ruido. Cuando el nivel de ruido supera este umbral, el dispositivo puede activar una alarma o una señal de advertencia.
  4. Registro de datos: Muchos medidores de ruido tienen la capacidad de registrar datos de medición a lo largo del tiempo. Esto permite realizar un seguimiento de cómo varían los niveles de ruido a lo largo del día o en diferentes momentos.
  5. Calibración: Los medidores de ruido deben calibrarse regularmente para garantizar mediciones precisas.
  6. Utilidades en aplicaciones: Los medidores de ruido son utilizados en una amplia gama de aplicaciones, como en entornos industriales para evaluar el ruido en fábricas, en estudios de grabación para controlar la calidad del sonido, en la evaluación de ruido ambiental para medir la contaminación acústica y en la implementación de políticas de control de ruido en lugares como bibliotecas, hospitales o espacios públicos.

Los editores de revistas publican unas orientaciones sobre el uso de la IA en la publicación científica

Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.

Los editores de siete revistas académicas publicaron recomendaciones sobre el uso responsable de herramientas de inteligencia artificial generativa por parte de autores, revisores y editores. Las recomendaciones prohíben que las herramientas de IA generativa sean consideradas como autores, pero permiten su uso para generar texto e ilustraciones.

«Estas restricciones son necesarias en parte para proteger la calidad académica, como han señalado otras declaraciones, pero también son vitales por razones sociales más amplias», afirmó Gregory E. Kaebnick, autor principal de las recomendaciones y editor del Informe del Hastings Center.

Estas herramientas «tienen el potencial de transformar la publicación académica de maneras que pueden ser perjudiciales pero también valiosas», dice la declaración, que fue publicada en varias de las revistas de bioética y humanidades editadas por los autores y firmantes. Entre los firmantes se encuentran Karen J. Maschke, editora de la revista Ética e Investigación Humana del Hastings Center, y Laura Haupt, editora jefe del Informe del Hastings Center y Ética e Investigación Humana. Seis editores adicionales también son firmantes.

Las cinco recomendaciones son las siguientes:

  1. Las LLMs [modelos de lenguaje grandes] u otras herramientas de IA generativa no deben figurar como autores en los artículos.
  2. Los autores deben ser transparentes sobre su uso de la IA generativa, y los editores deben tener acceso a herramientas y estrategias para garantizar la transparencia de los autores.
  3. Los editores y revisores no deben depender únicamente de la IA generativa para revisar los artículos enviados.
  4. Los editores tienen la responsabilidad final de seleccionar revisores y deben ejercer una supervisión activa de esa tarea.
  5. La responsabilidad final de la edición de un artículo recae en los autores y editores humanos.

Si bien estas recomendaciones son coherentes con las tomadas por el Comité de Ética en Publicación y muchos editores de revistas, difieren en algunos aspectos. Por un lado, abordan las responsabilidades de los revisores hacia los autores. Además, la nueva declaración toma una posición diferente a la de la revista Science, que sostiene que no solo una herramienta de IA generativa no puede ser considerada autora, sino que «el texto generado por ChatGPT (u otras herramientas de IA) no puede ser utilizado en el trabajo, ni pueden los gráficos, imágenes o ilustraciones ser producto de tales herramientas».

«Una prohibición así es demasiado amplia y puede ser imposible de hacer cumplir, en nuestra opinión», afirma la nueva declaración.

Las recomendaciones son preliminares. «No pretendemos haber resuelto las numerosas cuestiones sociales que creemos que la IA generativa plantea para la publicación académica, pero en aras de fomentar una conversación más amplia sobre estas cuestiones, hemos desarrollado un conjunto preliminar de recomendaciones sobre la IA generativa en la publicación académica», señala la declaración. «Esperamos que las recomendaciones y argumentos aquí establecidos ayuden a la comunidad académica a avanzar hacia una comprensión más profunda de las fortalezas, limitaciones y desafíos de la IA para el trabajo académico responsable».

Consideraciones reglamentarias sobre inteligencia artificial para la salud

Regulatory considerations on artificial intelligence for health. World Health Organization, 2023

Texto completo

En un esfuerzo por gestionar de forma responsable el rápido auge de las tecnologías sanitarias de IA, la OMS ha esbozado seis áreas de regulación de la IA para la salud, incluida la importancia de la transparencia y la documentación, la gestión de riesgos, la validación de datos, el uso previsto, la calidad de los datos, la privacidad y la protección de datos, y el fomento de la colaboración.

ChatGPT elabora la guía Enseñar con IA

Teaching with AI

https://openai.com/blog/teaching-with-ai

Open AI empresa creadora de ChatGPT ha publicado una guía para profesores que utilicen ChatGPT en sus clases, que incluye sugerencias, una explicación del funcionamiento de ChatGPT y sus limitaciones, la eficacia de los detectores de IA y los prejuicios.

La herramienta, proporciona recursos adicionales de las principales organizaciones educativas sobre cómo enseñar con y sobre IA, y respuestas a las preguntas más frecuentes de los educadores sobre temas como el funcionamiento de ChatGPT, sus limitaciones, la eficacia de los detectores de IA y los prejuicios.

Cómo utilizan los profesores ChatGPT

  1. Interpretación de conversaciones difíciles
    La Dra. Helen Crompton, catedrática de Tecnología Educativa en la Universidad Old Dominion, anima a sus estudiantes de postgrado en educación a utilizar ChatGPT como un sustituto de una persona concreta, como un compañero de debate que les señalará los puntos débiles de sus argumentos, un reclutador que les está entrevistando para un trabajo o un nuevo jefe que podría darles su opinión de una manera específica. Dice que explorar la información en un contexto de conversación ayuda a los estudiantes a comprender el material con más matices y desde una nueva perspectiva.

2. Crear cuestionarios, exámenes y planes de clase a partir de materiales curriculares
Fran Bellas, profesor de la Universidade da Coruña (España), recomienda a los profesores que utilicen ChatGPT como asistente para elaborar cuestionarios, exámenes y planes de clase. Bellas dice que primero hay que compartir el plan de estudios con ChatGPT y luego pedirle ideas nuevas para los cuestionarios y las lecciones que utilicen ejemplos modernos o culturalmente relevantes. Bellas también recurre a ChatGPT para ayudar a los profesores a asegurarse de que las preguntas que ellos mismos escriben son inclusivas y accesibles para el nivel de aprendizaje de los alumnos. «Si vas a ChatGPT y le pides que cree exámenes de 5 preguntas sobre circuitos eléctricos, los resultados son muy novedosos. Puedes coger esas ideas y hacerlas tuyas».

3. Reducir la dificultad para los no angloparlantes
El Dr. Anthony Kaziboni, Jefe de Investigación de la Universidad de Johannesburgo, da clase a estudiantes que en su mayoría no hablan inglés fuera del aula. Kaziboni cree que el dominio del inglés es una enorme ventaja en el mundo académico, y que los malentendidos, incluso de pequeños detalles de la gramática inglesa, pueden frenar el reconocimiento y las oportunidades de los estudiantes. Anima a sus alumnos a utilizar ChatGPT como ayuda para traducir, mejorar su redacción en inglés y practicar la conversación.

4. Enseñar a los alumnos el pensamiento crítico
Geetha Venugopal, profesora de informática de secundaria en la American International School de Chennai (India), compara la enseñanza de las herramientas de IA con el uso responsable de Internet. En su clase, aconseja a los alumnos que recuerden que las respuestas que da ChatGPT pueden no ser creíbles y exactas todo el tiempo, y que piensen críticamente si deben confiar en la respuesta, y luego confirmen la información a través de otros recursos primarios. El objetivo es ayudarles a «comprender la importancia de trabajar constantemente sus habilidades originales de pensamiento crítico, resolución de problemas y creatividad».

La (nueva) biblioteca de Babel

Valenzuela Navarrete, G. (2013). La (nueva) biblioteca de Babel. Entretextos5(15), 1–7. https://doi.org/10.59057/iberoleon.20075316.201315475

Ha llegado el momento en el que nos resulta difícil concebir la vida sin computadoras e Internet; sin embargo, a menudo se desconoce el origen de un invento que se ha hecho tan omnipresente en nuestros días. En este artículo, se hace primero un repaso de cómo surgieron los primeros intentos por compactar la información en microchips hasta llegar a los actuales lectores electrónicos, tipo Kindle o Papyre. En segundo lugar, se hace referencia breve a la manera en la que Internet y las tecnologías relacionadas están transformando la literatura. Además, se propone al final una nueva manera de considerar los elementos básicos del ejercicio literario, lector, autor y editor.