Archivo de la categoría: Tecnologías de la información

Armados con ChatGPT, los ciberdelincuentes crean malware y traman falsos bots de chicas

Brewster, Thomas. «Armed With ChatGPT, Cybercriminals Build Malware And Plot Fake Girl Bots». Forbes. Accedido 27 de enero de 2023.

Ver original

Los usuarios de foros clandestinos empiezan a compartir malware codificado por la sensación viral de OpenAI y los estafadores de citas planean crear falsas chicas convincentes con la herramienta. Los pronosticadores cibernéticos predicen que se avecinan más usos maliciosos de ChatGPT.

Los ciberdelincuentes han empezado a utilizar ChatGPT, el chatbot de inteligencia artificial de OpenAI, para crear rápidamente herramientas de pirateo informático, advirtieron el viernes investigadores en ciberseguridad. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes con el fin de captar objetivos, según declaró a Forbes un experto que monitoriza foros de delincuentes.

Muchos de los primeros usuarios de ChatGPT habían dado la voz de alarma ante la posibilidad de que la aplicación, que se hizo viral en los días posteriores a su lanzamiento en diciembre, pudiera codificar software malicioso capaz de espiar las pulsaciones del teclado de los usuarios o crear ransomware.

Según un informe de la empresa de seguridad israelí Check Point, los foros clandestinos de delincuentes han terminado por darse cuenta. En uno de los foros analizados por Check Point, un hacker que ya había compartido malware para Android mostraba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en un ordenador y podía cargar más malware en un PC infectado.

En el mismo foro, otro usuario compartió un código Python que podía cifrar archivos, afirmando que la aplicación de OpenAI les había ayudado a construirlo. Afirmaban que era el primer script que habían desarrollado. Como señaló Check Point en su informe, dicho código puede utilizarse con fines totalmente benignos, pero también podría «modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario», de forma similar a como funciona el ransomware. El mismo usuario del foro había vendido anteriormente acceso a servidores de empresas pirateados y datos robados, señaló Check Point.

Un usuario también habló de «abusar» de ChatGPT haciendo que ayudara a codificar las características de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podía crear rápidamente una aplicación que monitorizara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que había visto a estafadores de citas empezar a utilizar ChatGPT también, ya que tratan de crear personajes convincentes. «Están planeando crear chatbots para hacerse pasar sobre todo por chicas para llegar más lejos en los chats con sus marcas», dijo. «Intentan automatizar la charla ociosa».

OpenAI no había respondido a la solicitud de comentarios en el momento de la publicación.

Aunque las herramientas codificadas por ChatGPT parecían «bastante básicas», Check Point dijo que era sólo cuestión de tiempo hasta que hackers más «sofisticados» encontraran la forma de convertir la IA en su ventaja. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT fuera aún capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en importantes incidentes de piratería informática en los últimos años, como Conti, tristemente célebre por su uso en la violación del sistema nacional de salud de Irlanda. La herramienta de OpenAI, sin embargo, reducirá la barrera de entrada para que los novatos se introduzcan en ese mercado ilícito mediante la creación de malware más básico, pero igualmente eficaz, añadió Ferguson.

También planteó la preocupación de que ChatGPT, en lugar de crear código que robe los datos de las víctimas, pueda utilizarse para crear sitios web y bots que engañen a los usuarios para que compartan su información. Podría «industrializar la creación y personalización de páginas web maliciosas, campañas de phishing muy selectivas y estafas basadas en ingeniería social», añadió Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, declaró a Forbes que ChatGPT será una «gran herramienta» para que los hackers rusos que no dominan el inglés elaboren correos electrónicos de phishing de apariencia legítima.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia y «por desgracia», tendrían que aplicarse mediante regulación. OpenAI ha implementado algunos controles, como la prevención de solicitudes obvias de ChatGPT para crear programas espía con advertencias de infracción de la política, aunque los hackers y los periodistas han encontrado formas de eludir esas protecciones. Shykevich afirma que quizá haya que obligar legalmente a empresas como OpenAI a entrenar a su IA para detectar este tipo de abusos.

Los chatbots de IA no sustituyen a la autoría humana: ChatGPT «¿Eres una persona real?»

George Tombs ‘Are You a Real Person?’: AI Chatbots No Substitute for Human Authorship», thestar.com. «Opinion 6 de enero de 2023.

Texto completo

ChatGPT, una aplicación de generación de textos mediante inteligencia artificial, está causando conmociones virales en todo el mundo. Desarrollada por una fundación financiada inicialmente por el inconformista tecnológico Elon Musk, ahora se presenta a menudo como una innovación que podría sustituir de un plumazo a categorías enteras de trabajos, haciendo superfluo el trabajo de muchos humanos.

Esta aplicación escanea millones de sitios web en un abrir y cerrar de ojos, recogiendo contenidos aquí y allá, y destilándolos en textos breves, estructurados y aparentemente coherentes. Todos esos sitios web y publicaciones en las redes sociales se tratan como contenido abstracto, listo para la primicia.

Al leer los comentarios de la prensa mundial sobre ChatGPT, se muestra una mezcla bastante peculiar de extravagancia, curiosidad, miedo y obsesión. Por ejemplo, algunos comentaristas se preguntan si el propio periodismo está condenado. Otros se preguntan si las universidades deberían exigir a los estudiantes que presenten trabajos de investigación escritos a mano, en lugar de mecanografiados en un ordenador.

Sin duda, esta tecnología de IA podría invadir el espacio interior de nuestras conciencias, empujándonos sutilmente a un salón virtual de espejos donde ya no podemos distinguir entre lo real y lo irreal. Podría engullir el esfuerzo humano en una oleada de algoritmos, transformando a algunos creadores literarios (novelistas, biógrafos, poetas, investigadores) en técnicos hábiles en la manipulación de simulaciones generadas automáticamente de la expresión humana.

Pero, ¿por qué no dar la vuelta a las cosas? Si una aplicación es una herramienta, seguro que puedo sacarle el máximo partido. Así que planteo la siguiente pregunta a este ChatGPT: «¿Eres una persona real?»

Tras nueve segundos, ChatGPT respondió:

«Soy un asistente informático basado en IA, no una persona real. Me diseñaron para ayudar con tareas, responder preguntas y proporcionar información a usuarios como tú. Aunque puedo entablar una conversación y realizar muchas tareas que podrían asociarse a una persona, no tengo sentimientos, pensamientos ni sensaciones físicas. Existo para ayudar a usuarios como tú de diversas maneras, y estoy aquí para ayudarte lo mejor que pueda. ¿Hay algo específico que le gustaría saber o discutir?».

Esta respuesta me parece refrescante, incluso cortés, como si el pequeño chatbot reconociera sus propias limitaciones.

Como autor, sé lo difícil, incluso tortuoso, que es el camino de la creación. He aprendido que el aspecto más difícil de crear una obra -incluso más que encontrar palabras para un libro o imágenes para una película- es encontrar tu propia voz.

Las obras creativas nos emocionan cuando cuentan nuevas historias de una manera poco convencional, cuando tienen una voz auténtica. Y esta voz es una de las muchas cosas que diferencian a los humanos de los chatbots.

Ser autor significa afirmar una identidad. Significa asumir la responsabilidad de lo que creas, compartir cada obra con el público y garantizar que se respeten tus derechos de propiedad intelectual.

Un chatbot nunca puede ser autor de nada. Sólo puede reordenar lo que ya se ha dicho, ya que da a los contenidos aleatorios un barniz de verosimilitud. Un chatbot no puede proporcionar un texto fiable, ya que refunde y fusiona cualquier cosa en la web, incluidas las teorías conspirativas, el negacionismo y el discurso del odio. La producción de un chatbot es, por tanto, puramente derivativa, y refleja la grandeza y la miseria de la condición humana.

Además, me he dado cuenta de que ChatGPT a veces suelta tonterías al azar. Me recuerda a mis experiencias, a menudo risibles, con otra aplicación de IA: el GPS de mi teléfono.

Cuando conduzco por las calles de mi nueva ciudad natal, Quebec, mi asistente GPS cambia aleatoriamente del francés al inglés, del inglés con acento parisino al inglés con acento neoyorquino. Como si en cada esquina mi asistente GPS sufriera un shock virtual, luchando por adaptarse a cada nueva geolocalización.

No me digan que los errores informáticos se deben a una programación humana imperfecta y no a la propia tecnología subyacente.

ChatGPT puede ser una herramienta útil. Como mínimo, esta aplicación nos incita a reflexionar más profundamente sobre la comunicación, que se basa en nuestras relaciones mutuas.

Como para tranquilizarme, ChatGPT añadió a lo que decía antes:

«Hay muchas diferencias entre una persona y un asistente informático de IA como yo. Una diferencia clave es que las personas son seres vivos con cuerpos físicos y conciencia, mientras que los asistentes de IA como yo son entidades puramente digitales que existen dentro de ordenadores u otros dispositivos electrónicos».

La autoría es (todavía) humana. Y pretendo que siga siendo así.

Más de 400 mayores aprenden a detectar estafas y a utilizar aplicaciones cotidianas

Ang, Shermaine. «Over 400 Seniors Learn How to Spot Scams, Use Everyday Apps at Smart Nation Grandparents’ Day Event». The Straits Times. 28 de noviembre de 2022. https://www.straitstimes.com/singapore/over-400-seniors-learn-how-to-spot-scams-use-everyday-apps-at-smart-nation-grandparents-day-event.

Más de 400 personas mayores aprendieron a utilizar aplicaciones cotidianas como PayLah y Singpass, así como a detectar señales de estafa, en un acto celebrado el lunes en la Biblioteca Nacional con motivo del primeDía de los Abuelos.

Asistieron a charlas y recibieron formación individualizada sobre el uso de los servicios públicos digitales en el acto organizado por Smart Nation Digital Government Office. El objetivo pretende que los mayores adopten la tecnología en su vida cotidiana.

El programa se basó en una encuesta realizada en septiembre por el organizador entre más de 100 singapurenses para averiguar qué quieren los mayores de los servicios digitales y cómo puede ayudar la tecnología a estrechar los lazos familiares.

Los resultados mostraron que los encuestados querían que la generación de más edad aprendiera a utilizar sus teléfonos inteligentes y a evitar estafas. Los encuestados también dijeron que actividades como hacer vídeos y digitalizar álbumes de fotos podrían fomentar las relaciones intergeneracionales. Los mayores de 60 años encuestados dijeron que no sabían qué aplicaciones utilizar para conectar con la generación más joven aparte de WhatsApp y que querían aprender más.

Es fácil perder el contacto con familiares que no han seguido el ritmo de los cambios. Y para algunos, seguir únicamente en el mundo analógico puede convertirse en un lugar cada vez más solitario. El apoyo de la familia es fundamental para que los mayores se adapten a la digitalización en su vida cotidiana.

Los mayores recibieron consejos sobre ciberseguridad en una charla el lunes. Entre ellos, tener una contraseña que sea una frase en lugar de una sola palabra, y no introducir información sensible en línea cuando se utiliza Wi-Fi gratuito, ya que los hackers podrían estar suplantando una red pública para obtener los datos de los usuarios.

También pueden acudir a centros comunitarios y bibliotecas públicas para sesiones individuales con un embajador digital.

PaLM + RLHF: una alternativa de código abierto a ChatGPT

Wiggers, Kyle. «There’s Now an Open Source Alternative to ChatGPT, but Good Luck Running It». TechCrunch (blog), 30 de diciembre de 2022. https://techcrunch.com/2022/12/30/theres-now-an-open-source-alternative-to-chatgpt-but-good-luck-running-it/

Esta semana, Philip Wang, el desarrollador responsable de la ingeniería inversa de sistemas de IA de código cerrado, como Make-A-Video de Meta, ha lanzado PaLM + RLHF, un modelo de generación de texto que se comporta de forma similar a ChatGPT. El sistema combina PaLM, un gran modelo lingüístico de Google, y una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF, por sus siglas en inglés) para crear un sistema capaz de realizar prácticamente cualquier tarea que ChatGPT pueda realizar, incluida la redacción de correos electrónicos y la sugerencia de código informático.

Pero PaLM + RLHF no está preentrenado. Es decir, el sistema no ha sido entrenado con los datos de ejemplo de la web necesarios para que realmente funcione. Descargar PaLM + RLHF no te proporcionará por arte de magia una experiencia similar a la de ChatGPT, ya que para ello sería necesario compilar gigabytes de texto a partir de los cuales el modelo pueda aprender y encontrar un hardware lo suficientemente potente como para soportar la carga de trabajo del entrenamiento.

Al igual que ChatGPT, PaLM + RLHF es esencialmente una herramienta estadística para predecir palabras. Cuando se le alimenta con un enorme número de ejemplos de datos de entrenamiento -por ejemplo, entradas de Reddit, artículos de noticias y libros electrónicos-, PaLM + RLHF aprende la probabilidad de que aparezcan palabras basándose en patrones como el contexto semántico del texto circundante.

ChatGPT y PaLM + RLHF comparten una salsa especial en el Aprendizaje por Refuerzo con Retroalimentación Humana, una técnica que pretende alinear mejor los modelos lingüísticos con lo que los usuarios desean que logren. RLHF consiste en entrenar un modelo lingüístico -en el caso de PaLM + RLHF, PaLM- y afinarlo en un conjunto de datos que incluye preguntas (por ejemplo, «Explica el aprendizaje automático a un niño de seis años») junto con lo que los voluntarios humanos esperan que diga el modelo (por ejemplo, «El aprendizaje automático es una forma de IA…»). A continuación, los voluntarios clasifican todas las respuestas de mejor a peor. Por último, las clasificaciones se utilizan para entrenar un «modelo de recompensa» que toma las respuestas del modelo original y las clasifica por orden de preferencia, filtrando las mejores respuestas a una pregunta determinada.

Recopilar los datos de entrenamiento es un proceso costoso. Y el entrenamiento en sí no es barato. PaLM tiene un tamaño de 540.000 millones de parámetros, entendiendo por «parámetros» las partes del modelo lingüístico aprendidas a partir de los datos de entrenamiento. Un estudio de 2020 cifraba en 1,6 millones de dólares los gastos de desarrollo de un modelo de generación de texto con sólo 1.500 millones de parámetros. Y para entrenar el modelo de código abierto Bloom, que tiene 176.000 millones de parámetros, se necesitaron tres meses utilizando 384 GPU Nvidia A100; una sola A100 cuesta miles de dólares.

Ejecutar un modelo entrenado del tamaño de PaLM + RLHF tampoco es trivial. Bloom requiere un PC dedicado con unas ocho GPU A100. Las alternativas en la nube son caras: según los cálculos aproximados, el coste de ejecutar el GPT-3 de generación de texto de OpenAI (que tiene unos 175.000 millones de parámetros) en una única instancia de Amazon Web Services es de unos 87.000 dólares al año.

¿ChatGPT te quitará el trabajo? ¿Qué empleos tienen mayor probabilidad de verse afectados?

Frederick, Brian. «Will ChatGPT Take Your Job?» Search Engine Journal, 16 de enero de 2023.

Ver completo

ChatGPT tiene todos los visos de ser un cambio tecnológico. Pero, ¿te quitará ChatGPT el trabajo? Se trata de un chatbot basado en el aprendizaje automático y en grandes cantidades de datos, que interactúa con los usuarios de una forma increíblemente realista.

ChatGPT de OpenAI hace mucho más que mantener conversaciones virtuales. Puede generar contenidos como poemas o trabajos, depurar código, responder consultas y mucho más. Se trata de un acontecimiento apasionante. Pero, a nivel personal, es más que preocupante, sobre todo por su impacto en la seguridad laboral.

Si la tecnología llega a un nivel en el que puede realizar tu trabajo tan bien o mejor que tú, ¿a qué te vas a dedicar? La mayoría de la gente ha pasado toda su carrera trabajando en un solo campo. ¿Se supone que todos van a ser carpinteros o masajistas? Y si es así, ¿no será intensa la competencia por esos puestos? ¿Cómo sobreviviremos?

La sola idea basta para provocar un ataque de pánico. Pero relájate. Respire en una bolsa de papel si es necesario. Las cosas no son tan desesperadas. Todo va a ir bien. Los aviones tienen un complejo sistema de piloto automático y, durante un vuelo, están controlados en su mayor parte por ordenadores, pero los pilotos están ahí sentados y para ajustar los controles del ordenador siempre que es necesario.

Sí, en una escala de tiempo lo suficientemente larga, la tecnología acabará asumiendo tu papel actual. Sin embargo, es poco probable que esto ocurra pronto. El aprendizaje automático y la inteligencia artificial aún están en pañales, y con suerte se habrá jubilado hace tiempo antes de que las máquinas vengan a quitarte el trabajo.

Y antes de que eso ocurra, el poder de herramientas como ChatGPT te permitirá desempeñar tu función con mucha mayor eficiencia y eficacia.

En este artículo, se da un vistazo a algunos de los puestos de trabajo que con mayor probabilidad se verán afectados por ChatGPT y se califica su seguridad en una escala del 1 al 10, en la que uno significa que no hay posibilidad de sustitución por máquinas y diez significa que hay que pulir el currículum, porque estás a punto de recibir tu carta de despido.

Profesionales de la optimización de motores de búsqueda. Teniendo en cuenta que esto es Search Engine Journal, nuestra primera área de preocupación es sobre el futuro de los trabajos de SEO. No hay duda de que ChatGPT y otros programas similares cambiarán la forma de trabajar de los profesionales del SEO. Pero esto es optimización de motores de búsqueda – el cambio es la única constante. Riesgo de sustitución: 2/10.

Programadores. Pero una de las características clave que siguen apareciendo en los debates sobre ChatGPT es su capacidad para escribir código. Imagínatelo: código que escribe código nuevo, sin olvidar nunca un decimal o un corchete de cierre. Riesgo de sustitución: 4/10.

Especialistas en pago por clic (PPC). En general, los especialistas en PPC no parecen tan preocupados por el impacto de ChatGPT y otras tecnologías de IA en su seguridad laboral. Si alguna vez has configurado una campaña PPC, habrás utilizado el poder de la inteligencia artificial, o al menos algo muy parecido. Las Reglas Automatizadas podrían ser vistas como un tipo rudimentario de IA, donde creas reglas para casos de uso común. Riesgo de sustitución: 2/10.

Escritores. Como ya se habrán imaginado, éste es un aspecto que preocupa especialmente. ¿Qué va a hacer la gente que depende de la creación de la palabra escrita, cuando ChatGPT y similares pueden inventar un titular mejor, más rápido y más eficaz en menos tiempo? Riesgo de sustitución: 2/10.

Profesionales de ventas. No hay duda de que los macrodatos y la IA pueden utilizarse para revolucionar el proceso de ventas. Desde una segmentación más precisa hasta la predicción de comportamientos, no cabe duda de que pueden utilizarse para que las ventas sean más fáciles y eficientes. Riesgo de sustitución: 1/10.

Educadores. Si las personas fueran máquinas frías e indiferentes, no habría mejor manera de educarlas que de memoria. Pero los seres humanos no son ordenadores y la educación es mucho más que transmitir conocimientos. Y ningún tipo de programación, ajuste de algoritmos y procesamiento de datos puede sustituir a intangibles humanos como la paciencia, la disciplina, la amabilidad y la preocupación genuina por el bienestar de los alumnos. Al igual que ocurre con las ventas, a pesar de los avances tecnológicos, parece inconcebible que ChatGPT u otra herramienta de inteligencia artificial pueda sustituir a los educadores humanos. Pero esto no quiere decir que no vaya a cambiar la forma de hacer las cosas. Desde la calificación hasta el seguimiento del progreso, pasando por el desarrollo de planes de aprendizaje personalizados o la mejora de la accesibilidad, hay muchas oportunidades para utilizar esta nueva y emocionante tecnología en este campo. Riesgo de sustitución: 1/10

Abogados. A primera vista, el Derecho parece un campo en el que la inteligencia artificial va a avanzar a pasos agigantados. Después de todo, ¿qué es el Derecho, aparte de un conjunto codificado de instrucciones? ¿Por qué no podría utilizarse ChatGPT para analizar documentos jurídicos, decisiones y precedentes, y luego aplicar ese conocimiento a casos del mundo real? Hay que tener en cuenta el factor humano. Uno de los principales argumentos contra las sentencias mínimas obligatorias en los juicios penales es que cada situación es única. Riesgo de sustitución: 1/10.

ChatGPT y otros programas que emplean el aprendizaje automático y el big data en busca de la inteligencia artificial pueden ser herramientas maravillosas. Son muy prometedoras para reducir o incluso eliminar muchas de las tareas cotidianas. Dicho esto, algunos sectores tienen más probabilidades de ser sustituidos por máquinas en los próximos años o décadas. Entre ellos se encuentran puestos como el de recepcionista, muchos trabajos de atención al cliente, trabajos de conductor, incluidos taxistas y camioneros, y soldados.

También existe la legítima preocupación de que herramientas de IA como ChatGPT puedan ser utilizadas por personas o empresas sin escrúpulos. Desde los estudiantes que hacen trampas en la universidad hasta los resúmenes científicos falsos, que las herramientas de IA causen daños depende mucho de cómo las utilicemos. Puede que algunas empresas sean más rápidas que otras a la hora de intentar reducir costes con la IA. Pero también es probable que haya resistencia por cuestiones de precisión, ética y política. Una cosa es segura: por cada puesto que sustituyan, lo pagarán de otras formas, creando nuevas oportunidades e industrias sobre la marcha.

La lectura digital en la primera infancia

La lectura digital en la primera infancia. Buenos Aires: CERLALC, 2019

Texto completo

Uno de los temas que en los últimos años han cobrado mayor relevancia en este campo es el contacto de los niños más pequeños con las tecnologías digitales. Ante la significativa expansión del uso de dispositivos móviles y de la cobertura de internet en el ámbito mundial, los niños entran en contacto a una edad cada vez más temprana con estas tecnologías. Aunque persisten las desigualdades en el acceso a la red y a los dispositivos electrónicos para varios sectores de la población en los países iberoamericanos, las tecnologías de la información y la comunicación comienzan a tener una presencia significativa en las primeras aproximaciones de los más pequeños a la lectura y la escritura.

Los artículos que conforman esta publicación, que se enmarcan en estas recomendaciones médicas para prevenir los potenciales prejuicios de las tecnologías digitales en el desarrollo de los niños, presentan diversos postulados teóricos y científicos, y dan cuenta de las eventuales limitaciones, ventajas y posibilidades del uso de dispositivos electrónicos y contenidos digitales como herramienta de acceso por parte de los niños más pequeños a la cultura escrita. Desde una diversidad de enfoques y disciplinas, sus autores señalan las implicaciones que tiene el contacto temprano de los niños con las nuevas tecnologías para su salud, su seguridad y su formación como
lectores. También, enfatizan en el rol fundamental que frente a este tema deben cumplir a los padres de familia, educadores y otros mediadores, como responsables de considerar los riesgos, seleccionar contenidos adecuados para los pequeños y acompañarlos permanentemente en su aproximación a las tecnologías digitales, las cuales, debido justamente a las múltiples posibilidades que ofrece su uso, distan mucho de ser un divertimento inocuo para los menores de 6 años de edad.

La nueva IA de Microsoft puede simular la voz de cualquier persona con una muestra de 3 segundos de audio

Edwards, Benj. «Microsoft’s New AI Can Simulate Anyone’s Voice with 3 Seconds of Audio». Ars Technica, 9 de enero de 2023. https://arstechnica.com/information-technology/2023/01/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio/.

El jueves, investigadores de Microsoft anunciaron un nuevo modelo de inteligencia artificial de texto a voz llamado VALL-E que puede simular fielmente la voz de una persona cuando se le da una muestra de audio de tres segundos. Una vez que aprende una voz específica, VALL-E puede sintetizar el audio de esa persona diciendo cualquier cosa y hacerlo de una manera que intenta preservar el tono emocional del hablante.

Sus creadores especulan con que VALL-E podría utilizarse para aplicaciones de conversión de texto a voz de alta calidad, edición de voz en las que una grabación de una persona podría editarse y cambiarse a partir de una transcripción de texto (haciéndole decir algo que originalmente no dijo), y creación de contenido de audio cuando se combina con otros modelos generativos de IA como GPT-3.

Microsoft llama a VALL-E un «modelo de lenguaje de códec neural», y se basa en una tecnología llamada EnCodec, que Meta anunció en octubre de 2022. A diferencia de otros métodos de conversión de texto en voz que suelen sintetizar el habla manipulando formas de onda, VALL-E genera códigos de códec de audio a partir de texto e indicaciones acústicas. Básicamente, analiza cómo suena una persona, descompone esa información en componentes (llamados «tokens») gracias a EnCodec, y utiliza datos de entrenamiento para hacer coincidir lo que «sabe» sobre cómo sonaría esa voz si pronunciara otras frases fuera de la muestra de tres segundos. O, como dice Microsoft en el artículo sobre VALL-E

Microsoft entrenó las capacidades de síntesis de voz de VALL-E con una biblioteca de audio, reunida por Meta, llamada LibriLight. Contiene 60.000 horas de habla inglesa de más de 7.000 hablantes, en su mayoría extraídas de audiolibros de dominio público de LibriVox. Para que VALL-E genere un buen resultado, la voz de la muestra de tres segundos debe ser muy parecida a la de los datos de entrenamiento.

Posibles aplicaciones de la tecnología Blockchain a las bibliotecas y al mundo de la investigación

Basado en el artículo de Alonso-Arévalo, Julio ; Ledesma-Ayora, Marco. Posibles aplicaciones de la tecnología Blockchain a las bibliotecas y al mundo de la investigación. Desiderata, vol. 14, p. 104-109

Se describe la tecnología blockhain (tecnología de cadenas de bloque) como una serie de registros de datos inmutables con fecha de caducidad, que es administrada por un grupo de ordenadores que no son propiedad de ninguna entidad individual, en el que cada uno de estos bloques de datos se asegura y se vincula entre sí mediante principios criptográficos, sin que exista una autoridad central. Esta tecnología permite distribuir registros de contabilidad públicos que contienen datos de forma segura y cifrada y garantiza que las transacciones nunca puedan ser alteradas. De este modo, se pueden realizar transacciones sin necesidad de intermediarios como plataformas de pago, lo cual facilita el acercamiento entre los creadores y los usuarios de esas creaciones bibliográficas o musicales.

En relación a los posibles usos de esta tecnología en el entorno bibliotecario se mencionan las destacadas por Sandra Hirsh y Susan Alman: verificación de identidad de personas, préstamo interbibliotecario, precisión, reconocimiento de méritos para los investigadores y consistencia de los datos. Así mismo, desde el Institute of Museum and Library Services (IMLS) o el Instituto Max Plank se ofrecen las siguientes sugerencias: adquisiciones, préstamo y préstamo interbibliotecario, verificación de identidad, gestión de datos de investigación y reconocimiento de méritos de investigación. También Jon Treadway y Joris Van Rossum proponen una serie de aplicaciones para la cadena de bloques dentro de la ciencia, que incluirían: facilitar la carga automática, sellado y, en caso necesario, cifrado de datos de investigación; agilizar el flujo de trabajo de investigación y reducir los errores; proporcionar una función de notarización permitiendo a los investigadores publicar un texto o archivo con ideas, resultados o simplemente datos; registrar diseños de estudio utilizando la cadena de bloques; utilizar contratos inteligentes para que en los protocolos de investigación que se establezcan en la “cadena de bloques” se automaticen incluso antes de que se recojan los datos, la metodología y el análisis; mejorar el proceso de revisión por pares que podría hacerse a través de la “cadena de bloques” de manera que los datos subyacentes a los resultados publicados podrían estar disponibles con antelación. Se concluye que en el mundo de las bibliotecas blockchain es la clave para una nueva era de transparencia y confianza en la cadena de suministro, tal como apuntan algunos especialistas, promete aportar soluciones innovadoras, inspirar un crecimiento positivo, generar prosperidad y, desarrollar comunidades más fuertes.

Definición de inteligencia artificial para bibliotecarios

Cox, A. M., & Mazumdar, S. (2022). Defining artificial intelligence for librarians. Journal of Librarianship and Information Science, 0(0). https://doi.org/10.1177/09610006221142029

El objetivo de este artículo es definir la Inteligencia Artificial (IA) para los bibliotecarios examinando las definiciones generales de IA, analizando el conjunto de tecnologías que componen la IA, definiendo los tipos de casos de uso por área de funcionamiento de la biblioteca y reflexionando sobre las implicaciones para la profesión, incluso desde una perspectiva de igualdad, diversidad e inclusión.

Se trata de un artículo conceptual basado en una revisión exploratoria de la literatura, dirigido a bibliotecarios interesados en la IA desde una perspectiva más estratégica que técnica.

Se identifican cinco tipos distintos de casos de uso de la IA para las bibliotecas, cada uno con sus propios impulsores y barreras subyacentes, y demandas de competencias. Se trata de aplicaciones en los procesos internos de las bibliotecas, en los servicios bibliotecarios, a través de la creación de comunidades de científicos de datos, en la alfabetización en datos e IA y en la gestión de usuarios. Cada una de estas aplicaciones tiene sus propios impulsores y obstáculos. Es difícil anticipar el impacto en el trabajo profesional, pero a medida que el entorno de la información se vuelve más complejo es probable que los bibliotecarios sigan teniendo un papel muy importante, especialmente dada la dependencia de la IA de los datos. Sin embargo, podría haber algunas repercusiones negativas sobre la igualdad, la diversidad y la inclusión si las competencias en IA no se difunden ampliamente.

Los 10 principales problemas tecnológicos en bibliotecas

El mes pasado, EDUCAUSE publicó sus 10 principales problemas de TI para 2022. Para llegar a los 10 principales, se pidió a los miembros de EDUCAUSE que priorizaran 17 problemas identificados por los miembros del panel de problemas de TI de EDUCAUSE. Los miembros del Panel de Temas luego se dividieron en grupos para escribir ensayos sobre los 10 temas. Este informe comienza con un resumen de 1.500 palabras de los temas comunes, seguido de los propios ensayos.

Los 10 principales problemas de TI de EDUCAUSE 2022 tienen una visión optimista de cómo la tecnología puede ayudar a hacer la educación superior que merecemos, a través de una visión y una estrategia de transformación compartidas para la institución, un reconocimiento de la necesidad de colocar el éxito de los estudiantes en el centro y un modelo de negocio sostenible que ha redefinido “el campus”.

En la parte superior del artículo, los editores de EDUCAUSE ponen un tono optimista sobre las oportunidades para la educación superior que surgen de la pandemia que puede habilitar la tecnología educativa.

  1. ¡Ciber por todas partes! ¿Estamos preparados?: Desarrollar procesos y controles, infraestructura institucional y habilidades de la fuerza laboral institucional para proteger y asegurar los datos y la integridad de la cadena de suministro
  2. Evolucionar o extinguirse: acelerar la transformación digital para mejorar la eficiencia operativa, la agilidad y el desarrollo de la fuerza laboral institucional
  3. Facultad digital para un futuro digital: garantizar que la facultad tenga la fluidez digital para proporcionar un compromiso creativo, equitativo e innovador para los estudiantes
  4. Aprendiendo de COVID-19 para construir un futuro mejor: usar la digitalización y la transformación digital para producir sistemas tecnológicos más centrados en el estudiante y con mentalidad de equidad
  5. El juego de equilibrio entre lo digital y lo físico: crear un campus mixto para proporcionar espacios de aprendizaje y trabajo digitales y físicos
  6. De la escasez digital a la abundancia digital: lograr un acceso digital completo y equitativo para los estudiantes mediante la inversión en conectividad, herramientas y habilidades
  7. ¿El mundo cada vez más reducido de la educación superior o una oportunidad ampliada? Desarrollar una visión institucional y una propuesta de valor pospandemia mejoradas con tecnología
  8. Superar el cambio a la nube: crear una estrategia de nube y SaaS que reduzca los costos y mantenga el control
  9. ¿Podemos aprender de una crisis? Crear un plan práctico de preparación para desastres para capitalizar el cambio cultural y las inversiones relacionadas con la pandemia
  10. Creatividad radical: ayudar a los estudiantes a prepararse para el futuro brindándoles herramientas y espacios de aprendizaje que fomenten prácticas creativas y colaboraciones.