Archivo de la etiqueta: Inteligencia artificial

Una marca de agua podría detectar los textos escritos por herramientas de Inteligencia Artificial como ChatGTP

«A Watermark for Chatbots Can Expose Text Written by an AI». MIT Technology Review. Accedido 29 de enero de 2023.

Ver completo

Los textos generados por inteligencia artificial podrían identificarse como tales mediante marcas ocultas, que nos permitirían saber si las palabras que leemos han sido escritas por un ser humano o no.

Estas «marcas de agua» son invisibles al ojo humano, pero permiten a los ordenadores detectar que el texto procede probablemente de un sistema de IA como ChatGTP. Si se incorporan a grandes modelos lingüísticos, podrían ayudar a evitar algunos de los problemas que estos modelos ya están causado.

Por ejemplo, desde que se lanzó en noviembre el chatbot ChatGPT de OpenAI, los estudiantes ya han empezado a hacer trampas utilizándolo para que escriba trabajos declase por ellos. El sitio web de noticias CNET ha utilizado ChatGPT para escribir artículos, pero ha tenido que corregirlos ante las acusaciones de plagio. Incorporar la marca de agua a estos sistemas antes de su lanzamiento podría ayudar a resolver estos problemas.

En algunos estudios, estas marcas de agua ya se han utilizado para identificar con casi total certeza textos generados por IA. Los investigadores de la Universidad de Maryland, por ejemplo, fueron capaces de detectar el texto creado por el modelo lingüístico de código abierto de Meta, OPT-6.7B, mediante un algoritmo de detección creado por ellos. El trabajo se describe en un artículo que aún no ha sido revisado por pares, este código estará disponible gratuitamente en torno al 15 de febrero.

«Ahora mismo estamos en el Salvaje Oeste», afirma John Kirchenbauer, investigador de la Universidad de Maryland que participó en el desarrollo de las marcas de agua. Kirchenbauer confía en que las herramientas de marca de agua den ventaja a los esfuerzos de detección de la IA. La herramienta que ha desarrollado su equipo podría adaptarse a cualquier modelo lingüístico de inteligencia artificial que prediga la siguiente palabra.

Los modelos lingüísticos de IA funcionan prediciendo y generando una palabra cada vez. Después de cada palabra, el algoritmo de marca de agua divide aleatoriamente el vocabulario del modelo lingüístico en palabras de una «lista verde» y una «lista roja» y, a continuación, pide al modelo que elija palabras de la lista verde.

Cuantas más palabras de la lista verde haya en un pasaje, más probable es que el texto haya sido generado por una máquina. El texto escrito por una persona suele contener una mezcla más aleatoria de palabras. Por ejemplo, para la palabra «bello», el algoritmo podría clasificar la palabra «flor» como verde y «orquídea» como roja. El modelo de IA con el algoritmo de marca de agua tendría más probabilidades de utilizar la palabra «flor» que «orquídea», explica Tom Goldstein, profesor adjunto de la Universidad de Maryland, que participó en la investigación.

ChatGPT forma parte de una nueva generación de grandes modelos lingüísticos que generan textos tan fluidos que podrían confundirse con la escritura humana. Estos modelos de IA Estos modelos de IA recopilan hechos por confianza, pero son famosos por arrojar falsedades y sesgos. Para un ojo inexperto, puede ser casi imposible distinguir un pasaje escrito por un modelo de IA de otro escrito por un ser humano. La vertiginosa velocidad de desarrollo de la inteligencia artificial hace que los nuevos modelos, más potentes, reduzcan rápidamente la eficacia de las actuales herramientas de detección de textos falsos. Es una carrera constante entre los desarrolladores de IA para crear nuevas herramientas de seguridad que puedan estar a la altura de la última generación de modelos de IA.

Armados con ChatGPT, los ciberdelincuentes crean malware y traman falsos bots de chicas

Brewster, Thomas. «Armed With ChatGPT, Cybercriminals Build Malware And Plot Fake Girl Bots». Forbes. Accedido 27 de enero de 2023.

Ver original

Los usuarios de foros clandestinos empiezan a compartir malware codificado por la sensación viral de OpenAI y los estafadores de citas planean crear falsas chicas convincentes con la herramienta. Los pronosticadores cibernéticos predicen que se avecinan más usos maliciosos de ChatGPT.

Los ciberdelincuentes han empezado a utilizar ChatGPT, el chatbot de inteligencia artificial de OpenAI, para crear rápidamente herramientas de pirateo informático, advirtieron el viernes investigadores en ciberseguridad. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes con el fin de captar objetivos, según declaró a Forbes un experto que monitoriza foros de delincuentes.

Muchos de los primeros usuarios de ChatGPT habían dado la voz de alarma ante la posibilidad de que la aplicación, que se hizo viral en los días posteriores a su lanzamiento en diciembre, pudiera codificar software malicioso capaz de espiar las pulsaciones del teclado de los usuarios o crear ransomware.

Según un informe de la empresa de seguridad israelí Check Point, los foros clandestinos de delincuentes han terminado por darse cuenta. En uno de los foros analizados por Check Point, un hacker que ya había compartido malware para Android mostraba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en un ordenador y podía cargar más malware en un PC infectado.

En el mismo foro, otro usuario compartió un código Python que podía cifrar archivos, afirmando que la aplicación de OpenAI les había ayudado a construirlo. Afirmaban que era el primer script que habían desarrollado. Como señaló Check Point en su informe, dicho código puede utilizarse con fines totalmente benignos, pero también podría «modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario», de forma similar a como funciona el ransomware. El mismo usuario del foro había vendido anteriormente acceso a servidores de empresas pirateados y datos robados, señaló Check Point.

Un usuario también habló de «abusar» de ChatGPT haciendo que ayudara a codificar las características de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podía crear rápidamente una aplicación que monitorizara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que había visto a estafadores de citas empezar a utilizar ChatGPT también, ya que tratan de crear personajes convincentes. «Están planeando crear chatbots para hacerse pasar sobre todo por chicas para llegar más lejos en los chats con sus marcas», dijo. «Intentan automatizar la charla ociosa».

OpenAI no había respondido a la solicitud de comentarios en el momento de la publicación.

Aunque las herramientas codificadas por ChatGPT parecían «bastante básicas», Check Point dijo que era sólo cuestión de tiempo hasta que hackers más «sofisticados» encontraran la forma de convertir la IA en su ventaja. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT fuera aún capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en importantes incidentes de piratería informática en los últimos años, como Conti, tristemente célebre por su uso en la violación del sistema nacional de salud de Irlanda. La herramienta de OpenAI, sin embargo, reducirá la barrera de entrada para que los novatos se introduzcan en ese mercado ilícito mediante la creación de malware más básico, pero igualmente eficaz, añadió Ferguson.

También planteó la preocupación de que ChatGPT, en lugar de crear código que robe los datos de las víctimas, pueda utilizarse para crear sitios web y bots que engañen a los usuarios para que compartan su información. Podría «industrializar la creación y personalización de páginas web maliciosas, campañas de phishing muy selectivas y estafas basadas en ingeniería social», añadió Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, declaró a Forbes que ChatGPT será una «gran herramienta» para que los hackers rusos que no dominan el inglés elaboren correos electrónicos de phishing de apariencia legítima.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia y «por desgracia», tendrían que aplicarse mediante regulación. OpenAI ha implementado algunos controles, como la prevención de solicitudes obvias de ChatGPT para crear programas espía con advertencias de infracción de la política, aunque los hackers y los periodistas han encontrado formas de eludir esas protecciones. Shykevich afirma que quizá haya que obligar legalmente a empresas como OpenAI a entrenar a su IA para detectar este tipo de abusos.

La Biblioteca Nacional de Suecia recurre a la Inteligencia Artificial para analizar siglos de datos

Salian, Isha. «Sweden’s National Library Turns Page to AI». NVIDIA Blog, 23 de enero de 2023.

Ver completo

La biblioteca está entrenando modelos de IA de última generación en medio milenio de textos suecos para apoyar la investigación en humanidades, historia, lingüística, medios de comunicación y otros campos.

Durante los últimos 500 años, la Biblioteca Nacional de Suecia ha recopilado prácticamente todas las palabras publicadas en sueco, desde manuscritos medievales de incalculable valor hasta menús de pizza actuales.

Gracias a una ley centenaria que obliga a entregar a la biblioteca un ejemplar de todo lo publicado en sueco -también conocida como Kungliga biblioteket, o KB-, sus colecciones abarcan desde lo más obvio a lo más oscuro: libros, periódicos, emisiones de radio y televisión, contenidos de Internet, tesis doctorales, postales, menús y videojuegos. Se trata de una colección muy diversa de casi 26 petabytes de datos, ideal para entrenar la IA más avanzada. «Podemos crear modelos de IA de última generación para la lengua sueca porque tenemos los mejores datos», afirma Love Börjeson, directora de KBLab, el laboratorio de datos de la biblioteca.

Utilizando NVIDIA DGX systems, el grupo ha desarrollado más de dos docenas de modelos de transformadores de código abierto, disponibles en Hugging Face. Los modelos, descargados por hasta 200.000 desarrolladores al mes, permiten la investigación en la biblioteca y otras instituciones académicas.

«Antes de que se creara nuestro laboratorio, los investigadores no podían acceder a un conjunto de datos en la biblioteca, sino que tenían que mirar un solo objeto digital cada vez», explica Börjeson. «Era necesario que la biblioteca creara conjuntos de datos que permitieran a los investigadores realizar investigaciones orientadas a la cantidad».

De este modo, los investigadores pronto podrán crear conjuntos de datos hiperespecializados, por ejemplo, para buscar todas las postales suecas que representen una iglesia, todos los textos escritos en un estilo concreto o todas las menciones de un personaje histórico en libros, artículos de prensa y programas de televisión.

Los conjuntos de datos de la biblioteca representan toda la diversidad de la lengua sueca, incluidas sus variaciones formales e informales, los dialectos regionales y los cambios a lo largo del tiempo. «Nuestro flujo de entrada es continuo y creciente: cada mes recibimos más de 50 terabytes de datos nuevos», explica Börjeson.

Además de los modelos de transformación que comprenden el texto sueco, KBLab cuenta con una herramienta de IA que transcribe sonido a texto, lo que permite a la biblioteca transcribir su vasta colección de emisiones de radio para que los investigadores puedan buscar contenidos específicos en los registros de audio.

KBLab también está empezando a desarrollar modelos de texto generativo y trabaja en un modelo de IA que podría procesar vídeos y crear descripciones automáticas de su contenido.

«También queremos vincular todas las modalidades», afirma Börjeson. «Cuando se busque un término concreto en las bases de datos de la biblioteca, deberíamos ser capaces de devolver resultados que incluyan texto, audio y vídeo».

KBLab se ha asociado con investigadores de la Universidad de Gotemburgo, que están desarrollando aplicaciones que utilizan los modelos del laboratorio para realizar investigaciones lingüísticas, incluido un proyecto de apoyo a la labor de la Academia Sueca para modernizar sus técnicas basadas en datos para crear diccionarios suecos.

Los chatbots de IA no sustituyen a la autoría humana: ChatGPT «¿Eres una persona real?»

George Tombs ‘Are You a Real Person?’: AI Chatbots No Substitute for Human Authorship», thestar.com. «Opinion 6 de enero de 2023.

Texto completo

ChatGPT, una aplicación de generación de textos mediante inteligencia artificial, está causando conmociones virales en todo el mundo. Desarrollada por una fundación financiada inicialmente por el inconformista tecnológico Elon Musk, ahora se presenta a menudo como una innovación que podría sustituir de un plumazo a categorías enteras de trabajos, haciendo superfluo el trabajo de muchos humanos.

Esta aplicación escanea millones de sitios web en un abrir y cerrar de ojos, recogiendo contenidos aquí y allá, y destilándolos en textos breves, estructurados y aparentemente coherentes. Todos esos sitios web y publicaciones en las redes sociales se tratan como contenido abstracto, listo para la primicia.

Al leer los comentarios de la prensa mundial sobre ChatGPT, se muestra una mezcla bastante peculiar de extravagancia, curiosidad, miedo y obsesión. Por ejemplo, algunos comentaristas se preguntan si el propio periodismo está condenado. Otros se preguntan si las universidades deberían exigir a los estudiantes que presenten trabajos de investigación escritos a mano, en lugar de mecanografiados en un ordenador.

Sin duda, esta tecnología de IA podría invadir el espacio interior de nuestras conciencias, empujándonos sutilmente a un salón virtual de espejos donde ya no podemos distinguir entre lo real y lo irreal. Podría engullir el esfuerzo humano en una oleada de algoritmos, transformando a algunos creadores literarios (novelistas, biógrafos, poetas, investigadores) en técnicos hábiles en la manipulación de simulaciones generadas automáticamente de la expresión humana.

Pero, ¿por qué no dar la vuelta a las cosas? Si una aplicación es una herramienta, seguro que puedo sacarle el máximo partido. Así que planteo la siguiente pregunta a este ChatGPT: «¿Eres una persona real?»

Tras nueve segundos, ChatGPT respondió:

«Soy un asistente informático basado en IA, no una persona real. Me diseñaron para ayudar con tareas, responder preguntas y proporcionar información a usuarios como tú. Aunque puedo entablar una conversación y realizar muchas tareas que podrían asociarse a una persona, no tengo sentimientos, pensamientos ni sensaciones físicas. Existo para ayudar a usuarios como tú de diversas maneras, y estoy aquí para ayudarte lo mejor que pueda. ¿Hay algo específico que le gustaría saber o discutir?».

Esta respuesta me parece refrescante, incluso cortés, como si el pequeño chatbot reconociera sus propias limitaciones.

Como autor, sé lo difícil, incluso tortuoso, que es el camino de la creación. He aprendido que el aspecto más difícil de crear una obra -incluso más que encontrar palabras para un libro o imágenes para una película- es encontrar tu propia voz.

Las obras creativas nos emocionan cuando cuentan nuevas historias de una manera poco convencional, cuando tienen una voz auténtica. Y esta voz es una de las muchas cosas que diferencian a los humanos de los chatbots.

Ser autor significa afirmar una identidad. Significa asumir la responsabilidad de lo que creas, compartir cada obra con el público y garantizar que se respeten tus derechos de propiedad intelectual.

Un chatbot nunca puede ser autor de nada. Sólo puede reordenar lo que ya se ha dicho, ya que da a los contenidos aleatorios un barniz de verosimilitud. Un chatbot no puede proporcionar un texto fiable, ya que refunde y fusiona cualquier cosa en la web, incluidas las teorías conspirativas, el negacionismo y el discurso del odio. La producción de un chatbot es, por tanto, puramente derivativa, y refleja la grandeza y la miseria de la condición humana.

Además, me he dado cuenta de que ChatGPT a veces suelta tonterías al azar. Me recuerda a mis experiencias, a menudo risibles, con otra aplicación de IA: el GPS de mi teléfono.

Cuando conduzco por las calles de mi nueva ciudad natal, Quebec, mi asistente GPS cambia aleatoriamente del francés al inglés, del inglés con acento parisino al inglés con acento neoyorquino. Como si en cada esquina mi asistente GPS sufriera un shock virtual, luchando por adaptarse a cada nueva geolocalización.

No me digan que los errores informáticos se deben a una programación humana imperfecta y no a la propia tecnología subyacente.

ChatGPT puede ser una herramienta útil. Como mínimo, esta aplicación nos incita a reflexionar más profundamente sobre la comunicación, que se basa en nuestras relaciones mutuas.

Como para tranquilizarme, ChatGPT añadió a lo que decía antes:

«Hay muchas diferencias entre una persona y un asistente informático de IA como yo. Una diferencia clave es que las personas son seres vivos con cuerpos físicos y conciencia, mientras que los asistentes de IA como yo son entidades puramente digitales que existen dentro de ordenadores u otros dispositivos electrónicos».

La autoría es (todavía) humana. Y pretendo que siga siendo así.

Archivos, acceso e inteligencia artificial: trabajar con fondos de archivo digitales y digitalizados

Jaillant, Lise, ed. Archives, Access and Artificial Intelligence: Working with Born-Digital and Digitized Archival Collections. Bielefeld University Press, 2022. 

Texto completo

Los archivos digitales están transformando las Humanidades y las Ciencias. Las colecciones digitalizadas de periódicos y libros han empujado a los académicos a desarrollar nuevos métodos ricos en datos. Los archivos digitales se conservan y gestionan mejor gracias al desarrollo de programas informáticos comerciales y de libre acceso. Las Humanidades Digitales han pasado de la periferia al centro del mundo académico. Sin embargo, el camino desde la valoración de los archivos hasta su análisis dista mucho de ser llano. Este libro explora los cruces entre varias disciplinas para mejorar la descubribilidad, accesibilidad y uso de los archivos nacidos digitalmente y otros bienes culturales.

ChatGPT: la creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica

Carpenter, Todd A. «@TAC_NISO Questions ChatGPT on Scholarly Communications». The Scholarly Kitchen, 11 de enero de 2023.

Ver completo

Más sobre ChatGPT

ChatGPT es un chatbot de código abierto que utiliza el modelo de lenguaje GPT-3 para generar respuestas a las entradas del usuario. Puede utilizarse para crear chatbots de atención al cliente, marketing u otras aplicaciones. Pero también sirve para generar textos por inteligencia artificial (IA) a partir de datos estructurados. El autor Tood A. Carpenter pregunta al propio chatbots sobre estas cuestiones: ¿Cuál es la mejor pregunta para probar un chatbot de IA? ¿Es ético que un autor utilice IA en la elaboración de un artículo académico? Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo? ¿Debería el texto basado en IA ser susceptible de derechos de autor? y otras más.

A medida que se acercaba el final de 2022, una gran parte de la atención popular se centró en el último chatbot de inteligencia artificial, ChatGPT, que fue lanzado en noviembre de 2022 por OpenAPI. (Como apunte, la empresa ha tenido una trayectoria y una financiación muy interesantes, que han dado lugar a una serie de importantes avances en IA). El aprendizaje automático, el procesamiento del lenguaje natural y la creación textual han avanzado mucho en la última década. Cuando la primera autogeneración de contenidos a partir de datos estructurados se hizo comercialmente viable hace aproximadamente una década, era razonablemente fácil discernir los contenidos generados por máquinas. Esto ya no es así. Los distribuidores y evaluadores de contenidos, ya sea para la revisión por pares, para la acreditación académica o simplemente para el consumo de contenidos, deben ser conscientes de la capacidad de estas herramientas y no desdeñarlas.

Dada la variedad de preguntas en las comunicaciones académicas en torno a la aplicación de la IA, sería interesante ver cuál sería la respuesta del ChatGPT a algunas de ellas, junto con otras preguntas literarias/tecnológicas, y compartirlas. Puedes revisar por ti mismo si crees que las respuestas son buenas o no y, si no conocieras la fuente de las respuestas, si podrías decir que se derivan de una máquina. A continuación se reproducen las preguntas y las respuestas. Las respuestas no han sido editadas de ninguna manera a partir de lo que fue emitido por el ChatGPT. Parece que hemos ido mucho más allá del «Turing Test para evaluar la inteligencia de una máquina. Puede que notes que hay algo de fórmula en algunas de las respuestas, pero sólo es perceptible después de revisar varias de ellas. Aunque es importante reflejar que la máquina no «sabe» si las respuestas son correctas o no, sólo que son respuestas estáticamente válidas a las preguntas planteadas.

TAC: ¿Cuál es la mejor pregunta para probar un chatbot de IA?

Respuesta de ChatGPT:

No hay una «mejor» pregunta para probar un chatbot de IA, ya que los diferentes chatbots pueden tener diferentes capacidades y estar diseñados para manejar diferentes tipos de tareas o interacciones. Sin embargo, aquí tienes algunas ideas de preguntas que podrían utilizarse para probar las capacidades de un chatbot de IA:

«¿Puedes proporcionar información sobre un tema específico o responder a una pregunta de conocimiento general?».
«¿Puedes mantener una conversación y responder adecuadamente a preguntas o comentarios de seguimiento?».
«¿Puedes entender y responder a entradas de lenguaje natural, aunque incluyan jerga, coloquialismos o erratas?».
«¿Puedes realizar una tarea o acción concreta, como hacer una reserva o buscar información en Internet?».
«¿Puedes reconocer y responder a diferentes intenciones o emociones del usuario?».


En última instancia, las mejores preguntas para probar un chatbot de IA dependerán de las capacidades y objetivos específicos del chatbot.

TAC: ¿Es ético que un autor utilice IA en la elaboración de un artículo académico?

Respuesta del ChatGPT:

La cuestión de si es ético que un autor utilice la IA en el desarrollo de un artículo académico depende del contexto específico y de las expectativas de la comunidad investigadora en la que se publicará el artículo.

No hay ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre y cuando la IA se utilice de forma adecuada y ética. Por ejemplo, la IA puede utilizarse para analizar grandes cantidades de datos o para generar texto, lo que puede ser útil para identificar tendencias o patrones que podrían no ser evidentes para una persona.

Sin embargo, es importante que los investigadores sean transparentes sobre el papel de la IA en su trabajo y se aseguren de que el uso de la IA es coherente con las normas y expectativas de la comunidad investigadora. Por ejemplo, si se utiliza un programa de IA para generar texto, los autores deben indicarlo claramente en el artículo y atribuir el mérito correspondiente al programa de IA.

Además, los investigadores deben ser conscientes de las posibles limitaciones de la IA y considerar los riesgos y beneficios de utilizarla en su trabajo. Por ejemplo, la IA puede no ser capaz de captar plenamente la complejidad del pensamiento o el lenguaje humanos, y puede ser necesario complementar los resultados generados por la IA con análisis o interpretaciones adicionales realizados por investigadores humanos.

En general, es importante que los investigadores utilicen la IA de forma ética y transparente, y que tengan en cuenta las posibles implicaciones de su uso en su trabajo.

TAC: Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo?

Respuesta de ChatGPT:

El uso de IA, como ChatGPT, en la producción de un artículo académico no significa necesariamente que el artículo deba ser rechazado durante el proceso de revisión por pares. Sin embargo, el uso de la IA debe comunicarse a los revisores y al editor, y los revisores deben considerar hasta qué punto el uso de la IA ha influido en el contenido del artículo.

Si el uso de la IA ha influido significativamente en el contenido del artículo, los revisores pueden tenerlo en cuenta a la hora de evaluarlo. Por ejemplo, si la IA se ha utilizado para generar grandes partes del texto o para analizar datos de una manera que es fundamental para las conclusiones del artículo, los revisores deben examinar el trabajo con más cuidado para asegurarse de que la IA se ha utilizado adecuadamente y que las conclusiones del artículo están respaldadas por los datos.

En última instancia, la decisión de aceptar o rechazar un artículo durante el proceso de revisión por pares debe basarse en la calidad y el rigor de la investigación, y en la medida en que el artículo hace una contribución significativa al campo. Si el uso de la IA no ha influido significativamente en el contenido del artículo, o si el artículo cumple las normas de la comunidad investigadora, es poco probable que el artículo sea rechazado únicamente por el uso de la IA.

TAC: ¿Puede un texto derivado de la IA ser novedoso y creativo?

Respuesta de ChatGPT:

Existe un debate en curso sobre hasta qué punto un texto generado por IA puede considerarse novedoso y creativo. Algunos sostienen que el texto generado por la IA no es más que un reflejo de los datos y algoritmos con los que se ha entrenado y, por tanto, no puede considerarse verdaderamente novedoso o creativo del mismo modo que una obra generada por un ser humano. Otros sostienen que la IA puede utilizarse para producir obras que sean originales y creativas, sobre todo si se da a la IA cierto grado de autonomía en el proceso creativo.

Es importante señalar que el nivel de creatividad y novedad del texto generado por IA puede variar en función del sistema de IA específico y de los parámetros con los que se haya entrenado. Algunos sistemas de IA están diseñados para producir textos muy similares a los escritos por humanos, mientras que otros pueden producir textos más experimentales o inusuales.

En última instancia, que un texto generado por IA se considere novedoso y creativo puede depender de las expectativas y las normas del público o la comunidad de investigación en la que se presenta el texto. Es posible que algunos públicos consideren que un texto generado por IA es creativo y original, mientras que otros no.

TAC: ¿De quién es la responsabilidad de reconocer ante el lector el papel de la IA en la autoría de las obras publicadas, del autor o del editor?

Respuesta del ChatGPT:

En general, es responsabilidad de los autores reconocer el papel de la IA en la autoría de los trabajos publicados. Los autores deben ser transparentes sobre el grado de utilización de la IA en la producción de su obra y deben revelar esta información al editor y a los lectores de la obra. Esto puede hacerse mediante el uso de notas a pie de página, citas u otros métodos de atribución.

Los editores también tienen un papel que desempeñar a la hora de garantizar que el uso de la IA en las obras publicadas se revele y se atribuya adecuadamente. Los editores deben establecer directrices claras para que los autores las sigan cuando utilicen la IA en sus trabajos, y deben revisar los envíos para asegurarse de que el uso de la IA se revela y atribuye correctamente.

En general, es importante que tanto los autores como los editores sean transparentes sobre el papel de la IA en la producción de las obras publicadas, para garantizar que los lectores tengan una comprensión completa de la obra y de la medida en que se ha producido utilizando IA.

TAC: ¿Hasta qué punto es un problema la publicación depredadora?

Respuesta de ChatGPT:

La edición depredadora, también conocida como edición engañosa o ilegítima, es un problema importante en el mundo académico. Las editoriales depredadoras cobran a los autores por publicar sus trabajos sin prestar los servicios editoriales y de publicación que prestan las editoriales legítimas, como la revisión por pares y la corrección. Como resultado, el trabajo publicado puede no cumplir las normas de calidad e integridad que se esperan en la comunidad académica.

La publicación depredadora puede socavar la integridad del registro científico, y también puede engañar a los autores, en particular a los que son nuevos en el proceso de publicación o que pueden no estar familiarizados con las prácticas de los editores legítimos. Es importante que los autores sean conscientes de la existencia de editoriales depredadoras y que actúen con la debida diligencia a la hora de considerar dónde enviar sus trabajos para su publicación.

TAC: ¿Debería el texto basado en IA ser susceptible de derechos de autor?

Respuesta de ChatGPT:

En virtud de la mayoría de las leyes de derechos de autor, las obras originales de autoría, incluidas las obras literarias, son susceptibles de protección por derechos de autor. Esto incluye las obras producidas mediante inteligencia artificial (IA). En general, si una obra es original y ha sido fijada en una forma tangible (como una obra escrita o grabada), puede ser protegida por derechos de autor, independientemente de que haya sido producida por una persona o por IA.

Sin embargo, pueden surgir ciertos problemas legales cuando se trata de obras generadas por IA y derechos de autor. Por ejemplo, si se utiliza un programa de IA para generar una obra, no está claro quién es el «autor» de la misma. Algunos países tienen leyes específicas que abordan esta cuestión, mientras que otros no.

También es posible que una obra producida por IA se considere una «obra derivada», es decir, una obra basada en una o más obras preexistentes. En este caso, los derechos de autor de la obra derivada pertenecerían a la persona o entidad que creó la obra, pero tendría que obtener el permiso del titular de los derechos de autor de la obra preexistente para utilizarla como base de la obra derivada.

En general, la cuestión de si las obras generadas por IA pueden acogerse a la protección de los derechos de autor es un asunto jurídico complejo que puede variar en función de las circunstancias específicas y de la legislación del país en el que se creó la obra. Es importante consultar a un abogado cualificado si tiene dudas sobre los derechos de autor y las obras generadas por IA.

La nueva IA de Microsoft puede simular la voz de cualquier persona con una muestra de 3 segundos de audio

Edwards, Benj. «Microsoft’s New AI Can Simulate Anyone’s Voice with 3 Seconds of Audio». Ars Technica, 9 de enero de 2023. https://arstechnica.com/information-technology/2023/01/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio/.

El jueves, investigadores de Microsoft anunciaron un nuevo modelo de inteligencia artificial de texto a voz llamado VALL-E que puede simular fielmente la voz de una persona cuando se le da una muestra de audio de tres segundos. Una vez que aprende una voz específica, VALL-E puede sintetizar el audio de esa persona diciendo cualquier cosa y hacerlo de una manera que intenta preservar el tono emocional del hablante.

Sus creadores especulan con que VALL-E podría utilizarse para aplicaciones de conversión de texto a voz de alta calidad, edición de voz en las que una grabación de una persona podría editarse y cambiarse a partir de una transcripción de texto (haciéndole decir algo que originalmente no dijo), y creación de contenido de audio cuando se combina con otros modelos generativos de IA como GPT-3.

Microsoft llama a VALL-E un «modelo de lenguaje de códec neural», y se basa en una tecnología llamada EnCodec, que Meta anunció en octubre de 2022. A diferencia de otros métodos de conversión de texto en voz que suelen sintetizar el habla manipulando formas de onda, VALL-E genera códigos de códec de audio a partir de texto e indicaciones acústicas. Básicamente, analiza cómo suena una persona, descompone esa información en componentes (llamados «tokens») gracias a EnCodec, y utiliza datos de entrenamiento para hacer coincidir lo que «sabe» sobre cómo sonaría esa voz si pronunciara otras frases fuera de la muestra de tres segundos. O, como dice Microsoft en el artículo sobre VALL-E

Microsoft entrenó las capacidades de síntesis de voz de VALL-E con una biblioteca de audio, reunida por Meta, llamada LibriLight. Contiene 60.000 horas de habla inglesa de más de 7.000 hablantes, en su mayoría extraídas de audiolibros de dominio público de LibriVox. Para que VALL-E genere un buen resultado, la voz de la muestra de tres segundos debe ser muy parecida a la de los datos de entrenamiento.

Definición de inteligencia artificial para bibliotecarios

Cox, A. M., & Mazumdar, S. (2022). Defining artificial intelligence for librarians. Journal of Librarianship and Information Science, 0(0). https://doi.org/10.1177/09610006221142029

El objetivo de este artículo es definir la Inteligencia Artificial (IA) para los bibliotecarios examinando las definiciones generales de IA, analizando el conjunto de tecnologías que componen la IA, definiendo los tipos de casos de uso por área de funcionamiento de la biblioteca y reflexionando sobre las implicaciones para la profesión, incluso desde una perspectiva de igualdad, diversidad e inclusión.

Se trata de un artículo conceptual basado en una revisión exploratoria de la literatura, dirigido a bibliotecarios interesados en la IA desde una perspectiva más estratégica que técnica.

Se identifican cinco tipos distintos de casos de uso de la IA para las bibliotecas, cada uno con sus propios impulsores y barreras subyacentes, y demandas de competencias. Se trata de aplicaciones en los procesos internos de las bibliotecas, en los servicios bibliotecarios, a través de la creación de comunidades de científicos de datos, en la alfabetización en datos e IA y en la gestión de usuarios. Cada una de estas aplicaciones tiene sus propios impulsores y obstáculos. Es difícil anticipar el impacto en el trabajo profesional, pero a medida que el entorno de la información se vuelve más complejo es probable que los bibliotecarios sigan teniendo un papel muy importante, especialmente dada la dependencia de la IA de los datos. Sin embargo, podría haber algunas repercusiones negativas sobre la igualdad, la diversidad y la inclusión si las competencias en IA no se difunden ampliamente.

Comparación de resúmenes científicos generados por ChatGPT con resúmenes originales mediante un detector de resultados de inteligencia artificial, un detector de plagio y revisores humanos

Gao, C. A., Howard, F. M., Markov, N. S., Dyer, E. C., Ramesh, S., Luo, Y., & Pearson, A. T. (2022). Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers (p. 2022.12.23.521610). bioRxiv. https://doi.org/10.1101/2022.12.23.521610

Ver texto completo

ChatGPT es la última creación de la familia GPT de sistemas de IA para generación de texto, un proyecto de la fundación OpenAI.

Los grandes modelos lingüísticos, como ChatGPT, pueden producir textos cada vez más realistas, pero se desconoce la precisión y la integridad del uso de estos modelos en la escritura científica. Se recopilaron diez resúmenes de investigación de cinco revistas médicas de alto factor de impacto (n=50) y se generaronresúmenes de investigación basados en sus títulos y revistas con ChatGPT. Se evaluaron los resúmenes utilizando un detector de resultados de inteligencia artificial (IA), un detector de plagio, y se hizo que revisores humanos intentaran distinguir si los resúmenes eran originales o generados. Todos los resúmenes generados por ChatGPT estaban escritos con claridad, pero sólo el 8% seguía correctamente los requisitos de formato de la revista específica. La mayoría de los resúmenes generados se detectaron mediante el detector de salida de IA, con puntuaciones (más alta significa más probabilidad de ser generado) de mediana [rango intercuartílico] de 99,98% [12,73, 99,98] en comparación con una probabilidad muy baja de salida generada por IA en los resúmenes originales de 0,02% [0,02, 0,09]. El AUROC del detector de resultados de IA fue de 0,94. Los resúmenes generados obtuvieron una puntuación muy alta en originalidad utilizando el detector de plagio (100% [100, 100] de originalidad). Los resúmenes generados tenían un tamaño de cohorte de pacientes similar al de los resúmenes originales, aunque los números exactos eran inventados. Cuando se les dio una mezcla de resúmenes originales y generales, los revisores humanos identificaron correctamente el 68% de los resúmenes generados como generados por ChatGPT, pero identificaron incorrectamente el 14% de los resúmenes originales como generados. Los revisores indicaron que era sorprendentemente difícil diferenciar entre los dos, pero que los resúmenes generados eran más vagos y tenían una redacción formulista.

La inteligencia artificial en las bibliotecas y la edición.

Pickering, Ruth, Matthew Ismail, Daniel W. Hook, Simon J. Porter, Catherine Nicole Coleman, Michael A. Keller, James W. Weis, et al. Artificial Intelligence in Libraries and Publishing. Michigan Publishing Services, 2022.

Texto completo

ePub

PDF

¿Cuál es el estado actual de la inteligencia artificial (IA) en el mundo de la comunicación académica? ¿Qué impacto tiene la IA en las prácticas y estrategias de editores, bibliotecas, empresas de tecnología de la información e investigadores? ¿Qué es exactamente la IA y qué es lo que piensan y hacen con ella los profesionales de la comunicación académica?

te Charleston Briefing pretende dar respuesta a estas importantes preguntas, ofreciendo ensayos generales sobre la IA y otros más específicos sobre la IA en la publicación académica, las bibliotecas universitarias y la IA en el descubrimiento de información y la creación de conocimiento. Los ensayos ayudarán a los editores, bibliotecarios e investigadores a comprender mejor el impacto real de la IA en las bibliotecas y en la edición, de modo que puedan responder al impacto potencialmente transformador de la IA de forma comedida y con conocimiento de causa.

Charleston Briefings: Trending Topics for Information Professionals es una serie de libros breves que invitan a la reflexión sobre la innovación en el ámbito de las bibliotecas, la edición y la tecnología en la comunicación académica. Los resúmenes, que surgen de las conversaciones vitales características de la Conferencia de Charleston y de Against the Grain, ofrecerán una valiosa visión de las tendencias que dan forma a nuestras vidas profesionales y a las instituciones en las que trabajamos.