Archivo de la etiqueta: Inteligencia artificial

Inteligencia Artificial y Biblioteconomía

Frické Martin. «Artificial Intelligence and Librarianship», Open Textbook Library, 2023.

Texto completo

Los cursos sobre Inteligencia Artificial (IA) y Biblioteconomía en las titulaciones de Máster en Biblioteconomía e Información (MLIS) acreditadas por la ALA son escasos. A todos nos han sorprendido ChatGPT y otros modelos similares de «lenguajes extensos». La IA generativa es una nueva área importante para la biblioteconomía. Su desarrollo es tan rápido que nadie puede seguirle el ritmo. Aquellos que intentan producir cursos de IA para el grado MLIS necesitan toda la ayuda que puedan conseguir. Este libro es un gesto de apoyo. Consta de unas 95.000 palabras sobre el tema, con una bibliografía de 3.400 artículos.

Regulación de la inteligencia Inteligencia Artificial en el mundo

Regulation of Artificial Intelligence Around the World
August 2023
. The Law Library of Congress, Global Legal Research Directorate, Agosto 2023

Texto completo

Este informe, preparado por el equipo de investigación de la Biblioteca Jurídica del Congreso, presenta una compilación de jurisdicciones a nivel mundial que han implementado o propuesto legislación relacionada específicamente con la inteligencia artificial (IA) o los sistemas que la emplean. Estos investigadores han examinado exhaustivamente todas las jurisdicciones en sus áreas de estudio en busca de este tipo de legislación, y los hallazgos se han registrado en la lista adjunta. Dicha lista se acompaña de citas y breves descripciones de la legislación pertinente.

En el caso de jurisdicciones nacionales, subnacionales y de la Unión Europea (UE), solo se han incluido los instrumentos adoptados o propuestos que tienen un alcance legal efectivo, excluyendo aquellos que no poseen dicho efecto jurídico.

La UNESCO publica orientaciones sobre la IA generativa en la educación y la investigación

Guidance for Generative AI in education and research. Paris: Unesco, 2023

Uno de los componentes de la hoja de ruta de la UNESCO para dirigir el uso centrado en el ser humano de la IA Generativa en la educación, es el desarrollo de una Guía para la IA Generativa en la educación y la investigación, dentro del marco de su iniciativa sobre la IA y los Futuros del Aprendizaje.

Objetivos

La Guía presenta las principales tecnologías de IA generativa y los diversos modelos disponibles en la actualidad. También propone recomendaciones políticas para regular las cuestiones éticas y promover la inclusión y la equidad, así como casos de uso para aprovechar los beneficios de la IA Generativa para el pensamiento de orden superior y la creatividad en la educación y la investigación, al tiempo que se mitigan los riesgos.

La publicación abarca los siguientes elementos

  • Una definición de la IA Generativa
  • Cómo funcionan las distintas categorías de IA Generativa y una lista de diversos modelos de IA Generativa
  • Controversias en torno a la IA Generativa
  • Una hoja de ruta para regular la IA Generativa y elementos clave recomendados para las políticas nacionales sobre IA Generativa en la educación.
  • Co-diseño de los usos de la IA Generativa en la investigación, la enseñanza y el aprendizaje
  • Nuevos modelos de preentrenamiento generativo específicos para la educación (EduGPT) y sus implicaciones.
  • Reflexión sobre las implicaciones a largo plazo de la IA Generativa para la educación y la investigación.

¿Es legal y justo el uso de contenidos protegidos por derechos de autor en modelos de IA

Los modelos de inteligencia artificial se basan en gran medida en contenidos de alta calidad creados por seres humanos, a menudo sujetos a protección por derechos de autor. Sin estos recursos, el rendimiento del modelo sería deficiente. Surge la pregunta de si es legal utilizar obras protegidas por derechos de autor durante la fase de entrenamiento en el desarrollo de un modelo de inteligencia artificial.

Los modelos de IA de gran envergadura, como el GPT-4 de OpenAI, el PaLM 2 de Google y el Llama 2 de Meta, se han construido en parte utilizando una amplia gama de fuentes, que incluyen millones de libros, artículos, conversaciones y otros contenidos disponibles en Internet. Esta práctica ha generado disputas legales por parte de algunos creadores de estos contenidos, quienes argumentan violaciones de derechos de autor, mientras que otros buscan ser compensados por sus contribuciones.

Sin embargo, surge la pregunta de cómo se puede evaluar el valor de un dato específico cuando un modelo de IA ha absorbido una gran parte de lo que ha sido publicado en Internet durante la última década o incluso más. Benedict Evans, analista tecnológico, resalta este desafío en un reciente artículo sobre IA al señalar que el modelo no distingue entre un libro o sitio web en particular, sino que requiere acceso a «todos» los libros y «todos» los sitios web. Esto plantea un dilema, ya que el retiro de contenidos por parte de una empresa no solucionaría el problema si todas lo hicieran.

El concepto de «apalancamiento de datos», como lo describe el profesor Vincent, destaca la importancia de que las comunidades comprendan el valor de sus datos para los modelos de IA, lo que les permitiría negociar de manera más efectiva la compensación por su contribución. Si se puede determinar que el conjunto de todos los libros, por ejemplo, es responsable de una parte significativa del rendimiento de un modelo de IA como ChatGPT, entonces es posible asignar un valor adecuado a esa contribución.

En este contexto, se presenta SILO, un nuevo modelo lingüístico desarrollado por investigadores de instituciones como la Universidad de Washington en Seattle, la UC Berkeley y el Allen Institute for AI. SILO se creó con el objetivo general de minimizar riesgos legales al eliminar datos sensibles, pero también se ha desarrollado una metodología para evaluar la contribución específica de datos a los resultados de un modelo de IA. Esto podría abrir la puerta para que los propietarios de datos reciban el reconocimiento adecuado, o incluso una compensación directa, cada vez que sus datos contribuyan a las predicciones de un modelo. Como se demuestra, el rendimiento de los modelos se ve afectado significativamente si se entrenan solo con texto de bajo riesgo, como libros o documentos gubernamentales sin derechos de autor, debido a las limitaciones en tamaño y cobertura de dominio.

Basado en: Barr, Alistair. «“Data Leverage” and the Harry Potter Test: How Much Is a Single Book Worth to a Giant AI Model?» Business Insider. Accedido 4 de septiembre de 2023. https://www.businessinsider.com/data-leverage-harry-potter-test-putting-value-data-ai-models-2023-8.

El modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gemini es un modelo de IA multimodal de nueva generación en el que están trabajando los investigadores de DeepMind, la división de IA de Google, y que se espera que vea la luz a finales de 2023. Es el esfuerzo más serio del gigante de las búsquedas para competir con el GPT-4 de OpenAI. Google Gemini multiplica por 5 la GPT-4, la GPU-Poors

Gemini pretende desafiar el dominio de ChatGPT en el espacio de la IA generativa. Este movimiento subraya el compromiso de Google con la innovación en IA y la competencia en el mercado de la IA generativa, en rápido crecimiento y con un valor previsto de 1,3 billones de dólares para 2032.

¿Qué es Google Gemini?

Gemini es un conjunto de grandes modelos lingüísticos (LLM) que combinan GPT-4 con técnicas de entrenamiento tomadas de AlphaGo, como el aprendizaje por refuerzo y la búsqueda, que tiene el potencial de desbancar a ChatGPT como la solución de IA generativa más dominante del planeta.

La noticia llega pocos meses después de que Google combinara sus laboratorios de IA Brain y DeepMind para crear un nuevo equipo de investigación llamado Google DeepMind, y pocos meses después del lanzamiento de Bard y su LLM PaLM 2 de nueva generación.

Teniendo en cuenta que los investigadores prevén que el mercado de la IA generativa alcanzará un valor de 1,3 billones de dólares en 2032, está claro que Google va a invertir en este campo para mantener su posición de líder en el desarrollo de la IA.

A primera vista, la capacidad de Gemini para generar texto e imágenes le da una seria ventaja sobre GPT4 en cuanto a la gama de contenidos que puede producir. El artículo, escrito por Dylan Patel y Daniel Nishball, de la empresa de investigación SemiAnalysis, sostiene que el modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gran parte del análisis, que según Patel se basa en datos obtenidos de un proveedor de Google, se reduce a que Google tiene acceso a infinitamente más chips de primer nivel y a que su modelo supera a GPT-4 en una medida de rendimiento relacionada con los cálculos informáticos conocida como FLOPS.

Este modelo requería más de 14 veces los FLOPS de GPT-2 para entrenarse, pero esto era en gran medida irrelevante porque sólo unos meses más tarde OpenAI lanzó GPT-3, que tenía >65x más parámetros y >60x el recuento de tokens, >4.000x más FLOPS. La diferencia de rendimiento entre estos dos modelos era enorme.

Inteligencia Artificial, aprendizaje automático y WorldCat: mejora de los registros para catalogación e identificación

Proffitt, Merrilee. «Machine Learning and WorldCat: Improving Records for Cataloging and Discovery Hanging Together». Hanging Together (blog), 14 de agosto de 2023. https://hangingtogether.org/machine-learning-and-worldcat-improving-records-for-cataloging-and-discovery/.

Cualquier sistema que agregue datos de miles de fuentes necesita procesos sofisticados que mitiguen la duplicación* y garanticen que permanezcan los datos correctos. WorldCat es uno de estos sistemas, que recibe miles de registros bibliográficos de bibliotecas de todo el mundo todos los días. Ya sea en forma manual o automatizada, se ha realizado algún tipo de de duplicación en los registros bibliográficos desde principios de la década de 1980. Si bien el personal de OCLC y los trabajadores bibliotecarios de las instituciones que participan en el Member Merge Program realizan diariamente algunas revisiones manuales de datos, la mayoría de los registros de WorldCat dependen de programas automatizados de de duplicación. Los procesos automatizados introducidos en la década de 1990, conocidos como Duplicate Detection and Resolution (DDR) han madurado. Actualmente, se elimina un promedio de 11.000 registros manualmente y 1 millón mediante la automatización por mes. Además, todos los meses fusionamos millones de registros recién ingresados con registros existentes de WorldCat, lo que significa que también trabajamos para mitigar los registros duplicados antes de su creación.

Las reglas e instrucciones de catalogación han evolucionado muchas veces a lo largo de las décadas. Esto significa que las reglas que tratan la duplicación deben evolucionar continuamente para mantenerse al día con lo último y lo mejor. A lo largo de la vida de nuestros procesos de fusión, el personal de OCLC ha revisado cuidadosamente los resultados para mejorar los procesos, especialmente con fusiones inapropiadas o fallidas, y ha actualizado el sistema basado en reglas en consecuencia. Si bien esto funciona bien en muchos casos, los registros duplicados siguen llegando a WorldCat, lo que afecta a los catalogadores, los investigadores y los flujos de trabajo del personal bibliotecario.

Afortunadamente, la tecnología sigue avanzando y podemos incorporar nuevas tecnologías a los procesos automatizados. En los últimos años, el aprendizaje automático (Machine Learning, ML) se ha hecho un hueco en la corriente dominante, después de haber existido durante varias décadas. Una excelente definición de ML es «…algoritmos [que] construyen un modelo basado en datos de muestra, conocidos como datos de entrenamiento, con el fin de hacer predicciones o tomar decisiones sin ser explícitamente programados para ello».

Se investigaron diferentes algoritmos de ML, pero el obstáculo más importante era reunir un conjunto de datos de entrenamiento para ejecutar el algoritmo elegido. El equipo de Ciencia de Datos se puso en contacto con el equipo de Calidad de Datos para encontrar conjuntos de datos. Calidad de Datos pudo proporcionar información para los conjuntos iniciales de revisiones.

A mediados de 2022, se perfeccionó el modelo ML con análisis continuos y aportaciones del equipo de Calidad de Datos. También se construyó y probó una interfaz de usuario para el ejercicio de etiquetado de datos. La interfaz permitía a los usuarios recuperar un par de registros bibliográficos que fueran posibles duplicados. Los usuarios podían generar el par seleccionando valores para la lengua de catalogación, el tipo de material y la antigüedad del registro

En noviembre, se presentó la herramienta a los participantes del Programa de fusión de miembros, que se implementó para todos los miembros de OCLC a principios de diciembre. La herramienta estuvo abierta hasta mediados de abril de 2023. Para entonces, se habían evaluado poco más de 34.000 pares de posibles registros duplicados. Si bien no se realizaron tres revisiones de cada par, se recopilaron muchos datos para entrenar el modelo ML. Descubrimos que más del 95% de los pares que recibieron varias revisiones no presentaban desacuerdos entre los revisores. Esto demostró que el modelo estaba a la par con los humanos en la identificación de duplicados. Estos datos se utilizaron para perfeccionar el modelo, y el equipo de Calidad de Datos revisó los nuevos resultados para comprobar su precisión.

A partir de fines de agosto de 2023, se procesará una serie inicial de un (1) millón de registros -500.000 pares- a través del algoritmo de aprendizaje automático. Como resultado, se fusionarán 500 000 registros duplicados en WorldCat, lo que mejorará y agilizará las experiencias de catalogación, identificación y préstamo interbibliotecario tanto para el personal de la biblioteca como para los usuarios finales.

Políticas de IA en todo el mundo: Implicaciones y recomendaciones para las bibliotecas

Lo, Leo S. «AI Policies across the Globe: Implications and Recommendations for Libraries». IFLA Journal, 27 de agosto de 2023, 03400352231196172. https://doi.org/10.1177/03400352231196172.

Este artículo analiza las políticas sobre inteligencia artificial propuestas en EE.UU., Reino Unido, Unión Europea, Canadá y China, y sus implicaciones para las bibliotecas. A medida que la inteligencia artificial revoluciona el funcionamiento de las bibliotecas, plantea retos complejos, como dilemas éticos, problemas de privacidad de los datos y cuestiones de acceso equitativo. El artículo destaca temas clave de estas políticas, como la ética, la transparencia, el equilibrio entre innovación y regulación y la privacidad de los datos. También identifica áreas de mejora, como la necesidad de directrices específicas sobre la mitigación de sesgos en los sistemas de inteligencia artificial y la navegación por las cuestiones de privacidad de datos. El artículo ofrece además recomendaciones prácticas para que las bibliotecas se comprometan con estas políticas y desarrollen mejores prácticas para el uso de la inteligencia artificial. El estudio subraya la necesidad de que las bibliotecas no sólo se adapten a estas políticas, sino que se comprometan activamente con ellas, contribuyendo al desarrollo de una gobernanza de la inteligencia artificial más completa y eficaz.

Introduction

La inteligencia artificial (IA) está revolucionando el funcionamiento de las bibliotecas, ofreciendo nuevas vías para las recomendaciones personalizadas, la investigación avanzada y la eficiencia operativa. Sin embargo, el rápido avance de la IA también plantea retos complejos, como dilemas éticos, problemas de privacidad de los datos y cuestiones de acceso equitativo. Por ello, las políticas y normativas sobre IA propuestas por EE.UU., Reino Unido, la Unión Europea, Canadá y China no sólo proporcionan un marco crucial para afrontar estos retos, sino que también revelan áreas de crítica que deben abordarse.

El «Blueprint for an AI bill of rights» de EE.UU.  (Office of Science and Technology Policy, 2022), Reino Unido “A pro-innovation approach to AI regulation” (Secretary of State for Science, Innovation and Technology, 2023), Ley de Inteligencia Artificial de la Unión Europea (European Commission, 2021), a Ley de Inteligencia Artificial y Datos de Canadá (Government of Canada, 2023), y las «Medidas para la gestión de los servicios de inteligencia artificial generativa» de China (Webster, 2023) representan cada una un paso significativo para abordar las implicaciones éticas de la IA y garantizar un acceso equitativo a las oportunidades. Estas políticas ponen de relieve temas clave, como la ética, la transparencia, el equilibrio entre innovación y regulación, la privacidad de los datos y la naturaleza del panorama normativo. Sin embargo, también revelan áreas de crítica que deben abordarse, incluida la necesidad de directrices específicas sobre la mitigación de los sesgos en los sistemas de IA, la navegación por las cuestiones de privacidad de datos y la determinación del nivel de riesgo asociado con un sistema de IA en particular.

Aunque muchos otros países también han desarrollado o están desarrollando sus propias políticas u hojas de ruta en materia de IA (OCDE.AI, s.f.), se seleccionaron estas cinco políticas propuestas por varias razones:

  • Influencia mundial: EE.UU., Reino Unido, la Unión Europea, Canadá y China son actores importantes en el panorama mundial de la IA. Es probable que sus políticas tengan un impacto sustancial en las normas y prácticas mundiales de IA, influyendo en la dirección del desarrollo y la regulación de la IA en todo el mundo.
  • Diversidad de enfoques: las políticas seleccionadas representan una variedad de enfoques de la regulación de la IA, desde el enfoque más laissez-faire y centrado en la innovación del Reino Unido hasta el enfoque exhaustivo y basado en el riesgo de la Unión Europea. Esta diversidad permite una comparación y un análisis más sólidos de las distintas estrategias reguladoras.
  • Relevancia para las bibliotecas: cada una de estas políticas tiene implicaciones significativas para las bibliotecas, un aspecto clave de este artículo. Al examinar estas políticas, podemos hacernos una idea de los posibles retos y oportunidades a los que pueden enfrentarse las bibliotecas en la era de la IA.

A medida que las bibliotecas aprovechan progresivamente el poder de la IA para aumentar sus servicios y operaciones -incluido el uso de chatbots para los servicios de referencia  (Ehrenpreis and DeLooper, 2022), la indexación y clasificación automatizada de materias (National Library of Finland, n.d.) y los repositorios institucionales mejorados con aprendizaje automático (Yelton, n.d.)-, es imperativo que no solo se adapten a las políticas de IA imperantes, sino que también se comprometan proactivamente con ellas. Este compromiso implica la participación activa en el discurso en curso en torno a la gobernanza de la IA, la defensa de políticas que aborden de manera integral sus necesidades y desafíos únicos, y el desarrollo de mejores prácticas para la utilización de la IA que estén en consonancia con su misión y valores. A medida que el panorama de la IA evoluciona rápidamente, las políticas y prácticas de las bibliotecas deben adaptarse y evolucionar al mismo tiempo.

Estas políticas subrayan temas clave, como la ética, la transparencia, el equilibrio entre innovación y regulación, la privacidad de los datos y la naturaleza del panorama normativo. Sin embargo, también exponen áreas que deben seguir explorándose y mejorándose, incluida la necesidad de directrices explícitas sobre la mitigación de los sesgos en los sistemas de IA, el tratamiento de las preocupaciones sobre la privacidad de los datos y la evaluación del nivel de riesgo asociado a sistemas específicos de IA.

Es crucial reconocer que estas cinco políticas de IA, en el momento de redactar este documento, se encuentran en fase de propuesta y desarrollo, y aún no se han codificado como ley. Sus versiones finales pueden desviarse significativamente de sus formas actuales, lo que pone de relieve la naturaleza dinámica del panorama político de la IA. Esta fluidez exige que las bibliotecas permanezcan vigilantes y receptivas a estos desarrollos en evolución. A medida que estas políticas maduren y puedan convertirse en leyes, las bibliotecas tendrán que ajustar sus prácticas para garantizar el cumplimiento de las normativas más recientes, sin dejar de utilizar la IA para aumentar sus servicios y operaciones.

Más allá de estas recomendaciones, las bibliotecas también deberían contemplar el papel de la alfabetización en IA dentro de sus servicios. Las bibliotecas pueden desempeñar un papel fundamental en el fomento de la alfabetización en IA entre el público en general, promoviendo la transparencia, creando una demanda de responsabilidad y fomentando un compromiso crítico con las decisiones sobre IA. Las bibliotecas también pueden implementar medidas para salvaguardar los datos de los usuarios en el contexto de la IA, como garantizar que cualquier experimento con aplicaciones de IA que modifiquen o impulsen el comportamiento de los usuarios de la biblioteca se lleve a cabo sobre una base de consentimiento informado, o revisar meticulosamente las opciones de la biblioteca de aplicaciones de IA de terceros para evaluar su impacto en la privacidad de los usuarios (IFLA, 2020)..

¿Puede algo generado con IA ser realmente brillante?

Levy, Steven. «AI Can’t Read Books. It’s Reviewing Them Anyway». Wired. Accedido 30 de agosto de 2023. https://www.wired.com/story/plaintext-ai-chatgpt-book-reviews/.

Ahora que todos hemos tenido experiencia con grandes modelos lingüísticos, sus limitaciones son demasiado visibles. Sí, pueden escribir. Pero su prosa no explota en la mente como lo hacen las palabras de Jennifer Egan, Emily St. John Mandel o David Foster Wallace. Sí, saben hacer música. Pero Taylor Swift y Kendrick Lamar duermen muy bien por las noches. Y sí que saben resumir la historia con rapidez y pulcritud, pero no con la perspicacia de Barbara Tuchman o Ron Chernow. Sin embargo, los LLM no han hecho más que empezar. Seguramente mejorarán.

¿Pero cuánto mejor? Hemos visto múltiples casos en los que la IA ha conquistado regiones que se creían impenetrables para los robots, desde el ajedrez hasta el LSAT. ¿Podría hacer lo mismo en las artes creativas? Últimamente estoy obsesionado con esa pregunta. ¿Puede algo generado con IA ser realmente brillante?

Las «reseñas» de dos o tres frases generadas por ChatGPT sólo se basaban en el texto de la cubierta y en algunas reseñas de Amazon. Los avatares no tenían acceso al texto real del libro, «por razones de copyright». Dado que la mayoría de los críticos prefieren poner los ojos en las páginas del libro que están juzgando, estos comentarios generados por la IA no parecen ser críticas reales. De hecho, son como borradores promocionales lanzados por el amigo de un amigo que no se ha molestado en leer el libro ni en preguntar de qué trata.

Lo que aún no tengo claro es si una IA podría emitir juicios tan frescos y perspicaces como las reseñas de Senior y otros críticos de élite. Para esas personas, el acto de leer evoca ecos de sus propias vidas y desencadena procesos de pensamiento que conducen a sus observaciones. Senior duda que esto pueda ocurrir con un robot. «No veo cómo la IA puede recrear la experiencia de leer un libro, que es lo que hacen los mejores críticos», afirma. ChatGPT no puede superar la revisión de libros de Jennifer Senior, pero puede ayudar a los estudiantes a falsificar sus tareas. Los profesores se las ingenian para solucionarlo.

RealChar es una plataforma basada en IA que permite a cualquiera simular que chatea en tiempo real con personajes públicos como Elon Musk, Sam Altman, o Steve Jobs

 RealChar.ai

RealChar es una nueva plataforma basada en personajes que permite a los ciudadanos chatear en tiempo real, mediante texto y voz, con personajes públicos imaginativos y realistas. Algunos de estos personajes son Elon Musk, Sam Altman, Bruce Wayne, Loki, Steve Jobs y muchos más.

Estos personajes no son una versión abstracta de las figuras públicas reales, sino que emplean la personalidad, los conocimientos y la voz de la persona real. Esto permite a los usuarios preguntar a personas como Sam Altman, CEO de OpenAI, o Elon Musk sus opiniones sobre proyectos, ideas o cualquier otra cosa que el usuario desee. Estas opiniones no serán las de la persona real, obviamente, pero se acercarán lo más posible dado el análisis de los datos disponibles públicamente del individuo.

Los personajes disponibles en RealChar no se limitan a los creadores de la herramienta. Más bien, a través de su versión local de la herramienta, cada individuo puede crear su propio personaje, ya sea una figura pública, un ser querido o él mismo.

RealChar sólo tiene dos semanas de vida y nació de la iniciativa de personas motivadas que querían acercar el poder de la inteligencia artificial al público.

Cualquiera puede entrar en el sitio web y chatear, o incluso llamar a uno de los personajes desarrollados. Además, RealChar permite elegir un personaje «seleccionado de la comunidad» con el que uno tiene la posibilidad de chatear con personajes que fueron desarrollados por el público utilizando la plataforma RealChar o crear el suyo propio.

RealChar, a diferencia de muchos grandes modelos lingüísticos (LLM), como ChatGPT, que sólo se actualiza hasta 2021, utiliza fuentes de datos en directo para alimentar al personaje con información actualizada y en tiempo real, con la que el usuario puede interactuar con el personaje

ChatGPT puede convertir a los malos escritores en mejores

Williams, Rhiannon. «ChatGPT Can Turn Bad Writers into Better Ones». MIT Technology Review. Accedido 25 de agosto de 2023. https://www.technologyreview.com/2023/07/13/1076199/chatgpt-can-turn-bad-writers-into-better-ones/.

Según un estudio, las personas que utilizan ChatGPT como ayuda para escribir son más productivas y realizan trabajos de mayor calidad que las que no lo hacen.

Desde su lanzamiento en noviembre del año pasado, ChatGPT ha ayudado a la gente a hacer su trabajo, y sus entusiastas usuarios lo han utilizado para redactar todo tipo de documentos, desde material de marketing hasta correos electrónicos e informes.

Ahora tenemos el primer indicio de su efecto en el lugar de trabajo. Un nuevo estudio realizado por dos estudiantes de economía del MIT, publicado hoy en Science, sugiere que podría ayudar a reducir las diferencias en la capacidad de redacción de los empleados. Descubrieron que podría permitir a los trabajadores menos experimentados que carecen de habilidades de escritura producir un trabajo similar en calidad al de sus colegas más cualificados.

Shakked Noy y Whitney Zhang reclutaron a 453 profesionales del marketing, analistas de datos y profesionales con estudios universitarios y les pidieron que realizaran dos tipos de tareas que normalmente llevarían a cabo como parte de su trabajo, como redactar comunicados de prensa, informes breves o planes de análisis. A la mitad se les dio la opción de utilizar ChatGPT para ayudarles a completar la segunda de las dos tareas.

A continuación, un grupo de profesionales comprobó la calidad de los resultados y los calificó en una escala de 1 a 7, siendo 7 el mejor resultado. Cada trabajo fue evaluado por tres personas de la misma profesión, contratadas a través de la plataforma de investigación Prolific.

Los escritores que decidieron utilizar ChatGPT tardaron un 40% menos en completar sus tareas, y produjeron trabajos que los evaluadores calificaron con un 18% más de calidad que los de los participantes que no lo utilizaron. Los escritores que ya eran expertos en redacción pudieron reducir el tiempo que dedicaban a su trabajo, mientras que los que fueron evaluados como escritores más débiles produjeron trabajos de mayor calidad una vez que tuvieron acceso al chatbot.

«ChatGPT es muy bueno en la producción de este tipo de contenido escrito, por lo que su uso para automatizar partes del proceso de escritura parece probable que ahorre mucho tiempo», dice Noy, autor principal de la investigación.

«Una cosa que está clara es que es muy útil para el trabajo de cuello blanco: mucha gente lo utilizará y va a tener un efecto bastante grande en cómo se estructura el trabajo de cuello blanco», añade.

Sin embargo, los resultados de ChatGPT y otros modelos generativos de IA distan mucho de ser fiables. ChatGPT es muy bueno presentando información falsa como factualmente correcta, lo que significa que aunque los trabajadores puedan aprovecharlo para ayudarles a producir más trabajo, también corren el riesgo de introducir errores.

Dependiendo de la naturaleza del trabajo de una persona, ese tipo de inexactitudes podrían tener graves implicaciones. El abogado Steven Schwartz fue multado el mes pasado con 5.000 dólares por un juez por utilizar ChatGPT para elaborar un informe jurídico que contenía opiniones judiciales y citas legales falsas.