Archivo de la etiqueta: ChatGPT

El 80% de la mano de obra estadounidense podría ver afectada al menos el 10% de sus tareas laborales con la introducción de ChatGPT

Eloundou, Tyna, Sam Manning, Pamela Mishkin, y Daniel Rock. «GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models». arXiv, 19 de marzo de 2023. https://doi.org/10.48550/arXiv.2303.10130.

Se investigó las posibles implicaciones de los modelos Generative Pre-trained Transformer (GPT) y las tecnologías relacionadas en el mercado laboral estadounidense. Utilizando una nueva rúbrica, Se analizaron las ocupaciones en función de su correspondencia con las capacidades GPT, incorporando tanto la experiencia humana como las clasificaciones de GPT-4. Los resultados indican que aproximadamente el 80% de la mano de obra estadounidense podría ver afectada al menos el 10% de sus tareas laborales por la introducción de las GPT, mientras que alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas.

La influencia se extiende a todos los niveles salariales, con los empleos de mayores ingresos potencialmente más expuestos. En particular, el impacto no se limita a las industrias con mayor crecimiento reciente de la productividad. Llegándose a la conclusión de que GPT presentan características propias de las tecnologías de propósito general (GPT), lo que sugiere que estos modelos podrían tener notables implicaciones económicas, sociales y políticas.

¿Está ChatGPT más cerca de un bibliotecario humano que de Google?


Shah, Chirag. «Is ChatGPT Closer to a Human Librarian Than It Is to Google?» Gizmodo, 19 de marzo de 2023. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908.

Más sobre

ChatGPT y Chatbot

Un investigador de motores de búsqueda explica la promesa y el peligro de dejar que ChatGPT y sus replicas busquen en Internet por ti.

El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda proporcionando información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por una función desconocida no es lo ideal.

Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPTGoogle/Bard y Meta/LLaMA está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de a partir de frases completas e incluso párrafos y generar respuestas personalizadas en lenguaje natural.

A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

Los sistemas de IA como ChatGPT y Bard se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario. El 14 de marzo de 2023, OpenAI anunció la próxima generación de la tecnología, GPT-4, que funciona tanto con texto como con imágenes, y Microsoft anunció que su Bing conversacional se basa en GPT-4.

Gracias al entrenamiento sobre grandes volúmenes de texto, ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

Sin embargo, existen muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así que, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventarse o «deducir» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco puede validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «elucubrando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para generar ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas pero no las fuentes de las que proceden, es probable que esos sitios vean disminuir sus flujos de ingresos.

Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y les quita la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

Estos son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de encontrar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.

La tecnología detrás del chatbot viral de OpenAI está a punto de replicarse ampliamente, desatando una oleada de bots.

Knight, Will. «Get Ready to Meet the ChatGPT Clones». Wired. Accedido 15 de marzo de 2023. https://www.wired.com/story/get-ready-to-meet-the-chatgpt-clones/.

Puede que CHATGPT sea el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial empleadas por OpenAI para dotarlo de inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pondrán a disposición de cualquiera bots del estilo de ChatGPT para que los copie y reutilice, lo que hará cada vez más complicado controlar todos los efectos adversos de esta tecnología IA.

Stability AI, una startup que ya ha desarrollado y puesto en código abierto una avanzada tecnología de generación de imágenes, está trabajando en un competidor abierto de ChatGPT. «Estamos a unos meses del lanzamiento», afirma Emad Mostaque, CEO de Stability. Otras empresas de la competencia, como Anthropic, Cohere y AI21, trabajan en chatbots propios similares al de OpenAI.

La inminente avalancha de sofisticados chatbots hará que la tecnología sea más abundante y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la carrera por ganar dinero con herramientas de IA que generan imágenes, código y texto.

Empresas consolidadas como Microsoft y Slack están incorporando ChatGPT a sus productos, y muchas startups se apresuran a construir sobre una nueva API ChatGPT para desarrolladores. Pero la mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos que conlleva.

La seductora capacidad de ChatGPT para ofrecer respuestas convincentes a una amplia gama de preguntas también hace que a veces invente hechos o adopte personajes problemáticos. Puede ayudar en tareas maliciosas como la producción de código malicioso o campañas de spam y desinformación.

Por ello, algunos investigadores han pedido que se frene el despliegue de sistemas similares a ChatGPT mientras se evalúan los riesgos. «No hay necesidad de detener la investigación, pero sin duda podríamos regular el despliegue generalizado», afirma Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por la IA. «Podríamos, por ejemplo, pedir estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas».

Una mayor disponibilidad de sistemas del estilo de ChatGPT y la publicación de versiones de código abierto dificultarían la limitación de la investigación o una implantación más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere pocas ganas de frenar, sino que más bien parece incentivar la proliferación de la tecnología.

Cambridge University Press publica los principios de política de ética en la investigación de la IA, que prohíbe tratarla como «autora» de artículos y libros académicos.

Cambridge principles for generative AI in research publishing, Cambridge University Press, 2023

Las normas se recogen en la primera política ética de la IA de Cambridge University Press y se aplican a artículos de investigación, libros y otros trabajos académicos.

Incluyen la prohibición de que la IA sea tratada como «autora» de los artículos académicos y libros que publicamos. Esta medida aporta claridad a los académicos en medio de la preocupación por el uso erróneo o engañoso de potentes modelos lingüísticos de gran tamaño como ChatGPT en la investigación, junto con el entusiasmo por su potencial.

Mandy Hill, Directora General de Publicaciones Académicas de Cambridge, ha declarado: «La IA generativa puede abrir nuevas vías de investigación y experimentación. Los investigadores nos han pedido que les orientemos sobre su uso».

Creemos que los autores académicos, los revisores y los editores deben tener libertad para utilizar las tecnologías emergentes como consideren oportuno dentro de unas directrices adecuadas, al igual que hacen con otras herramientas de investigación».

«Al igual que nuestra comunidad académica, abordamos esta nueva tecnología con un espíritu de compromiso crítico. Al dar prioridad a la transparencia, la responsabilidad, la precisión y la originalidad, vemos tanto continuidad como cambio en el uso de la IA para la investigación.

Los principios de Cambridge para la IA generativa en la publicación de investigaciones incluyen que:

  • La IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías.
  • La IA no cumple los requisitos de Cambridge sobre autoría, dada la necesidad de rendir cuentas. Las herramientas de IA y LLM no pueden figurar como autor en ningún trabajo académico publicado por Cambridge.
  • Cualquier uso de la IA no debe infringir la política de plagio de Cambridge. Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otro material de otros sin una citación adecuada y una referenciación transparente.
  • Los autores son responsables de la exactitud, integridad y originalidad de sus trabajos de investigación, incluido cualquier uso de la IA.