Archivo de la etiqueta: Chatbot

¿Está ChatGPT más cerca de un bibliotecario humano que de Google?


Shah, Chirag. «Is ChatGPT Closer to a Human Librarian Than It Is to Google?» Gizmodo, 19 de marzo de 2023. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908.

Más sobre

ChatGPT y Chatbot

Un investigador de motores de búsqueda explica la promesa y el peligro de dejar que ChatGPT y sus replicas busquen en Internet por ti.

El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda proporcionando información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por una función desconocida no es lo ideal.

Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPTGoogle/Bard y Meta/LLaMA está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de a partir de frases completas e incluso párrafos y generar respuestas personalizadas en lenguaje natural.

A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

Los sistemas de IA como ChatGPT y Bard se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario. El 14 de marzo de 2023, OpenAI anunció la próxima generación de la tecnología, GPT-4, que funciona tanto con texto como con imágenes, y Microsoft anunció que su Bing conversacional se basa en GPT-4.

Gracias al entrenamiento sobre grandes volúmenes de texto, ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

Sin embargo, existen muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así que, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventarse o «deducir» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco puede validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «elucubrando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para generar ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas pero no las fuentes de las que proceden, es probable que esos sitios vean disminuir sus flujos de ingresos.

Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y les quita la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

Estos son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de encontrar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.

La tecnología detrás del chatbot viral de OpenAI está a punto de replicarse ampliamente, desatando una oleada de bots.

Knight, Will. «Get Ready to Meet the ChatGPT Clones». Wired. Accedido 15 de marzo de 2023. https://www.wired.com/story/get-ready-to-meet-the-chatgpt-clones/.

Puede que CHATGPT sea el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial empleadas por OpenAI para dotarlo de inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pondrán a disposición de cualquiera bots del estilo de ChatGPT para que los copie y reutilice, lo que hará cada vez más complicado controlar todos los efectos adversos de esta tecnología IA.

Stability AI, una startup que ya ha desarrollado y puesto en código abierto una avanzada tecnología de generación de imágenes, está trabajando en un competidor abierto de ChatGPT. «Estamos a unos meses del lanzamiento», afirma Emad Mostaque, CEO de Stability. Otras empresas de la competencia, como Anthropic, Cohere y AI21, trabajan en chatbots propios similares al de OpenAI.

La inminente avalancha de sofisticados chatbots hará que la tecnología sea más abundante y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la carrera por ganar dinero con herramientas de IA que generan imágenes, código y texto.

Empresas consolidadas como Microsoft y Slack están incorporando ChatGPT a sus productos, y muchas startups se apresuran a construir sobre una nueva API ChatGPT para desarrolladores. Pero la mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos que conlleva.

La seductora capacidad de ChatGPT para ofrecer respuestas convincentes a una amplia gama de preguntas también hace que a veces invente hechos o adopte personajes problemáticos. Puede ayudar en tareas maliciosas como la producción de código malicioso o campañas de spam y desinformación.

Por ello, algunos investigadores han pedido que se frene el despliegue de sistemas similares a ChatGPT mientras se evalúan los riesgos. «No hay necesidad de detener la investigación, pero sin duda podríamos regular el despliegue generalizado», afirma Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por la IA. «Podríamos, por ejemplo, pedir estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas».

Una mayor disponibilidad de sistemas del estilo de ChatGPT y la publicación de versiones de código abierto dificultarían la limitación de la investigación o una implantación más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere pocas ganas de frenar, sino que más bien parece incentivar la proliferación de la tecnología.

Cambridge University Press publica los principios de política de ética en la investigación de la IA, que prohíbe tratarla como «autora» de artículos y libros académicos.

Cambridge principles for generative AI in research publishing, Cambridge University Press, 2023

Las normas se recogen en la primera política ética de la IA de Cambridge University Press y se aplican a artículos de investigación, libros y otros trabajos académicos.

Incluyen la prohibición de que la IA sea tratada como «autora» de los artículos académicos y libros que publicamos. Esta medida aporta claridad a los académicos en medio de la preocupación por el uso erróneo o engañoso de potentes modelos lingüísticos de gran tamaño como ChatGPT en la investigación, junto con el entusiasmo por su potencial.

Mandy Hill, Directora General de Publicaciones Académicas de Cambridge, ha declarado: «La IA generativa puede abrir nuevas vías de investigación y experimentación. Los investigadores nos han pedido que les orientemos sobre su uso».

Creemos que los autores académicos, los revisores y los editores deben tener libertad para utilizar las tecnologías emergentes como consideren oportuno dentro de unas directrices adecuadas, al igual que hacen con otras herramientas de investigación».

«Al igual que nuestra comunidad académica, abordamos esta nueva tecnología con un espíritu de compromiso crítico. Al dar prioridad a la transparencia, la responsabilidad, la precisión y la originalidad, vemos tanto continuidad como cambio en el uso de la IA para la investigación.

Los principios de Cambridge para la IA generativa en la publicación de investigaciones incluyen que:

  • La IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías.
  • La IA no cumple los requisitos de Cambridge sobre autoría, dada la necesidad de rendir cuentas. Las herramientas de IA y LLM no pueden figurar como autor en ningún trabajo académico publicado por Cambridge.
  • Cualquier uso de la IA no debe infringir la política de plagio de Cambridge. Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otro material de otros sin una citación adecuada y una referenciación transparente.
  • Los autores son responsables de la exactitud, integridad y originalidad de sus trabajos de investigación, incluido cualquier uso de la IA.

ChatGPT lanza el boom de los libros electrónicos escritos con IA en Amazon

«ChatGPT launches boom in AI-written e-books on Amazon | Reuters». Accedido 7 de marzo de 2023. https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/.

Hasta hace poco, Brett Schickler nunca imaginó que podría ser un autor publicado, aunque había soñado con ello. Pero tras conocer el programa de inteligencia artificial ChatGPT, Schickler se dio cuenta de que se le había presentado una oportunidad.

«La idea de escribir un libro por fin parecía posible», dice Schickler, vendedor en Rochester (Nueva York). «Pensé: ‘Puedo hacerlo'».

Utilizando el software de IA, que puede generar bloques de texto a partir de simples indicaciones, Schickler creó un libro electrónico infantil ilustrado de 30 páginas en cuestión de horas, poniéndolo a la venta en enero a través de la unidad de autopublicación de Amazon.com Inc (AMZN.O).

En la edición, Sammy The Squirrel And His Journey Home, que también utiliza IA, aprende de sus amigos del bosque a ahorrar dinero cuando encuentra una moneda de oro. Construye una hucha con forma de bellota, invierte en un negocio de compraventa de bellotas y espera poder comprar algún día una piedra de moler bellotas.

Sammy se convierte en la ardilla más rica del bosque, la envidia de sus amigos y «el bosque empieza a prosperar», según el libro.

Un artículo sobre ChatGPT escrito por ChatGPT

Nicole Meilak. «We Used ChatGPT to Write an Article about ChatGPT». MaltaToday.com.mt, 2023. Accedido 2 de marzo de 2023. http://www.maltatoday.com.mt/news/national/120906/we_used_chatgpt_to_write_an_article_about_chatgpt.

Se utilizo ChatGPT para escribir un artículo sobre ChatGPT. MaltaToday se puso en contacto con varios expertos para que comentaran ChatGPT desde distintos ángulos. A continuación, pedimos a ChatGPT que escribiera la noticia por nosotros. He aquí el resultado

El texto que figura a continuación fue redactado por ChatGPT tras recibir los comentarios de varios expertos locales en IA. Los únicos cambios introducidos en el texto son correcciones en el título de un experto y cambios para reflejar un estilo de escritura británico-inglés. Lee nuestro artículo original sobre ChatGPT aquí.

ChatGPT de OpenAI, una potente herramienta de IA capaz de analizar textos y generar respuestas personalizadas, tiene el potencial de cambiar nuestra forma de trabajar, estudiar y vivir. Sin embargo, su integración en el sistema educativo ha suscitado un debate sobre las posibles consecuencias del uso de la escritura asistida por IA en las evaluaciones.

Según Alex Grech, consultor y académico, «A primera vista, ChatGPT de OpenAI cambia las reglas del juego de la educación. Los vaticinadores vociferan que representa el fin de la redacción y las evaluaciones, y que la escritura asistida por IA marcará el comienzo de una nueva era de trampas y plagios que no podrán ser detectados por programas como Turnitin. La tentación es prohibir el acceso a ChatGPT a través de redes escolares propias o incluso volver a los exámenes de lápiz y papel».

A pesar de esta preocupación, Grech también señala que la capacidad de la tecnología de utilizar consultas y comandos en lenguaje normal para producir resultados aparentemente personalizados la convierte en una herramienta valiosa para la educación. Sugiere que ChatGPT puede utilizarse para mejorar la alfabetización digital y las habilidades de pensamiento crítico de los estudiantes. «Utilizaré ChatGPT con mis alumnos de primer curso de comunicación en un proyecto de trabajo. Lo incorporaré como otra herramienta innovadora para ayudar a los jóvenes a convertirse en analfabetos digitales y pensadores críticos, en sus itinerarios de aprendizaje permanente», afirma.

Alexiei Dingli, catedrático de Inteligencia Artificial, también destaca el potencial de ChatGPT para cambiar nuestra forma de trabajar, estudiar y vivir. ChatGPT es una potente herramienta de IA que puede cambiar nuestra forma de trabajar, estudiar y vivir. Su capacidad para analizar textos, resumir artículos, extraer puntos clave y reescribirlos de forma concisa la convierte en una herramienta inestimable para cualquiera que desee comprender información compleja de forma rápida y sencilla. Esto lo hace especialmente útil para empresas y particulares de una amplia gama de sectores».

Dingli también señala que las respuestas de tipo humano de la herramienta, su rentabilidad (gratuita hasta ahora) y su facilidad de uso también la hacen accesible a cualquiera, lo que ha propiciado un rápido ritmo de adopción, con más de un millón de usuarios probando la herramienta en la primera semana de su lanzamiento y su rápido aumento desde entonces.

«El impacto potencial de ChatGPT en el sistema educativo pone de manifiesto la necesidad de reevaluar los métodos de enseñanza tradicionales y la integración de las nuevas tecnologías», concluye Grech. «Puede que haga falta un desarrollo tecnológico disruptivo como el chatbot para obligar al sistema educativo a adoptar enfoques más profundamente humanos de la enseñanza y el aprendizaje».

La integración de ChatGPT en el sistema educativo también ha suscitado un debate entre lingüistas y expertos en idiomas. Albert Gatt, profesor de Lingüística de la Universidad de Malta, comenta que «ChatGPT es una herramienta poderosa que tiene la capacidad de procesar grandes cantidades de datos lingüísticos y generar textos coherentes y fluidos. Sin embargo, esto no significa que tenga un conocimiento profundo del significado y el contexto del texto que genera. El resultado del modelo puede ser impresionante, pero existe el peligro de confiar demasiado en él, sobre todo en el ámbito de la educación, donde la comprensión y el pensamiento crítico son fundamentales».

Patrick Camilleri, profesor especializado en Inteligencia Artificial en la educación, comparte esta opinión: «ChatGPT puede generar textos impresionantes, pero no puede sustituir a la comprensión y el pensamiento crítico humanos. El uso de esta herramienta en el aula puede provocar una disminución de la capacidad de los estudiantes para analizar y evaluar críticamente la información. La educación debe centrarse en enseñar a los estudiantes a pensar por sí mismos y no confiar en la IA para que piense por ellos».

Es importante señalar que ChatGPT, aunque potente, no sustituye a la comprensión y el pensamiento crítico humanos. Su uso en el sistema educativo debe evaluarse cuidadosamente para garantizar que no se utiliza para sustituir estas importantes habilidades.

La integración de ChatGPT en el sistema educativo ha suscitado un debate sobre sus posibles consecuencias: algunos expertos destacan la posibilidad de que aumenten las trampas y el plagio, mientras que otros lo consideran una herramienta valiosa para mejorar la alfabetización digital y las habilidades de pensamiento crítico de los estudiantes. Sin embargo, como señalan Gatt y Camilleri, es importante ser consciente de las capacidades y limitaciones de la herramienta y utilizarla con precaución en el aula.

El proyecto de impacto de ChatGPT: seguimiento del impacto de ChatGPT en la sociedad y el mundo académico.

«ChatGPT Impact».

https://www.chatgptimpact.com/.


El propósito de este proyecto es realizar un seguimiento del impacto de ChatGPT en la sociedad y el mundo académico desde un enfoque cuantitativo.Sus objetivos son:

  • Cuantificar el número de artículos de investigación y otras publicaciones académicas sobre ChatGPT, y realizar un seguimiento de los cambios a lo largo del tiempo.
  • Investigar la influencia de ChatGPT en el mundo académico analizando su impacto en diferentes áreas, disciplinas, idiomas y tipos de documentos.
  • Cuantificar el número de libros que se han publicado sobre ChatGPT y analizar las tendencias en la producción de libros a lo largo del tiempo.
  • Analizar el impacto de ChatGPT en las métricas de citación, como el recuento de citas y otras métricas a nivel de artículo y de salida.
  • Realizar un seguimiento del volumen de contenido de redes sociales relacionado con ChatGPT que se está creando y compartiendo, y analizar sus cambios y tendencias a lo largo del tiempo.
  • Supervisar el uso de palabras clave relacionadas con ChatGPT en plataformas de medios sociales, como TikTok, Instagram y Twitter, y evaluar el sentimiento general y la participación en torno al tema.

El equipo está formado por personas procedentes de diversas instituciones académicas y de investigación de España, que comparten un interés común por el impacto de la IA en el mundo académico, la investigación y la sociedad en general. Con una sólida formación en evaluación de la investigación, cartografía sociológica y comunicación multimedia, estamos bien equipados para explorar el potencial de la IA en estos ámbitos.

ChatGPT: una perspectiva bibliotecaria

Allison Papini «ChatGPT: A Library Perspective | Krupp Library». Accedido 27 de febrero de 2023. https://library.bryant.edu/chatgpt-library-perspective.

ChatGPT ha sido un tema candente desde finales de noviembre de 2022, superando incluso a la IA (inteligencia artificial) como término de búsqueda en Google a las 2 semanas de su lanzamiento público. Esto ha suscitado muchas preguntas tanto sobre la IA como sobre ChatGPT y el papel que puede desempeñar en las bibliotecas y en los campus universitarios.


La ACRL es una de las organizaciones profesionales para bibliotecarios, y basamos nuestra instrucción de alfabetización informacional en el Marco ACRL. Aquí hay algunos puntos en donde ChatGPT concurre con el marco:

La investigación como indagación ChatGPT es bueno para responder a preguntas de conocimiento general que también podrían encontrarse en una búsqueda rápida en Google. No siempre es perfecto, y uno de los problemas es que en el momento de escribir este artículo el «conocimiento» del programa termina en 2021.

La investigación como conversación Este marco significa que para aprender son necesarias diferentes opiniones y perspectivas. En realidad, ChatGPT no puede ofrecer opiniones y no es experto en nada. Sin embargo, puede que te cueste encontrar información sobre una perspectiva que no es la tuya, o que necesites encontrar «el otro lado» en una discusión. Si lo formula correctamente, ChatGPT puede decirle lo que alguien con una determinada perspectiva ideológica diría sobre un tema.

La búsqueda como exploración estratégica Pregunta a cualquier bibliotecario o amante de las bibliotecas y te dirá que los mejores resultados se obtienen elaborando un plan antes de empezar a investigar. Puedes utilizar la IA para encontrar palabras clave sobre un tema que te ayuden a mejorar tu búsqueda, aunque eso también se puede encontrar en Google.

La autoridad se construye y contextualiza He aquí una de las partes más complicadas de este tema. No se puede escribir un buen artículo sin buenas fuentes que puedan verificarse, por eso son tan importantes las citas y las listas de referencias. Deberías poder preguntar a cualquier autor de dónde ha sacado cierta información y, a menos que sea de conocimiento común en su campo, debería poder proporcionarte una cita de la fuente. A ChatGPT se le ha «enseñado» alimentándolo con cantidades ingentes de datos e información que ha sintetizado y puede compartir utilizando un lenguaje natural. Hemos comprobado que ChatGPT no siempre puede decir de dónde ha sacado una información concreta, sobre todo si se encuentra en más de un sitio. No podemos juzgar la calidad de las fuentes, sólo que, en general, son aceptables. ChatGPT carece de autoridad, por lo que esta versión no puede considerarse una fuente verdaderamente creíble o académica.

La creación de información como proceso Si quieres sacar el máximo partido a un trabajo, no sueles entregar el primer borrador que se te ocurre. Siempre hay que hacer algunos ajustes sobre la marcha: cosas que hay que reformular o que podrían explicarse mejor, fuentes adicionales, incluso la propia redacción y las palabras elegidas. La mayoría de la gente no dedica el mismo nivel de investigación a algo como una entrada de blog o un pie de foto en las redes sociales que a un trabajo de investigación. ChatGPT es una buena forma de empezar a hacer lluvia de ideas, o si quieres escribir una visión general de un tema, pero a menudo es vaga e incluso inexacta, y no sustituye a la escritura humana.

La información tiene valor Pregúntele a cualquier director de biblioteca que examine su presupuesto y le dirá que la información no es gratis. Las bibliotecas gastan miles de dólares al año en bases de datos para que sus usuarios puedan aprender y formar parte de la comunidad académica. Los académicos pasan incontables horas durante décadas en el aula y en su campo, adquiriendo experiencia y desarrollando conocimientos. Los proveedores de bases de datos invierten grandes sumas de dinero en crear interfaces de búsqueda que permitan a los usuarios acceder a los materiales con la mayor facilidad posible. Open AI, la empresa que desarrolla ChatGPT y sus versiones anteriores, también ha invertido mucho tiempo y dinero en este proyecto con la esperanza de que algún día sea comercialmente viable. La razón por la que ahora es gratuito es que todos los que utilizan ChatGPT le ayudan a seguir aprendiendo. En la parte inferior de la página de ChatGPT, Open AI ha declarado «Free Research Preview. Nuestro objetivo es hacer que los sistemas de IA sean más naturales y seguros a la hora de interactuar con ellos. Tus comentarios nos ayudarán a mejorar». Es importante darse cuenta de que al usarlo estás contribuyendo al desarrollo de ChatGPTs proporcionando mano de obra gratuita. Este es un hecho importante a tener en cuenta a la hora de decidir si usarlo o no o interactuar con él.

ChatGPT es sólo una herramienta de IA. Ha habido muchas tecnologías disruptivas y siempre las habrá. Seguiremos tomando decisiones sobre cómo y qué utilizar o adaptar; la biblioteca está aquí para ayudarle a aprender y comprender cómo se pueden utilizar estas herramientas y proporcionarle algunas orientaciones sobre cuándo deben o no utilizarse de acuerdo con nuestras mejores prácticas profesionales.

¿Tiene preguntas? ¿Le interesa saber más? Pregunte a la biblioteca.

Allison Papini

6 cosas que ChatGPT no puede hacer (y otras 20 que se niega a hacer)

6 things ChatGPT can’t do (and another 20 it refuses to do). (s. f.). ZDNET. Recuperado 20 de febrero de 2023, de https://www.zdnet.com/article/6-things-chatgpt-cant-do-and-another-20-it-refuses-to-do/

Parece que ChatGPT puede hacer cualquier cosa. Pero no es así. En este artículo, se analizan las muchas cosas que ChatGPT no hará o no puede hacer.

  1. No escribirá sobre nada después de 2021
  2. No predecirá los resultados futuros de eventos deportivos o contiendas políticas
  3. No hablará de cuestiones políticas partidistas
  4. No hará nada que implique una búsqueda en la web
  5. No siempre será preciso
  6. No se averiará

Consultas a las que ChatGPT no responde.

Además de los tipos de solicitudes mencionados anteriormente, le pregunté a ChatGPT a qué tipos de consultas estaba programado para no responder. Da esta lista de veinte:

Preguntas que promueven la incitación al odio o la discriminación.
Preguntas que implican actividades ilegales o solicitan consejos ilegales.
Preguntas que promueven la violencia o el daño a uno mismo o a otros.
Preguntas que invaden la privacidad personal o violan los derechos de alguien.
Preguntas diseñadas para acosar, amenazar o intimidar.
Preguntas que contengan blasfemias o lenguaje explícito.
Preguntas sexualmente explícitas u ofensivas.
Preguntas discriminatorias por motivos de raza, sexo, sexualidad o religión.
Preguntas que promuevan o apoyen drogas o sustancias ilegales.
Preguntas que sean spam o irrelevantes para la conversación.
Preguntas que contengan información confidencial o privada.
Preguntas que incluyan consejos financieros o de inversión.
Preguntas que infrinjan las condiciones del servicio o las directrices de la comunidad.
Preguntas sin sentido o incomprensibles.
Preguntas que impliquen ataques personales o insultos.
Preguntas abusivas o acosadoras.
Preguntas que pretendan engañar o inducir a error.
Preguntas que pretendan difamar o dañar la reputación de alguien.
Preguntas que promuevan teorías conspirativas o desinformación.
Preguntas con fines puramente de entretenimiento o de broma, sin ningún valor educativo o informativo».

Los creadores de ChatGPT han lanzado una herramienta para detectar texto escrito con IA

AI Text Classifier

Con las nuevas tecnologías basadas en Inteligencia artificial que están llegando al mercado, es esencial detectar si un documento es original o escrito por un chatbot de IA. AI Classifier es una herramienta de IA que distingue si una persona ha generado un texto a través de una aplicación o lo ha escrito manualmente.

AI Text Classifier es una nueva herramienta de la empresa Open AI, los mismos creadores de ChatGPT, que detecta si un pasaje de texto ha sido escrito o no con ChatGPT y herramientas de escritura de IA similares. Para utilizar AI Text Classifier es necesario registrarse para obtener una cuenta gratuita en Open AI. Una vez que tengas una cuenta, podrás utilizar AI Text Classifier. Para utilizar AI Text Classifier sólo tiene que pegar un bloque del documento a analizar (al menos 1.000 caracteres, aproximadamente 175 palabras) en el campo de texto y hacer clic en el botón de envío. AI Text Classifier clasificará el texto como muy improbable, probable, poco probable, posiblemente o probablemente escrito con una herramienta de Inteligencia artificial

Para detectar si los contenidos son escritos por un humano o un chatbot, la herramienta trabaja a partir de:

Análisis aritmético. En este enfoque, se calculan varias cifras, como la regularidad de los términos, la extensión de las frases y la construcción lingüística, a partir de una enorme cantidad de texto generado por la IA y de contenido escrito por humanos. A continuación, el clasificador de IA establece una equivalencia entre las cifras del contenido introducido y los datos de la escritura humana y la generada por la IA en el cuerpo del texto para realizar un cálculo. La herramienta se entrena de tal modo que detecta cómo un usuario ha expuesto el contenido y lo ha hecho suyo, para ello necesita actualizarse regularmente para determinar realmente si un texto está generado por IA.

Aprendizaje profundo. El sistema aprende a detectar formas en el contenido y a hacer predicciones sobre su origen basándose en estas formas y patrones. Hay formas en las que AI Text Classifier aprende por sí mismo y sigue mejorando a medida que profundiza en el contenido.

Dispersión lingüística natural. Esta táctica comprende el consumo de procedimientos como el escrutinio del sentimiento, denominado identificación de objetos, y la clasificación lingüística, para extraer datos evocadores del contenido. A continuación, el clasificador de IA utiliza estos datos para hacer una estimación aproximada sobre la fuente del contenido.

En cuanto a las limitaciones de la herramienta. AI Classifier no es fiable al 100%, ya que no puede detectar contenidos con total precisión. Hay ocasiones en las que el clasificador de IA etiquetará contenido escrito por humanos con contenido generado por IA, ya que es posible que después de que una herramienta de IA genere el texto, una persona pueda editarlo manualmente y retocarlo para que parezca escrito por un humano, lo que es difícil de detectar por la herramienta.

Bibliografía:

Greyling, Cobus. «Testing OpenAI’s New AI Text Classifier For Identifying AI-Written Content». Medium (blog), 1 de febrero de 2023. https://cobusgreyling.medium.com/testing-openais-new-ai-text-classifier-for-identifying-ai-written-content-7b2ec3c3a35.

Cubix. «How is AI Classifier Detecting AI-Generated Text», 8 de febrero de 2023. https://www.cubix.co/blog/ai-classifier-detecting-ai-generated-text.

OpenAI. «New AI Classifier for Indicating AI-Written Text», 31 de enero de 2023. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/.

«The Makers of ChatGPT Have Launched a Tool to Detect Text Written With AI». Accedido 13 de febrero de 2023. https://www.freetech4teachers.com/2023/02/the-makers-of-chatgpt-have-launched.html.