Archivo de la etiqueta: ChatGPT

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

Webinar “La inteligencia artificial y su impacto en la escritura académica»

 Webinar «LA INTELIGENCIA ARTIFICIAL Y SU IMPACTO EN LA ESCRITURA ACADÉMICA”, dictado por el Lic. Julio Alonso Arévalo, Universidad de Guayaquil, dia 23 de junio de 2023

VER VIDEO

La IA generativa ha demostrado ser una herramienta poderosa para la creatividad y la innovación. A pesar de esta preocupación que suscita entre investigadores y educadores, la capacidad de la tecnología de utilizar consultas y comandos en lenguaje normal para producir resultados aparentemente personalizados la convierte en una herramienta valiosa para la educación y la investigación. Sin embargo, también plantea desafíos éticos y sociales, como la atribución adecuada de obras generadas por máquinas y la posibilidad de la difusión de contenido falso o manipulado. Por lo tanto, es importante abordar estos desafíos y utilizar la IA generativa de manera responsable y ética. La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden ncumplir los derechos de autor de obras existentes.

Estudio comparativo sobre ChatGPT basado en IA y sistemas bibliotecarios en la enseñanza superior para la recopilación de información

Aithal Shubhrajyotsna, & Aithal Sreeramana. (2023). Comparative Study on AI-Based ChatGPT and Library Systems in Higher Education for Information Collection. In Some Thrust Research in Interdisciplinary Humanities, Management and Informatics: In Knowledge Economy (pp. 23–64, ). New Delhi Publishers, New Delhi. https://doi.org/10.5281/zenodo.8066376

PDF

Los GPT basados en inteligencia artificial (IA) son capaces de proporcionar información experta en todos los sectores industriales. De ahí que se decida examinar la posibilidad de utilizar ChatGPT para sustituir a la Biblioteca convencional en la enseñanza superior.

En este capítulo, se realiza un estudio exploratorio sobre la comparación de los procesos de recopilación de información de ChatGPT basados en IA y las Bibliotecas de Educación Superior. Esto incluye una descripción del efecto de la tecnología en la recopilación de información y un análisis de las GPT basadas en IA en términos de su capacidad para proporcionar la información adecuada en cualquier momento, evaluando el modelo de las GPT basadas en IA en términos de generación y difusión de la información. También incluye una comparación sistemática de los servicios prestados por las bibliotecas tradicionales y las bibliotecas digitales con las GPT basadas en IA para estudiantes/lectores, un estudio de las ventajas, beneficios, limitaciones y desventajas de las ChatGPT en términos de prestación de servicios bibliotecarios a los lectores mediante el marco de análisis ABCD y la interpretación del impacto de las GPT basadas en IA en el proceso de recopilación de información del Sistema de Educación Superior.

Basándose en el análisis, la comparación y la evaluación de ChatGPT con los sistemas bibliotecarios tradicionales y digitales, se ofrecen algunas sugerencias sobre el uso de las GPT basadas en IA en la Educación Superior en función de sus ventajas y beneficios para los lectores de los recursos tangibles o intangibles proporcionados en las bibliotecas. Se constata que se espera que los GPT basados en IA sean complementarios a las bibliotecas tradicionales en cuanto a la provisión de apoyo informativo personalizado.

El uso de Chat GPT en los servicios de biblioteca

Mali, Tanaji, y Rahul Deshmukh. «Use of chat gpt in library services», 23 de abril de 2023. https://doi.org/10.1729/Journal.33816.

En general, el uso de Chat GPT en los servicios bibliotecarios tiene el potencial de revolucionar la forma en que las bibliotecas operan e interactúan con los usuarios. Sin embargo, también es importante tener en cuenta las posibles implicaciones y limitaciones éticas del uso de la IA en estos contextos.

En el contexto de los servicios de biblioteca, Chat GPT se puede utilizar para automatizar ciertas tareas, como responder preguntas de referencia, proporcionar recomendaciones de libros o artículos, y ayudar en la recuperación de información. Esto puede liberar al personal de la biblioteca para centrarse en interacciones más complejas y personalizadas con los usuarios, al tiempo que brinda un servicio más rápido y eficiente.

Algunos servicios que se verán afectados por el uso de ChatGPT:

Servicios de referencia virtual: Chat GPT puede utilizarse para proporcionar servicios de referencia virtual a los usuarios de la biblioteca. Los usuarios pueden hacer preguntas a través del chatbot y recibir respuestas en tiempo real, 24 horas al día, 7 días a la semana, sin tener que esperar a que un bibliotecario esté disponible. Chat GPT puede programarse para proporcionar información básica sobre los servicios, colecciones y políticas de la biblioteca, así como para ayudar con preguntas de investigación más complejas.

Búsqueda en el catálogo: los usuarios pueden utilizar ChatGPT para buscar libros, artículos y otros materiales en el catálogo de la biblioteca. ChatGPT puede utilizar el procesamiento del lenguaje natural para comprender las consultas de los usuarios y ofrecer resultados de búsqueda relevantes.

Recomendaciones de lectura personalizadas: Chat GPT puede utilizarse para ofrecer a los usuarios recomendaciones de lectura personalizadas basadas en su historial de lectura y sus preferencias. Analizando los libros que los usuarios han sacado en el pasado y sus respuestas a preguntas sobre sus hábitos de lectura, Chat GPT puede sugerirles libros que podrían interesarles.

Desarrollo de colecciones: Chat GPT puede utilizarse para ayudar a los bibliotecarios en el desarrollo de la colección mediante el análisis de las consultas de los usuarios para identificar temas y materias de gran demanda. Chat GPT también puede utilizarse para analizar datos sobre la circulación de libros y las tendencias populares con el fin de identificar áreas en las que la colección de la biblioteca podría ampliarse o actualizarse.

Traducción a otros idiomas: Chat GPT puede utilizarse para proporcionar servicios de traducción a los usuarios. Al integrar Chat GPT con herramientas de traducción, los usuarios pueden comunicarse con la biblioteca en su lengua materna y el chatbot puede responder en el idioma que elijan.

Recomendaciones de libros: ChatGPT puede analizar las preferencias de lectura de los usuarios y recomendarles libros en función de ellas. Esto puede ser útil para usuarios que buscan nuevo material de lectura o no están seguros de qué leer a continuación.

Tutoriales interactivos: ChatGPT puede utilizarse para ofrecer tutoriales interactivos sobre los recursos y servicios de la biblioteca. Por ejemplo, puede guiar a los usuarios a través del proceso de acceso a recursos electrónicos, como bases de datos y libros electrónicos.

Chatbot para preguntas frecuentes: ChatGPT puede ser entrenado para responder preguntas frecuentes (FAQs) sobre las políticas de la biblioteca, servicios, horarios y otra información.

Recomendaciones de lectura: ChatGPT puede utilizarse para ofrecer recomendaciones de lectura personalizadas a los usuarios de la biblioteca en función de sus preferencias de lectura, géneros y autores.

Proporcionar accesibilidad a discapacitados: ChatGPT puede utilizarse para proporcionar servicios de accesibilidad a usuarios con discapacidad. Por ejemplo, ChatGPT podría utilizarse para proporcionar descripciones de audio de contenidos visuales o para proporcionar transcripciones de contenidos de vídeo.

Aprendizaje de idiomas: ChatGPT puede utilizarse para proporcionar recursos de aprendizaje de idiomas y ejercicios prácticos. Los usuarios pueden interactuar con ChatGPT para recibir sugerencias sobre materiales de aprendizaje de idiomas o para practicar la expresión oral y escrita en un nuevo idioma.

Sistemas de recomendación: Chat GPT también puede utilizarse para recomendar libros, artículos y otros recursos de la biblioteca en función de los intereses de los usuarios y de su historial de búsquedas. Esto puede mejorar la visibilidad de los recursos de la biblioteca y facilitar que los usuarios encuentren lo que buscan.

Promover programas de biblioteca: ChatGPT puede utilizarse para promocionar programas y eventos de la biblioteca, como clubes de lectura, charlas de autores y talleres. Los usuarios pueden interactuar con ChatGPT para obtener más información sobre los próximos eventos e inscribirse.

Difusión y participación: ChatGPT puede ayudar a las bibliotecas a relacionarse con los usuarios a través de plataformas de medios sociales, proporcionando respuestas instantáneas a mensajes y comentarios.

VENTAJAS DE USO DE CHATGPT EN LA BIBLIOTECA

ChatGPT puede beneficiarse enormemente del uso de los servicios bibliotecarios de varias maneras, entre ellas:

  1. Acceso a una amplia gama de información: Las bibliotecas ofrecen una amplia gama de libros, revistas, artículos y otros recursos sobre diversos temas. Al utilizar los servicios bibliotecarios, ChatGPT puede acceder a esta información, lo que puede ayudarle a ofrecer respuestas más precisas y detalladas a las preguntas de los usuarios.
  2. Ahorro de tiempo: En lugar de dedicar una gran cantidad de tiempo a buscar información en Internet, ChatGPT puede utilizar los servicios de la biblioteca para acceder rápidamente a fuentes relevantes y fiables.
  3. Soporte 24/7: ChatGPT puede proporcionar soporte 24/7 a los usuarios de la biblioteca, incluso cuando las bibliotecas físicas están cerradas.
  4. Información de calidad: Las bibliotecas son conocidas por proporcionar información de calidad procedente de fuentes fiables. Esto puede ayudar a ChatGPT a evitar proporcionar información inexacta o engañosa a los usuarios.
  5. Información actualizada: Las bibliotecas actualizan constantemente sus colecciones con nueva información, lo que hace posible que ChatGPT acceda a las últimas investigaciones y tendencias sobre diversos temas.
  6. Asistencia en la investigación: Muchas bibliotecas ofrecen servicios de asistencia a la investigación que pueden ayudar a ChatGPT con preguntas o proyectos de investigación más complejos.
  7. Oportunidades de colaboración: Las bibliotecas suelen tener espacios de colaboración donde las personas pueden trabajar juntas en proyectos o compartir conocimientos. ChatGPT puede
  8. Soporte multilingüe: Muchas bibliotecas ofrecen recursos en varios idiomas, lo que puede ayudar a ChatGPT a proporcionar respuestas en diferentes idiomas y ampliar su base de usuarios.
  9. Acceso a recursos especializados: Las bibliotecas suelen tener recursos que no están fácilmente disponibles en Internet, como libros raros, manuscritos y archivos. Estos recursos pueden ser muy valiosos para ChatGPT a la hora de proporcionar información única y especializada.

DESVENTAJAS DE CHATGPT EN LA BIBLIOTECA

  1. Reducción del pensamiento crítico: La adopción de ChatGPT puede provocar una disminución de la capacidad de pensamiento crítico. Esto se debe a que el modelo puede proporcionar información de forma rápida y sencilla y responder a las consultas, eliminando potencialmente la necesidad de que las personas se dediquen al pensamiento crítico independiente y a la resolución de problemas. Además, si la información del modelo es fiable y precisa, puede hacer que la gente crea información errónea sin comprobarla.
  2. Dependencia de servicios de terceros: La capacidad de ChatGPT para funcionar y ofrecer resultados depende de bibliotecas y servicios externos, que pueden sufrir caídas o cambios en sus API. Si alguno de estos servicios se cae o deja de estar disponible, la funcionalidad de ChatGPT puede verse afectada.
  3. Cuestiones de privacidad y seguridad: El uso por parte de ChatGPT de servicios de terceros puede suscitar inquietudes en torno a la privacidad y seguridad de los datos. Si se comparte información sensible con ChatGPT, puede ser procesada y almacenada por estos servicios externos, lo que potencialmente podría exponerla a riesgos de seguridad o violaciones de datos.
  4. Limitaciones en la personalización: El uso de servicios externos por parte de ChatGPT puede limitar el grado de personalización o adaptación a casos de uso específicos. Los servicios en los que se basa pueden tener sus propias limitaciones y restricciones, lo que puede impedir que ChatGPT proporcione las respuestas más óptimas o pertinentes a determinadas consultas.
  5. Coste: algunas bibliotecas y servicios externos pueden tener un coste, lo que puede dificultar que las organizaciones más pequeñas o los particulares utilicen ChatGPT en todo su potencial.
  6. Plagio: El uso de ChatGPT para generar texto puede facilitar que los investigadores incurran en plagio al presentar el texto generado por el modelo como su trabajo.

En conclusión. ChatGPT puede ser una herramienta útil en los servicios bibliotecarios, sobre todo en áreas relacionadas con el procesamiento del lenguaje natural, el análisis de textos y la participación de los usuarios. Su capacidad para generar respuestas coherentes y contextualmente relevantes a las consultas de los usuarios puede mejorar la eficacia de los Chatbot y asistentes virtuales de las bibliotecas, cada vez más importantes en la prestación de servicios en línea a los usuarios de las bibliotecas.

Además, ChatGPT puede utilizarse para analizar grandes volúmenes de datos de texto generados por las interacciones de los usuarios con los servicios bibliotecarios. Esto puede ayudar a identificar patrones de comportamiento, preferencias y necesidades de los usuarios, que pueden servir de base para el desarrollo de servicios bibliotecarios más personalizados y eficaces. En general, ChatGPT tiene el potencial de transformar la forma en que se prestan y evalúan los servicios bibliotecarios, y puede desempeñar un papel importante en la mejora de la satisfacción y el compromiso de los usuarios. Sin embargo, es importante señalar que el uso de ChatGPT debe complementarse con otros métodos de investigación para garantizar una comprensión exhaustiva y precisa de las necesidades y preferencias de los usuarios.

Investigadores de la Universidad de Kansas afirman haber desarrollado un algoritmo con una precisión del 99% en la detección de falsificaciones de ChatGPT

Desaire, Heather, Aleesa E. Chua, Madeline Isom, Romana Jarosova, y David Hua. «Distinguishing Academic Science Writing from Humans or ChatGPT with over 99% Accuracy Using Off-the-Shelf Machine Learning Tools». Cell Reports Physical Science 0, n.o 0 (7 de junio de 2023). https://doi.org/10.1016/j.xcrp.2023.101426.

Investigadores de la Universidad de Kansas afirman tener una precisión del 99% en la detección de falsificaciones de ChatGPT. Los investigadores afirman que su algoritmo puede detectar escritos científicos realizados por robots con una precisión sorprendente

Científicos de la Universidad de Kansas publicaron un artículo el miércoles en el que detallan un algoritmo que, según dicen, detecta la escritura académica de ChatGPT con una precisión de más del 99%.

A medida que el contenido del chatbot de IA comienza a inundar el mundo, una de las mayores preocupaciones es poder distinguir de manera confiable entre las palabras de los robots y las de los seres humanos reales. Se han realizado algunos intentos de construir detectores de ChatGPT, y decenas de empresas compiten por desarrollar tecnología para detectar la IA. Pero hasta ahora, ninguna de las opciones funciona bien, incluso una construida por OpenAI, la empresa que creó ChatGPT. Las herramientas existentes son tan ineficaces que son prácticamente inútiles.

El detector de ChatGPT descrito en el artículo solo está diseñado para funcionar en contextos específicos, pero su éxito reportado parece prometedor. En el proceso de construcción, los investigadores afirman haber identificado señales reveladoras de la escritura de IA.

El artículo, que fue revisado por pares y publicado en Cell Reports Physical Science, describe una técnica que detecta artículos de investigación académica escritos por IA. El estudio seleccionó un conjunto de 64 artículos científicos escritos por autores humanos en una variedad de disciplinas, desde biología hasta física. Alimentaron esos datos a ChatGPT y lo utilizaron para producir un conjunto de datos de 128 artículos de IA con un total de 1.276 párrafos generados por el chatbot. Los científicos utilizaron esos párrafos falsos para construir su algoritmo de detección de ChatGPT. Luego crearon un nuevo conjunto de datos para probar su algoritmo con 30 artículos reales y 60 artículos escritos por ChatGPT, lo que suma un total de 1.210 párrafos.

Los investigadores afirman que su algoritmo detectó artículos completos escritos por ChatGPT el 100% de las veces. A nivel de párrafo, fue menos preciso pero aún impresionante: el algoritmo identificó el 92% de los párrafos generados por IA.

Los investigadores esperan que otros utilicen su trabajo para adaptar el software de detección a sus propios nichos y propósitos. «Nos esforzamos mucho para crear un método accesible para que, con poca orientación, incluso los estudiantes de secundaria puedan construir un detector de IA para diferentes tipos de escritura», dijo Heather Desaire, autora del artículo y profesora de química en la Universidad de Kansas, en una entrevista con EurekAlert. «Existe la necesidad de abordar la escritura de IA, y las personas no necesitan tener un título en ciencias de la computación para contribuir a este campo».

El artículo menciona algunas señales reveladoras del trabajo de ChatGPT. Por ejemplo, los escritores humanos redactan párrafos más largos, utilizan un vocabulario más amplio, incluyen más signos de puntuación y tienden a calificar sus afirmaciones con palabras como «sin embargo», «pero» y «aunque». ChatGPT también es menos específico en cuanto a las citas, como figuras y menciones de otros científicos.

El modelo desarrollado por Desaire y sus colaboradores no funcionará de manera inmediata para los profesores que esperan penalizar a los estudiantes de secundaria que hacen trampa. El algoritmo fue creado para la escritura científica, específicamente el tipo de escritura académica que se encuentra en revistas. Esto es una lástima para los formadores y gestores que, en general, han pasado los últimos seis meses preocupados por el plagio facilitado por ChatGPT. Sin embargo, Desaire afirmó que teóricamente se puede utilizar la misma técnica para construir un modelo que detecte otros tipos de escritura.

Las cosas se complican cuando consideramos el hecho de que un escritor podría realizar fácilmente pequeñas modificaciones a un texto generado por el chatbot y hacerlo mucho más difícil de detectar. Aun así, los investigadores describieron este trabajo como una «prueba de concepto» y afirman que podrían desarrollar una herramienta más robusta y quizás más precisa con un conjunto de datos más amplio.

Aunque estos resultados son prometedores, las empresas de tecnología y los defensores de la IA señalan que herramientas como ChatGPT están en sus etapas iniciales. Es imposible decir si los métodos de detección como este serán efectivos si la IA continúa desarrollándose al ritmo acelerado que hemos presenciado en los últimos años. Cuanto más se acerquen los modelos de lenguaje grandes a replicar los murmullos de la escritura humana basada en carne, más difícil será identificar las huellas del lenguaje de los robots.

¿Cómo citar a ChatGPT?

Para citar ChatGPT en tu trabajo, puedes seguir las pautas de la Asociación Estadounidense de Psicología (APA) y adaptar la información a los detalles específicos.

Otra cosa es que se pueda o deba citar una fuente como ChatGPT, ya que algunas de las recomendaciones consideran que nos se puede citar, ya que no es ningún autor definido. Cambridge University Press que publicó los principios de política de ética en la investigación con IA, prohíbe tratarla como «autora» de artículos y libros académicos ya que no puede rendir cuentas ante un conflicto de intereses delante de un tribunal, por no ser ninguna entidad jurídica. Y que la IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías en el apartado dedicado a estas dentro del artículo especificando claramente para que fue utilizada y con que fines. Tambien COPE: Committee on Publication Ethics incide en esta cuestión, cuando dice «Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.»

Pero si se citta, según las pautas de American Psychological Association (APA), se sugiere el siguiente formato para citar ChatGPT:

  • Autor o entidad responsable: Si no hay un autor específico mencionado, puedes utilizar «OpenAI» como entidad responsable.
  • Fecha de publicación: Incluye la fecha de la interacción o la fecha en que accediste al contenido.
  • Título de la publicación o descripción: Utiliza el título «ChatGPT» o una descripción que identifique claramente el contenido como una interacción con el modelo de lenguaje ChatGPT.
  • [Mensaje de chat]: Incluye esta etiqueta para indicar que se trata de un mensaje de chat.
  • Recuperado de [URL]: Proporciona la URL completa y actualizada donde se encuentra el contenido.

A continuación se muestra un ejemplo de cómo podría verse la cita en formato APA:

Nombre del autor (año, mes día). Título de la publicación o descripción [Mensaje de chat]. Recuperado de [URL]

OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat

CITA REAL

ChatGPT. (2023, Jan. 13, 19:19 GMT). Prompt: Budget for a 3 member family based in Zurich for 2023. ChatGPT Jan. 9 Version. https://chat.openai.com/chat/ff75c484-3417-4149-9264-d011d456dad3

Ver además

How to Cite ChatGPT APA Style, 2023. https://www.youtube.com/watch?v=6UYkxLaULHo.

«How to Cite ChatGPT». Accedido 13 de junio de 2023. https://apastyle.apa.org/blog/how-to-cite-chatgpt.

zakirtheresearchtl. «Citing and Referencing ChatGPT Responses: A Proposal», 13 de enero de 2023. https://www.theresearchtl.net/single-post/citing-and-referencing-chatgpt-responses-a-proposal.

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

ChatGPT, el impacto de los grandes modelos lingüísticos en la aplicación de la ley

Europol. ChatGPT, The impact of large language models on law enforcement. Publications Office of the European Union, 2023,

Texto completo

El lanzamiento y uso generalizado de ChatGPT -un gran modelo lingüístico (LLM) desarrollado por OpenAI- ha suscitado una gran atención pública, debido principalmente a su capacidad para proporcionar rápidamente respuestas listas para usar que pueden aplicarse a una gran cantidad de contextos diferentes. Estos modelos encierran un enorme potencial. El aprendizaje automático, del que antes sólo se esperaba que se ocupara de tareas mundanas, ha demostrado ser capaz de realizar complejos trabajos creativos. Los LLM se perfeccionan y se lanzan nuevas versiones con regularidad, y las mejoras tecnológicas no dejan de sucederse. Aunque esto ofrece grandes oportunidades a las empresas legítimas y a los ciudadanos, también puede suponer un riesgo para ellos y para el respeto de los derechos fundamentales, ya que los delincuentes y los malos actores pueden querer explotar los LLM para sus propios fines nefastos.

En respuesta a la creciente atención pública prestada a ChatGPT, el Laboratorio de Innovación de Europol organizó una serie de talleres con expertos en la materia de toda la organización para explorar cómo los delincuentes pueden abusar de LLM como ChatGPT, así como la forma en que puede ayudar a los investigadores en su trabajo diario. Los expertos que participaron en los talleres representaban todo el espectro de conocimientos especializados de Europol, incluidos el análisis operativo, la delincuencia grave y organizada, la ciberdelincuencia, la lucha antiterrorista, así como la tecnología de la información. El objetivo de este informe es examinar los resultados de los talleres especializados de expertos y concienciar sobre el impacto que los LLM pueden tener en el trabajo de la comunidad encargada de la aplicación de la ley. Dado que este tipo de tecnología está experimentando un rápido progreso, este documento ofrece además una breve perspectiva de lo que aún puede estar por venir y destaca una serie de recomendaciones sobre lo que puede hacerse ahora para prepararse mejor para ello.

El trabajo del conocimiento y el papel de la enseñanza superior en la era de la IA

Impact of Social Sciences. «Knowledge Work and the Role of Higher Education in an AI Era», 2 de junio de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/06/02/knowledge-work-and-the-role-of-higher-education-in-an-ai-era/.

A medida que la inteligencia artificial se entremezcla cada vez más con distintas formas de trabajo del conocimiento, Bert Verhoeven y Vishal Rana debaten cómo puede adaptarse la enseñanza superior para satisfacer las necesidades de un mercado laboral cambiante. Señalando los límites de las formas tradicionales de examen en la enseñanza superior y las ventajas del estudio en la práctica y la evaluación auténtica, sostienen que la enseñanza superior puede reconfigurarse de forma que se haga hincapié en más y mejores competencias que en la retención de conocimientos.

El consejero delegado de OpenAI, Sam Altman, expresó recientemente su preocupación durante una mesa redonda con senadores estadounidenses sobre el impacto potencial de los grandes modelos lingüísticos (LLM), como ChatGPT, BingChat y Bard, en las carreras de los trabajadores del conocimiento en todo el mundo. Estos modelos lingüísticos avanzados han demostrado notables capacidades en diversos ámbitos, como el almacenamiento de datos, las respuestas a consultas, la generación de ensayos, informes, documentos académicos, políticas, estrategias, documentación jurídica e incluso codificación. Estas competencias encapsulan la pericia de los trabajadores del conocimiento de todo el mundo.

A medida que las tecnologías de la IA siguen transformando nuestro mundo, resulta crucial reevaluar nuestros planes de estudios, metodologías pedagógicas y enfoques de evaluación. El objetivo es preparar adecuadamente a los estudiantes para un panorama en rápida evolución. La aparición de los LLM plantea la necesidad de un pensamiento crítico y de adaptación en la educación para garantizar que los estudiantes desarrollen habilidades que complementen y aumenten las capacidades de la IA en lugar de verse eclipsados por ellas.

En este contexto, el plan de estudios debería hacer hincapié en habilidades como la creatividad, la resolución de problemas, el análisis crítico y la toma de decisiones éticas. En lugar de centrarse únicamente en la memorización y el recuerdo de información, los educadores deben fomentar la capacidad de los alumnos para pensar de forma crítica y aplicar los conocimientos a situaciones del mundo real. Esto implica fomentar la colaboración, la comunicación y los enfoques interdisciplinarios para la resolución de problemas.

Las metodologías pedagógicas deben evolucionar para incorporar el aprendizaje basado en proyectos, en el que los alumnos participan en actividades prácticas que fomentan la creatividad, la innovación y la resolución de problemas complejos. Estos enfoques fomentan el desarrollo de habilidades que la IA no puede reproducir fácilmente, como la inteligencia emocional, la empatía, la adaptabilidad y el liderazgo.

Además, los enfoques de evaluación deben ir más allá de los exámenes tradicionales y las pruebas estandarizadas. La evaluación de las capacidades de los estudiantes para aplicar conocimientos, pensar de forma crítica y colaborar puede lograrse mediante una combinación de evaluaciones de proyectos, presentaciones, simulaciones y otras formas de evaluación auténtica. Este cambio permite a los educadores calibrar el desarrollo holístico de los estudiantes y su preparación para prosperar en un panorama profesional cambiante.

Reimaginando nuestro plan de estudios, la pedagogía y las evaluaciones, podemos garantizar que los estudiantes están equipados con las habilidades y atributos necesarios para prosperar en un mundo en el que las tecnologías de IA desempeñan un papel cada vez más destacado. El objetivo es capacitar a las personas para trabajar junto a los sistemas de IA, aprovechando sus capacidades humanas únicas para crear, innovar y contribuir de forma significativa a la sociedad.

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA

Kuykendall, By Kristal, y 05/30/23. «Turnitin: Of 38M Submissions Since April 4, 3.5% Had At Least 80% AI-Written Text -». Campus Technology. Accedido 2 de junio de 2023. https://campustechnology.com/articles/2023/05/turnitin-says-its-ai-detector-analyzed-38m-submissions-in-six-weeks.aspx.

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA, y algo menos de una décima parte de los envíos contenían al menos un 20% de texto escrito con IA.

Turnitin informó de que, de 38 millones de consultas realizadas desde el 4 de abril, aproximadamente el 3,5% de ellos contenían al menos un 80% de texto escrito por IA. Esto sugiere que hay una notable presencia de texto generado por IA en los envíos que Turnitin ha procesado.

De manera que en las primeras seis semanas de uso por parte de los educadores de la nueva función de detección de escritura por IA de Turnitin, ha llevado a la plataforma a ajustar el detector y a explicar mejor el significado y los índices de precisión de las puntuaciones de detección.

Las actualizaciones de la función de detección de IA inclyen:

  • Se ha añadido un asterisco a las puntuaciones inferiores al 20%: Ahora aparecerá un asterisco junto al indicador «puntuación» -o el porcentaje de un envío que se considera texto escrito con IA- cuando la puntuación sea inferior al 20%, ya que el análisis de los envíos hasta ahora muestra que los falsos positivos son mayores cuando el detector encuentra que menos del 20% de un documento está escrito con IA. El asterisco indica que la puntuación es menos fiable, según la entrada del blog.
  • Aumento del número mínimo de palabras: El número mínimo de palabras necesario para que el detector de IA funcione se ha aumentado de 150 a 300, porque el detector es más preciso cuanto más largo es un envío, dijo Chechitelli. «Los resultados demuestran que nuestra precisión aumenta con un poco más de texto, y nuestro objetivo es centrarnos en los escritos largos. Es posible que con el tiempo modifiquemos este requisito de palabras mínimas basándonos en la evaluación continua de nuestro modelo.»
  • Cambios en el análisis del detector de frases iniciales y finales: «También observamos una mayor incidencia de falsos positivos en las primeras o últimas frases de un documento», dijo Chechitelli. «Muchas veces, estas frases son la introducción o la conclusión en un documento. Como resultado, hemos cambiado la forma de agregar estas frases específicas para la detección con el fin de reducir los falsos positivos.»

Es importante señalar que la capacidad de Turnitin para detectar texto generado por IA se basa en sus algoritmos y bases de datos que comparan el texto enviado con las fuentes existentes para identificar posibles casos de plagio. Aunque Turnitin puede detectar casos en los que el texto generado por IA se ha copiado directamente de fuentes existentes, puede tener dificultades para identificar el plagio cuando el texto generado por IA es original y no procede de publicaciones existentes.

A medida que siga evolucionando el uso de la IA en la generación de texto, es posible que las herramientas de detección como Turnitin tengan que adaptarse y desarrollar nuevas técnicas para identificar y abordar eficazmente el plagio generado por IA. Las instituciones y organizaciones educativas también pueden necesitar establecer políticas y directrices específicas para abordar el uso de contenidos generados por IA y el plagio en entornos académicos.

Vale la pena mencionar que las cifras proporcionadas por Turnitin ponen de relieve la prevalencia del texto generado por IA, pero sería necesario realizar más análisis e investigaciones para comprender plenamente el impacto y las implicaciones del contenido generado por IA en el contexto de la integridad académica y la detección del plagio.