Archivo de la etiqueta: Chatbot

Armados con ChatGPT, los ciberdelincuentes crean malware y traman falsos bots de chicas

Brewster, Thomas. «Armed With ChatGPT, Cybercriminals Build Malware And Plot Fake Girl Bots». Forbes. Accedido 27 de enero de 2023.

Ver original

Los usuarios de foros clandestinos empiezan a compartir malware codificado por la sensación viral de OpenAI y los estafadores de citas planean crear falsas chicas convincentes con la herramienta. Los pronosticadores cibernéticos predicen que se avecinan más usos maliciosos de ChatGPT.

Los ciberdelincuentes han empezado a utilizar ChatGPT, el chatbot de inteligencia artificial de OpenAI, para crear rápidamente herramientas de pirateo informático, advirtieron el viernes investigadores en ciberseguridad. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes con el fin de captar objetivos, según declaró a Forbes un experto que monitoriza foros de delincuentes.

Muchos de los primeros usuarios de ChatGPT habían dado la voz de alarma ante la posibilidad de que la aplicación, que se hizo viral en los días posteriores a su lanzamiento en diciembre, pudiera codificar software malicioso capaz de espiar las pulsaciones del teclado de los usuarios o crear ransomware.

Según un informe de la empresa de seguridad israelí Check Point, los foros clandestinos de delincuentes han terminado por darse cuenta. En uno de los foros analizados por Check Point, un hacker que ya había compartido malware para Android mostraba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en un ordenador y podía cargar más malware en un PC infectado.

En el mismo foro, otro usuario compartió un código Python que podía cifrar archivos, afirmando que la aplicación de OpenAI les había ayudado a construirlo. Afirmaban que era el primer script que habían desarrollado. Como señaló Check Point en su informe, dicho código puede utilizarse con fines totalmente benignos, pero también podría «modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario», de forma similar a como funciona el ransomware. El mismo usuario del foro había vendido anteriormente acceso a servidores de empresas pirateados y datos robados, señaló Check Point.

Un usuario también habló de «abusar» de ChatGPT haciendo que ayudara a codificar las características de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podía crear rápidamente una aplicación que monitorizara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que había visto a estafadores de citas empezar a utilizar ChatGPT también, ya que tratan de crear personajes convincentes. «Están planeando crear chatbots para hacerse pasar sobre todo por chicas para llegar más lejos en los chats con sus marcas», dijo. «Intentan automatizar la charla ociosa».

OpenAI no había respondido a la solicitud de comentarios en el momento de la publicación.

Aunque las herramientas codificadas por ChatGPT parecían «bastante básicas», Check Point dijo que era sólo cuestión de tiempo hasta que hackers más «sofisticados» encontraran la forma de convertir la IA en su ventaja. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT fuera aún capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en importantes incidentes de piratería informática en los últimos años, como Conti, tristemente célebre por su uso en la violación del sistema nacional de salud de Irlanda. La herramienta de OpenAI, sin embargo, reducirá la barrera de entrada para que los novatos se introduzcan en ese mercado ilícito mediante la creación de malware más básico, pero igualmente eficaz, añadió Ferguson.

También planteó la preocupación de que ChatGPT, en lugar de crear código que robe los datos de las víctimas, pueda utilizarse para crear sitios web y bots que engañen a los usuarios para que compartan su información. Podría «industrializar la creación y personalización de páginas web maliciosas, campañas de phishing muy selectivas y estafas basadas en ingeniería social», añadió Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, declaró a Forbes que ChatGPT será una «gran herramienta» para que los hackers rusos que no dominan el inglés elaboren correos electrónicos de phishing de apariencia legítima.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia y «por desgracia», tendrían que aplicarse mediante regulación. OpenAI ha implementado algunos controles, como la prevención de solicitudes obvias de ChatGPT para crear programas espía con advertencias de infracción de la política, aunque los hackers y los periodistas han encontrado formas de eludir esas protecciones. Shykevich afirma que quizá haya que obligar legalmente a empresas como OpenAI a entrenar a su IA para detectar este tipo de abusos.

Los chatbots de IA no sustituyen a la autoría humana: ChatGPT «¿Eres una persona real?»

George Tombs ‘Are You a Real Person?’: AI Chatbots No Substitute for Human Authorship», thestar.com. «Opinion 6 de enero de 2023.

Texto completo

ChatGPT, una aplicación de generación de textos mediante inteligencia artificial, está causando conmociones virales en todo el mundo. Desarrollada por una fundación financiada inicialmente por el inconformista tecnológico Elon Musk, ahora se presenta a menudo como una innovación que podría sustituir de un plumazo a categorías enteras de trabajos, haciendo superfluo el trabajo de muchos humanos.

Esta aplicación escanea millones de sitios web en un abrir y cerrar de ojos, recogiendo contenidos aquí y allá, y destilándolos en textos breves, estructurados y aparentemente coherentes. Todos esos sitios web y publicaciones en las redes sociales se tratan como contenido abstracto, listo para la primicia.

Al leer los comentarios de la prensa mundial sobre ChatGPT, se muestra una mezcla bastante peculiar de extravagancia, curiosidad, miedo y obsesión. Por ejemplo, algunos comentaristas se preguntan si el propio periodismo está condenado. Otros se preguntan si las universidades deberían exigir a los estudiantes que presenten trabajos de investigación escritos a mano, en lugar de mecanografiados en un ordenador.

Sin duda, esta tecnología de IA podría invadir el espacio interior de nuestras conciencias, empujándonos sutilmente a un salón virtual de espejos donde ya no podemos distinguir entre lo real y lo irreal. Podría engullir el esfuerzo humano en una oleada de algoritmos, transformando a algunos creadores literarios (novelistas, biógrafos, poetas, investigadores) en técnicos hábiles en la manipulación de simulaciones generadas automáticamente de la expresión humana.

Pero, ¿por qué no dar la vuelta a las cosas? Si una aplicación es una herramienta, seguro que puedo sacarle el máximo partido. Así que planteo la siguiente pregunta a este ChatGPT: «¿Eres una persona real?»

Tras nueve segundos, ChatGPT respondió:

«Soy un asistente informático basado en IA, no una persona real. Me diseñaron para ayudar con tareas, responder preguntas y proporcionar información a usuarios como tú. Aunque puedo entablar una conversación y realizar muchas tareas que podrían asociarse a una persona, no tengo sentimientos, pensamientos ni sensaciones físicas. Existo para ayudar a usuarios como tú de diversas maneras, y estoy aquí para ayudarte lo mejor que pueda. ¿Hay algo específico que le gustaría saber o discutir?».

Esta respuesta me parece refrescante, incluso cortés, como si el pequeño chatbot reconociera sus propias limitaciones.

Como autor, sé lo difícil, incluso tortuoso, que es el camino de la creación. He aprendido que el aspecto más difícil de crear una obra -incluso más que encontrar palabras para un libro o imágenes para una película- es encontrar tu propia voz.

Las obras creativas nos emocionan cuando cuentan nuevas historias de una manera poco convencional, cuando tienen una voz auténtica. Y esta voz es una de las muchas cosas que diferencian a los humanos de los chatbots.

Ser autor significa afirmar una identidad. Significa asumir la responsabilidad de lo que creas, compartir cada obra con el público y garantizar que se respeten tus derechos de propiedad intelectual.

Un chatbot nunca puede ser autor de nada. Sólo puede reordenar lo que ya se ha dicho, ya que da a los contenidos aleatorios un barniz de verosimilitud. Un chatbot no puede proporcionar un texto fiable, ya que refunde y fusiona cualquier cosa en la web, incluidas las teorías conspirativas, el negacionismo y el discurso del odio. La producción de un chatbot es, por tanto, puramente derivativa, y refleja la grandeza y la miseria de la condición humana.

Además, me he dado cuenta de que ChatGPT a veces suelta tonterías al azar. Me recuerda a mis experiencias, a menudo risibles, con otra aplicación de IA: el GPS de mi teléfono.

Cuando conduzco por las calles de mi nueva ciudad natal, Quebec, mi asistente GPS cambia aleatoriamente del francés al inglés, del inglés con acento parisino al inglés con acento neoyorquino. Como si en cada esquina mi asistente GPS sufriera un shock virtual, luchando por adaptarse a cada nueva geolocalización.

No me digan que los errores informáticos se deben a una programación humana imperfecta y no a la propia tecnología subyacente.

ChatGPT puede ser una herramienta útil. Como mínimo, esta aplicación nos incita a reflexionar más profundamente sobre la comunicación, que se basa en nuestras relaciones mutuas.

Como para tranquilizarme, ChatGPT añadió a lo que decía antes:

«Hay muchas diferencias entre una persona y un asistente informático de IA como yo. Una diferencia clave es que las personas son seres vivos con cuerpos físicos y conciencia, mientras que los asistentes de IA como yo son entidades puramente digitales que existen dentro de ordenadores u otros dispositivos electrónicos».

La autoría es (todavía) humana. Y pretendo que siga siendo así.

PaLM + RLHF: una alternativa de código abierto a ChatGPT

Wiggers, Kyle. «There’s Now an Open Source Alternative to ChatGPT, but Good Luck Running It». TechCrunch (blog), 30 de diciembre de 2022. https://techcrunch.com/2022/12/30/theres-now-an-open-source-alternative-to-chatgpt-but-good-luck-running-it/

Esta semana, Philip Wang, el desarrollador responsable de la ingeniería inversa de sistemas de IA de código cerrado, como Make-A-Video de Meta, ha lanzado PaLM + RLHF, un modelo de generación de texto que se comporta de forma similar a ChatGPT. El sistema combina PaLM, un gran modelo lingüístico de Google, y una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF, por sus siglas en inglés) para crear un sistema capaz de realizar prácticamente cualquier tarea que ChatGPT pueda realizar, incluida la redacción de correos electrónicos y la sugerencia de código informático.

Pero PaLM + RLHF no está preentrenado. Es decir, el sistema no ha sido entrenado con los datos de ejemplo de la web necesarios para que realmente funcione. Descargar PaLM + RLHF no te proporcionará por arte de magia una experiencia similar a la de ChatGPT, ya que para ello sería necesario compilar gigabytes de texto a partir de los cuales el modelo pueda aprender y encontrar un hardware lo suficientemente potente como para soportar la carga de trabajo del entrenamiento.

Al igual que ChatGPT, PaLM + RLHF es esencialmente una herramienta estadística para predecir palabras. Cuando se le alimenta con un enorme número de ejemplos de datos de entrenamiento -por ejemplo, entradas de Reddit, artículos de noticias y libros electrónicos-, PaLM + RLHF aprende la probabilidad de que aparezcan palabras basándose en patrones como el contexto semántico del texto circundante.

ChatGPT y PaLM + RLHF comparten una salsa especial en el Aprendizaje por Refuerzo con Retroalimentación Humana, una técnica que pretende alinear mejor los modelos lingüísticos con lo que los usuarios desean que logren. RLHF consiste en entrenar un modelo lingüístico -en el caso de PaLM + RLHF, PaLM- y afinarlo en un conjunto de datos que incluye preguntas (por ejemplo, «Explica el aprendizaje automático a un niño de seis años») junto con lo que los voluntarios humanos esperan que diga el modelo (por ejemplo, «El aprendizaje automático es una forma de IA…»). A continuación, los voluntarios clasifican todas las respuestas de mejor a peor. Por último, las clasificaciones se utilizan para entrenar un «modelo de recompensa» que toma las respuestas del modelo original y las clasifica por orden de preferencia, filtrando las mejores respuestas a una pregunta determinada.

Recopilar los datos de entrenamiento es un proceso costoso. Y el entrenamiento en sí no es barato. PaLM tiene un tamaño de 540.000 millones de parámetros, entendiendo por «parámetros» las partes del modelo lingüístico aprendidas a partir de los datos de entrenamiento. Un estudio de 2020 cifraba en 1,6 millones de dólares los gastos de desarrollo de un modelo de generación de texto con sólo 1.500 millones de parámetros. Y para entrenar el modelo de código abierto Bloom, que tiene 176.000 millones de parámetros, se necesitaron tres meses utilizando 384 GPU Nvidia A100; una sola A100 cuesta miles de dólares.

Ejecutar un modelo entrenado del tamaño de PaLM + RLHF tampoco es trivial. Bloom requiere un PC dedicado con unas ocho GPU A100. Las alternativas en la nube son caras: según los cálculos aproximados, el coste de ejecutar el GPT-3 de generación de texto de OpenAI (que tiene unos 175.000 millones de parámetros) en una única instancia de Amazon Web Services es de unos 87.000 dólares al año.

¿ChatGPT te quitará el trabajo? ¿Qué empleos tienen mayor probabilidad de verse afectados?

Frederick, Brian. «Will ChatGPT Take Your Job?» Search Engine Journal, 16 de enero de 2023.

Ver completo

ChatGPT tiene todos los visos de ser un cambio tecnológico. Pero, ¿te quitará ChatGPT el trabajo? Se trata de un chatbot basado en el aprendizaje automático y en grandes cantidades de datos, que interactúa con los usuarios de una forma increíblemente realista.

ChatGPT de OpenAI hace mucho más que mantener conversaciones virtuales. Puede generar contenidos como poemas o trabajos, depurar código, responder consultas y mucho más. Se trata de un acontecimiento apasionante. Pero, a nivel personal, es más que preocupante, sobre todo por su impacto en la seguridad laboral.

Si la tecnología llega a un nivel en el que puede realizar tu trabajo tan bien o mejor que tú, ¿a qué te vas a dedicar? La mayoría de la gente ha pasado toda su carrera trabajando en un solo campo. ¿Se supone que todos van a ser carpinteros o masajistas? Y si es así, ¿no será intensa la competencia por esos puestos? ¿Cómo sobreviviremos?

La sola idea basta para provocar un ataque de pánico. Pero relájate. Respire en una bolsa de papel si es necesario. Las cosas no son tan desesperadas. Todo va a ir bien. Los aviones tienen un complejo sistema de piloto automático y, durante un vuelo, están controlados en su mayor parte por ordenadores, pero los pilotos están ahí sentados y para ajustar los controles del ordenador siempre que es necesario.

Sí, en una escala de tiempo lo suficientemente larga, la tecnología acabará asumiendo tu papel actual. Sin embargo, es poco probable que esto ocurra pronto. El aprendizaje automático y la inteligencia artificial aún están en pañales, y con suerte se habrá jubilado hace tiempo antes de que las máquinas vengan a quitarte el trabajo.

Y antes de que eso ocurra, el poder de herramientas como ChatGPT te permitirá desempeñar tu función con mucha mayor eficiencia y eficacia.

En este artículo, se da un vistazo a algunos de los puestos de trabajo que con mayor probabilidad se verán afectados por ChatGPT y se califica su seguridad en una escala del 1 al 10, en la que uno significa que no hay posibilidad de sustitución por máquinas y diez significa que hay que pulir el currículum, porque estás a punto de recibir tu carta de despido.

Profesionales de la optimización de motores de búsqueda. Teniendo en cuenta que esto es Search Engine Journal, nuestra primera área de preocupación es sobre el futuro de los trabajos de SEO. No hay duda de que ChatGPT y otros programas similares cambiarán la forma de trabajar de los profesionales del SEO. Pero esto es optimización de motores de búsqueda – el cambio es la única constante. Riesgo de sustitución: 2/10.

Programadores. Pero una de las características clave que siguen apareciendo en los debates sobre ChatGPT es su capacidad para escribir código. Imagínatelo: código que escribe código nuevo, sin olvidar nunca un decimal o un corchete de cierre. Riesgo de sustitución: 4/10.

Especialistas en pago por clic (PPC). En general, los especialistas en PPC no parecen tan preocupados por el impacto de ChatGPT y otras tecnologías de IA en su seguridad laboral. Si alguna vez has configurado una campaña PPC, habrás utilizado el poder de la inteligencia artificial, o al menos algo muy parecido. Las Reglas Automatizadas podrían ser vistas como un tipo rudimentario de IA, donde creas reglas para casos de uso común. Riesgo de sustitución: 2/10.

Escritores. Como ya se habrán imaginado, éste es un aspecto que preocupa especialmente. ¿Qué va a hacer la gente que depende de la creación de la palabra escrita, cuando ChatGPT y similares pueden inventar un titular mejor, más rápido y más eficaz en menos tiempo? Riesgo de sustitución: 2/10.

Profesionales de ventas. No hay duda de que los macrodatos y la IA pueden utilizarse para revolucionar el proceso de ventas. Desde una segmentación más precisa hasta la predicción de comportamientos, no cabe duda de que pueden utilizarse para que las ventas sean más fáciles y eficientes. Riesgo de sustitución: 1/10.

Educadores. Si las personas fueran máquinas frías e indiferentes, no habría mejor manera de educarlas que de memoria. Pero los seres humanos no son ordenadores y la educación es mucho más que transmitir conocimientos. Y ningún tipo de programación, ajuste de algoritmos y procesamiento de datos puede sustituir a intangibles humanos como la paciencia, la disciplina, la amabilidad y la preocupación genuina por el bienestar de los alumnos. Al igual que ocurre con las ventas, a pesar de los avances tecnológicos, parece inconcebible que ChatGPT u otra herramienta de inteligencia artificial pueda sustituir a los educadores humanos. Pero esto no quiere decir que no vaya a cambiar la forma de hacer las cosas. Desde la calificación hasta el seguimiento del progreso, pasando por el desarrollo de planes de aprendizaje personalizados o la mejora de la accesibilidad, hay muchas oportunidades para utilizar esta nueva y emocionante tecnología en este campo. Riesgo de sustitución: 1/10

Abogados. A primera vista, el Derecho parece un campo en el que la inteligencia artificial va a avanzar a pasos agigantados. Después de todo, ¿qué es el Derecho, aparte de un conjunto codificado de instrucciones? ¿Por qué no podría utilizarse ChatGPT para analizar documentos jurídicos, decisiones y precedentes, y luego aplicar ese conocimiento a casos del mundo real? Hay que tener en cuenta el factor humano. Uno de los principales argumentos contra las sentencias mínimas obligatorias en los juicios penales es que cada situación es única. Riesgo de sustitución: 1/10.

ChatGPT y otros programas que emplean el aprendizaje automático y el big data en busca de la inteligencia artificial pueden ser herramientas maravillosas. Son muy prometedoras para reducir o incluso eliminar muchas de las tareas cotidianas. Dicho esto, algunos sectores tienen más probabilidades de ser sustituidos por máquinas en los próximos años o décadas. Entre ellos se encuentran puestos como el de recepcionista, muchos trabajos de atención al cliente, trabajos de conductor, incluidos taxistas y camioneros, y soldados.

También existe la legítima preocupación de que herramientas de IA como ChatGPT puedan ser utilizadas por personas o empresas sin escrúpulos. Desde los estudiantes que hacen trampas en la universidad hasta los resúmenes científicos falsos, que las herramientas de IA causen daños depende mucho de cómo las utilicemos. Puede que algunas empresas sean más rápidas que otras a la hora de intentar reducir costes con la IA. Pero también es probable que haya resistencia por cuestiones de precisión, ética y política. Una cosa es segura: por cada puesto que sustituyan, lo pagarán de otras formas, creando nuevas oportunidades e industrias sobre la marcha.

ChatGPT: la creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica

Carpenter, Todd A. «@TAC_NISO Questions ChatGPT on Scholarly Communications». The Scholarly Kitchen, 11 de enero de 2023.

Ver completo

Más sobre ChatGPT

ChatGPT es un chatbot de código abierto que utiliza el modelo de lenguaje GPT-3 para generar respuestas a las entradas del usuario. Puede utilizarse para crear chatbots de atención al cliente, marketing u otras aplicaciones. Pero también sirve para generar textos por inteligencia artificial (IA) a partir de datos estructurados. El autor Tood A. Carpenter pregunta al propio chatbots sobre estas cuestiones: ¿Cuál es la mejor pregunta para probar un chatbot de IA? ¿Es ético que un autor utilice IA en la elaboración de un artículo académico? Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo? ¿Debería el texto basado en IA ser susceptible de derechos de autor? y otras más.

A medida que se acercaba el final de 2022, una gran parte de la atención popular se centró en el último chatbot de inteligencia artificial, ChatGPT, que fue lanzado en noviembre de 2022 por OpenAPI. (Como apunte, la empresa ha tenido una trayectoria y una financiación muy interesantes, que han dado lugar a una serie de importantes avances en IA). El aprendizaje automático, el procesamiento del lenguaje natural y la creación textual han avanzado mucho en la última década. Cuando la primera autogeneración de contenidos a partir de datos estructurados se hizo comercialmente viable hace aproximadamente una década, era razonablemente fácil discernir los contenidos generados por máquinas. Esto ya no es así. Los distribuidores y evaluadores de contenidos, ya sea para la revisión por pares, para la acreditación académica o simplemente para el consumo de contenidos, deben ser conscientes de la capacidad de estas herramientas y no desdeñarlas.

Dada la variedad de preguntas en las comunicaciones académicas en torno a la aplicación de la IA, sería interesante ver cuál sería la respuesta del ChatGPT a algunas de ellas, junto con otras preguntas literarias/tecnológicas, y compartirlas. Puedes revisar por ti mismo si crees que las respuestas son buenas o no y, si no conocieras la fuente de las respuestas, si podrías decir que se derivan de una máquina. A continuación se reproducen las preguntas y las respuestas. Las respuestas no han sido editadas de ninguna manera a partir de lo que fue emitido por el ChatGPT. Parece que hemos ido mucho más allá del «Turing Test para evaluar la inteligencia de una máquina. Puede que notes que hay algo de fórmula en algunas de las respuestas, pero sólo es perceptible después de revisar varias de ellas. Aunque es importante reflejar que la máquina no «sabe» si las respuestas son correctas o no, sólo que son respuestas estáticamente válidas a las preguntas planteadas.

TAC: ¿Cuál es la mejor pregunta para probar un chatbot de IA?

Respuesta de ChatGPT:

No hay una «mejor» pregunta para probar un chatbot de IA, ya que los diferentes chatbots pueden tener diferentes capacidades y estar diseñados para manejar diferentes tipos de tareas o interacciones. Sin embargo, aquí tienes algunas ideas de preguntas que podrían utilizarse para probar las capacidades de un chatbot de IA:

«¿Puedes proporcionar información sobre un tema específico o responder a una pregunta de conocimiento general?».
«¿Puedes mantener una conversación y responder adecuadamente a preguntas o comentarios de seguimiento?».
«¿Puedes entender y responder a entradas de lenguaje natural, aunque incluyan jerga, coloquialismos o erratas?».
«¿Puedes realizar una tarea o acción concreta, como hacer una reserva o buscar información en Internet?».
«¿Puedes reconocer y responder a diferentes intenciones o emociones del usuario?».


En última instancia, las mejores preguntas para probar un chatbot de IA dependerán de las capacidades y objetivos específicos del chatbot.

TAC: ¿Es ético que un autor utilice IA en la elaboración de un artículo académico?

Respuesta del ChatGPT:

La cuestión de si es ético que un autor utilice la IA en el desarrollo de un artículo académico depende del contexto específico y de las expectativas de la comunidad investigadora en la que se publicará el artículo.

No hay ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre y cuando la IA se utilice de forma adecuada y ética. Por ejemplo, la IA puede utilizarse para analizar grandes cantidades de datos o para generar texto, lo que puede ser útil para identificar tendencias o patrones que podrían no ser evidentes para una persona.

Sin embargo, es importante que los investigadores sean transparentes sobre el papel de la IA en su trabajo y se aseguren de que el uso de la IA es coherente con las normas y expectativas de la comunidad investigadora. Por ejemplo, si se utiliza un programa de IA para generar texto, los autores deben indicarlo claramente en el artículo y atribuir el mérito correspondiente al programa de IA.

Además, los investigadores deben ser conscientes de las posibles limitaciones de la IA y considerar los riesgos y beneficios de utilizarla en su trabajo. Por ejemplo, la IA puede no ser capaz de captar plenamente la complejidad del pensamiento o el lenguaje humanos, y puede ser necesario complementar los resultados generados por la IA con análisis o interpretaciones adicionales realizados por investigadores humanos.

En general, es importante que los investigadores utilicen la IA de forma ética y transparente, y que tengan en cuenta las posibles implicaciones de su uso en su trabajo.

TAC: Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo?

Respuesta de ChatGPT:

El uso de IA, como ChatGPT, en la producción de un artículo académico no significa necesariamente que el artículo deba ser rechazado durante el proceso de revisión por pares. Sin embargo, el uso de la IA debe comunicarse a los revisores y al editor, y los revisores deben considerar hasta qué punto el uso de la IA ha influido en el contenido del artículo.

Si el uso de la IA ha influido significativamente en el contenido del artículo, los revisores pueden tenerlo en cuenta a la hora de evaluarlo. Por ejemplo, si la IA se ha utilizado para generar grandes partes del texto o para analizar datos de una manera que es fundamental para las conclusiones del artículo, los revisores deben examinar el trabajo con más cuidado para asegurarse de que la IA se ha utilizado adecuadamente y que las conclusiones del artículo están respaldadas por los datos.

En última instancia, la decisión de aceptar o rechazar un artículo durante el proceso de revisión por pares debe basarse en la calidad y el rigor de la investigación, y en la medida en que el artículo hace una contribución significativa al campo. Si el uso de la IA no ha influido significativamente en el contenido del artículo, o si el artículo cumple las normas de la comunidad investigadora, es poco probable que el artículo sea rechazado únicamente por el uso de la IA.

TAC: ¿Puede un texto derivado de la IA ser novedoso y creativo?

Respuesta de ChatGPT:

Existe un debate en curso sobre hasta qué punto un texto generado por IA puede considerarse novedoso y creativo. Algunos sostienen que el texto generado por la IA no es más que un reflejo de los datos y algoritmos con los que se ha entrenado y, por tanto, no puede considerarse verdaderamente novedoso o creativo del mismo modo que una obra generada por un ser humano. Otros sostienen que la IA puede utilizarse para producir obras que sean originales y creativas, sobre todo si se da a la IA cierto grado de autonomía en el proceso creativo.

Es importante señalar que el nivel de creatividad y novedad del texto generado por IA puede variar en función del sistema de IA específico y de los parámetros con los que se haya entrenado. Algunos sistemas de IA están diseñados para producir textos muy similares a los escritos por humanos, mientras que otros pueden producir textos más experimentales o inusuales.

En última instancia, que un texto generado por IA se considere novedoso y creativo puede depender de las expectativas y las normas del público o la comunidad de investigación en la que se presenta el texto. Es posible que algunos públicos consideren que un texto generado por IA es creativo y original, mientras que otros no.

TAC: ¿De quién es la responsabilidad de reconocer ante el lector el papel de la IA en la autoría de las obras publicadas, del autor o del editor?

Respuesta del ChatGPT:

En general, es responsabilidad de los autores reconocer el papel de la IA en la autoría de los trabajos publicados. Los autores deben ser transparentes sobre el grado de utilización de la IA en la producción de su obra y deben revelar esta información al editor y a los lectores de la obra. Esto puede hacerse mediante el uso de notas a pie de página, citas u otros métodos de atribución.

Los editores también tienen un papel que desempeñar a la hora de garantizar que el uso de la IA en las obras publicadas se revele y se atribuya adecuadamente. Los editores deben establecer directrices claras para que los autores las sigan cuando utilicen la IA en sus trabajos, y deben revisar los envíos para asegurarse de que el uso de la IA se revela y atribuye correctamente.

En general, es importante que tanto los autores como los editores sean transparentes sobre el papel de la IA en la producción de las obras publicadas, para garantizar que los lectores tengan una comprensión completa de la obra y de la medida en que se ha producido utilizando IA.

TAC: ¿Hasta qué punto es un problema la publicación depredadora?

Respuesta de ChatGPT:

La edición depredadora, también conocida como edición engañosa o ilegítima, es un problema importante en el mundo académico. Las editoriales depredadoras cobran a los autores por publicar sus trabajos sin prestar los servicios editoriales y de publicación que prestan las editoriales legítimas, como la revisión por pares y la corrección. Como resultado, el trabajo publicado puede no cumplir las normas de calidad e integridad que se esperan en la comunidad académica.

La publicación depredadora puede socavar la integridad del registro científico, y también puede engañar a los autores, en particular a los que son nuevos en el proceso de publicación o que pueden no estar familiarizados con las prácticas de los editores legítimos. Es importante que los autores sean conscientes de la existencia de editoriales depredadoras y que actúen con la debida diligencia a la hora de considerar dónde enviar sus trabajos para su publicación.

TAC: ¿Debería el texto basado en IA ser susceptible de derechos de autor?

Respuesta de ChatGPT:

En virtud de la mayoría de las leyes de derechos de autor, las obras originales de autoría, incluidas las obras literarias, son susceptibles de protección por derechos de autor. Esto incluye las obras producidas mediante inteligencia artificial (IA). En general, si una obra es original y ha sido fijada en una forma tangible (como una obra escrita o grabada), puede ser protegida por derechos de autor, independientemente de que haya sido producida por una persona o por IA.

Sin embargo, pueden surgir ciertos problemas legales cuando se trata de obras generadas por IA y derechos de autor. Por ejemplo, si se utiliza un programa de IA para generar una obra, no está claro quién es el «autor» de la misma. Algunos países tienen leyes específicas que abordan esta cuestión, mientras que otros no.

También es posible que una obra producida por IA se considere una «obra derivada», es decir, una obra basada en una o más obras preexistentes. En este caso, los derechos de autor de la obra derivada pertenecerían a la persona o entidad que creó la obra, pero tendría que obtener el permiso del titular de los derechos de autor de la obra preexistente para utilizarla como base de la obra derivada.

En general, la cuestión de si las obras generadas por IA pueden acogerse a la protección de los derechos de autor es un asunto jurídico complejo que puede variar en función de las circunstancias específicas y de la legislación del país en el que se creó la obra. Es importante consultar a un abogado cualificado si tiene dudas sobre los derechos de autor y las obras generadas por IA.