Archivo de la etiqueta: Chatbot

La carrera por construir un motor de búsqueda basado en ChatGPT

«The Race to Build a ChatGPT-Powered Search Engine | WIRED». Accedido 9 de febrero de 2023.

Ver completo

Impulsados por el entusiasmo que suscita ChatGPT, los titanes de las búsquedas en Internet, así como varias empresas emergentes, siguen adelante. Microsoft, que ha invertido unos 10.000 millones de dólares en OpenAI, creador de ChatGPT, está a punto de incorporar la tecnología subyacente a Bing, su segundo motor de búsqueda. Google, que lleva tiempo trabajando en un chatbot similar llamado LaMDA, se apresura a reaccionar. Baidu, el principal motor de búsqueda de China, está trabajando en un bot en chino similar a ChatGPT.

JIANG CHEN, experto en aprendizaje automático que trabajó anteriormente en Google, quedó hipnotizado cuando probó por primera vez ChatGPT, el chatbot de OpenAI extraordinariamente coherente y aparentemente bien informado que se ha convertido en una sensación en Internet.

Pero el aura de poder de la tecnología se atenuó cuando Chen intentó utilizar la misma tecnología de inteligencia artificial subyacente para crear una herramienta de búsqueda mejor para la startup que cofundó, Moveworks. La empresa utiliza la IA para ayudar a los empleados a buscar información, como documentos de asistencia técnica y páginas de recursos humanos. La nueva herramienta de búsqueda de Chen era excelente para extraer todo tipo de información útil de esos documentos, incluidas direcciones y números de teléfono, pero algunos de ellos no eran reales. «Su capacidad de fabricación es asombrosa», afirma Chen.

Es comprensible el entusiasmo que ha despertado ChatGPT y las sugerencias generalizadas de que podría reinventar los motores de búsqueda. El chatbot puede dar respuestas complejas y sofisticadas a preguntas sintetizando la información de miles de millones de palabras extraídas de Internet y otras fuentes para entrenar sus algoritmos. Juguetear con el bot puede dar la sensación de experimentar una forma más fluida de interactuar con las máquinas.

Pero la forma en que funciona esta tecnología es, en cierto modo, fundamentalmente contraria a la idea de un motor de búsqueda que recupere de forma fiable la información que se encuentra en Internet. Ya hay mucha información inexacta en la red, pero ChatGPT genera fácilmente nuevas falsedades. Sus algoritmos subyacentes no se basan directamente en una base de datos de hechos o enlaces, sino que generan cadenas de palabras destinadas a parecerse estadísticamente a las vistas en sus datos de entrenamiento, sin tener en cuenta la verdad. Otro problema de un sistema como ChatGPT es que sus respuestas se basan únicamente en los datos con los que fue entrenado. Volver a entrenar el modelo en su totalidad puede costar millones de dólares debido a su tamaño y a la escala de los datos.

A pesar de este reto, y quizás impulsados por el entusiasmo que suscita ChatGPT, los titanes de las búsquedas en Internet, así como varias empresas emergentes, siguen adelante. Microsoft, que ha invertido unos 10.000 millones de dólares en OpenAI, creador de ChatGPT, está a punto de incorporar la tecnología subyacente a Bing, su segundo motor de búsqueda.

Google, que lleva tiempo trabajando en un chatbot similar llamado LaMDA, se apresura a reaccionar. Tiene previsto lanzar pronto una versión de LaMDA y es posible que demuestre este año hasta 20 productos que utilizan la misma tecnología. Baidu, el principal motor de búsqueda de China, está trabajando en un bot en chino similar a ChatGPT.

Mientras los gigantes tecnológicos preparan sus respuestas a la emergencia de ChatGPT, varias startups han lanzado motores de búsqueda con interfaces de chat similares al bot. Entre ellas se encuentran You.com, Perplexity AI y Neeva.

Las herramientas que han construido ilustran tanto el potencial como el reto de adaptar la tecnología del estilo ChatGPT a las búsquedas. You.com, fundada por Richard Socher, experto en lenguaje e IA, puede ofrecer respuestas a través de una interfaz de chat. Las respuestas vienen acompañadas de citas, que pueden ayudar al usuario a rastrear el origen de una información.

No está claro cuánto tiempo llevará inventar y probar estas soluciones. Puede que pase algún tiempo antes de que la tecnología pueda cambiar radicalmente la forma en que la gente busca respuestas, incluso si se dan otros casos de uso, como idear nuevas recetas o servir de compañero de estudio o programación.

Google está trabajando en un competidor de ChatGPT llamado Bard que saldrá en unas semanas

Vincent, James. «Google Announces ChatGPT Rival Bard, with Wider Availability in “Coming Weeks”». The Verge, 6 de febrero de 2023.

Ver completo

Google está trabajando en un competidor del chatbot ChatGPT de OpenAI. El «servicio experimental de IA conversacional» se llama Bard y solo lo está probando un grupo limitado de personas.

El consejero delegado de Google, Sundar Pichai, ha anunciado hoy el proyecto en una entrada de su blog, en la que describe la herramienta como un «servicio experimental de IA conversacional» que responderá a las consultas de los usuarios y participará en conversaciones. El software estará disponible para un grupo de «personas de confianza», dice Pichai, antes de convertirse en «más ampliamente disponible para el público en las próximas semanas.»

No está claro exactamente qué capacidades tendrá Bard, pero parece que el chatbot será tan libre como ChatGPT de OpenAI. Una captura de pantalla anima a los usuarios a hacer preguntas prácticas a Bard, como por ejemplo cómo planificar un «baby shower» o qué tipo de comidas se podrían hacer a partir de una lista de ingredientes para el almuerzo.

Escribe Pichai: «Bard puede ser una válvula de escape para la creatividad y una plataforma de lanzamiento para la curiosidad, ayudándote a explicar los nuevos descubrimientos del telescopio espacial James Webb de la NASA a un niño de 9 años, o a aprender más sobre los mejores delanteros del fútbol en este momento, y luego obtener ejercicios para mejorar tus habilidades».

Pichai también señala que Bard «se nutre de la información de la web para ofrecer respuestas actuales y de alta calidad», lo que sugiere que podría ser capaz de responder a preguntas sobre acontecimientos recientes, algo con lo que ChatGPT tiene dificultades.

El anuncio precipitado y la falta de información sobre Bard son signos reveladores del «código rojo» desencadenado en Google por el lanzamiento de ChatGPT el año pasado. Aunque la tecnología subyacente de ChatGPT no es revolucionaria, la decisión de OpenAI de poner el sistema a libre disposición en la web expuso a millones de personas a esta novedosa forma de generación automatizada de texto. Los efectos han sido sísmicos, con debates sobre el impacto de ChatGPT en la educación, el trabajo y -de especial interés para Google- el futuro de las búsquedas en Internet.

Microsoft, que ha invertido miles de millones de dólares en OpenAI, también ha aprovechado el momento. Se dice que la empresa está integrando ChatGPT en su motor de búsqueda Bing, así como en otros productos de su suite de software ofimático. La semana pasada se filtraron capturas de pantalla que supuestamente mostraban un Bing mejorado con ChatGPT.

Una marca de agua podría detectar los textos escritos por herramientas de Inteligencia Artificial como ChatGTP

«A Watermark for Chatbots Can Expose Text Written by an AI». MIT Technology Review. Accedido 29 de enero de 2023.

Ver completo

Los textos generados por inteligencia artificial podrían identificarse como tales mediante marcas ocultas, que nos permitirían saber si las palabras que leemos han sido escritas por un ser humano o no.

Estas «marcas de agua» son invisibles al ojo humano, pero permiten a los ordenadores detectar que el texto procede probablemente de un sistema de IA como ChatGTP. Si se incorporan a grandes modelos lingüísticos, podrían ayudar a evitar algunos de los problemas que estos modelos ya están causado.

Por ejemplo, desde que se lanzó en noviembre el chatbot ChatGPT de OpenAI, los estudiantes ya han empezado a hacer trampas utilizándolo para que escriba trabajos declase por ellos. El sitio web de noticias CNET ha utilizado ChatGPT para escribir artículos, pero ha tenido que corregirlos ante las acusaciones de plagio. Incorporar la marca de agua a estos sistemas antes de su lanzamiento podría ayudar a resolver estos problemas.

En algunos estudios, estas marcas de agua ya se han utilizado para identificar con casi total certeza textos generados por IA. Los investigadores de la Universidad de Maryland, por ejemplo, fueron capaces de detectar el texto creado por el modelo lingüístico de código abierto de Meta, OPT-6.7B, mediante un algoritmo de detección creado por ellos. El trabajo se describe en un artículo que aún no ha sido revisado por pares, este código estará disponible gratuitamente en torno al 15 de febrero.

«Ahora mismo estamos en el Salvaje Oeste», afirma John Kirchenbauer, investigador de la Universidad de Maryland que participó en el desarrollo de las marcas de agua. Kirchenbauer confía en que las herramientas de marca de agua den ventaja a los esfuerzos de detección de la IA. La herramienta que ha desarrollado su equipo podría adaptarse a cualquier modelo lingüístico de inteligencia artificial que prediga la siguiente palabra.

Los modelos lingüísticos de IA funcionan prediciendo y generando una palabra cada vez. Después de cada palabra, el algoritmo de marca de agua divide aleatoriamente el vocabulario del modelo lingüístico en palabras de una «lista verde» y una «lista roja» y, a continuación, pide al modelo que elija palabras de la lista verde.

Cuantas más palabras de la lista verde haya en un pasaje, más probable es que el texto haya sido generado por una máquina. El texto escrito por una persona suele contener una mezcla más aleatoria de palabras. Por ejemplo, para la palabra «bello», el algoritmo podría clasificar la palabra «flor» como verde y «orquídea» como roja. El modelo de IA con el algoritmo de marca de agua tendría más probabilidades de utilizar la palabra «flor» que «orquídea», explica Tom Goldstein, profesor adjunto de la Universidad de Maryland, que participó en la investigación.

ChatGPT forma parte de una nueva generación de grandes modelos lingüísticos que generan textos tan fluidos que podrían confundirse con la escritura humana. Estos modelos de IA Estos modelos de IA recopilan hechos por confianza, pero son famosos por arrojar falsedades y sesgos. Para un ojo inexperto, puede ser casi imposible distinguir un pasaje escrito por un modelo de IA de otro escrito por un ser humano. La vertiginosa velocidad de desarrollo de la inteligencia artificial hace que los nuevos modelos, más potentes, reduzcan rápidamente la eficacia de las actuales herramientas de detección de textos falsos. Es una carrera constante entre los desarrolladores de IA para crear nuevas herramientas de seguridad que puedan estar a la altura de la última generación de modelos de IA.

Armados con ChatGPT, los ciberdelincuentes crean malware y traman falsos bots de chicas

Brewster, Thomas. «Armed With ChatGPT, Cybercriminals Build Malware And Plot Fake Girl Bots». Forbes. Accedido 27 de enero de 2023.

Ver original

Los usuarios de foros clandestinos empiezan a compartir malware codificado por la sensación viral de OpenAI y los estafadores de citas planean crear falsas chicas convincentes con la herramienta. Los pronosticadores cibernéticos predicen que se avecinan más usos maliciosos de ChatGPT.

Los ciberdelincuentes han empezado a utilizar ChatGPT, el chatbot de inteligencia artificial de OpenAI, para crear rápidamente herramientas de pirateo informático, advirtieron el viernes investigadores en ciberseguridad. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes con el fin de captar objetivos, según declaró a Forbes un experto que monitoriza foros de delincuentes.

Muchos de los primeros usuarios de ChatGPT habían dado la voz de alarma ante la posibilidad de que la aplicación, que se hizo viral en los días posteriores a su lanzamiento en diciembre, pudiera codificar software malicioso capaz de espiar las pulsaciones del teclado de los usuarios o crear ransomware.

Según un informe de la empresa de seguridad israelí Check Point, los foros clandestinos de delincuentes han terminado por darse cuenta. En uno de los foros analizados por Check Point, un hacker que ya había compartido malware para Android mostraba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en un ordenador y podía cargar más malware en un PC infectado.

En el mismo foro, otro usuario compartió un código Python que podía cifrar archivos, afirmando que la aplicación de OpenAI les había ayudado a construirlo. Afirmaban que era el primer script que habían desarrollado. Como señaló Check Point en su informe, dicho código puede utilizarse con fines totalmente benignos, pero también podría «modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario», de forma similar a como funciona el ransomware. El mismo usuario del foro había vendido anteriormente acceso a servidores de empresas pirateados y datos robados, señaló Check Point.

Un usuario también habló de «abusar» de ChatGPT haciendo que ayudara a codificar las características de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podía crear rápidamente una aplicación que monitorizara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que había visto a estafadores de citas empezar a utilizar ChatGPT también, ya que tratan de crear personajes convincentes. «Están planeando crear chatbots para hacerse pasar sobre todo por chicas para llegar más lejos en los chats con sus marcas», dijo. «Intentan automatizar la charla ociosa».

OpenAI no había respondido a la solicitud de comentarios en el momento de la publicación.

Aunque las herramientas codificadas por ChatGPT parecían «bastante básicas», Check Point dijo que era sólo cuestión de tiempo hasta que hackers más «sofisticados» encontraran la forma de convertir la IA en su ventaja. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT fuera aún capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en importantes incidentes de piratería informática en los últimos años, como Conti, tristemente célebre por su uso en la violación del sistema nacional de salud de Irlanda. La herramienta de OpenAI, sin embargo, reducirá la barrera de entrada para que los novatos se introduzcan en ese mercado ilícito mediante la creación de malware más básico, pero igualmente eficaz, añadió Ferguson.

También planteó la preocupación de que ChatGPT, en lugar de crear código que robe los datos de las víctimas, pueda utilizarse para crear sitios web y bots que engañen a los usuarios para que compartan su información. Podría «industrializar la creación y personalización de páginas web maliciosas, campañas de phishing muy selectivas y estafas basadas en ingeniería social», añadió Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, declaró a Forbes que ChatGPT será una «gran herramienta» para que los hackers rusos que no dominan el inglés elaboren correos electrónicos de phishing de apariencia legítima.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia y «por desgracia», tendrían que aplicarse mediante regulación. OpenAI ha implementado algunos controles, como la prevención de solicitudes obvias de ChatGPT para crear programas espía con advertencias de infracción de la política, aunque los hackers y los periodistas han encontrado formas de eludir esas protecciones. Shykevich afirma que quizá haya que obligar legalmente a empresas como OpenAI a entrenar a su IA para detectar este tipo de abusos.

Los chatbots de IA no sustituyen a la autoría humana: ChatGPT «¿Eres una persona real?»

George Tombs ‘Are You a Real Person?’: AI Chatbots No Substitute for Human Authorship», thestar.com. «Opinion 6 de enero de 2023.

Texto completo

ChatGPT, una aplicación de generación de textos mediante inteligencia artificial, está causando conmociones virales en todo el mundo. Desarrollada por una fundación financiada inicialmente por el inconformista tecnológico Elon Musk, ahora se presenta a menudo como una innovación que podría sustituir de un plumazo a categorías enteras de trabajos, haciendo superfluo el trabajo de muchos humanos.

Esta aplicación escanea millones de sitios web en un abrir y cerrar de ojos, recogiendo contenidos aquí y allá, y destilándolos en textos breves, estructurados y aparentemente coherentes. Todos esos sitios web y publicaciones en las redes sociales se tratan como contenido abstracto, listo para la primicia.

Al leer los comentarios de la prensa mundial sobre ChatGPT, se muestra una mezcla bastante peculiar de extravagancia, curiosidad, miedo y obsesión. Por ejemplo, algunos comentaristas se preguntan si el propio periodismo está condenado. Otros se preguntan si las universidades deberían exigir a los estudiantes que presenten trabajos de investigación escritos a mano, en lugar de mecanografiados en un ordenador.

Sin duda, esta tecnología de IA podría invadir el espacio interior de nuestras conciencias, empujándonos sutilmente a un salón virtual de espejos donde ya no podemos distinguir entre lo real y lo irreal. Podría engullir el esfuerzo humano en una oleada de algoritmos, transformando a algunos creadores literarios (novelistas, biógrafos, poetas, investigadores) en técnicos hábiles en la manipulación de simulaciones generadas automáticamente de la expresión humana.

Pero, ¿por qué no dar la vuelta a las cosas? Si una aplicación es una herramienta, seguro que puedo sacarle el máximo partido. Así que planteo la siguiente pregunta a este ChatGPT: «¿Eres una persona real?»

Tras nueve segundos, ChatGPT respondió:

«Soy un asistente informático basado en IA, no una persona real. Me diseñaron para ayudar con tareas, responder preguntas y proporcionar información a usuarios como tú. Aunque puedo entablar una conversación y realizar muchas tareas que podrían asociarse a una persona, no tengo sentimientos, pensamientos ni sensaciones físicas. Existo para ayudar a usuarios como tú de diversas maneras, y estoy aquí para ayudarte lo mejor que pueda. ¿Hay algo específico que le gustaría saber o discutir?».

Esta respuesta me parece refrescante, incluso cortés, como si el pequeño chatbot reconociera sus propias limitaciones.

Como autor, sé lo difícil, incluso tortuoso, que es el camino de la creación. He aprendido que el aspecto más difícil de crear una obra -incluso más que encontrar palabras para un libro o imágenes para una película- es encontrar tu propia voz.

Las obras creativas nos emocionan cuando cuentan nuevas historias de una manera poco convencional, cuando tienen una voz auténtica. Y esta voz es una de las muchas cosas que diferencian a los humanos de los chatbots.

Ser autor significa afirmar una identidad. Significa asumir la responsabilidad de lo que creas, compartir cada obra con el público y garantizar que se respeten tus derechos de propiedad intelectual.

Un chatbot nunca puede ser autor de nada. Sólo puede reordenar lo que ya se ha dicho, ya que da a los contenidos aleatorios un barniz de verosimilitud. Un chatbot no puede proporcionar un texto fiable, ya que refunde y fusiona cualquier cosa en la web, incluidas las teorías conspirativas, el negacionismo y el discurso del odio. La producción de un chatbot es, por tanto, puramente derivativa, y refleja la grandeza y la miseria de la condición humana.

Además, me he dado cuenta de que ChatGPT a veces suelta tonterías al azar. Me recuerda a mis experiencias, a menudo risibles, con otra aplicación de IA: el GPS de mi teléfono.

Cuando conduzco por las calles de mi nueva ciudad natal, Quebec, mi asistente GPS cambia aleatoriamente del francés al inglés, del inglés con acento parisino al inglés con acento neoyorquino. Como si en cada esquina mi asistente GPS sufriera un shock virtual, luchando por adaptarse a cada nueva geolocalización.

No me digan que los errores informáticos se deben a una programación humana imperfecta y no a la propia tecnología subyacente.

ChatGPT puede ser una herramienta útil. Como mínimo, esta aplicación nos incita a reflexionar más profundamente sobre la comunicación, que se basa en nuestras relaciones mutuas.

Como para tranquilizarme, ChatGPT añadió a lo que decía antes:

«Hay muchas diferencias entre una persona y un asistente informático de IA como yo. Una diferencia clave es que las personas son seres vivos con cuerpos físicos y conciencia, mientras que los asistentes de IA como yo son entidades puramente digitales que existen dentro de ordenadores u otros dispositivos electrónicos».

La autoría es (todavía) humana. Y pretendo que siga siendo así.

PaLM + RLHF: una alternativa de código abierto a ChatGPT

Wiggers, Kyle. «There’s Now an Open Source Alternative to ChatGPT, but Good Luck Running It». TechCrunch (blog), 30 de diciembre de 2022. https://techcrunch.com/2022/12/30/theres-now-an-open-source-alternative-to-chatgpt-but-good-luck-running-it/

Esta semana, Philip Wang, el desarrollador responsable de la ingeniería inversa de sistemas de IA de código cerrado, como Make-A-Video de Meta, ha lanzado PaLM + RLHF, un modelo de generación de texto que se comporta de forma similar a ChatGPT. El sistema combina PaLM, un gran modelo lingüístico de Google, y una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF, por sus siglas en inglés) para crear un sistema capaz de realizar prácticamente cualquier tarea que ChatGPT pueda realizar, incluida la redacción de correos electrónicos y la sugerencia de código informático.

Pero PaLM + RLHF no está preentrenado. Es decir, el sistema no ha sido entrenado con los datos de ejemplo de la web necesarios para que realmente funcione. Descargar PaLM + RLHF no te proporcionará por arte de magia una experiencia similar a la de ChatGPT, ya que para ello sería necesario compilar gigabytes de texto a partir de los cuales el modelo pueda aprender y encontrar un hardware lo suficientemente potente como para soportar la carga de trabajo del entrenamiento.

Al igual que ChatGPT, PaLM + RLHF es esencialmente una herramienta estadística para predecir palabras. Cuando se le alimenta con un enorme número de ejemplos de datos de entrenamiento -por ejemplo, entradas de Reddit, artículos de noticias y libros electrónicos-, PaLM + RLHF aprende la probabilidad de que aparezcan palabras basándose en patrones como el contexto semántico del texto circundante.

ChatGPT y PaLM + RLHF comparten una salsa especial en el Aprendizaje por Refuerzo con Retroalimentación Humana, una técnica que pretende alinear mejor los modelos lingüísticos con lo que los usuarios desean que logren. RLHF consiste en entrenar un modelo lingüístico -en el caso de PaLM + RLHF, PaLM- y afinarlo en un conjunto de datos que incluye preguntas (por ejemplo, «Explica el aprendizaje automático a un niño de seis años») junto con lo que los voluntarios humanos esperan que diga el modelo (por ejemplo, «El aprendizaje automático es una forma de IA…»). A continuación, los voluntarios clasifican todas las respuestas de mejor a peor. Por último, las clasificaciones se utilizan para entrenar un «modelo de recompensa» que toma las respuestas del modelo original y las clasifica por orden de preferencia, filtrando las mejores respuestas a una pregunta determinada.

Recopilar los datos de entrenamiento es un proceso costoso. Y el entrenamiento en sí no es barato. PaLM tiene un tamaño de 540.000 millones de parámetros, entendiendo por «parámetros» las partes del modelo lingüístico aprendidas a partir de los datos de entrenamiento. Un estudio de 2020 cifraba en 1,6 millones de dólares los gastos de desarrollo de un modelo de generación de texto con sólo 1.500 millones de parámetros. Y para entrenar el modelo de código abierto Bloom, que tiene 176.000 millones de parámetros, se necesitaron tres meses utilizando 384 GPU Nvidia A100; una sola A100 cuesta miles de dólares.

Ejecutar un modelo entrenado del tamaño de PaLM + RLHF tampoco es trivial. Bloom requiere un PC dedicado con unas ocho GPU A100. Las alternativas en la nube son caras: según los cálculos aproximados, el coste de ejecutar el GPT-3 de generación de texto de OpenAI (que tiene unos 175.000 millones de parámetros) en una única instancia de Amazon Web Services es de unos 87.000 dólares al año.

¿ChatGPT te quitará el trabajo? ¿Qué empleos tienen mayor probabilidad de verse afectados?

Frederick, Brian. «Will ChatGPT Take Your Job?» Search Engine Journal, 16 de enero de 2023.

Ver completo

ChatGPT tiene todos los visos de ser un cambio tecnológico. Pero, ¿te quitará ChatGPT el trabajo? Se trata de un chatbot basado en el aprendizaje automático y en grandes cantidades de datos, que interactúa con los usuarios de una forma increíblemente realista.

ChatGPT de OpenAI hace mucho más que mantener conversaciones virtuales. Puede generar contenidos como poemas o trabajos, depurar código, responder consultas y mucho más. Se trata de un acontecimiento apasionante. Pero, a nivel personal, es más que preocupante, sobre todo por su impacto en la seguridad laboral.

Si la tecnología llega a un nivel en el que puede realizar tu trabajo tan bien o mejor que tú, ¿a qué te vas a dedicar? La mayoría de la gente ha pasado toda su carrera trabajando en un solo campo. ¿Se supone que todos van a ser carpinteros o masajistas? Y si es así, ¿no será intensa la competencia por esos puestos? ¿Cómo sobreviviremos?

La sola idea basta para provocar un ataque de pánico. Pero relájate. Respire en una bolsa de papel si es necesario. Las cosas no son tan desesperadas. Todo va a ir bien. Los aviones tienen un complejo sistema de piloto automático y, durante un vuelo, están controlados en su mayor parte por ordenadores, pero los pilotos están ahí sentados y para ajustar los controles del ordenador siempre que es necesario.

Sí, en una escala de tiempo lo suficientemente larga, la tecnología acabará asumiendo tu papel actual. Sin embargo, es poco probable que esto ocurra pronto. El aprendizaje automático y la inteligencia artificial aún están en pañales, y con suerte se habrá jubilado hace tiempo antes de que las máquinas vengan a quitarte el trabajo.

Y antes de que eso ocurra, el poder de herramientas como ChatGPT te permitirá desempeñar tu función con mucha mayor eficiencia y eficacia.

En este artículo, se da un vistazo a algunos de los puestos de trabajo que con mayor probabilidad se verán afectados por ChatGPT y se califica su seguridad en una escala del 1 al 10, en la que uno significa que no hay posibilidad de sustitución por máquinas y diez significa que hay que pulir el currículum, porque estás a punto de recibir tu carta de despido.

Profesionales de la optimización de motores de búsqueda. Teniendo en cuenta que esto es Search Engine Journal, nuestra primera área de preocupación es sobre el futuro de los trabajos de SEO. No hay duda de que ChatGPT y otros programas similares cambiarán la forma de trabajar de los profesionales del SEO. Pero esto es optimización de motores de búsqueda – el cambio es la única constante. Riesgo de sustitución: 2/10.

Programadores. Pero una de las características clave que siguen apareciendo en los debates sobre ChatGPT es su capacidad para escribir código. Imagínatelo: código que escribe código nuevo, sin olvidar nunca un decimal o un corchete de cierre. Riesgo de sustitución: 4/10.

Especialistas en pago por clic (PPC). En general, los especialistas en PPC no parecen tan preocupados por el impacto de ChatGPT y otras tecnologías de IA en su seguridad laboral. Si alguna vez has configurado una campaña PPC, habrás utilizado el poder de la inteligencia artificial, o al menos algo muy parecido. Las Reglas Automatizadas podrían ser vistas como un tipo rudimentario de IA, donde creas reglas para casos de uso común. Riesgo de sustitución: 2/10.

Escritores. Como ya se habrán imaginado, éste es un aspecto que preocupa especialmente. ¿Qué va a hacer la gente que depende de la creación de la palabra escrita, cuando ChatGPT y similares pueden inventar un titular mejor, más rápido y más eficaz en menos tiempo? Riesgo de sustitución: 2/10.

Profesionales de ventas. No hay duda de que los macrodatos y la IA pueden utilizarse para revolucionar el proceso de ventas. Desde una segmentación más precisa hasta la predicción de comportamientos, no cabe duda de que pueden utilizarse para que las ventas sean más fáciles y eficientes. Riesgo de sustitución: 1/10.

Educadores. Si las personas fueran máquinas frías e indiferentes, no habría mejor manera de educarlas que de memoria. Pero los seres humanos no son ordenadores y la educación es mucho más que transmitir conocimientos. Y ningún tipo de programación, ajuste de algoritmos y procesamiento de datos puede sustituir a intangibles humanos como la paciencia, la disciplina, la amabilidad y la preocupación genuina por el bienestar de los alumnos. Al igual que ocurre con las ventas, a pesar de los avances tecnológicos, parece inconcebible que ChatGPT u otra herramienta de inteligencia artificial pueda sustituir a los educadores humanos. Pero esto no quiere decir que no vaya a cambiar la forma de hacer las cosas. Desde la calificación hasta el seguimiento del progreso, pasando por el desarrollo de planes de aprendizaje personalizados o la mejora de la accesibilidad, hay muchas oportunidades para utilizar esta nueva y emocionante tecnología en este campo. Riesgo de sustitución: 1/10

Abogados. A primera vista, el Derecho parece un campo en el que la inteligencia artificial va a avanzar a pasos agigantados. Después de todo, ¿qué es el Derecho, aparte de un conjunto codificado de instrucciones? ¿Por qué no podría utilizarse ChatGPT para analizar documentos jurídicos, decisiones y precedentes, y luego aplicar ese conocimiento a casos del mundo real? Hay que tener en cuenta el factor humano. Uno de los principales argumentos contra las sentencias mínimas obligatorias en los juicios penales es que cada situación es única. Riesgo de sustitución: 1/10.

ChatGPT y otros programas que emplean el aprendizaje automático y el big data en busca de la inteligencia artificial pueden ser herramientas maravillosas. Son muy prometedoras para reducir o incluso eliminar muchas de las tareas cotidianas. Dicho esto, algunos sectores tienen más probabilidades de ser sustituidos por máquinas en los próximos años o décadas. Entre ellos se encuentran puestos como el de recepcionista, muchos trabajos de atención al cliente, trabajos de conductor, incluidos taxistas y camioneros, y soldados.

También existe la legítima preocupación de que herramientas de IA como ChatGPT puedan ser utilizadas por personas o empresas sin escrúpulos. Desde los estudiantes que hacen trampas en la universidad hasta los resúmenes científicos falsos, que las herramientas de IA causen daños depende mucho de cómo las utilicemos. Puede que algunas empresas sean más rápidas que otras a la hora de intentar reducir costes con la IA. Pero también es probable que haya resistencia por cuestiones de precisión, ética y política. Una cosa es segura: por cada puesto que sustituyan, lo pagarán de otras formas, creando nuevas oportunidades e industrias sobre la marcha.

ChatGPT: la creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica

Carpenter, Todd A. «@TAC_NISO Questions ChatGPT on Scholarly Communications». The Scholarly Kitchen, 11 de enero de 2023.

Ver completo

Más sobre ChatGPT

ChatGPT es un chatbot de código abierto que utiliza el modelo de lenguaje GPT-3 para generar respuestas a las entradas del usuario. Puede utilizarse para crear chatbots de atención al cliente, marketing u otras aplicaciones. Pero también sirve para generar textos por inteligencia artificial (IA) a partir de datos estructurados. El autor Tood A. Carpenter pregunta al propio chatbots sobre estas cuestiones: ¿Cuál es la mejor pregunta para probar un chatbot de IA? ¿Es ético que un autor utilice IA en la elaboración de un artículo académico? Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo? ¿Debería el texto basado en IA ser susceptible de derechos de autor? y otras más.

A medida que se acercaba el final de 2022, una gran parte de la atención popular se centró en el último chatbot de inteligencia artificial, ChatGPT, que fue lanzado en noviembre de 2022 por OpenAPI. (Como apunte, la empresa ha tenido una trayectoria y una financiación muy interesantes, que han dado lugar a una serie de importantes avances en IA). El aprendizaje automático, el procesamiento del lenguaje natural y la creación textual han avanzado mucho en la última década. Cuando la primera autogeneración de contenidos a partir de datos estructurados se hizo comercialmente viable hace aproximadamente una década, era razonablemente fácil discernir los contenidos generados por máquinas. Esto ya no es así. Los distribuidores y evaluadores de contenidos, ya sea para la revisión por pares, para la acreditación académica o simplemente para el consumo de contenidos, deben ser conscientes de la capacidad de estas herramientas y no desdeñarlas.

Dada la variedad de preguntas en las comunicaciones académicas en torno a la aplicación de la IA, sería interesante ver cuál sería la respuesta del ChatGPT a algunas de ellas, junto con otras preguntas literarias/tecnológicas, y compartirlas. Puedes revisar por ti mismo si crees que las respuestas son buenas o no y, si no conocieras la fuente de las respuestas, si podrías decir que se derivan de una máquina. A continuación se reproducen las preguntas y las respuestas. Las respuestas no han sido editadas de ninguna manera a partir de lo que fue emitido por el ChatGPT. Parece que hemos ido mucho más allá del «Turing Test para evaluar la inteligencia de una máquina. Puede que notes que hay algo de fórmula en algunas de las respuestas, pero sólo es perceptible después de revisar varias de ellas. Aunque es importante reflejar que la máquina no «sabe» si las respuestas son correctas o no, sólo que son respuestas estáticamente válidas a las preguntas planteadas.

TAC: ¿Cuál es la mejor pregunta para probar un chatbot de IA?

Respuesta de ChatGPT:

No hay una «mejor» pregunta para probar un chatbot de IA, ya que los diferentes chatbots pueden tener diferentes capacidades y estar diseñados para manejar diferentes tipos de tareas o interacciones. Sin embargo, aquí tienes algunas ideas de preguntas que podrían utilizarse para probar las capacidades de un chatbot de IA:

«¿Puedes proporcionar información sobre un tema específico o responder a una pregunta de conocimiento general?».
«¿Puedes mantener una conversación y responder adecuadamente a preguntas o comentarios de seguimiento?».
«¿Puedes entender y responder a entradas de lenguaje natural, aunque incluyan jerga, coloquialismos o erratas?».
«¿Puedes realizar una tarea o acción concreta, como hacer una reserva o buscar información en Internet?».
«¿Puedes reconocer y responder a diferentes intenciones o emociones del usuario?».


En última instancia, las mejores preguntas para probar un chatbot de IA dependerán de las capacidades y objetivos específicos del chatbot.

TAC: ¿Es ético que un autor utilice IA en la elaboración de un artículo académico?

Respuesta del ChatGPT:

La cuestión de si es ético que un autor utilice la IA en el desarrollo de un artículo académico depende del contexto específico y de las expectativas de la comunidad investigadora en la que se publicará el artículo.

No hay ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre y cuando la IA se utilice de forma adecuada y ética. Por ejemplo, la IA puede utilizarse para analizar grandes cantidades de datos o para generar texto, lo que puede ser útil para identificar tendencias o patrones que podrían no ser evidentes para una persona.

Sin embargo, es importante que los investigadores sean transparentes sobre el papel de la IA en su trabajo y se aseguren de que el uso de la IA es coherente con las normas y expectativas de la comunidad investigadora. Por ejemplo, si se utiliza un programa de IA para generar texto, los autores deben indicarlo claramente en el artículo y atribuir el mérito correspondiente al programa de IA.

Además, los investigadores deben ser conscientes de las posibles limitaciones de la IA y considerar los riesgos y beneficios de utilizarla en su trabajo. Por ejemplo, la IA puede no ser capaz de captar plenamente la complejidad del pensamiento o el lenguaje humanos, y puede ser necesario complementar los resultados generados por la IA con análisis o interpretaciones adicionales realizados por investigadores humanos.

En general, es importante que los investigadores utilicen la IA de forma ética y transparente, y que tengan en cuenta las posibles implicaciones de su uso en su trabajo.

TAC: Durante la revisión por pares, si se descubre que un autor ha utilizado ChatGPT en la elaboración del artículo, ¿debe rechazarse el artículo?

Respuesta de ChatGPT:

El uso de IA, como ChatGPT, en la producción de un artículo académico no significa necesariamente que el artículo deba ser rechazado durante el proceso de revisión por pares. Sin embargo, el uso de la IA debe comunicarse a los revisores y al editor, y los revisores deben considerar hasta qué punto el uso de la IA ha influido en el contenido del artículo.

Si el uso de la IA ha influido significativamente en el contenido del artículo, los revisores pueden tenerlo en cuenta a la hora de evaluarlo. Por ejemplo, si la IA se ha utilizado para generar grandes partes del texto o para analizar datos de una manera que es fundamental para las conclusiones del artículo, los revisores deben examinar el trabajo con más cuidado para asegurarse de que la IA se ha utilizado adecuadamente y que las conclusiones del artículo están respaldadas por los datos.

En última instancia, la decisión de aceptar o rechazar un artículo durante el proceso de revisión por pares debe basarse en la calidad y el rigor de la investigación, y en la medida en que el artículo hace una contribución significativa al campo. Si el uso de la IA no ha influido significativamente en el contenido del artículo, o si el artículo cumple las normas de la comunidad investigadora, es poco probable que el artículo sea rechazado únicamente por el uso de la IA.

TAC: ¿Puede un texto derivado de la IA ser novedoso y creativo?

Respuesta de ChatGPT:

Existe un debate en curso sobre hasta qué punto un texto generado por IA puede considerarse novedoso y creativo. Algunos sostienen que el texto generado por la IA no es más que un reflejo de los datos y algoritmos con los que se ha entrenado y, por tanto, no puede considerarse verdaderamente novedoso o creativo del mismo modo que una obra generada por un ser humano. Otros sostienen que la IA puede utilizarse para producir obras que sean originales y creativas, sobre todo si se da a la IA cierto grado de autonomía en el proceso creativo.

Es importante señalar que el nivel de creatividad y novedad del texto generado por IA puede variar en función del sistema de IA específico y de los parámetros con los que se haya entrenado. Algunos sistemas de IA están diseñados para producir textos muy similares a los escritos por humanos, mientras que otros pueden producir textos más experimentales o inusuales.

En última instancia, que un texto generado por IA se considere novedoso y creativo puede depender de las expectativas y las normas del público o la comunidad de investigación en la que se presenta el texto. Es posible que algunos públicos consideren que un texto generado por IA es creativo y original, mientras que otros no.

TAC: ¿De quién es la responsabilidad de reconocer ante el lector el papel de la IA en la autoría de las obras publicadas, del autor o del editor?

Respuesta del ChatGPT:

En general, es responsabilidad de los autores reconocer el papel de la IA en la autoría de los trabajos publicados. Los autores deben ser transparentes sobre el grado de utilización de la IA en la producción de su obra y deben revelar esta información al editor y a los lectores de la obra. Esto puede hacerse mediante el uso de notas a pie de página, citas u otros métodos de atribución.

Los editores también tienen un papel que desempeñar a la hora de garantizar que el uso de la IA en las obras publicadas se revele y se atribuya adecuadamente. Los editores deben establecer directrices claras para que los autores las sigan cuando utilicen la IA en sus trabajos, y deben revisar los envíos para asegurarse de que el uso de la IA se revela y atribuye correctamente.

En general, es importante que tanto los autores como los editores sean transparentes sobre el papel de la IA en la producción de las obras publicadas, para garantizar que los lectores tengan una comprensión completa de la obra y de la medida en que se ha producido utilizando IA.

TAC: ¿Hasta qué punto es un problema la publicación depredadora?

Respuesta de ChatGPT:

La edición depredadora, también conocida como edición engañosa o ilegítima, es un problema importante en el mundo académico. Las editoriales depredadoras cobran a los autores por publicar sus trabajos sin prestar los servicios editoriales y de publicación que prestan las editoriales legítimas, como la revisión por pares y la corrección. Como resultado, el trabajo publicado puede no cumplir las normas de calidad e integridad que se esperan en la comunidad académica.

La publicación depredadora puede socavar la integridad del registro científico, y también puede engañar a los autores, en particular a los que son nuevos en el proceso de publicación o que pueden no estar familiarizados con las prácticas de los editores legítimos. Es importante que los autores sean conscientes de la existencia de editoriales depredadoras y que actúen con la debida diligencia a la hora de considerar dónde enviar sus trabajos para su publicación.

TAC: ¿Debería el texto basado en IA ser susceptible de derechos de autor?

Respuesta de ChatGPT:

En virtud de la mayoría de las leyes de derechos de autor, las obras originales de autoría, incluidas las obras literarias, son susceptibles de protección por derechos de autor. Esto incluye las obras producidas mediante inteligencia artificial (IA). En general, si una obra es original y ha sido fijada en una forma tangible (como una obra escrita o grabada), puede ser protegida por derechos de autor, independientemente de que haya sido producida por una persona o por IA.

Sin embargo, pueden surgir ciertos problemas legales cuando se trata de obras generadas por IA y derechos de autor. Por ejemplo, si se utiliza un programa de IA para generar una obra, no está claro quién es el «autor» de la misma. Algunos países tienen leyes específicas que abordan esta cuestión, mientras que otros no.

También es posible que una obra producida por IA se considere una «obra derivada», es decir, una obra basada en una o más obras preexistentes. En este caso, los derechos de autor de la obra derivada pertenecerían a la persona o entidad que creó la obra, pero tendría que obtener el permiso del titular de los derechos de autor de la obra preexistente para utilizarla como base de la obra derivada.

En general, la cuestión de si las obras generadas por IA pueden acogerse a la protección de los derechos de autor es un asunto jurídico complejo que puede variar en función de las circunstancias específicas y de la legislación del país en el que se creó la obra. Es importante consultar a un abogado cualificado si tiene dudas sobre los derechos de autor y las obras generadas por IA.