Archivo de la etiqueta: Inteligencia artificial

¿Son fiables los detectores de texto generado por Inteligencia artificial?

Hines, Kristi. «Should You Trust An AI Detector?» Search Engine Journal, 18 de julio de 2023. https://www.searchenginejournal.com/should-you-trust-an-ai-detector/491949/.

La IA generativa está ganando terreno y se está utilizando cada vez más para crear diversos tipos de contenidos, como texto, imágenes, música y más. Esto ha llevado a una creciente preocupación sobre la fiabilidad de los detectores de IA para discernir entre contenidos generados por humanos y aquellos creados por algoritmos de inteligencia artificial. Turnitin resultó ser la herramienta más precisa en todos los enfoques, seguida de Compilatio y GPT-2 Output Detector.

Detectar y verificar si un contenido fue generado por una IA o por un ser humano es un desafío en constante evolución. A medida que la tecnología de IA avanza, también lo hacen las técnicas para ocultar la autoría de los contenidos generados por algoritmos. Esto puede plantear problemas en términos de veracidad, credibilidad y confiabilidad de la información que se comparte en línea. Para abordar esta preocupación, se han llevado a cabo diversos estudios para evaluar la eficacia de las herramientas de detección de IA en esta tarea. Estos estudios buscan mejorar y perfeccionar los algoritmos de detección y establecer métricas para evaluar su precisión.

Algunos enfoques utilizan marcadores específicos que pueden identificar ciertas características o patrones que son más comunes en contenidos generados por IA. Otros enfoques buscan analizar el estilo y la estructura de los textos o imágenes para identificar indicios de automatización.

¿Son parciales los detectores de IA? Los investigadores encontraron que los detectores de contenidos de IA, especialmente aquellos diseñados para identificar contenidos generados por modelos de lenguaje como GPT, pueden presentar un sesgo significativo en contra de los escritores no nativos de inglés. El estudio descubrió que estos detectores, diseñados para diferenciar entre contenidos generados por IA y contenidos generados por humanos, clasifican erróneamente muestras de escritura en inglés no nativo como generadas por IA, mientras que identifican con precisión muestras de escritura en inglés nativo.

Utilizando muestras de escritura de escritores nativos y no nativos, los investigadores descubrieron que los detectores clasificaban erróneamente más de la mitad de estas últimas muestras como generadas por IA. Los resultados sugieren que los detectores de GPT pueden penalizar involuntariamente a los escritores con expresiones lingüísticas limitadas, lo que subraya la necesidad de prestar más atención a la equidad y solidez de estas herramientas. Esto podría tener implicaciones significativas, sobre todo en contextos evaluativos o educativos, donde los hablantes no nativos de inglés podrían verse inadvertidamente penalizados.

Los investigadores también destacan la necesidad de seguir investigando para hacer frente a estos sesgos y perfeccionar los métodos de detección actuales para garantizar un panorama digital más equitativo y seguro para todos los usuarios.

En otro estudio sobre texto generado por IA, los investigadores documentan la optimización de ejemplos en contexto basada en la sustitución (SICO), que permite a los grandes modelos lingüísticos (LLM) como ChatGPT eludir la detección de los detectores de texto generado por IA. En el estudio se utilizaron tres tareas para simular situaciones reales de uso de los LLM en las que es crucial detectar el texto generado por IA: redacciones académicas, preguntas y respuestas abiertas y reseñas comerciales.

También se probó SICO frente a seis detectores representativos -incluidos modelos basados en la formación, métodos estadísticos y API- que superaron sistemáticamente a otros métodos en todos los detectores y conjuntos de datos.

Los investigadores comprobaron que SICO era eficaz en todos los escenarios de uso probados. En muchos casos, el texto generado por SICO era indistinguible del texto escrito por humanos. Sin embargo, también pusieron de relieve el posible mal uso de esta tecnología. Dado que SICO puede ayudar a que el texto generado por IA evada la detección, los actores malintencionados también podrían utilizarla para crear información engañosa o falsa que parezca escrita por humanos.

Ambos estudios señalan el ritmo al que el desarrollo de la IA generativa supera al de los detectores de texto de IA, y el segundo hace hincapié en la necesidad de una tecnología de detección más sofisticada.

Los investigadores de un tercer estudio recopilaron estudios anteriores sobre la fiabilidad de los detectores de IA, seguidos de sus datos, y publicaron varias conclusiones sobre estas herramientas.

  • Aydin & Karaarslan (2022) revelaron que iThenticate, una popular herramienta de detección de plagio, encontró altas tasas de coincidencia con el texto parafraseado por ChatGPT.
  • Wang et al. (2023) descubrieron que es más difícil detectar código generado por IA que contenido en lenguaje natural. Además, algunas herramientas mostraron sesgos, inclinándose por identificar el texto como generado por IA o escrito por humanos.
  • Pegoraro et al. (2023) descubrieron que detectar texto generado por ChatGPT es muy difícil, y que la herramienta más eficaz lograba una tasa de éxito inferior al 50%.
  • Van Oijen (2023) reveló que la precisión global de las herramientas en la detección de texto generado por IA era sólo de alrededor del 28%, y que la mejor herramienta lograba sólo un 50% de precisión. Por el contrario, estas herramientas eran más eficaces (alrededor del 83% de precisión) en la detección de contenido escrito por humanos.
  • Anderson et al. (2023) observaron que la paráfrasis reducía notablemente la eficacia del detector de salida GPT-2.

Utilizando 14 herramientas de detección de texto generadas por IA, los investigadores crearon varias docenas de casos de prueba en diferentes categorías, entre ellas:

Texto escrito por humanos.
Texto traducido.
Texto generado por IA.
Texto generado por IA con ediciones humanas.
Texto generado por IA con parafraseo de IA.

La mayoría de las herramientas probadas mostraron un sesgo hacia la clasificación precisa del texto escrito por humanos, en comparación con el texto generado o modificado por IA. El estudio destacó también el riesgo de falsas acusaciones y casos no detectados. Los falsos positivos fueron mínimos en la mayoría de las herramientas, excepto en GPT Zero, que presentó una tasa elevada.

Los casos no detectados eran preocupantes, sobre todo en el caso de los textos generados por IA que habían sido editados por personas o parafraseados por máquinas. La mayoría de las herramientas tenían dificultades para detectar este tipo de contenidos, lo que supone una amenaza potencial para la integridad académica y la imparcialidad entre los estudiantes. Turnitin resultó ser la herramienta más precisa en todos los enfoques, seguida de Compilatio y GPT-2 Output Detector.

Los investigadores sugieren que abordar estas limitaciones será crucial para implantar eficazmente herramientas de detección de texto generadas por IA en entornos educativos, garantizando la detección precisa de conductas indebidas y minimizando al mismo tiempo las acusaciones falsas y los casos no detectados.

¿Deberíamos confiar en las herramientas de detección de IA basándose en los resultados de estos estudios? Aunque los detectores de IA han demostrado cierta precisión a la hora de detectar texto generado por IA, también han mostrado sesgos, problemas de usabilidad y vulnerabilidades ante las técnicas de elusión Se necesitan mejoras para corregir los sesgos, aumentar la robustez y garantizar una detección precisa en diferentes contextos. La investigación y el desarrollo continuados son cruciales para fomentar la confianza en los detectores de IA y crear un panorama digital más equitativo y seguro.

Dos autores afirman que OpenAI «ingirió» sus libros para entrenar a ChatGPT, y es posible que se produzca una «oleada» de casos judiciales similares.

Rivera, Gabriel. «2 Authors Say OpenAI “ingested” Their Books to Train ChatGPT. Now They’re Suing, and a “Wave” of Similar Court Cases May Follow.» Business Insider. Accedido 19 de julio de 2023. https://www.businessinsider.com/openai-copyright-lawsuit-authors-chatgpt-trained-on-books-2023-7.

OpenAI se enfrenta a una demanda interpuesta por dos autores de renombre, Mona Awad y Paul Tremblay. Los autores acusan a OpenAI de violar la ley de propiedad intelectual al utilizar sus libros publicados para entrenar ChatGPT, el modelo de lenguaje de OpenAI, sin obtener su consentimiento.

La demanda, presentada a finales de junio, sostiene que el extenso modelo de lenguaje de ChatGPT «ingirió» el contenido protegido por derechos de autor de Mona Awad y Paul Tremblay. Los autores sostienen que la capacidad de ChatGPT para generar resúmenes detallados de sus obras sugiere que sus libros se incluyeron en los conjuntos de datos utilizados para entrenar la tecnología de IA.

Esta acción legal ejemplifica la tensión existente entre los creadores y las herramientas de IA generativa, que tienen la capacidad de producir texto e imágenes en cuestión de segundos. Muchos profesionales que trabajan en campos creativos expresan su preocupación por el impacto potencial del rápido avance de la tecnología en sus carreras y medios de vida. En consecuencia, estas preocupaciones están dando lugar cada vez más a desafíos legales.

Daniel Gervais, profesor de Derecho de la Universidad de Vanderbilt, señaló a Insider que la demanda presentada por los autores es uno de los varios casos de derechos de autor que han surgido en todo el país relacionados con herramientas de IA generativa. Sugiere que pueden surgir disputas legales similares en el futuro.

Gervais espera que muchos más autores demanden a las empresas que desarrollan grandes modelos de lenguaje y generative AI a medida que estos programas avancen y mejoren en la replicación del estilo de escritores y artistas. Él cree que es inminente una avalancha de desafíos legales que apuntan a la producción de herramientas como ChatGPT en todo el país.

Demostrar que los autores en el caso sufrieron daños económicos debido a las prácticas de recolección de datos de OpenAI, como alega la demanda, puede ser un desafío. Gervais dijo a Insider que ChatGPT podría haber obtenido el trabajo de Awad y Tremblay de fuentes alternativas distintas al material original de los autores, pero que era posible que el bot «ingiriera» sus libros como afirma la demanda.

Andres Guadamuz, experto en IA y derechos de autor en la Universidad de Sussex, expresó la misma preocupación, al decir a Insider que incluso si los libros están en los conjuntos de datos de entrenamiento de OpenAI, la compañía podría haber obtenido el trabajo a través de la recopilación legal de otro conjunto de datos.

Y demostrar que ChatGPT se habría comportado de manera diferente si nunca hubiera recopilado el trabajo de los autores es poco probable debido a la gran cantidad de datos que obtiene de la web, según afirmó Guadamuz a The Guardian.

The Authors Guild, un grupo de defensa con sede en Estados Unidos que apoya los derechos laborales de los escritores, publicó una carta abierta la semana pasada instando a los directores ejecutivos de las grandes empresas de tecnología y de IA a «obtener permiso» de los escritores para utilizar su trabajo con derechos de autor en la formación de programas de generative AI y «compensar justamente a los escritores». La organización informó a Insider que su carta ha recibido más de 2,000 firmas.

La demanda de Awad y Tremblay se presentó el mismo día en que OpenAI recibió otra denuncia legal, alegando que la compañía se apropió de «enormes cantidades de datos personales» que luego alimentó a ChatGPT. La denuncia de 157 páginas, que excluye los nombres completos de los 16 demandantes, critica a la compañía por absorber «prácticamente cada pieza de datos intercambiada en Internet que pudo obtener».

En cuanto a la demanda de Awad y Tremblay, presentada en un tribunal de distrito en el norte de California, los autores buscan daños y la restitución de lo que consideran ganancias perdidas.

El archivo de la demanda también presentó documentos que contenían resúmenes producidos por ChatGPT de las novelas de Awad «13 Ways of Looking at a Fat Girl» y «Bunny», así como de la novela de Tremblay «The Cabin at the End of the World». La novela de Tremblay fue adaptada a la película «Knock at the Cabin» dirigida por M. Night Shyamalan.

OpenAI y Awad no respondieron a las solicitudes de comentarios por parte de Insider. Un representante de Tremblay se negó a hacer comentarios.

¿Cómo decide ChatGPT qué debe escribir a continuación?

Sundar, Sindhu. «How Does ChatGPT Decide What to Say next? Here’s a Quick Explainer.» Business Insider. Accedido 17 de julio de 2023. https://www.businessinsider.com/how-ai-chatbots-like-chatgpt-work-explainer-2023-7.


Como modelo de lenguaje basado en IA, ChatGPT toma sus decisiones sobre qué decir a continuación en función de su entrenamiento en un amplio conjunto de datos. Durante el entrenamiento, se expone a enormes cantidades de texto en varios dominios y aprende patrones lingüísticos y contextuales. Cuando se le presenta un nuevo texto o una pregunta, el modelo intenta generar una respuesta coherente basada en la información que ha aprendido.

ChatGPT y otros chatbots basados en inteligencia artificial pueden hablar con frases fluidas y gramaticalmente correctas que incluso pueden tener un ritmo natural. Pero, según los expertos, no hay que confundir ese discurso bien ejecutado con el pensamiento, la emoción o incluso la intención.

Según los expertos, el funcionamiento de un chatbot es mucho más parecido al de una máquina que realiza cálculos matemáticos y análisis estadísticos para invocar las palabras y frases adecuadas según el contexto. Hay mucho entrenamiento en el backend -incluso por parte de anotadores humanos que también le dan retroalimentación- que ayuda a simular conversaciones funcionales.

Los robots como ChatGPT también se entrenan con grandes cantidades de conversaciones que han enseñado a las máquinas a interactuar con usuarios humanos. OpenAI, la empresa que está detrás de ChatGPT, afirma en su sitio web que sus modelos se instruyen a partir de información procedente de diversas fuentes, incluidos sus usuarios y material del que tiene licencia.

El proceso de toma de decisiones de ChatGPT implica una técnica llamada «aprendizaje por refuerzo». Durante el entrenamiento, el modelo es recompensado cuando produce respuestas coherentes y útiles, mientras que es penalizado por generar respuestas incorrectas o incoherentes. Esta retroalimentación ayuda a ajustar los parámetros internos del modelo y mejora su capacidad de generar respuestas pertinentes.

He aquí cómo funcionan estos chatbots:

Los chatbots de IA como ChatGPT de OpenAI se basan en grandes modelos lingüísticos, o LLM, que son programas entrenados en volúmenes de texto obtenidos de escritos publicados e información en línea, generalmente contenidos producidos por humanos.

Según los expertos, los sistemas se entrenan en series de palabras y aprenden la importancia de las palabras de esas series. Así, todo ese conocimiento adquirido no sólo sirve para entrenar grandes modelos lingüísticos sobre información objetiva, sino que les ayuda a adivinar patrones de habla y cómo se suelen utilizar y agrupar las palabras.

Los chatbots también reciben formación adicional de los humanos sobre cómo ofrecer respuestas adecuadas y limitar los mensajes perjudiciales. Cuando se pide a un chatbot que responda a una simple pregunta objetiva, el proceso de respuesta puede ser sencillo: Despliega un conjunto de algoritmos para elegir la frase más probable con la que responder. Y selecciona las mejores respuestas posibles en cuestión de milisegundos y, de entre ellas, presenta una al azar. (Por eso, hacer la misma pregunta varias veces puede generar respuestas ligeramente distintas).

También puede dividir las preguntas en varias partes, responder a cada una de ellas en secuencia y utilizar sus respuestas para terminar de responder.

Pero cuidado con lo que los chatbots no saben

¿Qué pasa cuando le haces una pregunta de la que no sabe la respuesta? Ahí es donde los chatbots crean más problemas debido a una característica inherente: no saben lo que no saben. Así que extrapolan lo que saben, es decir, hacen conjeturas.

Pero no te dicen que están adivinando, sino que simplemente presentan la información como un hecho. Cuando un chatbot inventa información que presenta a un usuario como un hecho, se llama «alucinación».

«Esto es lo que llamamos conocimiento del conocimiento o metacognición», explica William Wang, profesor asociado de informática en la Universidad de California en Santa Bárbara. También es codirector del grupo de procesamiento del lenguaje natural de la universidad.

Una imagen manipulada por IA del Pentágono explotando en llamas causó que bajara el mercado de valores de Estados Unidos

Una imagen con humo negro que se eleva al lado de un edificio de aspecto burocrático se difundió por las redes sociales el lunes por la mañana, con la afirmación de que mostraba una explosión cerca del Pentágono. En cuestión de minutos, una ola de cuentas de redes sociales, incluyendo algunas cuentas verificadas, compartieron la imagen falsa, amplificando aún más la confusión.

La publicación causó un breve sobresalto en el mercado de valores cuando rápidamente fueron recogidas por medios de comunicación fuera de Estados Unidos, antes de que los funcionarios intervinieran para aclarar que en realidad no había ocurrido ninguna explosión y que la foto era falsa.

Los expertos afirman que la imagen viral tenía señales evidentes de ser una falsificación generada por IA, y su popularidad subraya el caos cotidiano que estos programas, cada vez más sofisticados y de fácil acceso, pueden causar.

Hay muchas herramientas de IA generativa, como Midjourney, Dall-e 2 y Stable Diffusion, que pueden crear imágenes realistas con muy poco esfuerzo. Estas herramientas se entrenan observando grandes volúmenes de imágenes reales, pero rellenan los huecos con su propia interpretación cuando faltan datos de entrenamiento. Esto puede dar lugar a personas con extremidades adicionales y objetos que se transforman con su entorno.

Este incidente destaca las posibles amenazas que las imágenes generadas por IA pueden presentar en el ámbito de las redes sociales, donde se comparten rápidamente, así como la necesidad de un sistema de verificación en Twitter.

Con el auge de las imágenes generadas por inteligencia artificial, distinguir lo real de lo falso va a ser mucho más difícil.

Con la nueva versión de Photoshop lanzada la semana pasada, los usuarios ahora pueden manipular o agregar elementos a una imagen en cuestión de segundos, simplemente dando una instrucción al programa. La versión beta de la nueva función «Generative Fill» de Adobe llega después de varios avances en software de generación de imágenes durante el último año.

Se espera que esta función esté disponible para el público en general en la segunda mitad de 2023, lo que significa que podemos esperar estar inundados de imágenes cada falsas (Adobe cuenta con millones de usuarios de productos creativos).

«Nos estamos adentrando en un mundo en el que tú y yo ya no podemos creer que si vemos una imagen del Papa usando una chaqueta hinchada y caminando fuera del Vaticano, realmente sea él», dijo Maura Grossman, profesora investigadora en la escuela de ciencias de la computación de la Universidad de Waterloo, quien ha estado estudiando las implicaciones del mundo real de las imágenes generadas por IA. Ver video

La inteligencia artificial plantea un «riesgo de extinción», advierten ejecutivos y expertos en tecnología. En marzo, se creó una imagen del Papa con otro programa, Midjourney, y se publicó en Reddit. La imagen se compartió ampliamente en línea y muchos inicialmente creyeron que era real, ilustrando el poder y el peligro de esta tecnología.

Riesgos y recompensas

Esta tecnología tiene posibilidades emocionantes para aquellos en campos creativos (aunque hay obstáculos en esta etapa temprana y algunas de las imágenes claramente parecen manipuladas).

Sin embargo, también hará cada vez más difícil distinguir entre lo que es real y lo que no lo es. Justo la semana pasada, una imagen manipulada del Pentágono explotando en llamas causó que el mercado de valores de Estados Unidos bajara brevemente después de que varios medios internacionales la difundieran. Se alienta a los usuarios de la función de IA de Photoshop a utilizar lo que llaman «credenciales de contenido». Adobe describe las credenciales como una «etiqueta nutricional» para las imágenes, diseñada para dejar claro si un contenido fue generado o editado por IA.

101 ideas creativas para utilizar la inteligencia artificial en la educación.

Chrissi Nerantzi, Sandra Abbeglen, Marianna Karatsiori, & Antonio Martínez-Arboleda (Eds.). (2023). 101 creative ideas to use AI in education, A crowdsourced collection (2023 1.0) [Computer software]. Zenodo.

Texto completo

La experimentación está en el corazón del aprendizaje, la enseñanza y la erudición. Estar abiertos a ideas diversas nos ayudará a establecer conexiones novedosas que pueden conducir a nuevos descubrimientos y percepciones que contribuyan positivamente a nuestro mundo. Las ideas compartidas pueden estar en fase embrionaria, pero merece la pena seguir explorándolas mediante una indagación activa y creativa. Nos gustaría destacar la importancia de un uso responsable, crítico y ético de la IA en los entornos educativos y en general.

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

Diferencias entre Inteligencia Artificial, Aprendizaje Automático, Aprendizaje Profundo e Inteligencia Artificial Generativa

La Inteligencia Artificial (IA), el Aprendizaje Automático (Machine Learning), el Aprendizaje Profundo (Deep Learning) y la Inteligencia Artificial Generativa son conceptos relacionados pero distintos en el campo de la tecnología y la ciencia de datos. Aquí tienes una descripción de cada uno de ellos:

Inteligencia Artificial (IA) La IA se refiere a la creación de sistemas o programas informáticos capaces de realizar tareas que normalmente requieren de inteligencia humana y que imitan el comportamiento humano al utilizar máquinas para aprender y ejecutar tareas sin instrucciones explícitas sobre qué producir como resultado.

Aprendizaje Automático (Machine Learning) El Aprendizaje Automático es una rama de la IA que se centra en desarrollar algoritmos y modelos que permiten a las máquinas aprender de los datos y mejorar su rendimiento sin ser programadas explícitamente. Estos modelos toman datos, como por ejemplo las condiciones climáticas, y los ajustan a un algoritmo para realizar predicciones, como cuánto dinero puede generar una tienda en un día determinado.

Aprendizaje Profundo (Deep Learning) El Aprendizaje Profundo es una subárea del Aprendizaje Automático que se basa en redes neuronales artificiales con múltiples capas. Estas redes neuronales profundas son capaces de aprender representaciones jerárquicas y complejas de los datos de entrada, para ello utilizan capas de algoritmos en forma de redes neuronales artificiales para ofrecer resultados en casos de uso más complejos.

Inteligencia Artificial Generativa (Generative AI) son un subconjunto de los modelos de aprendizaje profundo que pueden generar nuevo contenido basado en datos de entrenamiento. Estos modelos utilizan técnicas de Aprendizaje Profundo para crear nuevos ejemplos que se asemejan a los datos de entrenamiento. Pueden generar imágenes, música, texto u otros tipos de contenido. La Inteligencia Artificial Generativa se utiliza en aplicaciones como la creación de arte generativo, la síntesis de voz y la generación de texto automático.

En conclusión, la IA busca replicar la inteligencia humana, el Aprendizaje Automático se basa en algoritmos para aprender de los datos, el Aprendizaje Profundo utiliza redes neuronales profundas para extraer representaciones complejas, y la Inteligencia Artificial Generativa se enfoca en la generación de contenido nuevo y original. Estas áreas se complementan entre sí y tienen aplicaciones en diversos campos de la tecnología y la investigación.

Las herramientas de IA generativa se están quedando rápidamente ‘sin texto’ para entrenarse advierte un experto de la UC Berkeley

Rivera, Gabriel. «Generative AI Tools Are Quickly “running out of Text” to Train Themselves on, UC Berkeley Professor Warns». Business Insider. Accedido 14 de julio de 2023. https://www.businessinsider.com/ai-could-run-out-text-train-chatbots-chatgpt-llm-2023-7.

Según el profesor Stuart Russell, experto en inteligencia artificial y profesor de la Universidad de California en Berkeley, existe una preocupación creciente de que los modelos de inteligencia artificial, como ChatGPT, estén alcanzando un límite en cuanto a la cantidad de texto disponible en el universo que los entrena para generar respuestas.

Los LLM (modelos lingüísticos de gran escala) que impulsan las herramientas de IA generativa más populares en la actualidad se entrenaron con cantidades masivas de texto publicado extraído de fuentes en línea públicas, incluidas fuentes de noticias digitales y sitios de redes sociales. Elon Musk, por ejemplo, ha mencionado que la «extracción de datos» de estos últimos es lo que lo llevó a limitar la cantidad de tweets que los usuarios pueden ver diariamente.

Un estudio realizado en noviembre pasado por Epoch, un grupo de investigadores de IA, estima que es probable que los conjuntos de datos de aprendizaje automático agoten todo el «texto de alta calidad» antes de 2026. Según el estudio, los conjuntos de datos de «alta calidad» provienen de fuentes como «libros, artículos de noticias, papers científicos, Wikipedia y contenido web filtrado».

Russell afirma en una entrevista que la tecnología utilizada para entrenar a estos bots de inteligencia artificial está empezando a enfrentarse a un desafío significativo. En otras palabras, estos bots no pueden absorber todo el texto digital necesario para su entrenamiento, lo cual fue mencionado en una entrevista con la Unión Internacional de Telecomunicaciones, una agencia de comunicaciones de la ONU, la semana pasada.

Este problema podría tener implicaciones en la forma en que los desarrolladores de inteligencia artificial generativa recopilen datos y entrenen sus tecnologías en el futuro. Sin embargo, Russell sigue sosteniendo la opinión de que la inteligencia artificial reemplazará a los humanos en muchas tareas relacionadas con el lenguaje, según lo describió en la entrevista como «lenguaje dentro, lenguaje fuera».

Russell afirmó en la entrevista que OpenAI, en particular, tuvo que «complementar» sus datos de lenguaje público con «fuentes de archivos privados» para crear GPT-4, el modelo de IA más avanzado y sólido de la compañía hasta la fecha. Sin embargo, reconoció en el correo electrónico a Insider que OpenAI aún no ha detallado los conjuntos de datos exactos utilizados en el entrenamiento de GPT-4. Varias demandas presentadas contra OpenAI en las últimas semanas alegan que la compañía utilizó conjuntos de datos que contenían información personal y materiales con derechos de autor para entrenar a ChatGPT. Una de las demandas más importantes fue presentada por 16 demandantes no identificados, quienes afirman que OpenAI utilizó datos sensibles como conversaciones privadas y registros médicos.

El último desafío legal, presentado por los abogados de la comediante Sarah Silverman y otros dos autores, acusa a OpenAI de infracción de derechos de autor debido a la capacidad de ChatGPT para escribir resúmenes precisos de su trabajo. Mona Awad y Paul Tremblay, dos autores adicionales, presentaron una demanda contra OpenAI a finales de junio que hace acusaciones similares. OpenAI ha evitado hacer comentarios públicos sobre el conjunto de demandas presentadas en su contra. Su CEO, Sam Altman, también se ha abstenido de discutir las acusaciones, aunque en el pasado ha expresado su deseo de evitar problemas legales.

El nuevo «trabajo híbrido» es «IA + humanos»

Samuel, Alexandra. «The New “Hybrid Work” Is “AI + Humans”». JSTOR Daily, 7 de julio de 2023. https://daily.jstor.org/the-new-hybrid-work-is-ai-plus-humans/.

Herramientas como ChatGPT, DALL-E y Bing Chat han aparecido justo después de un periodo de tres años en el que los profesionales de cuello blanco han experimentado una dislocación masiva de dónde y cómo trabajan. El cambio de la noche a la mañana hacia el trabajo a distancia que tuvo lugar durante el cierre de COVID-19 ha madurado hasta convertirse en un cambio duradero en la estructura del trabajo: Entre el 40% de los trabajadores estadounidenses que tienen empleos que pueden realizarse a distancia, un tercio trabaja ahora desde casa a tiempo completo, mientras que otro 40% trabaja a distancia parte o la mayor parte del tiempo.

Esto significa que el 30% de la población activa estadounidense pasa ahora una parte significativa de su vida laboral fuera de un lugar de trabajo convencional, y que el 70% de las empresas estadounidenses tienen ahora una plantilla híbrida, en la que algunos (si no todos) los empleados pasan parte (si no todos) de sus días trabajando a distancia. Si tenemos en cuenta que menos del 3% de la población activa estadounidense trabajaba a distancia a tiempo completo antes de la pandemia, esto representa una transición asombrosamente grande y rápida en la estructura social del trabajo.

Esta transformación en el lugar de nuestra vida laboral está a punto de chocar con una transición en quién realiza ese trabajo. Esta colisión es el nuevo trabajo híbrido, en el que las organizaciones se componen de una mezcla de trabajadores presenciales y remotos, y los equipos se componen de una mezcla de colegas humanos y artificiales.

La próxima década de la vida laboral estará marcada por el doble reto que plantean estas dos transiciones simultáneas. Es absurdo hablar de la automatización del trabajo o del impacto de la inteligencia artificial en el empleo sin tener en cuenta la forma en que nuestros supuestos sobre el trabajo y el empleo ya han sido transformados, recientemente y de forma masiva, por la adopción del trabajo a distancia, así como la reacción en su contra. Y tampoco tiene sentido hablar de cómo conseguir que los trabajadores vuelvan a la oficina, o cómo crear cultura y colaboración entre equipos distribuidos, sin tener en cuenta cómo la IA ya está transformando nuestra vida laboral diaria y los temores de los empleados ante el futuro.

.