Archivo de la etiqueta: Inteligencia artificial

Claude: asistente de inteligencia artificial de próxima generación que mejora algunas de las características ofrecidas por ChatGPT

Claude es un asistente de inteligencia artificial de próxima generación basado en la investigación de Anthropic para entrenar sistemas de inteligencia artificial útiles, honestos e inofensivos. Accesible a través de una interfaz de chat y API en nuestra consola para desarrolladores, Claude es capaz de realizar una amplia variedad de tareas de conversación y procesamiento de texto manteniendo un alto grado de confiabilidad y previsibilidad.

Claude puede ayudar en casos de uso que incluyen resúmenes, búsqueda, escritura creativa y colaborativa, preguntas y respuestas, programación y más. Los primeros clientes informan que Claude es mucho menos propenso a producir resultados dañinos, más fácil de conversar y más manejable, lo que significa que puedes obtener el resultado deseado con menos esfuerzo. Claude también puede recibir instrucciones sobre personalidad, tono y comportamiento.

Existen 2 versiones: Claude y Claude Instant. Claude es un modelo de alto rendimiento de última generación, mientras que Claude Instant es una opción más ligera, menos costosa y mucho más rápida.

La nueva versión Claude 2.1, presenta una ventana de contexto mejorada que supera ampliamente cualquier capacidad de ChatGPT. Además Claude 2.1, mejora su modelo LLM (modelo de lenguaje grande), entrando en competencia con ChatGPT y presenta una ventana de contexto mejorada que ha aumentado a 200.000 tokens, superando los 128.000 tokens de GPT-4 de OpenAI. Esto significa que el modelo puede procesar y tener en cuenta hasta 200.000 unidades de texto en una sola sesión. La cantidad de tokens que un modelo puede manejar es importante porque determina la capacidad del modelo para comprender y procesar información en una sola iteración. Un mayor número de tokens permite a los modelos lidiar con textos más extensos y complejos, como documentos largos, código fuente extenso o textos literarios extensos

Los resultados muestran que Claude 2.1 proporciona menos respuestas incorrectas, tiene menos probabilidades de alucinar y es mejor estimando cuándo no puede estar seguro; el modelo es «significativamente más propenso a abstenerse en lugar de proporcionar información incorrecta» recurriendo a herramientas externas (como calculadoras) o búsquedas en la web para obtener soluciones mejores.

Si estás acostumbrado a usar modelos de lenguaje grandes como ChatGPT, Bard y Claude, sabrás que Claude a menudo supera a los demás al manejar grandes cantidades de datos.

Un año de la salida al mercado de ChatGPT

Guo, Charlie. «How to Talk to Your Family about AI This Thanksgiving», 6 de septiembre de 2023. https://www.ignorance.ai/p/how-to-talk-to-your-family-about-ai.

El próximo jueves día 30 de noviembre de 2023 se celebra el primer aniversario del lanzamiento de ChatGPT, la tecnología más disruptiva de todos los tiempos, tanto que fue el producto con el crecimiento más rápido de la historia. Si has seguido todos los avances en inteligencia artificial desde entonces, eso parece haber ocurrido hace siglos. Es difícil creer cuánto ha cambiado todo en el último año.

En este año Sam Altman, CEO máximo responsable de Open AI, fue despedido por la junta directiva de OpenAI, y Greg Brockman, cofundador, y otros investigadores clave renunciaron. Hubo una reacción inmediata, y la junta comenzó a negociar para que Altman volviera como CEO. Después de que las negociaciones fracasaron, Sam y Greg «se unieron» a Microsoft, el mayor inversor de OpenAI.

Cientos de empleados de OpenAI (~95%) amenazaron con irse a unir a Microsoft si la junta no renunciaba. Después de pasar por DOS CEO interinos en cuatro días, Altman fue restituido como CEO y la mayoría de los miembros de la junta que lo despidieron renunciaron. Se ha formado una nueva junta de 3 personas con el objetivo de crear una junta más permanente de 9 personas.

Aún está por verse quiénes integrarán la nueva junta de 9 personas. Presumiblemente, Altman y Microsoft querrán tener asientos, y Altman probablemente querrá colocar aliados en la junta para reducir la posibilidad de futuros despidos. Y aún no conocemos realmente la motivación original de la junta que despidió a Altman en primer lugar; aunque, independientemente de si las motivaciones fueron justificadas, la ejecución fue manejada de manera extremadamente deficiente.

Gran parte de la discusión también ha girado en torno a la estructura organizativa única de OpenAI. Inicialmente, fue fundada como una organización sin fines de lucro con la misión de crear la inteligencia artificial general (AGI) en beneficio de la humanidad. Posteriormente, OpenAI creó una subsidiaria con fines de lucro y recibió una inversión estimada de 10 mil millones de dólares por parte de Microsoft. Tanto los empleados como los inversores tienen acuerdos de participación en beneficios en lugar de acciones en la empresa con fines de lucro, pero esta última está controlada en última instancia por la organización sin fines de lucro.

Las encuestas de este verano indican que solo el 14% de los adultos estadounidenses han probado ChatGPT. La distinción clave radica en su capacidad para entender y generar lenguaje similar al humano en una amplia gama de temas y estilos. A diferencia de los chatbots anteriores, ChatGPT puede adaptarse a diversas sutilezas conversacionales y tiene el potencial de revolucionar la forma en que interactuamos con las máquinas. Su capacidad para predecir y generar respuestas coherentes a una escala nunca vista antes es lo que lo convierte en un avance revolucionario en el procesamiento del lenguaje natural.

Cuando ChatGPT se lanzó hace un año, muchos se sorprendieron por el estado de la inteligencia artificial generativa, no solo para palabras y lenguaje, sino también para arte, música y código. Si las inteligencias artificiales pueden convertirse en expertos en escribir libros para niños o generar fotografías de stock o construir sitios web, podríamos estar en riesgo de dejar a millones de personas sin trabajo. Y eso no es hipotético; algunas industrias ya están viendo un impacto, y algunas empresas ya se han comprometido a reducir la plantilla y reemplazarla con inteligencia artificial.

Gran parte del impacto depende de la rapidez con la que las industrias adopten la inteligencia artificial. Con más tiempo, podemos amortiguar las pérdidas de empleo y ayudar a crear nuevos roles que no existían antes; «ingeniero de indicaciones» es un título que no existía hace dos años. Pero las industrias y las personas cuyos medios de vida están amenazados por la inteligencia artificial están comprensiblemente preocupadas y están haciendo lo que pueden para protegerse, incluyendo emprender acciones legales.

El principal tipo de demanda está relacionado con los derechos de autor; la acusación es que estos modelos fueron entrenados (ilegalmente) en obras con derechos de autor sin consentimiento. Este tema está avanzando en los tribunales, y la decisión tiene el potencial de alterar la trayectoria de los futuros productos de inteligencia artificial. Pero no es la única pregunta legal. En este momento, los tribunales aún tienen que decidir:

  1. Si es legal entrenar a una inteligencia artificial con datos recopilados sin consentimiento, incluso si es público.
  2. Si los creativos cuyo trabajo se utilizó para entrenar modelos tienen derecho a regalías.
  3. Si la producción que imita un estilo específico, como Pixar o el Dr. Seuss, infringe los derechos de propiedad intelectual.
  4. Si incluso podemos poseer los derechos de autor de contenido creado por una inteligencia artificial en primer lugar.

Estamos descubriendo estas cosas lentamente; por ejemplo, la Oficina de Derechos de Autor de EE. UU. ha dicho que cualquier obra generada por inteligencia artificial no es elegible para derechos de autor sin ediciones significativas realizadas por humanos. Pero eso aún no ha sido probado en los tribunales, y otras áreas legales todavía son extremadamente inciertas.

También hay una pregunta abierta sobre cómo saber si un contenido fue generado por inteligencia artificial. En el caso de la música o las imágenes, podemos potencialmente incrustar marcas de agua invisibles para saber en el futuro si algo proviene de una inteligencia artificial. Algunas empresas ya están haciendo esto: los modelos más recientes de generación de música de Google contienen huellas de audio, y OpenAI tiene un detector interno para imágenes creadas con DALL-E.

Pero eso no evitará que muchas personas sean engañadas por imágenes falsas y voces clonadas. Algunos estafadores ya están utilizando identidades generadas por inteligencia artificial para robar dinero a familiares desprevenidos. Y en cuanto a contenido escrito, no hay una manera confiable de determinar si algo fue escrito por una inteligencia artificial. Cualquier herramienta que lo haga a menudo genera muchos falsos positivos y puede ser fácilmente eludida con técnicas de indicación más avanzadas.

Ahora, decenas de agencias diferentes tienen la tarea de evaluar los posibles impactos de la inteligencia artificial. Cada departamento del gabinete ahora cuenta con un Director de Inteligencia Artificial. Y en los próximos meses y años, veremos una gran cantidad de acciones y orientaciones a nivel de agencia sobre la inteligencia artificial, aunque no necesariamente mucha legislación del Congreso.

El Reino Unido celebró una Cumbre sobre la Seguridad de la Inteligencia Artificial, que tenía como objetivo que los gobiernos y las principales empresas de inteligencia artificial se asociaran en sus esfuerzos por mejorar la seguridad de la inteligencia artificial. Si bien muchos gobiernos están tomando medidas públicas y pronunciando discursos sobre la inteligencia artificial, aún no están redactando leyes o dictando políticas. La principal excepción es la Ley de Inteligencia Artificial de la UE, que ha estado en desarrollo durante varios años. Actualmente, se está revisando para incorporar los últimos avances en inteligencia artificial generativa, pero está enfrentando algunos obstáculos. En Estados Unidos se ha promulgado la Orden Ejecutiva del Presidente Biden sobre IA, que establece nuevos estándares para la seguridad y la protección de la IA, resguarda la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, impulsa la innovación y la competencia, avanza el liderazgo estadounidense en todo el mundo

Lo que si parece seguro es que la inteligencia artificial remodelará vastas partes de nuestra vida y trabajo en un futuro cercano. Un estudio ha estimado que el 80% de los trabajadores estadounidenses podrían ver afectado su trabajo por la inteligencia artificial. Eso no significa que perderán su trabajo, pero podrían descubrir que la inteligencia artificial se convierte en parte de sus herramientas. Y aunque no seas un trabajador de cuello blanco, es posible que te encuentres con más contenido generado por inteligencia artificial en las redes sociales o la publicidad.

YouTube establece nuevas pautas para videos creados con inteligencia artificial (IA)

Hayes, Dade. «YouTube Issues New Guidelines For Videos Using AI». Deadline (blog), 14 de noviembre de 2023. https://deadline.com/2023/11/youtube-ai-artificial-intelligence-videos-shorts-deepfakes-1235611370/.

En una entrada de blog, el gigante del video digital indicó que el nuevo enfoque establecerá límites para videos que parecen realistas pero dependen de herramientas de inteligencia artificial. La empresa también está implementando nuevas etiquetas para informar a los espectadores cuando el video que están viendo ha sido alterado o creado sintéticamente.

«Esto es especialmente importante en casos en los que el contenido trata temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos», escribieron las vicepresidentas de Gestión de Productos, Jennifer Flannery O’Connor y Emily Moxley, en la entrada del blog. «Los creadores que elijan consistentemente no divulgar esta información pueden estar sujetos a la eliminación de contenido, la suspensión u otras sanciones. Trabajaremos con los creadores antes de implementar esto para asegurarnos de que comprendan estos nuevos requisitos». El auge de la IA ha inquietado a una gran parte de la sociedad, incluido Hollywood, donde actores y escritores recientemente estuvieron seis meses en huelga en parte por preocupaciones sobre el daño potencial que la tecnología podría causar.

La nueva postura de YouTube se produce aproximadamente un mes después de que la empresa presentara un conjunto de nuevas capacidades, incluido un caché de material de IA searchable llamado Dream Screen diseñado para la plataforma Shorts. Shorts, una respuesta a TikTok, ha atraído más de 70 mil millones de vistas diarias de más de 2 mil millones de usuarios registrados. Cuando se le preguntó en ese momento sobre el riesgo de propagar deepfakes u otro contenido engañoso, el CEO Neal Mohan admitió que «podría haber desafíos en torno a tecnologías como esta». Pero dijo que todos los videos mejorados con IA estarían sujetos a las pautas de la comunidad de YouTube. «Las reglas que se aplican al contenido de video en YouTube se aplican a todo lo que viste hoy».

La entrada del blog también menciona que los usuarios que tengan problemas con algún video que encuentren en YouTube pueden participar en un proceso de solicitud de privacidad recientemente ampliado. Este proceso permite a cualquiera solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que simule a una persona identificable, incluyendo su rostro o voz. Esta opción se extiende al ámbito de los videos musicales, donde la IA puede permitir que imitaciones de la voz o estilo único de un artista o rapero se difundan potencialmente.

Cambridge Dictionary considera «Alucinar» como palabra del año 2023

University of Cambridge. «Cambridge Dictionary Names ‘Hallucinate’ Word of the Year 2023», 15 de noviembre de 2023. https://www.cam.ac.uk/research/news/cambridge-dictionary-names-hallucinate-word-of-the-year-2023.


En 2023, una nueva definición de ‘alucinar’ fue una de las muchas actualizaciones relacionadas con la inteligencia artificial en el Diccionario Cambridge. Henry Shevlin sugiere que la creciente tendencia de antropomorfizar la tecnología AI con metáforas humanas refleja un cambio sutil pero profundo en la percepción. La nueva definición destaca cómo los modelos de lenguaje grandes (LLMs) pueden generar prosa plausible pero a menudo basada en ‘hechos’ falsos, engañosos o inventados, lo que se describe como ‘alucinaciones’ de manera confiada y a veces creíble.

La definición tradicional de ‘alucinar’ implica percibir algo que no existe debido a una condición de salud o al consumo de drogas. La nueva definición aborda la inteligencia artificial y establece: ‘Cuando una inteligencia artificial (= un sistema informático que tiene algunas de las cualidades del cerebro humano, como la capacidad de producir lenguaje de manera que parece humana) alucina, produce información falsa’.

Las ‘alucinaciones’ de la IA, también conocidas como fabulaciones, a veces pueden parecer sin sentido, pero también pueden parecer completamente plausibles, incluso siendo factualmente inexactas o ilógicas. Estas ‘alucinaciones’ de la IA ya han tenido impactos en el mundo real, como casos ficticios citados en un tribunal debido a la investigación legal realizada por ChatGPT y errores factuales en videos promocionales.

Wendalyn Nichols, Gerente de Publicaciones del Diccionario Cambridge, enfatiza la necesidad de habilidades de pensamiento crítico al utilizar estas herramientas AI y destaca que, aunque los modelos de lenguaje grandes son eficientes para procesar grandes cantidades de datos, la experiencia humana sigue siendo crucial para crear información confiable y actualizada.

La nueva definición refleja la tendencia creciente de antropomorfizar la tecnología AI y destaca la importancia de abordar las ‘alucinaciones’ de la IA para el éxito futuro de la inteligencia artificial generativa. Ingenieros y académicos están trabajando en limitar estas ‘alucinaciones’ mediante la validación de las salidas de LLM con fuentes confiables o búsquedas en la web, y algunos están explorando el ‘aprendizaje por refuerzo a partir de retroalimentación humana’ para prever y eliminar estas ‘alucinaciones’.

Presentación del Marco de Planificación de la Inteligencia Artificial de LC Labs de la Library of Congress

MANCHESTER, E.J., 2023. Introducing the LC Labs Artificial Intelligence Planning Framework | The Signal. The Library of Congress [en línea]. [consulta: 17 noviembre 2023]. Disponible en: //blogs.loc.gov/thesignal/2023/11/introducing-the-lc-labs-artificial-intelligence-planning-framework.

LC Labs ha estado explorando cómo utilizar tecnologías emergentes para expandir el uso de materiales digitales desde su lanzamiento en 2016. Rápidamente identificó el aprendizaje automático (ML), una rama de la inteligencia artificial (IA), como una forma potencial de proporcionar más metadatos y conexiones entre los elementos de la colección y los usuarios. Experimentos e investigaciones han demostrado que los riesgos y beneficios del uso de la IA en bibliotecas, archivos y museos (LAM) son significativos pero aún en gran medida hipotéticos. En resumen:

  • Las colecciones de bibliotecas son increíblemente diversas y son particularmente desafiantes para que las herramientas actuales de aprendizaje automático e IA las procesen de manera predecible.
  • Nuevas herramientas de IA con afirmaciones impresionantes se están lanzando rápidamente. Nos beneficiamos al probar estas herramientas abiertamente, colaborar y aprender de otros. Se deben desarrollar y comunicar estándares de calidad y políticas específicos de IA que respalden nuestro contexto de proporcionar recursos autorizados al público a largo plazo a socios y proveedores.
  • Aunque la implementación a gran escala de una IA responsable en LAM aún está a varios años de distancia, este es el momento de aumentar la experimentación y la colaboración tanto dentro de nuestra organización como en todo el sector.


Para hacer frente a estos desafíos y realidades, LC Labs ha estado desarrollando un marco de planificación para respaldar la exploración responsable y la posible adopción de la inteligencia artificial en la Biblioteca. A un nivel elevado, el marco incluye tres fases de planificación: 1) Comprender, 2) Experimentar y 3) Implementar, cada una respalda la evaluación de tres elementos de ML: 1) Datos; 2) Modelos; y 3) Personas. Hemos creado un conjunto de hojas de trabajo, cuestionarios y talleres para involucrar a las partes interesadas y al personal, e identificar prioridades para futuras mejoras y servicios de IA. Los mecanismos, herramientas, colaboraciones y artefactos forman juntos el Marco de Planificación de IA. Nuestra esperanza al compartir el marco y las herramientas asociadas en esta versión inicial es alentar a otros a probarlo y solicitar comentarios adicionales. Continuaremos actualizando y perfeccionando el marco a medida que aprendamos más sobre los elementos y fases de la planificación de ML.

IA generativa y bibliotecas: 7 contextos

LorcanDempsey.net. «Generative AI and Libraries: 7 Contexts», 12 de noviembre de 2023. Ver completo https://www.lorcandempsey.net/generative-ai-and-libraries-7-contexts/.

Las bibliotecas utilizan la IA en su labor educativa, política y de servicios. En este artículo se analizan siete contextos en los que se lleva a cabo esta labor.

A medida que la IA se generaliza, los bibliotecarios tienen que tomar cada vez más decisiones cotidianas sobre adopción, asesoramiento y políticas. Sus comunidades de interesados se encontrarán en diversos estados de entusiasmo o resistencia, interés o apatía, conocimiento o aprendizaje. Cuando los responsables de las bibliotecas intenten posicionarlas como fuente de asesoramiento y experiencia, cuando tomen decisiones sobre adquisiciones, cuando planifiquen el futuro y cuando se comuniquen y trabajen con sus colegas, habrá que entender y sopesar lo constructivo y lo problemático.

Se está invirtiendo mucho y se está extendiendo por los campos de la ciencia y la ingeniería, la sanidad, el derecho y las aplicaciones empresariales en general. Al mismo tiempo, las herramientas y técnicas de IA se están generalizando en los ciclos de investigación y aprendizaje, acompañadas de mucho debate y cautela. Aunque gran parte de este desarrollo se considera productivo, también hay intensos debates y una apreciación más clara de la problemática

El trabajo bibliotecario y los trabajadores

Debate y el despliegue de la IA, la conversación en las bibliotecas se está orientando hacia un compromiso cualificado y una cautela informada. Sin embargo, esto no significa dejar de lado las consecuencias humanas muy reales en términos de incertidumbre sobre el futuro, posibles cambios en los requisitos del trabajo, la necesidad de aprender nuevas habilidades o de hacer frente a las nuevas demandas.

A todos nos interesa estar informados. Sin embargo, es casi imposible estar al tanto de todo lo que ocurre, y mucho menos comprender las implicaciones. Muchas bibliotecas han creado grupos de trabajo u otros mecanismos para seguir la evolución, hacer recomendaciones sobre la adopción, etcétera.

Asesoramiento y experiencia: las nuevas competencias de investigación

Dado que la biblioteca se posiciona como fuente de asesoramiento y conocimientos especializados sobre el uso de herramientas de IA en tareas relacionadas con la información y los datos, es importante desarrollar la comprensión de cómo funcionan los LLM y las herramientas asociadas, de qué herramientas se dispone, para qué sirven y cuáles son sus límites.

Cliente/consumidor informado

La biblioteca interactuará con muchos proveedores que pretenden tener funciones de IA, éstas variarán enormemente en función del proveedor, el grado de desarrollo y la aplicación. Las bibliotecas tendrán que informarse sobre las afirmaciones relativas a la IA, la funcionalidad y la singularidad, al igual que en otros ámbitos de la contratación. ¿El componente de IA es una capa fina sobre una API ChatGPT o hay algo más? ¿Cómo se utiliza la generación aumentada de recuperación (una técnica para conectar el LLM a recursos de datos externos, que probablemente se utilice mucho en contextos bibliotecarios, culturales y académicos)? Y así sucesivamente. Es posible que algunas bibliotecas también deseen adoptar una postura por motivos éticos, por ejemplo, en lo que se refiere a qué LLM se utilizan, lo que a su vez puede informar las decisiones de concesión de licencias o la defensa ante los proveedores. Las listas de control, como la mencionada anteriormente, serán de gran utilidad.

Defensa y política

Las posturas y decisiones políticas son importantes en todos los niveles, ya sea en términos de política nacional o de toma de decisiones institucionales a nivel universitario o municipal. Las bibliotecas pueden desempeñar un papel importante en la elaboración de políticas institucionales sobre la IA, aportando al debate aspectos éticos, de uso y de política de la información. Este reciente artículo analiza las posibles funciones y contribuciones de las bibliotecas a la formulación de políticas institucionales.

Principios

Varias organizaciones están elaborando principios o directrices de IA para ayudar a dirigir su enfoque responsable de la IA. Por ejemplo, estos son los principios adoptados por Elsevier. De hecho, Gartner aconseja a todas las organizaciones que desarrollen lo que denomina principios «faro» en este ámbito. Al revisar las políticas nacionales sobre IA, el decano de bibliotecas Leo Lo hace algunas recomendaciones para que las bibliotecas individuales respondan. Entre ellas, la creación de un comité de ética de la IA y el desarrollo de buenas prácticas para su uso. Tiene sentido que las bibliotecas analicen algunas de estas cuestiones y establezcan algunos marcos éticos y políticos explícitos, así como un mecanismo para revisarlos. Por supuesto, también es importante que las asociaciones se ocupen de este tema y proporcionen plantillas u orientaciones a las bibliotecas que realicen este trabajo. Sobre todo, teniendo en cuenta la variedad de capacidades disponibles en cada biblioteca. Me interesó ver este trabajo de la Asociación Mundial de Editores de Noticias como ejemplo. Abarca «la propiedad intelectual, la transparencia, la responsabilidad, la calidad y la integridad, la equidad, la seguridad, el diseño y el desarrollo sostenible».

Derechos de autor y creadores.

Ya se ha mencionado el asesoramiento a los creadores. En términos más generales, la biblioteca, y las asociaciones que agrupan la voz y la influencia de las bibliotecas, tienen un papel que desempeñar en la defensa de los intereses de sus miembros, equilibrando sus intereses como creadores con sus intereses como investigadores.

Validez y capacidad de investigación.

Como también se ha señalado anteriormente, hay una serie de cuestiones relacionadas con este tema que pertenecen a la nueva categoría de capacidades de investigación. Y aquí también hay herramientas específicas, aunque entendemos que faltan mecanismos de detección existentes, y todavía no están en juego las marcas de agua y otros enfoques. Será un espacio complejo durante un tiempo y aún no sabemos en qué se asentará.

El registro cultural.

Esta amplia tendencia plantea cuestiones fundamentales a quienes trabajan en los ámbitos académico y cultural, donde la transparencia, la equidad y el respeto por la particularidad y la expresión culturales son importantes. Las bibliotecas nacionales se enfrentan a interesantes cuestiones sobre qué recopilar, al igual que los archivos institucionales. En términos más generales, la erosión de la confianza social en la comunicación, la autoría y la creación complica la labor de bibliotecas y archivos, encargados como están de conservar conocimientos, pruebas y recuerdos validados. Este debate no ha hecho más que empezar.

Conclusión

Así pues, la IA se está generalizando, de forma desigual, y es a la vez productiva y problemática. Se está introduciendo en productos y servicios de diferentes maneras. Los usuarios de las bibliotecas se están familiarizando con las herramientas y técnicas de la IA, también de forma muy desigual.

Esto significa que el debate bibliotecario se dirige necesariamente hacia formas de compromiso, con cautela, a medida que surgen preguntas en términos de apoyo y concienciación de los usuarios, adquisición, preparación del personal y planificación a medio plazo.

La Comisión Federal de Comercio (FTC) de USA hace un comentario a la Oficina de Derechos de autor sobre los posibles perjuicios de la IA para los creadores

Federal Trade Commission. «In Comment Submitted to U.S. Copyright Office, FTC Raises AI-Related Competition and Consumer Protection Issues, Stressing That It Will Use Its Authority to Protect Competition and Consumers in AI Markets», 7 de noviembre de 2023.

Texto


En un comentario presentado ante la Oficina de Derechos de Autor de los Estados Unidos, la Comisión Federal de Comercio identifica varios problemas planteados por el desarrollo e implementación de la Inteligencia Artificial (IA) que implican políticas de competencia y protección al consumidor, señalando el papel de la Comisión en monitorear el impacto de la IA generativa y hacer cumplir vigorosamente la ley según corresponda para proteger la competencia y los consumidores.

«La manera en que las empresas están desarrollando y lanzando herramientas de IA generativa y otros productos de IA… suscita preocupaciones sobre posibles perjuicios a los consumidores, trabajadores y pequeñas empresas», según el comentario. «La FTC ha estado explorando los riesgos asociados con el uso de la IA, incluyendo violaciones a la privacidad de los consumidores, automatización de la discriminación y el sesgo, y el aumento de prácticas engañosas, esquemas de impostores y otros tipos de estafas».

El comentario explica que la FTC tiene un interés en cuestiones relacionadas con los derechos de autor más allá de las preguntas sobre el alcance de los derechos y la extensión de la responsabilidad bajo las leyes de derechos de autor. Por ejemplo, no solo puede perjudicarse de manera injusta la capacidad de los creadores para competir, sino que los consumidores pueden ser engañados cuando la autoría no se alinea con las expectativas del consumidor. Un consumidor puede pensar que una obra ha sido creada por un músico o artista en particular cuando es un producto creado por IA.

«La conducta que pueda violar las leyes de derechos de autor… también puede constituir un método injusto de competencia o una práctica injusta o engañosa, especialmente cuando la violación de derechos de autor engaña a los consumidores, explota la reputación de un creador o disminuye el valor de sus obras existentes o futuras, revela información privada o causa un daño sustancial a los consumidores», continúa el comentario. Además, ciertas grandes empresas tecnológicas tienen vastos recursos financieros que les permiten proteger a los usuarios de sus herramientas de IA generativa o licencias exclusivas de datos propietarios con derechos de autor, potencialmente afianzando aún más el poder de mercado de estas empresas dominantes.

¿Quién posee los derechos de autor de un contenido generado por inteligencia artificial generativa?


La determinación de quién posee los derechos de autor del contenido producido por inteligencia artificial (IA) es un asunto legal de gran complejidad y en constante cambio. Por lo general, las herramientas de IA generativa, como ChatGPT, no pueden ser consideradas autoras en el sentido legal o creativo, ya que no tienen la capacidad de comparecer ante un tribunal en caso de conflictos de intereses entre otras cuestiones.

La cuestión de quién posee los derechos de autor del contenido generado por inteligencia artificial (IA) es un asunto legal complejo y en constante evolución que puede variar según la jurisdicción y depende de las circunstancias específicas.

  1. Autoría: Las leyes de derechos de autor tradicionalmente otorgan derechos de autor al creador o autor humano de una obra. La IA, al ser una máquina, no se considera una persona legal capaz de poseer derechos de autor. Esto ha llevado a debates sobre si el programador humano de la IA o la organización que emplea al programador debería considerarse el autor o propietario del contenido generado por la IA.
  2. Doctrina del «Trabajo por Encargo»: En algunas jurisdicciones, cuando una obra se crea como parte de una relación laboral, el empleador suele considerarse el propietario de los derechos de autor. Si un empleado crea contenido generado por la IA en el ámbito de su empleo, es posible que su empleador tenga un reclamo más fuerte sobre los derechos de autor.
  3. Acuerdos Contractuales: La propiedad del contenido generado por la IA también puede determinarse mediante acuerdos contractuales. Las empresas y programadores pueden especificar la propiedad y los derechos asociados con el contenido generado por la IA en contratos o acuerdos de licencia. Estos contratos pueden anular las reglas de derechos de autor por defecto.
  4. Uso Justo: En algunos casos, el uso de contenido generado por la IA podría considerarse «uso justo» bajo la ley de derechos de autor. El uso justo puede aplicarse en situaciones en las que se utiliza material con derechos de autor con fines como comentario, crítica, informes de noticias, enseñanza o investigación. Sin embargo, el uso justo es una doctrina legal compleja que puede variar según la jurisdicción y depende de los detalles de cada caso.
  5. Transformación y Obras Derivadas: El contenido generado por la IA que se basa en material con derechos de autor existente puede considerarse una obra derivada. Los derechos de autor del material original aún pueden aplicarse en la medida en que sea reconocible en el contenido generado por la IA.
  6. Marco Legal en Evolución: El marco legal que rodea el contenido generado por la IA sigue evolucionando, y algunos países pueden promulgar leyes o regulaciones específicas para abordar estos problemas. Los tribunales y legisladores están considerando activamente las implicaciones de la IA en los derechos de autor y la propiedad intelectual.

A nivel general puede decirse que una inteligencia artificial generativa (IA) en sí misma no puede ser propietaria de los derechos de autor de una obra. Los derechos de autor tradicionalmente se otorgan a autores humanos, y las IA no son consideradas entidades legales con la capacidad de poseer derechos de autor.

Por lo tanto, ChatGPT, como una inteligencia artificial desarrollada por OpenAI, no puede ser considerado un autor en el sentido legal o creativo. Los derechos de autor tradicionalmente se aplican a obras creadas por personas físicas. ChatGPT es una herramienta de procesamiento de lenguaje natural que genera respuestas y texto basados en patrones y datos previamente aprendidos, pero no tiene la capacidad de tener intenciones, creatividad o una voluntad propia. Por lo tanto, cualquier contenido generado por ChatGPT generalmente se atribuiría a los usuarios que lo utilizan o a las organizaciones que lo emplean, y no a la IA en sí misma.

Además, la responsabilidad de citar fuentes recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información específica de fuentes con derechos de autor o utiliza contenido protegido en sus interacciones con ChatGPT, es responsabilidad del usuario garantizar que cumple con las leyes de derechos de autor al citar adecuadamente esas fuentes. La responsabilidad de evitar el plagio recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información o ideas específicas de fuentes externas sin citar adecuadamente esas fuentes, eso podría considerarse un acto de plagio por parte del usuario, no de ChatGPT.

Es esencial consultar con expertos legales especializados en derechos de autor o propiedad intelectual para obtener orientación en casos específicos. Las leyes y las interpretaciones pueden haber evolucionado desde mi última actualización en enero de 2022, y diferentes jurisdicciones pueden tener enfoques únicos para este tema.

Un profesor contratado por OpenAI para probar GPT-4 afirma que existe un «riesgo significativo» de que las personas lo utilicen para llevar a cabo «química peligrosa»

Bhaimiya, Sawdah. «A Professor Hired by OpenAI to Test GPT-4 Says There’s “significant Risk” of People Using It to Do “Dangerous Chemistry”». Business Insider. Accedido 3 de noviembre de 2023. https://www.businessinsider.com/open-ai-gpt4-high-risk-used-for-dangerous-chemistry-expert-2023-4.

Un profesor contratado por OpenAI para probar GPT-4, creadora del chatbot ChatGPT, ha advertido sobre el «riesgo significativo» de que las personas lo utilicen para realizar «química peligrosa». Andrew White, profesor asociado de ingeniería química en la Universidad de Rochester en el estado de Nueva York, formó parte de un grupo de 50 expertos contratados para probar la nueva tecnología durante un período de seis meses en 2022.

Este grupo de expertos, conocido como el «equipo rojo«, planteó preguntas peligrosas y provocadoras al modelo de inteligencia artificial para evaluar hasta dónde podía llegar. White reveló que utilizó GPT-4 para sugerir un compuesto que pudiera funcionar como un arma química, utilizando «complementos» que permitían al chatbot acceder a información de documentos científicos y directorios de fabricantes químicos. Según se informa, el chatbot pudo encontrar información sobre cómo fabricar el compuesto.

White comentó que, si bien esta tecnología puede acelerar y mejorar la química, también existe el riesgo de que las personas realicen actividades químicas peligrosas.

Los hallazgos del equipo de 50 expertos se presentaron en un documento técnico sobre el nuevo modelo, que también mostró que la IA podría ayudar a los usuarios a redactar discursos de odio y a encontrar armas no registradas en línea. Estos hallazgos contribuyeron a que OpenAI abordara estos problemas antes de lanzar GPT-4 para uso público.

GPT-4 se lanzó en marzo y se describe como la tecnología de IA más avanzada de OpenAI, capaz de aprobar un examen de abogacía o alcanzar una calificación de 5 en algunos exámenes de nivel avanzado (AP).

El CEO de Twitter, Elon Musk, y cientos de expertos en IA, académicos e investigadores firmaron una carta abierta el mes pasado en la que pedían una pausa de seis meses en el desarrollo de herramientas de IA más poderosas que GPT-4. La carta argumentaba que los sistemas de IA poderosos solo deberían desarrollarse «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables».

Deepfakes y la seguridad de las herramientas de IA: formas de navegar por este turbio panorama

IndiaTimes. «Deepfakes And The Safety Of AI Tools: Ways To Navigate This Murky Landscape», 6 de noviembre de 2023. https://www.indiatimes.com/technology/news/deepfakes-and-the-safety-of-ai-tools-619754.html.


Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.

Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA).  El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?

Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.

Amenaza a la privacidad individual

La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.

Modificación de la opinión pública

Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.

Dificultades para identificar los deepfakes

Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.

Estrategias para garantizar la seguridad

A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?

  • Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
  • Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
  • Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
  • Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.

Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.