Archivo de la etiqueta: Derechos de autor

Principios de la Alianza de Derechos de Autor de Bibliotecas para el Copyright y la Inteligencia Artificial

Library Copyright Alliance Principles for Copyright and Artificial Intelligence. Library Copyright Alliance, ALA, ACRL, 2023

Texto completo

La Ley de Derechos de Autor de EE. UU. existente, tal como es aplicada e interpretada por la Oficina de Derechos de Autor y los tribunales, es plenamente capaz en este momento de abordar la intersección entre derechos de autor e IA sin necesidad de enmiendas.

  • Basado en precedentes bien establecidos, la incorporación de obras protegidas por derechos de autor para crear modelos de lenguaje grandes (LLM) u otras bases de datos de entrenamiento de IA generalmente se considera un uso justo.
  • Dado que decenas, si no cientos, de millones de obras son incorporadas para crear un LLM, la contribución de cualquier obra individual al funcionamiento del LLM es de minimis; por lo tanto, la remuneración por la incorporación no es ni apropiada ni factible.
  • Además, los propietarios de derechos de autor pueden emplear medios técnicos, como el Protocolo de Exclusión de Robots, para evitar que sus obras sean utilizadas para entrenar a las IA.
  • Si una IA produce una obra que es sustancialmente similar en expresión protegida a una obra que fue incorporada por la IA, esa nueva obra infringe el copyright de la obra original.
  • Si la obra original fue registrada antes de la infracción, el propietario de los derechos de autor de la obra original puede presentar una acción por infracción de derechos de autor para obtener daños estatutarios contra el proveedor de la IA y el usuario que solicitó a la IA producir la obra sustancialmente similar.
  • Aplicando principios tradicionales de autoría humana, una obra generada por una IA podría ser susceptible de derechos de autor si los prompts proporcionados por el usuario controlaban suficientemente a la IA de tal manera que la obra resultante en su conjunto constituyera una obra original de autoría humana.

La IA tiene el potencial de interrumpir muchas profesiones, no solo a los creadores individuales. La respuesta a esta interrupción (por ejemplo, el apoyo a la re-capacitación laboral a través de instituciones como colegios comunitarios y bibliotecas públicas) debería desarrollarse de manera integral en la economía, y la ley de derechos de autor no debería ser tratada como un medio para abordar estos desafíos sociales más amplios.

Además, la IA también tiene el potencial de servir como una herramienta poderosa en manos de los artistas, permitiéndoles expresar su creatividad de maneras nuevas y eficientes, promoviendo así los objetivos del sistema de derechos de autor.

10 de julio de 2023.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Tres autores demandan a Anthropic por infracción de derechos de autor en el entrenamiento de IA

Roth, E. (2024, agosto 20). Authors sue Anthropic for training AI using pirated books. The Verge. https://www.theverge.com/2024/8/20/24224450/anthropic-copyright-lawsuit-pirated-books-ai

La compañía de inteligencia artificial Anthropic enfrenta una demanda colectiva en un tribunal federal de California, interpuesta por tres autores que afirman que la empresa utilizó sus libros y cientos de miles de obras más para entrenar su chatbot Claude, impulsado por IA.

Un grupo de autores ha demandado a la compañía de inteligencia artificial Anthropic, acusándola de entrenar sus modelos de IA con libros pirateados, según informó Reuters. La demanda colectiva, presentada en un tribunal de California, alega que Anthropic «construyó un negocio multimillonario robando cientos de miles de libros con derechos de autor.»

La demanda sostiene que Anthropic utilizó un conjunto de datos de código abierto conocido como «The Pile» para entrenar su familia de chatbots Claude. Dentro de este conjunto de datos se encuentra «Books3», una vasta biblioteca de ebooks pirateados que incluye obras de Stephen King, Michael Pollan y miles de otros autores. A principios de agosto, Anthropic confirmó a Vox que utilizó «The Pile» para entrenar a Claude.

La demanda afirma que Anthropic descargó y reprodujo copias de «The Pile» y «Books3», sabiendo que estos conjuntos de datos contenían contenido con derechos de autor extraído de sitios pirata como Bibiliotik. Los autores buscan que el tribunal certifique la demanda colectiva, exija a Anthropic el pago de daños y perjuicios propuestos, y prohíba a la compañía utilizar material protegido por derechos de autor en el futuro.

Los escritores que demandan a Anthropic incluyen a Andrea Bartz, autora de We Were Never Here; Charles Graeber, autor de The Good Nurse; y Kirk Wallace Johnson, autor de The Feather Thief. Aunque se reconoce que «Books3» ha sido eliminado de la versión «más oficial» de «The Pile», la versión original supuestamente sigue disponible en línea. Una investigación reciente también descubrió que compañías como Anthropic y Apple entrenaron sus modelos de IA con miles de subtítulos de videos de YouTube extraídos de «The Pile».

El año pasado, el exgobernador de Arkansas Mike Huckabee y otros autores presentaron una demanda similar contra Meta, Microsoft y EleutherAI, la organización sin fines de lucro detrás de «The Pile», por acusaciones de uso indebido de sus obras para entrenar modelos de IA. Otros autores, como George R.R. Martin, Jodi Picoult y Michael Chabon, también han demandado a OpenAI por el supuesto uso de su contenido protegido por derechos de autor.

Código de buenas prácticas en derechos de autor para bibliotecas

«Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» The Canadian Association of Research Libraries (CARL), 2024

Texto completo

CARL ha publicado el documento «Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» que está disponible en los sitios web de CARL y CFLA, junto con un resumen breve.

Este código de derechos de autor fue desarrollado para bibliotecas por un equipo de redacción comunitario, en colaboración con empleados del gobierno federal y revisores legales y académicos. Proporciona una exploración legal y práctica del uso justo en el contexto de las actividades de conservación de bibliotecas para publicaciones gubernamentales en Canadá.

Aunque el código no es un consejo legal, ofrece un modelo legalmente defendible para la aplicación de la excepción de uso justo al copiar, preservar y compartir publicaciones gubernamentales. Detalla las secciones relevantes de la Ley de Derechos de Autor de Canadá y jurisprudencia, y proporciona estudios de caso que describen proyectos relacionados realizados por bibliotecas académicas.

El Origen de la Información en ChatGPT con la Herramienta RAGE


«El Origen de la Información en ChatGPT con la Herramienta RAGE», 6 de junio de 2024. https://wwwhatsnew.com/2024/06/06/el-origen-de-la-informacion-en-chatgpt-con-la-herramienta-rage/.

La inteligencia artificial sigue avanzando a pasos agigantados, pero con estos avances surgen nuevos desafíos. Uno de los problemas más preocupantes es entender de dónde proviene la información que nos proporcionan los modelos de lenguaje como ChatGPT. Aquí entra en juego una innovadora herramienta desarrollada por un equipo de la Universidad de Waterloo: RAGE.

La Importancia de Saber de Dónde Proviene la Información

En la era digital, los modelos de lenguaje grande (LLMs), como ChatGPT, se han convertido en herramientas fundamentales en diversas áreas, desde la medicina hasta el derecho. Sin embargo, estos modelos no están exentos de problemas. Al funcionar mediante el «aprendizaje profundo no supervisado», recopilan información de toda la web de maneras que pueden ser complicadas de rastrear.

Problemas de Confiabilidad

Un problema común con los LLMs es la alucinación. Es decir, estos modelos pueden generar respuestas que parecen coherentes y precisas, pero que en realidad están basadas en información incorrecta o inexistente. Esto plantea un gran desafío, especialmente cuando las respuestas se utilizan en contextos críticos.

La Necesidad de Transparencia

Como bien señala Joel Rorseth, estudiante de doctorado en ciencias de la computación en la Universidad de Waterloo y autor principal del estudio, «no puedes necesariamente confiar en que un LLM se explique a sí mismo». Es vital que podamos verificar las fuentes de información que utilizan estos modelos para asegurarnos de su fiabilidad.

La Solución: La Herramienta RAGE

¿Qué es RAGE?

RAGE es una herramienta que utiliza una estrategia llamada «generación aumentada por recuperación» (RAG) para entender el contexto de las respuestas proporcionadas por los LLMs. En lugar de confiar ciegamente en las respuestas generadas, RAGE permite a los usuarios proporcionar sus propias fuentes de información para contextualizar las respuestas.

¿Cómo Funciona?

La herramienta ilustra cómo diferentes fuentes pueden llevar a distintas respuestas. Esto es crucial para evaluar la confiabilidad de la información. Al utilizar RAGE, los usuarios pueden ver de manera clara cómo la información de diferentes fuentes afecta las respuestas de los modelos.

Aplicaciones Prácticas

En la Medicina y el Derecho

El uso de LLMs en sectores sensibles como la medicina y el derecho está en aumento. Sin embargo, la falta de transparencia en la fuente de información puede ser peligrosa. RAGE permite asegurar que las respuestas de estos modelos estén basadas en información precisa y confiable, algo esencial en estos campos.

En la Educación

En el ámbito educativo, los estudiantes y profesores pueden beneficiarse enormemente. Pueden verificar y validar la información proporcionada por los modelos de lenguaje, asegurándose de que las fuentes sean fiables.

El Futuro de la Regulación y la Innovación

Estamos en una época donde la innovación tecnológica ha superado la regulación. Es vital que entendamos los riesgos potenciales de usar estas tecnologías sin un marco regulatorio adecuado. Herramientas como RAGE son esenciales para garantizar que los productos de inteligencia artificial sean seguros y confiables.

Referencias
Joel Rorseth et al, RAGE Against the Machine: Retrieval-Augmented LLM Explanations, arXiv (2024). DOI: 10.48550/arxiv.2405.13000

Spawning AI: cómo evitar que nuestros contenidos sirvan para el entrenamiento de plataformas de Inteligencia Artificial

Spawning AI: https://spawning.ai/

Blog: https://spawning.ai/

Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto

Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.

El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.

Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:

  • Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
  • Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
  • Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.

Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.

¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

Un grupo periódicos de EE.UU. demandan a OpenAI por infracción de derechos de autor en el entrenamiento de su IA

Brittain, Blake. «US newspapers sue OpenAI for copyright infringement over AI training.» Reuters, May 1, 2024, 1:55 AM GMT+2, Accessed May 1, 2024. https://www.reuters.com/legal/us-newspapers-sue-openai-copyright-infringement-over-ai-training-2024-04-30/

Un grupo de periódicos, incluyendo el New York Daily News y el Chicago Tribune, demandaron a Microsoft (MSFT.O) y OpenAI en un tribunal federal de Nueva York el martes, acusándolos de utilizar indebidamente el trabajo de los reporteros para entrenar sus sistemas de inteligencia artificial generativa.

Los ocho periódicos, propiedad del fondo de inversión Alden Global Capital’s MediaNews Group, afirmaron en la demanda que las empresas copiaron ilegalmente millones de sus artículos para entrenar productos de inteligencia artificial, incluyendo el Copilot de Microsoft y el ChatGPT de OpenAI.

La queja sigue a demandas similares en curso contra Microsoft y OpenAI, que ha recibido miles de millones de respaldo financiero de Microsoft, presentadas por el New York Times y los medios de comunicación The Intercept, Raw Story y AlterNet.

Un portavoz de OpenAI dijo el martes que la empresa cuida mucho sus productos y el proceso de diseño para apoyar a las organizaciones de noticias. Un portavoz de Microsoft declinó hacer comentarios sobre la demanda.

Los casos de los periódicos son parte de varias posibles demandas emblemáticas presentadas por propietarios de derechos de autor contra empresas tecnológicas por los datos utilizados para entrenar sus sistemas de inteligencia artificial generativa.

Un abogado de las publicaciones de MediaNews, Steven Lieberman, dijo a Reuters que OpenAI debe su éxito arrollador al trabajo de otros. Los demandados saben que tienen que pagar por computadoras, chips y salarios de empleados, pero «creen de alguna manera que pueden salirse con la suya tomando contenido» sin permiso o pago, dijo.

La demanda dijo que los sistemas de Microsoft y OpenAI reproducen el contenido con derechos de autor de los periódicos «verbatim» cuando se les solicita. Afirmó que ChatGPT también «alucina» artículos atribuidos a los periódicos que dañan sus reputaciones, incluyendo un artículo falso del Denver Post que promocionaba fumar como una cura para el asma y una recomendación falsa del Chicago Tribune para un reposa bebés que fue retirado del mercado después de ser vinculado con la muerte de niños.

Inteligencia Artificial: alfabetización mediática e informacional, derechos humanos y libertad de expresión

Igor Shnurenko, Tatiana Murovana, Ibrahim Kushchu. Artificial Intelligence: Media and Information Literacy, Human Rights and Freedom of Expression. Unesco, 2021

Texto completo

La relación entre la alfabetización mediática e informacional (AMI) y los derechos humanos (DH), especialmente el derecho al acceso a la información, la educación y la libertad de expresión (LE), es innegablemente sólida. La AMI, respaldada por el derecho a la educación, es un requisito esencial para que los ciudadanos puedan acceder, comprender, analizar, crear y expresar contenido mediático, así como para poder mejorar la realización de sus derechos humanos relevantes. Por lo tanto, la AMI estaría incompleta sin la perspectiva de los derechos humanos.

Las herramientas y plataformas digitales han llevado a la AMI más allá de ser unidimensional para convertirse en interactiva y dinámica. Varios medios (digitales), ciudadanos, productores de contenido, reguladores (es decir, gobiernos) y otros actores ahora operan en un ecosistema dinámico de AMI, que está en constante cambio y evolución. Sin lugar a dudas, en los últimos años, la inteligencia artificial (IA) con sus tecnologías de apoyo, como la nube, el big data, Internet de las cosas (IoT) y la conectividad (móvil), están teniendo una influencia disruptiva en este ecosistema. El éxito de los esfuerzos de AMI depende principalmente del éxito en comprender la IA y su adopción.

El libro, para cumplir con este propósito, presenta una exploración de las relaciones dinámicas entre la IA y las tecnologías emergentes relevantes, la AMI, los derechos humanos y la libertad de expresión.

La primera parte del libro establece la base técnica para la IA y las tecnologías emergentes relevantes en relación con la AMI y los derechos humanos. Primero, se presenta la fortaleza de la IA derivada de nuevas tecnologías como el big data, el IoT y todas las formas de conectividad. De esta manera, se establece el poder y los límites de dicho poder en relación con las tres áreas mencionadas de la AMI. Aunque la mayoría de las técnicas de IA no han avanzado drásticamente desde su nacimiento, los desarrollos significativos en tecnologías emergentes relevantes están revolucionando los sistemas de IA. Sin embargo, esta revolución está limitada a la IA estrecha, donde se resuelven problemas específicos de dominio delimitado de manera competente. Aún así, la IA desempeña un papel disruptivo en la ampliación y el aumento de las capacidades de los ciudadanos y otros actores del ecosistema de AMI. Independientemente de quién sea el actor o el interesado, la AMI pasiva, activa e influyente se mejoran mediante el uso de IA en diversas plataformas y entornos digitales y mediáticos.

La segunda parte del libro es una discusión que explora cómo la IA puede contribuir o dificultar el desarrollo de competencias de AMI. Esta parte comienza presentando una breve descripción de las opiniones, esfuerzos y posición de la UNESCO sobre la AMI.