Archivo de la etiqueta: ia

Wiley defiende los derechos de autor frente al uso no autorizado de contenidos en la inteligencia artificial

Wiley. 2025. Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. May 7, 2025. https://www.wiley.com/en-us/position-statement-ai-scraping

En su declaración oficial, Wiley —una de las editoriales académicas más antiguas y reconocidas del mundo— reafirma su postura firme en defensa de los derechos de propiedad intelectual ante el creciente uso de contenidos protegidos en el entrenamiento de modelos de inteligencia artificial. Subraya que la innovación tecnológica debe avanzar de la mano de prácticas éticas y legales, especialmente en lo que respecta al uso de obras creadas por autores, investigadores y comunidades académicas.

Wiley comienza recordando su compromiso histórico con la creación y difusión del conocimiento, destacando que este progreso solo es posible si se respeta el trabajo intelectual de quienes generan contenidos. Reconoce el valor transformador de la inteligencia artificial para la investigación y el descubrimiento, pero advierte que dicho avance debe asentarse sobre una base de respeto a los derechos de autor, atribución adecuada y compensación justa.

En este sentido, la editorial exige que los desarrolladores de IA soliciten autorización expresa antes de utilizar materiales de su propiedad o publicados en colaboración con sus socios. Wiley deja claro que no existe ningún tipo de permiso implícito, y que todos los derechos están reservados, salvo que se obtenga una licencia formal.

Además, se insiste en que la atribución transparente y la trazabilidad del origen de los datos son principios clave del desarrollo ético de IA. Wiley ha desarrollado marcos de licenciamiento flexibles y adaptables, que permiten a los desarrolladores acceder de forma legal a contenidos protegidos, en función de sus necesidades específicas.

El comunicado también subraya que ya existen numerosos acuerdos exitosos entre editoriales científicas (STM y comerciales) y empresas de IA, incluidos acuerdos firmados por la propia Wiley. Estos pactos demuestran que el mercado de licencias de contenidos para IA no solo es viable, sino que ya está en funcionamiento.

Más allá del aspecto legal, Wiley resalta el valor de establecer colaboraciones activas con la comunidad de desarrolladores de IA para promover estándares compartidos que incluyan transparencia, citación adecuada, atribución y procedencia de los datos. Esto no solo garantiza el respeto por los creadores, sino que también contribuye a generar confianza entre los usuarios de sistemas de IA.

En conclusión, Wiley aboga por un ecosistema sostenible donde la tecnología y la creatividad humana coexistan armónicamente. La editorial invita a autores, investigadores, desarrolladores éticos de IA y otras editoriales a participar activamente en la construcción de un marco de innovación responsable, donde los derechos de los creadores sean preservados y reconocidos como base de cualquier avance significativo en el campo de la inteligencia artificial.

El futuro de la investigación en recuperación de información en la era de la IA generativa

Computing Community Consortium (CCC). Future of Information Retrieval Research in the Age of Generative AI CCC Visioning Workshop. Accessed December 5, 2024. https://cra.org/ccc/events/future-of-information-retrieval-research-in-the-age-of-generative-ai-ccc-visioning-workshop/.

El informe Future of Information Retrieval Research in the Age of Generative AI fue elaborado por destacados investigadores, incluyendo James Allan, Eunsol Choi, Daniel P. Lopresti y Hamed Zamani, bajo el auspicio del Computing Community Consortium (CCC). Publicado en diciembre de 2024, explora cómo los modelos de lenguaje generativo (LLMs) están redefiniendo la recuperación de información (IR) y establece una hoja de ruta para el desarrollo futuro en este campo.

Se basa en un taller de visión celebrado en julio de 2024, que reunió a 44 expertos de diversas disciplinas como IR, procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA). El propósito fue analizar cómo la integración de tecnologías generativas podría transformar las interacciones de los usuarios con sistemas de información y cuáles serían los retos y oportunidades.

Durante el taller, se emplearon técnicas colaborativas inspiradas en las reglas de IDEO para fomentar ideas innovadoras y estructuradas. Los participantes debatieron en ocho sesiones temáticas, las cuales identificaron las principales direcciones de investigación necesarias para aprovechar el potencial de los sistemas IR-GenAI.

El informe identifica ocho áreas prioritarias:

  1. Evaluación de sistemas IR-GenAI: diseñar métricas y metodologías que capturen las capacidades únicas de los modelos generativos.
  2. Aprendizaje del feedback humano: integrar retroalimentación implícita y explícita para resolver problemas complejos que requieran razonamiento.
  3. Modelado de usuarios: entender cómo evolucionan las necesidades de los usuarios en sistemas de acceso a información potenciados por IA generativa.
  4. Cuestiones socio-técnicas: abordar los impactos éticos y sociales que surgen con estas tecnologías.
  5. Sistemas personalizados: desarrollar métodos que adapten los resultados de IR-GenAI a las necesidades individuales.
  6. Eficiencia y escalabilidad: optimizar el uso de recursos computacionales, datos y esfuerzos humanos.
  7. IR para mejorar agentes de IA: integrar técnicas de recuperación de información en agentes inteligentes.
  8. Modelos fundacionales para acceso a la información: diseñar modelos específicamente enfocados en la recuperación y descubrimiento de información.

En conclusión, el informe ofrece un resumen de las discusiones y sugiere acciones concretas para académicos, profesionales de la industria, campañas de evaluación y agencias de financiamiento. Se destaca la necesidad de colaboración interdisciplinaria y de crear tecnologías inclusivas que maximicen los beneficios de la IA generativa para la recuperación de información.

Este documento no solo proporciona una visión del futuro de IR, sino también un marco para avanzar en investigaciones y aplicaciones prácticas en la intersección de IA y recuperación de información.

Impacto de la Inteligencia Artificial en la industria del audiolibro

Impact of Artificial Intelligence in the audiobook industry. Cap. 10 de Frankfurt Audio Whitepaper 2024 in cooperation with Dosdoce.com, 2024

Texto completo

La inteligencia artificial está remodelando la industria de los audiolibros, ofreciendo nuevas oportunidades y eficiencia en la producción, pero también creando dilemas en términos de calidad y derechos de propiedad intelectual que deberán resolverse a medida que la tecnología se desarrolla.

La inteligencia artificial (IA) ha experimentado una evolución vertiginosa en los últimos años, transformando diversas industrias, incluida la editorial. Aunque la IA no es un concepto nuevo, su uso generalizado y las tecnologías asociadas, como el «big data» y el aumento de la potencia computacional, han abierto nuevas posibilidades en la creación, distribución y consumo de contenido. En particular, la industria de los audiolibros está siendo impactada de manera significativa por estas innovaciones.

Cambios en la producción y creación de contenido

La IA está facilitando la creación de contenido en diversas formas, desde artículos hasta obras de ficción. En el contexto de los audiolibros, la IA se está utilizando para generar narraciones mediante tecnología de voz sintética, lo que ha permitido la creación de audiolibros de manera más rápida y económica. Amazon, por ejemplo, lanzó una plataforma para que los autores de KDP puedan crear versiones en audiolibro de sus eBooks utilizando voces virtuales, lo que ha llevado a una producción masiva de títulos en poco tiempo. Según Bloomberg, en seis meses se han producido más de 40,000 audiolibros con narración por IA, y si esta tendencia continúa, para finales de 2024 habrá más audiolibros creados por IA que por narradores humanos.

La IA también está ayudando a mejorar la eficiencia en la producción, desde la edición hasta la creación de guiones y contenido original. Empresas como EARS están centralizando los recursos de producción de audio en una plataforma basada en la nube, lo que permite a los editores reducir costos y tiempos de producción, optimizando el uso de recursos internos y externos. Además, se está incrementando la personalización del contenido, permitiendo la creación de materiales de marketing más segmentados y eficientes, como newsletters o anuncios dirigidos a públicos específicos, lo cual mejora la captación de audiencias.

IA en la personalización y marketing

En términos de marketing, la IA ofrece herramientas poderosas para entender mejor los comportamientos de los consumidores y crear campañas altamente personalizadas. Plataformas como Podimo están utilizando IA para adaptar el contenido de los audiolibros a los gustos específicos de los oyentes, mejorando la experiencia del usuario y reduciendo las tasas de abandono (churn rate). A través de una mayor comprensión de las preferencias de cada usuario, estas plataformas pueden ofrecer una experiencia más personalizada y, por lo tanto, aumentar la diversidad del contenido disponible.

En cuanto a la búsqueda de contenido, Audible ha implementado una función de búsqueda basada en IA, que permite a los usuarios encontrar audiolibros a partir de un lenguaje natural, mejorando la accesibilidad y la interacción del usuario con la plataforma.

Desafíos y oportunidades

Sin embargo, la adopción de IA no está exenta de desafíos. A pesar de que la IA ha hecho que la producción de audiolibros sea más accesible y asequible, aún existen preocupaciones sobre la calidad de la narración, especialmente cuando se trata de emociones y matices en la voz humana. Expertos como Liza Faja, directora de Editions Lizzie, sugieren que, aunque la IA puede facilitar la producción, los audiolibros narrados por humanos seguirán siendo esenciales en ciertos géneros, como la ficción, debido a la capacidad única de las voces humanas para transmitir emociones y sutilezas.

Además, el uso de la IA plantea problemas en torno a los derechos de autor y la propiedad intelectual. Maribel Riaza, experta en la historia de la lectura oral, señala que tecnologías como las aplicaciones de texto a voz, que permiten convertir documentos digitales en audiolibros, podrían generar conflictos sobre la compensación económica para los autores y los titulares de derechos. La posibilidad de que los usuarios suban documentos a plataformas y los conviertan en contenido de audio sin el consentimiento de los propietarios de los derechos podría crear un vacío legal que, en el futuro, se deberá abordar con medidas de protección tecnológica.

El futuro de la IA en los audiolibros

El impacto de la IA en los audiolibros es innegable, pero aún está evolucionando. La tecnología puede ser una herramienta poderosa para la industria editorial, pero, como mencionan expertos como Amanda D’Acierno, presidenta de PRH Audio, la combinación de IA y narración humana es probable que continúe siendo la fórmula ganadora en la creación de audiolibros. Las capacidades de IA en la producción y el marketing están revolucionando el sector, pero la calidad humana sigue siendo crucial, especialmente para aquellos audiolibros que buscan una conexión emocional profunda con los oyentes.

Este panorama está abriendo nuevas oportunidades de negocio, pero también presentando desafíos que la industria tendrá que enfrentar, desde la gestión de derechos de autor hasta la mejora de la experiencia auditiva. A medida que la tecnología sigue avanzando, se espera que la IA continúe desempeñando un papel central en la transformación del mercado de los audiolibros, creando un entorno competitivo y dinámico que podría redefinir el futuro de los contenidos digitales.

ChatGPT para tareas complejas de evaluación de textos

Thelwall, M. (2024). ChatGPT for complex text evaluation tasksJournal of the Association for Information Science and Technology, 1–4. https://doi.org/10.1002/asi.24966

ChatGPT y otros modelos de lenguaje a gran escala (LLMs) han demostrado ser efectivos en tareas de procesamiento de lenguaje natural y computacional con diversos niveles de complejidad. Este documento resume las lecciones aprendidas de una serie de investigaciones sobre su uso en la evaluación de calidad de investigaciones, una tarea compleja de análisis de textos.

En términos generales, ChatGPT destaca por su capacidad para comprender y ejecutar tareas complejas de procesamiento de textos, produciendo respuestas plausibles con un mínimo de intervención por parte del investigador. Sin embargo, los resultados deben ser evaluados sistemáticamente, ya que pueden ser engañosos. A diferencia de las tareas simples, los resultados en tareas complejas son muy variables, y se pueden obtener mejores resultados repitiendo los comandos en sesiones diferentes y promediando las respuestas obtenidas. Modificar los parámetros de configuración de ChatGPT respecto a sus valores predeterminados no parece ser útil, excepto en lo relacionado con la extensión del texto solicitado en las respuestas.

Capacidad de Procesamiento Complejo: ChatGPT es muy hábil para realizar tareas de análisis textual complejo, generando respuestas plausibles con instrucciones detalladas. Sin embargo, sus resultados no siempre son precisos y requieren validación sistemática.

Variabilidad en Tareas Complejas: A diferencia de tareas simples (como análisis de sentimiento), los resultados en evaluaciones complejas varían significativamente. Mejores resultados se obtienen al repetir los comandos múltiples veces y promediando las respuestas.

Configuración del Modelo: Cambiar parámetros predeterminados no suele mejorar los resultados, salvo ajustes en la longitud de la salida. Modelos más avanzados (como GPT-4o frente a 4o-mini) ofrecen mejor desempeño, pero versiones económicas pueden ser una opción práctica.

Estructura de las Instrucciones: Instrucciones complejas y detalladas, adaptadas del formato usado por evaluadores humanos, producen mejores resultados. Sin embargo, instrucciones más breves y simplificadas tienden a disminuir la precisión.

Evaluación y Limitaciones: ChatGPT puede producir salidas plausibles, pero estas no siempre reflejan una evaluación significativa. Por ejemplo, al evaluar artículos basándose en títulos y resúmenes en lugar del texto completo, ChatGPT ofrece mejores resultados, probablemente debido a la concisión de la información.

Uso de Información Condensada: Aunque puede manejar textos extensos, ChatGPT parece ser más efectivo al trabajar con entradas resumidas, como títulos y resúmenes, en lugar de textos completos, evitando sobrecarga de información irrelevante.

Financiación y Costos: Realizar evaluaciones sistemáticas con múltiples iteraciones implica altos costos en el uso de la API. Por ello, las versiones más económicas de los modelos, aunque menos precisas, pueden ser adecuadas para ciertos proyectos.

Fine-Tuning: La personalización del modelo mediante fine-tuning es efectiva en tareas simples, pero no parece prometedora para evaluaciones complejas debido a la diversidad de salidas posibles y la falta de patrones consistentes en evaluaciones humanas.

Como conclusión puede decirse que ChatGPT muestra un gran potencial en la evaluación académica, pero sus limitaciones subrayan la necesidad de realizar validaciones exhaustivas. Los investigadores deben considerar enfoques sistemáticos, como repetir comandos y ajustar configuraciones, para optimizar resultados. Aunque aún quedan cuestiones abiertas, como el papel del fine-tuning en estas tareas, los resultados sugieren que LLMs pueden complementar, pero no reemplazar, las evaluaciones humanas en tareas complejas.

Las gafas Ray-Ban Meta pueden usarse para reconocer a personas y acceder a información personal como dirección, número de teléfono y familiares a través del reconocimiento facial.

Matt Binder, «Ray-Ban Meta Glasses Can Be Used to Dox Strangers via Facial Recognition, According to Harvard Students. Here’s How to Protect Yourself.», Mashable, 3 de octubre de 2024, https://mashable.com/article/ray-ban-meta-smart-glasses-students-facial-recognition-dox-strangers.

Dos estudiantes de Harvard han transformado las Meta Ray-Ban Smart Glasses en una poderosa herramienta de reconocimiento facial que puede identificar a cualquier persona y revelar detalles personales como su dirección, número de teléfono y familiares. Lo lograron desarrollando una plataforma de inteligencia artificial llamada I-XRAY, que convierte las gafas inteligentes en un dispositivo de vigilancia personal. Aunque estas gafas están diseñadas para captar fotos y videos de manera más inmersiva, los estudiantes las han llevado un paso más allá al integrar un motor de búsqueda facial.

El proceso de I-XRAY tiene tres etapas clave. Primero, las gafas capturan el rostro de una persona a través de la cámara incorporada. Luego, el motor de búsqueda facial de I-XRAY identifica el rostro y le asigna un nombre. En segundo lugar, una vez que el sistema identifica el nombre, realiza búsquedas en varias bases de datos públicas y privadas para encontrar información adicional sobre la persona. Por último, I-XRAY organiza los datos recolectados —nombre, dirección, teléfono, familiares y más— en un solo documento.

En un video demostrativo, los estudiantes muestran cómo se acercan a personas en la calle y, con las gafas puestas, acceden instantáneamente a datos personales. Al hacer preguntas como «¿Asististe a tal escuela?», revelan que la información es exacta y de fácil acceso, lo que genera preocupación sobre las capacidades invasivas de esta tecnología. Este experimento no solo demuestra el potencial de la inteligencia artificial para la vigilancia, sino que pone en alerta sobre cómo este tipo de herramientas podría ser mal utilizada. Aunque los estudiantes aseguran que su intención no es violar la privacidad, sino iniciar un debate sobre los riesgos de los dispositivos inteligentes, el hecho de que cualquiera pueda acceder a información tan sensible plantea preguntas sobre la regulación de estas tecnologías.

Este dilema recuerda los primeros días del iPhone, cuando los usuarios intentaban «liberar» sus dispositivos, lo que generaba preocupaciones de seguridad. Los estudiantes de Harvard sostienen que, al igual que en aquellos días, estamos en un momento crítico donde debemos aprender a protegernos contra las amenazas antes de que sea demasiado tarde. Aunque no se puede prevenir completamente el uso de herramientas como I-XRAY, existen medidas que las personas pueden tomar para protegerse de la exposición a la vigilancia mediante tecnologías emergentes.

Entre estas medidas, se recomienda limitar la cantidad de información personal disponible públicamente en redes sociales y otras plataformas, utilizar configuraciones de privacidad más restrictivas y abogar por la regulación y supervisión del uso de tecnologías de reconocimiento facial y dispositivos inteligentes. Este caso demuestra lo rápido que la tecnología puede evolucionar y cambiar las dinámicas de privacidad en la vida cotidiana. La conversación sobre las gafas inteligentes de Meta y plataformas como I-XRAY está apenas comenzando, y es probable que continúe a medida que más tecnologías de este tipo lleguen al mercado.

Por qué en IA lo más grande no siempre es lo mejor

«Why Bigger Is Not Always Better in AI», MIT Technology Review, accedido 2 de octubre de 2024, https://www.technologyreview.com/2024/10/01/1104744/why-bigger-is-not-always-better-in-ai/.

La creencia de que «más grande es mejor» en inteligencia artificial (IA) ha dominado la investigación en este campo, impulsada por la idea de que la cantidad de datos, la potencia de cómputo y el número de parámetros son los principales determinantes del rendimiento de un modelo. Esta mentalidad se consolidó con un artículo de 2017 de Google, que introdujo la arquitectura de transformer, y ha llevado a las grandes empresas tecnológicas a competir por la escala de sus modelos.

Sin embargo, expertos como Sasha Luccioni, líder de IA y clima en la startup Hugging Face, argumentan que los modelos actuales son “demasiado grandes”. Estos modelos no solo son difíciles de descargar y manipular, incluso si son de código abierto, sino que también presentan problemas significativos. Entre estos se encuentran prácticas invasivas de recolección de datos y la inclusión de contenido inapropiado en los conjuntos de datos, además de tener una mayor huella de carbono debido al alto consumo de energía necesario para su funcionamiento.

La escalabilidad de los modelos también conduce a una concentración extrema de poder en manos de unas pocas empresas tecnológicas grandes. Solo estas compañías tienen los recursos financieros y técnicos necesarios para desarrollar y operar modelos de gran escala, lo que crea un «cuello de botella» en el acceso a tecnologías de IA avanzadas y limita la diversidad de enfoques en el campo.

En contraposición a esta tendencia, el Allen Institute for Artificial Intelligence (Ai2) ha desarrollado un nuevo modelo de lenguaje multimodal llamado Molmo, que demuestra que se puede lograr un rendimiento impresionante utilizando modelos mucho más pequeños. Su modelo más grande, que cuenta con 72 mil millones de parámetros, supera en rendimiento a GPT-4, que se estima tiene más de un billón de parámetros, en tareas como la comprensión de imágenes, gráficos y documentos. Además, un modelo más pequeño de Molmo, con solo 7 mil millones de parámetros, se acerca al rendimiento de los modelos de vanguardia, gracias a métodos de recolección de datos y entrenamiento más eficientes.

Los investigadores de Ai2 han enfrentado el desafío de romper con la mentalidad de «más es mejor». Al iniciar el proyecto, el equipo se propuso pensar fuera de lo convencional y encontrar formas más efectivas de entrenar modelos que fueran accesibles y económicos. La filosofía detrás de Molmo subraya que «menos es más, lo pequeño es grande, y lo abierto es tan bueno como lo cerrado».

Otro argumento a favor de reducir la escala de los modelos es que los modelos más grandes suelen ser capaces de realizar una amplia gama de tareas, muchas de las cuales pueden no ser necesarias para los usuarios finales. Luccioni sostiene que, a menudo, los usuarios solo necesitan un modelo diseñado para tareas específicas, y que los modelos más grandes no siempre ofrecen ventajas en estos casos.

Para avanzar en la investigación y aplicación de IA, es fundamental cambiar las métricas utilizadas para evaluar el rendimiento de los modelos, enfocándose en factores relevantes como la precisión, la privacidad y la confiabilidad de los datos utilizados en su entrenamiento. Esto requiere un mayor nivel de transparencia en la industria, ya que muchos investigadores no comprenden completamente cómo y por qué sus modelos producen ciertos resultados, ni qué datos se han utilizado para entrenarlos.

Finalmente, se sugiere que es hora de reevaluar la suposición de que los modelos de IA son soluciones mágicas que resolverán todos los problemas. En lugar de seguir la tendencia de la escalabilidad, la comunidad de investigación y las empresas deben crear incentivos para fomentar un enfoque más consciente y sostenible en el desarrollo de inteligencia artificial, buscando hacer más con menos y utilizando recursos de manera más responsable.