Archivo de la etiqueta: Inteligencia artificial

Inteligencia artificial e investigación universitaria: retos y desafíos

Martha Elena Cuevas Gómez, Doris Laury Beatriz (eds) Inteligencia artificial e investigación universitaria: retos y desafíos. México: Editorial Transdigital, 2024.

Texto completo

Este libro nace de una reflexión sobre cómo la IA está transformando la educación
superior, no solo desde un enfoque teórico, sino también desde una perspectiva
práctica. Nos invita a reflexionar sobre el futuro de la enseñanza y el aprendizaje
en un mundo donde la tecnología desempeña un papel cada vez más relevante.

Hacia un Archivo Común de Libros para una IA Ética y de Interés Público



Authors Alliance. «Developing a Public-Interest Training Commons of BooksAuthors Alliance, December 5, 2024. https://www.authorsalliance.org/2024/12/05/developing-a-public-interest-training-commons-of-books/.

Este proyecto busca equilibrar el desarrollo de IA con principios éticos y sociales, aprovechando la riqueza cultural de los libros mientras se promueve la equidad en el acceso al conocimiento y en la representación de los datos utilizados.

La Authors Alliance, con el apoyo de la Fundación Mellon, ha lanzado un proyecto para planificar un archivo de libros orientado al interés público en el desarrollo de inteligencia artificial (IA). Northeastern University Library colabora en la coordinación de esta iniciativa.

Los modelos de lenguaje de IA (LLMs) requieren grandes volúmenes de texto para su entrenamiento, y los libros representan un recurso valioso. Sin embargo, el desarrollo de IA hasta ahora ha estado dominado por empresas privadas que priorizan la competencia sin atender suficientemente a la diversidad, la veracidad, el sesgo o el impacto social de sus datos.

El proyecto busca crear un plan para establecer una organización o alianza que gestione un archivo de libros con fines de interés público, impulsado por bibliotecas sin fines de lucro. Este archivo estará diseñado para considerar las perspectivas de autores, editoriales, investigadores y tecnólogos, asegurando que la IA se desarrolle de manera ética e inclusiva.

El proyecto aborda varios desafíos esenciales:

  • Misión y objetivos: Definir metas a corto y largo plazo.
  • Aspectos técnicos y logísticos: Diseñar estrategias distintas a las iniciativas actuales lideradas por bibliotecas.
  • Diversidad del corpus: Garantizar un archivo amplio y diverso que ofrezca alternativas viables a los datos actuales.
  • Gobernanza: Crear estructuras que equilibren los intereses de todos los actores involucrados.
  • Sostenibilidad: Diseñar un modelo de financiación a largo plazo para el mantenimiento y crecimiento del archivo.
  • Legalidad y derechos de autor: Asegurar que los libros se adquieran legalmente y que se respete a autores y titulares de derechos mediante compensaciones y créditos adecuados.
  • Segmentación de usuarios: Reconocer y satisfacer las diferentes necesidades de investigadores sin fines de lucro, nuevas empresas y grandes actores comerciales.

Uso sospechoso no declarado de la inteligencia artificial en la literatura académica

Glynn, Alex. «Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset.» arXiv, November 2024. https://arxiv.org/abs/2411.15218.

Desde que las herramientas de inteligencia artificial generativa (IA), como ChatGPT de OpenAI, se hicieron ampliamente disponibles, los investigadores han comenzado a utilizarlas en el proceso de escritura. El consenso de la comunidad editorial académica es que dicho uso debe ser declarado en el artículo publicado. Academ-AI documenta ejemplos de uso sospechoso de IA no declarado en la literatura académica, lo cual se puede discernir principalmente debido a la aparición en los artículos de investigación de un lenguaje característico de los chatbots basados en modelos de lenguaje grande (LLM).

Este análisis de los primeros 500 ejemplos recopilados revela que el problema es generalizado, afectando a revistas y actas de conferencias de editores altamente respetados. La IA no declarada parece aparecer en revistas con métricas de citación más altas y mayores cargos por procesamiento de artículos (APC), precisamente en esas publicaciones que, teóricamente, deberían tener los recursos y la experiencia para evitar tales descuidos. Una pequeña minoría de casos son corregidos después de la publicación, y las correcciones a menudo son insuficientes para rectificar el problema.

Los 500 ejemplos analizados aquí probablemente representen solo una pequeña fracción de la IA no declarada presente en la literatura académica, gran parte de la cual podría ser indetectable. Los editores deben hacer cumplir sus políticas contra el uso no declarado de la IA en los casos detectables; esta es la mejor defensa disponible actualmente para la comunidad editorial académica contra la proliferación de IA no divulgada.

El conjunto de datos utilizado para esta investigación se compuso de fragmentos de 500 documentos publicados: 449 artículos de revistas y 51 ponencias de conferencias. El 93,2% de estos artículos fueron publicados en 2022 o después, mientras que el 6,8% fueron publicados antes de la liberación pública de ChatGPT en noviembre de 2022. Los artículos fueron publicados en 345 revistas diferentes, la mayoría de las cuales (86%) publicó solo uno de los artículos. Las revistas más representadas en el conjunto de datos fueron International Journal of Open Publication and Exploration (18 artículos) y International Research Journal of Modernization in Engineering Technology and Science (11 artículos).

Las ponencias fueron presentadas en 45 conferencias diferentes, con un 91% de las conferencias presentando solo una ponencia. La conferencia más representada fue la International Conference on Electronics, Communication and Aerospace Technology (4 ponencias). Solo el 13,1% de los artículos de revistas fueron publicados en revistas producidas por grandes editores académicos, como Elsevier (5,1%), Springer (2,2%) o MDPI (1,1%). En contraste, la gran mayoría de las ponencias de conferencias (88,2%) fueron publicadas por editores académicos importantes, principalmente IEEE (80,4%). En general, los grandes editores produjeron el 20,8% de los documentos en el conjunto de datos. Todos los editores importantes representados en el conjunto de datos requieren la declaración del uso de IA en sus políticas editoriales, excepto Wolters Kluwer. Solo dos publicaciones de Wolters Kluwer, Medicine y Annals of Medicine & Surgery, aparecen en el conjunto de datos, y ambas requieren la declaración de uso de IA en sus guías para autores.

Un total de 62 artículos (13,8%) fueron publicados en revistas sin un ISSN confirmado o que afirmaban estar registrados con el ISSN de otra revista.

Es imperativo identificar y abordar los casos de IA no declarada que podemos detectar. En tales casos, las revistas y editores deben hacer cumplir sus políticas mediante correcciones o retractaciones, según la gravedad de la violación de políticas. No hacer esto establece un precedente de violaciones de políticas sin abordar, sugiriendo a los autores que la declaración del uso de IA no es necesaria. Por el contrario, un precedente de hacer cumplir estas políticas incentiva la declaración entre los autores descuidados e incluso sin escrúpulos, por el temor de que el uso de IA sea detectable en su caso.

Integrando la Alfabetización en Inteligencia Artificial en los Programas de Alfabetización Mediática e Informacional en la Educación Superior



Ndungu, Miriam W. 2024. “Integrating Basic Artificial Intelligence Literacy into Media and Information Literacy Programs in Higher Education: A Framework for Librarians and Educators.” Journal of Information Literacy 18, no. 2: 122–139. https://doi.org/10.11645/18.2.641.

El artículo de Miriam Ndungu explora cómo introducir habilidades básicas de alfabetización en inteligencia artificial (IA) en la educación superior, proponiendo su integración dentro de los programas ya existentes de alfabetización mediática e informacional (MIL, por sus siglas en inglés). Según la autora, esta aproximación es viable porque ambas áreas comparten elementos comunes, como las técnicas de búsqueda, la evaluación crítica de información y el uso responsable de recursos informativos. La integración de componentes de IA enriquecería estos programas, actualizándolos para abordar las necesidades de una era tecnológica.

Ndungu argumenta que el currículo de MIL debe modernizarse incorporando conceptos específicos de IA, como la alfabetización en algoritmos, la comprensión de datos, la ética en el uso de IA y el reconocimiento de las limitaciones inherentes a estas tecnologías. Esto no solo mejoraría la alfabetización digital de los estudiantes, sino que también los capacitaría para evaluar de manera crítica cómo los sistemas de IA influyen en la creación y diseminación de información.

El artículo resalta que las bibliotecas universitarias son instituciones clave para implementar estos cambios, debido a su experiencia en la enseñanza de habilidades informativas y tecnológicas. No obstante, para asumir este papel, los bibliotecarios deberán adquirir nuevas competencias a través de cursos especializados en IA, talleres y su participación en comunidades de práctica. Ndungu cita ejemplos de bibliotecas pioneras en esta área, como las bibliotecas FIU en Florida (Green Library y Hubert Library) y el Massachusetts Library System, que ya están demostrando cómo las bibliotecas pueden liderar la alfabetización en IA en el ámbito educativo.

Además, la autora analiza cómo la alfabetización en IA puede alinearse con el Marco de Alfabetización Informacional para la Educación Superior de la ACRL (Association of College and Research Libraries). Sugiere prácticas de conocimiento y disposiciones específicas relacionadas con la IA que podrían integrarse en los marcos existentes. Estos incluyen habilidades como el análisis crítico de algoritmos y datos, la comprensión de los impactos éticos de las decisiones automatizadas y el uso responsable de la tecnología.

Finalmente, Ndungu concluye con un llamado urgente a los bibliotecarios y a las instituciones de educación superior para que lideren esta transformación educativa. La autora insiste en que la actualización de los programas de MIL para incluir alfabetización en IA no es solo una oportunidad, sino una necesidad imperante para preparar a los estudiantes frente a los retos y oportunidades que presenta la sociedad contemporánea impulsada por la inteligencia artificial.

El futuro de la investigación en recuperación de información en la era de la IA generativa

Computing Community Consortium (CCC). Future of Information Retrieval Research in the Age of Generative AI CCC Visioning Workshop. Accessed December 5, 2024. https://cra.org/ccc/events/future-of-information-retrieval-research-in-the-age-of-generative-ai-ccc-visioning-workshop/.

El informe Future of Information Retrieval Research in the Age of Generative AI fue elaborado por destacados investigadores, incluyendo James Allan, Eunsol Choi, Daniel P. Lopresti y Hamed Zamani, bajo el auspicio del Computing Community Consortium (CCC). Publicado en diciembre de 2024, explora cómo los modelos de lenguaje generativo (LLMs) están redefiniendo la recuperación de información (IR) y establece una hoja de ruta para el desarrollo futuro en este campo.

Se basa en un taller de visión celebrado en julio de 2024, que reunió a 44 expertos de diversas disciplinas como IR, procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA). El propósito fue analizar cómo la integración de tecnologías generativas podría transformar las interacciones de los usuarios con sistemas de información y cuáles serían los retos y oportunidades.

Durante el taller, se emplearon técnicas colaborativas inspiradas en las reglas de IDEO para fomentar ideas innovadoras y estructuradas. Los participantes debatieron en ocho sesiones temáticas, las cuales identificaron las principales direcciones de investigación necesarias para aprovechar el potencial de los sistemas IR-GenAI.

El informe identifica ocho áreas prioritarias:

  1. Evaluación de sistemas IR-GenAI: diseñar métricas y metodologías que capturen las capacidades únicas de los modelos generativos.
  2. Aprendizaje del feedback humano: integrar retroalimentación implícita y explícita para resolver problemas complejos que requieran razonamiento.
  3. Modelado de usuarios: entender cómo evolucionan las necesidades de los usuarios en sistemas de acceso a información potenciados por IA generativa.
  4. Cuestiones socio-técnicas: abordar los impactos éticos y sociales que surgen con estas tecnologías.
  5. Sistemas personalizados: desarrollar métodos que adapten los resultados de IR-GenAI a las necesidades individuales.
  6. Eficiencia y escalabilidad: optimizar el uso de recursos computacionales, datos y esfuerzos humanos.
  7. IR para mejorar agentes de IA: integrar técnicas de recuperación de información en agentes inteligentes.
  8. Modelos fundacionales para acceso a la información: diseñar modelos específicamente enfocados en la recuperación y descubrimiento de información.

En conclusión, el informe ofrece un resumen de las discusiones y sugiere acciones concretas para académicos, profesionales de la industria, campañas de evaluación y agencias de financiamiento. Se destaca la necesidad de colaboración interdisciplinaria y de crear tecnologías inclusivas que maximicen los beneficios de la IA generativa para la recuperación de información.

Este documento no solo proporciona una visión del futuro de IR, sino también un marco para avanzar en investigaciones y aplicaciones prácticas en la intersección de IA y recuperación de información.

Inteligencia Artificial y Democracia

Artificial Intelligence and Democracy. UNESCO Office Montevideo and Regional Bureau for Science in Latin America and the Caribbean, Consejo Latinoamericano de Ciencias Sociales, UNESCO 2024. MTD/SHS/2024/PI/01 Rev. https://creativecommons.org/licenses/by-sa/3.0/igo/.

La Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial, adoptada por todos los Estados miembros en noviembre de 2021, es el primer marco de política global para la inteligencia artificial (IA). Esta recomendación aborda los diversos aspectos de esta tecnología que afectan directamente la vida política, especialmente sus implicaciones para la democracia.

El informe, basado en las recomendaciones y principios fundamentales de la Recomendación de la UNESCO, examina el impacto actual y potencial de la IA sobre la democracia, y los beneficios que tanto la IA como la digitalización pueden traer para mejorar los procesos de toma de decisiones colectivas. La estructura del análisis se divide en cuatro temas clave:

  1. Las expectativas y decepciones democráticas de la digitalización: Se exploran las demandas sociales y expectativas sobre cómo la digitalización impacta la democracia, basándose en el discurso reciente de expertos y el público en general.
  2. El nuevo espacio público digital: la conversación democrática: La democracia necesita una conversación social de calidad y un espacio público que mantenga ciertas características esenciales para su supervivencia. El informe evalúa las cualidades necesarias para un diálogo efectivo en el ámbito digital y propone medidas para mejorarlo.
  3. La democracia de los datos: la política de los Big Data: Se analizan los elementos que influirán en la política pública en este siglo, como los sistemas automatizados e inteligentes, la tecnología integrada y la sociedad cuantificada, abordando las implicaciones políticas y democráticas de los Big Data.
  4. La democracia como forma de toma de decisiones políticas: gobernanza algorítmica: Este tema explora la compatibilidad de los sistemas automáticos de toma de decisiones con los principios regulatorios de la gobernanza democrática. El informe destaca los desafíos y problemas que plantea la gobernanza algorítmica para la democracia.

Finalmente, el informe ofrece recomendaciones para una gobernanza democrática de la IA, con el objetivo de mitigar los impactos negativos y promover un enfoque más democrático en la regulación de la inteligencia artificial.

Impacto de la Inteligencia Artificial en la industria del audiolibro

Impact of Artificial Intelligence in the audiobook industry. Cap. 10 de Frankfurt Audio Whitepaper 2024 in cooperation with Dosdoce.com, 2024

Texto completo

La inteligencia artificial está remodelando la industria de los audiolibros, ofreciendo nuevas oportunidades y eficiencia en la producción, pero también creando dilemas en términos de calidad y derechos de propiedad intelectual que deberán resolverse a medida que la tecnología se desarrolla.

La inteligencia artificial (IA) ha experimentado una evolución vertiginosa en los últimos años, transformando diversas industrias, incluida la editorial. Aunque la IA no es un concepto nuevo, su uso generalizado y las tecnologías asociadas, como el «big data» y el aumento de la potencia computacional, han abierto nuevas posibilidades en la creación, distribución y consumo de contenido. En particular, la industria de los audiolibros está siendo impactada de manera significativa por estas innovaciones.

Cambios en la producción y creación de contenido

La IA está facilitando la creación de contenido en diversas formas, desde artículos hasta obras de ficción. En el contexto de los audiolibros, la IA se está utilizando para generar narraciones mediante tecnología de voz sintética, lo que ha permitido la creación de audiolibros de manera más rápida y económica. Amazon, por ejemplo, lanzó una plataforma para que los autores de KDP puedan crear versiones en audiolibro de sus eBooks utilizando voces virtuales, lo que ha llevado a una producción masiva de títulos en poco tiempo. Según Bloomberg, en seis meses se han producido más de 40,000 audiolibros con narración por IA, y si esta tendencia continúa, para finales de 2024 habrá más audiolibros creados por IA que por narradores humanos.

La IA también está ayudando a mejorar la eficiencia en la producción, desde la edición hasta la creación de guiones y contenido original. Empresas como EARS están centralizando los recursos de producción de audio en una plataforma basada en la nube, lo que permite a los editores reducir costos y tiempos de producción, optimizando el uso de recursos internos y externos. Además, se está incrementando la personalización del contenido, permitiendo la creación de materiales de marketing más segmentados y eficientes, como newsletters o anuncios dirigidos a públicos específicos, lo cual mejora la captación de audiencias.

IA en la personalización y marketing

En términos de marketing, la IA ofrece herramientas poderosas para entender mejor los comportamientos de los consumidores y crear campañas altamente personalizadas. Plataformas como Podimo están utilizando IA para adaptar el contenido de los audiolibros a los gustos específicos de los oyentes, mejorando la experiencia del usuario y reduciendo las tasas de abandono (churn rate). A través de una mayor comprensión de las preferencias de cada usuario, estas plataformas pueden ofrecer una experiencia más personalizada y, por lo tanto, aumentar la diversidad del contenido disponible.

En cuanto a la búsqueda de contenido, Audible ha implementado una función de búsqueda basada en IA, que permite a los usuarios encontrar audiolibros a partir de un lenguaje natural, mejorando la accesibilidad y la interacción del usuario con la plataforma.

Desafíos y oportunidades

Sin embargo, la adopción de IA no está exenta de desafíos. A pesar de que la IA ha hecho que la producción de audiolibros sea más accesible y asequible, aún existen preocupaciones sobre la calidad de la narración, especialmente cuando se trata de emociones y matices en la voz humana. Expertos como Liza Faja, directora de Editions Lizzie, sugieren que, aunque la IA puede facilitar la producción, los audiolibros narrados por humanos seguirán siendo esenciales en ciertos géneros, como la ficción, debido a la capacidad única de las voces humanas para transmitir emociones y sutilezas.

Además, el uso de la IA plantea problemas en torno a los derechos de autor y la propiedad intelectual. Maribel Riaza, experta en la historia de la lectura oral, señala que tecnologías como las aplicaciones de texto a voz, que permiten convertir documentos digitales en audiolibros, podrían generar conflictos sobre la compensación económica para los autores y los titulares de derechos. La posibilidad de que los usuarios suban documentos a plataformas y los conviertan en contenido de audio sin el consentimiento de los propietarios de los derechos podría crear un vacío legal que, en el futuro, se deberá abordar con medidas de protección tecnológica.

El futuro de la IA en los audiolibros

El impacto de la IA en los audiolibros es innegable, pero aún está evolucionando. La tecnología puede ser una herramienta poderosa para la industria editorial, pero, como mencionan expertos como Amanda D’Acierno, presidenta de PRH Audio, la combinación de IA y narración humana es probable que continúe siendo la fórmula ganadora en la creación de audiolibros. Las capacidades de IA en la producción y el marketing están revolucionando el sector, pero la calidad humana sigue siendo crucial, especialmente para aquellos audiolibros que buscan una conexión emocional profunda con los oyentes.

Este panorama está abriendo nuevas oportunidades de negocio, pero también presentando desafíos que la industria tendrá que enfrentar, desde la gestión de derechos de autor hasta la mejora de la experiencia auditiva. A medida que la tecnología sigue avanzando, se espera que la IA continúe desempeñando un papel central en la transformación del mercado de los audiolibros, creando un entorno competitivo y dinámico que podría redefinir el futuro de los contenidos digitales.

¿Navegar con IA o hundirse con IA? Análisis de verbos de títulos de artículos de investigación sospechosos de contener contenidos generados/asistidos por IA

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content.» Learned Publishing, publicado por primera vez el 1 de diciembre de 2024. https://doi.org/10.1002/leap.1647.



El estudio examina cómo la inteligencia artificial generativa (IA), como ChatGPT, puede estar influyendo en el lenguaje de los títulos de artículos académicos. Analizando 15 verbos seleccionados en títulos extraídos de SCOPUS (2015-2024), se detectó un incremento notable de ciertos términos asociados con IA. Los hallazgos sugieren que estas herramientas afectan la escritura científica, especialmente en disciplinas específicas. Se subraya la importancia de establecer estándares para el uso de IA en publicaciones académicas y se plantea la necesidad de más investigaciones para ampliar el análisis lingüístico.

Se analizaron cómo la aparición frecuente del verbo «navigating» en títulos académicos revisados en 2023 despertando sospechas sobre la influencia de herramientas de inteligencia artificial generativa (IA). Lo cual motivó una investigación que conecta los avances en modelos de lenguaje como ChatGPT con cambios en la redacción científica, particularmente en los títulos. Los resultados de la misma sugieren que la IA está transformando los métodos de escritura académica, aunque la detección de su uso sigue siendo un desafío. Los títulos, clave en la visibilidad y selección editorial, se examinan como indicadores de esta influencia emergente.

El estudio buscaba entender cómo la IA está transformando la comunicación científica, para ello se analizaron los verbos de acción en títulos de artículos científicos para identificar patrones que sugieran contenido generado o asistido por IA, especialmente ChatGPT. Sus objetivos incluyen:

  1. Identificar verbos recurrentes indicativos de IA generativa.
  2. Analizar tendencias en el uso de estos verbos durante la última década.
  3. Examinar características de documentos con títulos sospechosos.
  4. Cuantificar manuscritos asistidos por IA, estimando su impacto en la redacción académica.

La metodología del estudio se desarrolló en dos pasos principales:

  1. Identificación de verbos sospechosos: Se analizaron verbos presentes en títulos generados por ChatGPT usando resúmenes de artículos recientes en cuatro disciplinas. Esto resultó en una lista de 25 verbos potencialmente indicativos de contenido asistido por IA, basándose en aumentos significativos en su uso desde 2023 en títulos indexados en SCOPUS.
  2. Análisis bibliométrico: Se examinaron tendencias de uso y características de manuscritos con estos verbos en bases como SCOPUS y DOAJ, proyectando datos de 2024 para evaluar patrones lingüísticos relacionados con la IA.

El estudio identificó 15 verbos con un notable aumento de uso en títulos de manuscritos entre 2023 y 2024, lo que sugiere una posible influencia de herramientas de IA como ChatGPT. Verbos como revolutionizing y unleashing mostraron tasas de crecimiento anual (YoYG) superiores al 100%, mientras que otros como exploring y bridging presentaron incrementos más moderados. Estos datos, obtenidos de SCOPUS, revelan un patrón de crecimiento en el uso de términos asociados con innovación y descubrimiento, correlacionado con la creciente adopción de tecnologías de IA.

El análisis de títulos en SCOPUS mostró un aumento significativo en el uso de verbos asociados con IA, con 165.087 documentos estimados para 2024 que contienen al menos uno de los 15 verbos analizados. Este incremento es más notable en categorías como ‘Letters’ y ‘Review’, lo que sugiere una creciente dependencia de herramientas de IA para redactar comunicaciones rápidas y revisiones literarias. Además, se observó un aumento del 144.5% en el uso de IA en países no anglófonos, mientras que en los países de habla inglesa fue del 59.8%.



Para estimar el número de títulos generados o asistidos por IA, se siguieron tres pasos: calcular el crecimiento interanual (YoYG) promedio de 2016 a 2022, estimar el YoYG para 2023-2024 según esa media, y calcular la diferencia entre esta estimación y los datos reales para determinar los títulos potencialmente generados por IA. Se observó un aumento notable de títulos sospechosos de ser asistidos por IA en SCOPUS, con un total de 63.780 títulos en dos años, destacando verbos como “Enhancing” y “Exploring” en el lenguaje académico.

Desarrollo ético de las plataformas de IA

O’Donnell, James. «We Need to Start Wrestling with the Ethics of AI AgentsMIT Technology Review, November 26, 2024. https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/.



Se analiza los retos éticos de las plataformas de IA, capaces de realizar tareas complejas y simular comportamientos humanos con precisión. Estas tecnologías plantean preocupaciones sobre la privacidad, los deepfakes y la transparencia en las interacciones con usuarios. Abordar estas cuestiones es clave antes de su adopción masiva.

Actualmente, las plataformas de IA se dividen en dos tipos principales: las plataformas basadas en herramientas, que ejecutan tareas digitales específicas como rellenar formularios o buscar información, y las plataformas de simulación, capaces de imitar personalidades humanas con notable precisión. Estas últimas surgieron inicialmente en investigaciones sociales para realizar estudios difíciles o poco éticos con participantes reales.

El desarrollo reciente de estas plataformas ha alcanzado niveles impresionantes, como lo demuestra un estudio de 2024 donde se crearon simulaciones precisas de las preferencias y valoraciones de mil personas tras entrevistas de dos horas. Esta convergencia entre ambos tipos de plataformas plantea escenarios en los que la IA no solo puede imitar la personalidad de un individuo, sino también actuar en su nombre. Empresas como Tavus ya trabajan en «gemelos digitales» que podrían desempeñar roles como terapeutas, médicos o profesores.

Sin embargo, este avance trae consigo preocupaciones éticas. Por un lado, la facilidad para replicar voces, comportamientos y personalidades podría agravar problemas como los deepfakes dañinos o el uso no consensuado de datos personales. Por otro lado, surge la pregunta de si las personas tienen derecho a saber si están interactuando con una IA o con un ser humano. Estas cuestiones son especialmente relevantes en contextos como el servicio al cliente, donde los límites entre humanos y máquinas se difuminan.

El autor subraya que, aunque esta tecnología aún está en desarrollo, no está tan lejos como podría parecer. Es crucial abordar estos dilemas éticos de manera anticipada, dado que las implicaciones sociales y personales podrían ser profundas y disruptivas.

¿Qué es la Inteligencia Artificial abierta?

Widder, David Gray, Meredith Whittaker, y Sarah Myers West. «Why ‘Open’ AI Systems Are Actually Closed, and Why This Matters». Nature 635, n.o 8040 (noviembre de 2024): 827-33. https://doi.org/10.1038/s41586-024-08141-1.

La «apertura» en IA se define frecuentemente de manera vaga, lo que facilita que compañías multinacionales utilicen esta narrativa para sus propios fines. Algunas empresas argumentan que la IA abierta fomenta la innovación y la democracia, mientras que otras sostienen que representa riesgos de seguridad. Este uso contradictorio del término destaca la necesidad de definirlo con mayor rigor en los debates sobre políticas tecnológicas.

La IA abierta debe cumplir con tres características principales: transparencia, reusabilidad y extensibilidad. La transparencia permite el acceso a modelos y datos, lo que facilita auditorías y supervisión. La reusabilidad promueve la adaptación y mejora de los modelos existentes, mientras que la extensibilidad posibilita la construcción de nuevas aplicaciones sobre sistemas ya desarrollados.

Sin embargo, estas ventajas no son suficientes para resolver el problema central de la concentración de poder. A pesar de estas oportunidades, los recursos clave que impulsan la IA, como datos masivos, talento especializado y capacidad computacional, siguen estando monopolizados por un pequeño grupo de grandes corporaciones tecnológicas. Esto significa que, aunque los sistemas abiertos permiten cierta supervisión y experimentación, no logran democratizar el acceso a las herramientas y beneficios de la IA de manera efectiva.

El análisis de los autores destaca cómo la narrativa de apertura en IA ha sido utilizada para consolidar el poder de los gigantes tecnológicos, en lugar de redistribuirlo. Comparan este fenómeno con la cooptación de proyectos de software libre por parte de grandes empresas en el pasado. En ambos casos, los principios originales de apertura y colaboración se ven desplazados por estrategias que favorecen a las empresas con mayores recursos. En el contexto de la IA, estas dinámicas se agravan debido a la complejidad técnica y los altos costos asociados con el desarrollo y mantenimiento de modelos avanzados.

Los autores subrayan que esta concentración de poder tiene implicaciones profundas para la innovación, la equidad y la transparencia. Mientras unas pocas empresas controlen los datos, las infraestructuras computacionales y el talento necesario para desarrollar IA, será difícil garantizar que los beneficios de estas tecnologías se distribuyan de manera equitativa. Además, la centralización del poder en el sector tecnológico aumenta el riesgo de que estas empresas ejerzan una influencia desproporcionada sobre la formulación de políticas y la dirección futura del desarrollo de la IA.

El artículo también analiza cómo la retórica de la «apertura» se utiliza estratégicamente para legitimar el dominio de las grandes empresas tecnológicas. Al enmarcar sus iniciativas como abiertas y accesibles, estas compañías pueden presentarse como actores benevolentes y progresistas, mientras refuerzan sus propias posiciones de poder. Según los autores, esto permite que las empresas implementen una supervisión superficial y simbólica, sin abordar los problemas estructurales que perpetúan la concentración de recursos y control.

En su conclusión, los autores instan a redefinir el concepto de apertura en IA para hacerlo más significativo y efectivo. Proponen que las políticas relacionadas con la IA deben centrarse no solo en la transparencia, la reusabilidad y la extensibilidad, sino también en abordar las desigualdades estructurales en el acceso a datos, infraestructura y talento. Esto implica crear regulaciones más estrictas para garantizar que los beneficios de la IA no se limiten a un pequeño grupo de actores privilegiados.

Asimismo, el artículo subraya la necesidad de un enfoque más crítico y materialista en el análisis de las políticas de IA. Esto significa examinar las dinámicas de poder subyacentes en el desarrollo y la implementación de estas tecnologías, en lugar de aceptar de manera acrítica las narrativas de apertura promovidas por las grandes empresas.