Archivo de la etiqueta: Inteligencia artificial

Políticas sobre chatbots de inteligencia artificial entre editoriales científicas: una auditoría transversal

Bhavsar, Daivat, Laura Duffy, Hamin Jo, Cynthia Lokker, R. Brian Haynes, Alfonso Iorio, Ana Marusic, y Jeremy Y. Ng. 2024. «Policies on Artificial Intelligence Chatbots Among Academic Publishers: A Cross-Sectional Audit». medRxiv. https://doi.org/10.1101/2024.06.19.24309148.


El estudio auditó las políticas de 163 editoriales académicas en relación con el uso de chatbots de inteligencia artificial (IA) por parte de autores, enfocándose en editoriales de ciencia, tecnología y medicina. De las editoriales evaluadas, solo 56 (34,4%) tenían políticas públicas sobre el uso de chatbots de IA. Ninguna permitía que los chatbots fueran acreditados como autores. La mayoría (87,5%) requería que se revelara el uso de IA en el proceso de redacción. Cuatro editoriales prohibieron completamente el uso de estas herramientas. El estudio sugiere que en el futuro podría haber un aumento en la adopción de políticas sobre IA por parte de las editoriales académicas.

ElementoResultado
Total de editoriales auditadas163
Editoriales con políticas públicas sobre el uso de chatbots de IA56 (34,4%)
Políticas que permiten acreditación de autoría para chatbots de IA0 (0%)
Políticas que requieren divulgación del uso de chatbots de IA49/56 (87,5%)
Editoriales que prohíben completamente el uso de chatbots de IA4 (2,5%)
Periodo de análisisSeptiembre 2023 – Diciembre 2023

Avanzando en la frontera de la búsqueda con agentes de IA

«Advancing the Search Frontier with AI Agents – Communications of the ACM», 20 de agosto de 2024. https://cacm.acm.org/research/advancing-the-search-frontier-with-ai-agents/.

Como muchos en la comunidad de investigación de recuperación de información (IR) reconocen, la búsqueda sigue siendo un problema no resuelto. Millones de personas enfrentan dificultades diarias con las tareas en los motores de búsqueda. Estas dificultades suelen derivarse de la complejidad inherente de las tareas y de la incapacidad de los sistemas de búsqueda para comprenderlas plenamente y ofrecer resultados pertinentes. La tarea misma es lo que motiva la búsqueda, crea el problema que los usuarios intentan resolver, y guía su comportamiento a medida que exploran las diferentes facetas de la tarea.

Las tareas de búsqueda complejas requieren más que un apoyo básico para encontrar o recuperar información. La investigación en métodos para apoyar estas tareas incluye trabajos sobre la generación de sugerencias de consultas y sitios web, la personalización y contextualización de la búsqueda, y el desarrollo de nuevas experiencias de búsqueda que abarcan tanto el tiempo como el espacio. La reciente aparición de la inteligencia artificial generativa y la llegada de agentes asistidos por esta tecnología tienen el potencial de ofrecer una mayor asistencia a los usuarios, especialmente a aquellos que enfrentan tareas complejas. Estos avances tienen implicaciones profundas para el diseño de sistemas inteligentes y para el futuro de la búsqueda en sí misma.

Este artículo, basado en una ponencia presentada por el autor en la conferencia ACM SIGIR 2023, explora estas cuestiones y cómo los agentes de IA están expandiendo las fronteras de las capacidades de los sistemas de búsqueda, con un enfoque particular en la interacción con la información y la realización de tareas complejas.

La búsqueda sigue siendo un desafío sin resolver, ya que millones de personas se enfrentan diariamente a tareas complejas en los motores de búsqueda web. La aparición de la IA generativa y los agentes de asistencia basados en esta tecnología prometen revolucionar la realización de tareas, ayudando a los usuarios a navegar y resolver problemas de búsqueda complejos. Estos avances presentan tanto desafíos como oportunidades extraordinarias para redefinir el acceso a la información y su uso, impulsando la búsqueda hacia nuevos horizontes.

Recomendación sobre la ética de la inteligencia artificial

Recomendación sobre la ética de la inteligencia artificial. UNESCO, 2024

Texto completo



En la 41ª reunión de la Conferencia General de la UNESCO, celebrada en París en noviembre de 2021, se aprobó una Recomendación sobre la Ética de la Inteligencia Artificial (IA). Reconociendo tanto los beneficios como los riesgos de la IA en diversas áreas como la educación, la cultura y el medio ambiente, la UNESCO subraya la importancia de un enfoque ético y basado en derechos humanos para el desarrollo de estas tecnologías. La Recomendación insta a los Estados Miembros a adoptar medidas, en colaboración con todas las partes interesadas, para garantizar un uso responsable y ético de la IA, respetando la diversidad cultural y los valores locales.

Inteligencia artificial y democracia

Inteligencia artificial y democracia. UNESCO, 2024

Texto completo

El informe basado en la «Recomendación sobre la ética de la inteligencia artificial» de la UNESCO, aprobada en noviembre de 2021, analiza el impacto de la inteligencia artificial (IA) en la democracia. El documento se centra en cuatro áreas clave:

  1. Expectativas y decepciones democráticas de la digitalización: Se exploran las demandas sociales sobre el impacto de la digitalización en la democracia, así como las expectativas generadas en los últimos años.
  2. Nuevo espacio público digital y la conversación democrática: Se examina cómo la democracia depende de una conversación social de calidad y de un espacio público adecuado. Se identifican problemas en el entorno digital y se sugieren medidas para mejorar la conversación democrática.
  3. Democracia de los datos y la política del big data: Se discute el impacto de los sistemas automatizados, la tecnología interoperable y la cuantificación de la sociedad en la política. El informe cuestiona críticamente la dimensión política y democrática del big data.
  4. Democracia y gobernanza algorítmica: Se analiza la compatibilidad de los sistemas automáticos de decisión con los principios democráticos. Se abordan los desafíos que plantea la gobernanza algorítmica y se proponen condiciones para asegurar su compatibilidad con los valores democráticos.

Finalmente, se presentan recomendaciones para una gobernanza democrática de la inteligencia artificial, buscando mitigar impactos negativos y promover una gobernanza más democrática de la IA.

Guía para el uso de IA generativa en educación e investigación

UNESCO. «Guía para el uso de IA generativa en educación e investigación», UNESCO 2024. https://unesdoc.unesco.org/ark:/48223/pf0000389227.

El documento describe cómo las herramientas de Inteligencia Artificial Generativa (IAGen) están avanzando rápidamente, superando la capacidad de adaptación de los marcos regulatorios nacionales. Esta situación plantea riesgos para la privacidad de los datos de los usuarios y deja a las instituciones educativas mal preparadas para validar estas herramientas. La UNESCO ha emitido una guía global para apoyar a los países en la implementación de acciones inmediatas, el desarrollo de políticas a largo plazo y la construcción de capacidades humanas, con un enfoque en la protección de valores humanísticos como la inclusión, la equidad y la diversidad.

La guía propone que los gobiernos regulen el uso de IAGen, protejan la privacidad de los datos y consideren establecer límites de edad para su uso. Además, establece requisitos para que los proveedores de IAGen garanticen un uso ético y efectivo en la educación. También se subraya la importancia de que las instituciones educativas validen la idoneidad ética y pedagógica de estas herramientas. Finalmente, la guía ofrece recomendaciones para diseñar el uso de IAGen en la educación, asegurando que estas herramientas realmente beneficien a los estudiantes, aprendices e investigadores, y protejan la intervención humana en el proceso educativo.


Informática inteligente para el patrimonio cultural

Wang, Xiaoguang, Marcia Lei Zeng, Jin Gao, y Ke Zhao, eds. Intelligent Computing for Cultural Heritage : Global Achievements and China’s Innovations. Taylor & Francis, 2025. https://directory.doabooks.org/handle/20.500.12854/140416.

Este libro ofrece una perspectiva global sobre los últimos avances y tendencias en las humanidades digitales y la computación inteligente aplicada al patrimonio cultural. Editado por Xiaoguang Wang, Marcia Lei Zeng, Jin Gao y Ke Zhao, el volumen reúne investigaciones académicas y estudios de caso de instituciones culturales de diversas regiones, como Asia, Europa, África, América del Norte y Australia.

El texto destaca enfoques innovadores y estudios de caso relacionados con los datos de humanidades y métodos digitales. Se enfoca especialmente en la investigación y pedagogía de las humanidades digitales, así como en la organización y preservación del patrimonio cultural, con énfasis en el desarrollo de repositorios de conocimiento digital y métodos de inteligencia digital en el patrimonio cultural.

Cada estudio de caso presenta características culturales y contextos académicos únicos, lo que da lugar a prioridades y direcciones temáticas diversas. Sin embargo, esta diversidad también puede generar desequilibrios y aislamiento en el campo. El libro proporciona valiosos conocimientos sobre las tendencias complejas en el desarrollo de las humanidades digitales, mostrando contribuciones globales de académicos e instituciones.

Este título está dirigido a investigadores y estudiantes de humanidades digitales y ciencias de la información, especialmente aquellos interesados en la gestión del patrimonio y la computación inteligente. También será de gran interés para profesionales que trabajan en la intersección de la tecnología y el patrimonio cultural.


Cómo pueden utilizarse los chatbots de inteligencia artificial para mejorar la investigación científica

Pividori, Milton. «Chatbots in Science: What Can ChatGPT Do for You?» Nature, 14 de agosto de 2024. https://doi.org/10.1038/d41586-024-02630-z.

El artículo de Milton Pividori explora cómo los chatbots de inteligencia artificial, como ChatGPT, pueden ser utilizados para mejorar la investigación científica. A lo largo de 18 meses, su equipo se dedicó a estudiar cómo integrar esta tecnología en tareas diarias como revisiones de literatura, redacción de textos académicos y programación, con el objetivo de aumentar la productividad y mejorar la calidad de la ciencia.

Milton Pividori, un investigador financiado por organizaciones sin fines de lucro como la Fundación Alfred P. Sloan y la Iniciativa Chan Zuckerberg, ha dedicado 18 meses a explorar cómo ChatGPT, un chatbot de inteligencia artificial (IA) basado en un modelo de lenguaje de gran escala, puede ser utilizado para mejorar la investigación científica. Desde su lanzamiento en noviembre de 2022, ChatGPT ha captado la atención mundial por su capacidad para responder preguntas complejas, redactar ensayos sofisticados y generar código fuente. Pividori y su equipo se han centrado en integrar esta tecnología en tareas cotidianas de la investigación, como la revisión de literatura, la redacción de textos académicos y la programación de código, con el objetivo de mejorar la productividad y la calidad del trabajo científico.

Una de las lecciones clave que Pividori destaca es la importancia de la ingeniería de prompts, es decir, la forma en que se formulan las preguntas o comandos para interactuar con el chatbot. Un buen prompt debe ser claro y específico, detallando exactamente lo que se espera que el modelo haga. Esto incluye pedir al chatbot que asuma un rol específico, como el de un editor profesional, y proporcionar ejemplos claros de lo que se espera en la respuesta. Según Pividori, la capacidad de un chatbot para proporcionar resultados útiles depende en gran medida de la calidad de los prompts que recibe.

Otra lección importante es la necesidad de identificar qué tareas son adecuadas para delegar en un chatbot y cuáles no. Pividori señala que no todas las fases del trabajo científico son aptas para ser manejadas por una IA. Por ejemplo, en la etapa inicial de revisión de literatura, donde se requiere creatividad y pensamiento crítico para formular preguntas de investigación y analizar profundamente los artículos, es esencial que los investigadores participen activamente. Sin embargo, una vez que se ha definido el marco de investigación y se necesita realizar tareas más rutinarias o menos críticas, como resumir artículos menos relevantes, los chatbots pueden ser de gran ayuda.

Además, Pividori argumenta que utilizar chatbots para escribir es menos riesgoso que utilizarlos para leer y analizar textos científicos. Al redactar, el investigador mantiene control sobre el resultado final y puede corregir errores o «alucinaciones» del modelo. En contraste, al confiar en un chatbot para leer y resumir un artículo, se corre el riesgo de que se omitan detalles importantes o se interpreten mal los datos. Pividori sugiere un enfoque en el que el investigador escriba primero el texto y luego use el chatbot para revisar y mejorar la redacción, aplicando reglas específicas para la estructura de manuscritos científicos. Este enfoque permite mantener un alto nivel de precisión y control sobre el contenido generado.

En conclusión, aunque los chatbots como ChatGPT tienen un gran potencial para aumentar la eficiencia en la investigación científica, es crucial entender sus limitaciones y utilizarlos de manera estratégica. Los investigadores deben identificar cuidadosamente qué tareas pueden delegarse a la IA y cuáles requieren la intervención directa y el juicio creativo del ser humano. Al hacerlo, es posible aprovechar lo mejor de ambos mundos: la capacidad de procesamiento y automatización de la IA y la creatividad y el pensamiento crítico humanos.

 “AI Scientist” de Sakana AI investiga de forma autónoma desafiando las normas científicas

AI, Sakana. «Sakana AI The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery», 13 de agosto de 2024. https://sakana.ai/.

AI Scientist” es el primer sistema integral para la investigación científica completamente automática. Este sistema permite que los Modelos de Lenguaje Grande (LLMs) realicen investigaciones de manera independiente.

Uno de los grandes desafíos de la inteligencia artificial es desarrollar agentes capaces de realizar investigaciones científicas y descubrir nuevo conocimiento. Aunque los modelos actuales ya ayudan a los científicos humanos en tareas como generar ideas o escribir código, aún requieren mucha supervisión y están limitados a tareas específicas.

Sakana AI, junto con científicos de las universidades de Oxford y British Columbia, ha desarrollado un sistema de inteligencia artificial llamado “AI Scientist”. Este innovador sistema es capaz de realizar investigaciones científicas de manera autónoma, cubriendo todo el proceso de investigación, desde la generación de ideas hasta la elaboración de manuscritos científicos completos.

“AI Scientist” automatiza diversas etapas, como la creación y evaluación de nuevas ideas, la ejecución de experimentos, la recopilación de datos y la redacción de informes científicos. Sin embargo, este avance también suscita preguntas importantes sobre el rol futuro de los científicos humanos. Aunque la IA es eficaz en el procesamiento de grandes cantidades de datos y en la identificación de patrones, la intuición, creatividad y juicio ético humanos continúan siendo indispensables.

Este proceso incluye:

  1. Generación de Ideas: El Científico de IA «brainstormea» nuevas direcciones de investigación, basándose en un código inicial y en búsquedas en Semantic Scholar para asegurar la novedad de las ideas.
  2. Iteración Experimental: Ejecuta los experimentos propuestos, produce gráficos y notas que se usan en la redacción del artículo.
  3. Redacción del Artículo: Redacta un informe conciso y claro en LaTeX, citando autonomamente artículos relevantes.
  4. Revisión Automatizada de Artículos: Desarrolla un revisor automático basado en LLM que evalúa los artículos con una precisión casi humana, mejorando continuamente la producción científica del sistema.

Pese a su potencial, “AI Scientist” tiene varias limitaciones. No es capaz de hacer preguntas a los autores ni de interpretar figuras, y frecuentemente genera propuestas similares en diferentes ejecuciones. Además, puede fallar en la implementación de ideas y presenta desafíos en aspectos visuales y de citación. Los resultados producidos deben considerarse como sugerencias para futuras investigaciones más que como ciencia definitiva.

“AI Scientist” abre una caja de Pandora de nuevos problemas, aunque el informe completo discute estos temas en mayor detalle. Entre los problemas clave se encuentran las consideraciones éticas y el impacto potencial en el proceso académico. Aunque “AI Scientist” puede ser una herramienta útil para los investigadores, su capacidad para crear y enviar automáticamente artículos puede aumentar significativamente la carga de trabajo de los revisores y tensar el proceso académico, afectando el control de calidad científica. Esto es similar a las preocupaciones en torno a la IA generativa en otras aplicaciones, como la generación de imágenes.

Además, el Revisor Automatizado, si se despliega en línea, podría reducir significativamente la calidad de las revisiones e imponer sesgos indeseables en los artículos. Por ello, es fundamental que los artículos y revisiones generados por IA sean identificados como tales para asegurar la transparencia total.

Como con muchas tecnologías anteriores, “AI Scientist” tiene el potencial de ser utilizado de manera poco ética. Por ejemplo, podría realizar investigaciones no éticas o peligrosas si se le da acceso a laboratorios virtuales para realizar experimentos biológicos. Esto podría dar lugar a la creación de virus o sustancias tóxicas antes de que se detecten los riesgos. Del mismo modo, podría desarrollar virus informáticos peligrosos si se le solicita crear software funcional. Estas capacidades en mejora subrayan la necesidad urgente de alinear estos sistemas con valores éticos y garantizar que exploren de manera segura.

En cuanto a los modelos utilizados, se emplearon modelos de frontera propietarios, como GPT-4o y Sonnet, pero también se exploraron modelos abiertos como DeepSeek y Llama-3. Aunque los modelos propietarios actuales producen los mejores artículos, no hay razón fundamental para que un solo modelo mantenga esta ventaja. Se espera que todos los LLMs, incluidos los modelos abiertos, continúen mejorando. La competencia entre LLMs ha llevado a su mayor disponibilidad y capacidades mejoradas, y el trabajo busca ser independiente del proveedor del modelo base. Los modelos abiertos ofrecen beneficios significativos, como menor costo, disponibilidad garantizada, mayor transparencia y flexibilidad. El objetivo es usar estos modelos en un sistema cerrado de investigación automejorado.

Finalmente, aunque se imagina un ecosistema científico completamente impulsado por IA que incluya investigadores, revisores y conferencias, no se cree que el papel del científico humano se vea disminuido. Más bien, este rol evolucionará y se adaptará a la nueva tecnología, moviéndose hacia tareas de mayor nivel.

¿Se ha utilizado un artículo tuyo para entrenar un modelo de inteligencia artificial? Casi seguro

Gibney, Elizabeth. «Has Your Paper Been Used to Train an AI Model? Almost Certainly». Nature 632, n.o 8026 (14 de agosto de 2024): 715-16. https://doi.org/10.1038/d41586-024-02599-9.

Los desarrolladores de inteligencia artificial (IA) están comprando acceso a valiosos conjuntos de datos que contienen artículos de investigación, lo que plantea incómodas preguntas sobre los derechos de autor. Las editoriales académicas están vendiendo el acceso a estos artículos a empresas tecnológicas para entrenar modelos de IA, lo que ha generado preocupación entre los investigadores, ya que estos acuerdos se realizan sin la consulta de los autores. Esto ha desencadenado un debate sobre el uso de trabajos publicados y, a veces, protegidos por derechos de autor, para entrenar la creciente cantidad de chatbots de IA en desarrollo.

Los expertos afirman que, si un artículo de investigación aún no ha sido utilizado para entrenar un gran modelo de lenguaje LLM, probablemente lo será pronto. Los investigadores están explorando métodos técnicos para que los autores puedan identificar si su contenido ha sido utilizado.

El mes pasado se reveló que la editorial académica británica Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft, permitiendo que la empresa tecnológica accediera a sus datos para mejorar sus sistemas de IA. En junio, se supo que la editorial Wiley ganó 23 millones de dólares al permitir que una empresa no identificada entrenara modelos de IA generativa con su contenido.

Lucy Lu Wang, investigadora de IA en la Universidad de Washington en Seattle, señala que cualquier cosa disponible en línea, ya sea en un repositorio de acceso abierto o no, es «muy probable» que ya haya sido utilizada para entrenar un LLM. Y si un artículo ya ha sido utilizado como datos de entrenamiento en un modelo, «no hay forma de eliminarlo» después de que el modelo haya sido entrenado, añade.

Los LLMs se entrenan con grandes volúmenes de datos, a menudo obtenidos de Internet. Estos modelos generan texto con fluidez al identificar patrones en miles de millones de fragmentos de lenguaje, conocidos como tokens, presentes en los datos de entrenamiento.

El uso de artículos académicos es valioso para los constructores de LLMs debido a su longitud y «alta densidad de información», dice Stefan Baack, quien analiza conjuntos de datos de entrenamiento de IA en la Fundación Mozilla. Entrenar modelos con una gran cantidad de información científica también les da una mejor capacidad para razonar sobre temas científicos, añade Wang, quien co-creó S2ORC, un conjunto de datos basado en 81.1 millones de artículos académicos.

Este tipo de acuerdos comerciales está en aumento. Este año, el Financial Times ofreció su contenido a OpenAI en un acuerdo lucrativo, al igual que el foro en línea Reddit con Google. Dado que las editoriales científicas probablemente ven como alternativa que su trabajo sea extraído sin un acuerdo, «creo que habrá más de estos acuerdos en el futuro», dice Wang.

Algunos desarrolladores de IA, como la Red de Inteligencia Artificial a Gran Escala, mantienen intencionadamente sus conjuntos de datos abiertos, pero muchas empresas que desarrollan modelos de IA generativa han mantenido en secreto gran parte de sus datos de entrenamiento, dice Baack. Los repositorios de acceso abierto como arXiv y la base de datos académica PubMed son fuentes «muy populares», aunque probablemente los artículos de revistas de pago han tenido sus resúmenes gratuitos extraídos por grandes empresas tecnológicas.

Probar que un LLM ha utilizado un artículo específico es difícil. Una forma es usar una oración inusual de un texto como entrada al modelo y ver si la salida coincide con las siguientes palabras en el original. Otra técnica conocida como membership inference attack mide si un modelo es más confiado cuando ve algo que ha visto antes. El equipo de De Montjoye ha desarrollado una versión de esto llamada «trampa de derechos de autor», que inserta oraciones plausibles pero sin sentido en un trabajo para rastrear si un modelo ha sido entrenado con ese contenido.

Aunque se pudiera demostrar que un LLM ha sido entrenado con un texto específico, no está claro qué pasaría después. Las editoriales sostienen que usar texto con derechos de autor en el entrenamiento sin licencia es una infracción, pero otros argumentan que los LLM no copian nada, sino que extraen información para generar nuevo texto.

En un caso judicial en curso en Estados Unidos, The New York Times está demandando a Microsoft y OpenAI por usar su contenido periodístico sin permiso para entrenar sus modelos, lo que podría sentar un precedente.

Muchos académicos están contentos de que su trabajo se incluya en los datos de entrenamiento de los LLM, especialmente si los modelos se vuelven más precisos. Sin embargo, los autores científicos tienen poco poder si las editoriales deciden vender el acceso a sus obras con derechos de autor, y no existe un mecanismo establecido para otorgar crédito o verificar si un texto ha sido utilizado.

Algunos investigadores, como De Montjoye, están frustrados. «Queremos LLMs, pero también queremos algo que sea justo, y creo que aún no hemos inventado cómo sería esto», dice.

Los bibliotecarios escolares exploran las posibilidades de ChatGPT

Yorio, Kara. «School Librarians Explore Possibilities of ChatGPT». School Library Journal. Accedido 22 de agosto de 2024. https://www.schoollibraryjournal.com/story/School-Librarians-Explore-Possibilities-of-ChatGPT.

Mientras que algunos maestros de inglés están preocupados por la confiabilidad de las tareas escritas, los bibliotecarios escolares han mostrado curiosidad sobre cómo esta tecnología puede impactar su profesión y el entorno educativo. Aunque muchos distritos escolares han prohibido el uso de ChatGPT en dispositivos escolares, los bibliotecarios, como Suzanna Panter de Tacoma, Washington, están explorando formas de utilizar la herramienta para su beneficio, como en la recomendación de libros y la asistencia en la creación de planes de lecciones.

Panter destaca que ChatGPT puede ayudar a reducir la carga de trabajo de los bibliotecarios al proporcionar recomendaciones rápidas y ajustables según las necesidades específicas de los estudiantes. Además, permite la adaptación de ideas para lecciones específicas. Malespina también utiliza ChatGPT para tareas como la planificación de publicaciones en redes sociales para el Mes de la Historia Negra.

Aunque la herramienta tiene limitaciones, como un conocimiento actualizado solo hasta 2021 y la posibilidad de errores, tanto Panter como Malespina ven un gran potencial en su uso educativo. Subrayan la importancia de que los educadores se adapten a esta nueva tecnología, en lugar de ignorarla, para mejorar la educación y abordar los desafíos que presenta.