Archivo de la etiqueta: Inteligencia artificial

Uso de grandes modelos lingüísticos como herramientas de inteligencia artificial en la investigación académica y la publicación entre los investigadores

Mishra, Tanisha, Edward Sutanto, Rini Rossanti, Nayana Pant, Anum Ashraf, Akshay Raut, Germaine Uwabareze, Ajayi Oluwatomiwa, y Bushra Zeeshan. «Use of Large Language Models as Artificial Intelligence Tools in Academic Research and Publishing Among Global Clinical ResearchersScientific Reports 14, no. 31672 (2024). https://doi.org/10.1038/s41598-024-81370-6.

El articulo explora el creciente uso de los Modelos de Lenguaje de Gran Escala (LLMs) en la investigación académica, particularmente en el ámbito clínico. Los autores analizan cómo estos modelos, como el Generative Pre-trained Transformer (GPT), están siendo empleados para tareas como la revisión de literatura, el cribado de resúmenes y la redacción de manuscritos.

El estudio se basa en una encuesta transversal aplicada a 226 investigadores médicos y paramédicos de 59 países, formados en el programa de Certificación en Investigación de Harvard Medical School entre 2020 y 2024. Los resultados muestran que el 87.6% de los encuestados estaban al tanto de los LLMs, y aquellos con mayor conocimiento tendían a tener un mayor número de publicaciones indexadas en PubMed.

Entre los encuestados conscientes de los LLMs, el 18.7% los había utilizado principalmente para corrección gramatical y formateo, aunque una proporción significativa no reconoció explícitamente su uso en sus publicaciones. La percepción general sobre el impacto futuro de los LLMs es mayormente positiva, con el 50.8% de los encuestados anticipando un impacto beneficioso en el proceso de publicación, especialmente en la corrección gramatical, revisión y edición, redacción y revisión de literatura.

El estudio también revela preocupaciones éticas, ya que el 58.1% de los encuestados opinó que las revistas deberían permitir el uso de IA en la investigación, mientras que el 78.3% cree que se deben establecer regulaciones para evitar abusos. Los autores enfatizan la necesidad de desarrollar directrices y un marco ético para gobernar el uso de la IA en la investigación académica, abordando los desafíos actuales y asegurando un uso responsable de estas herramientas avanzadas.

El papel esencial de las bibliotecas universitarias en la era de la inteligencia artificial

Alonso-Arévalo, Julio. «El papel esencial de las bibliotecas universitarias en la era de la inteligencia artificial«. Boletín de la Asociación Andaluza de Bibliotecarios, n.° 128, Julio-Diciembre 2024, pp. 190-199

Texto completo

Las bibliotecas universitarias se han transformado en centros dinámicos de conocimiento, adaptándose al impacto de la inteligencia artificial (IA) en la educación y la investigación. Estas herramientas no solo optimizan tareas como el análisis de datos o la corrección lingüística, sino que también permiten a las bibliotecas ofrecer servicios más personalizados y eficaces. Sin embargo, su implementación plantea retos éticos significativos, como el sesgo algorítmico, el riesgo de plagio y la proliferación de desinformación. Para enfrentar estos desafíos, es fundamental establecer normativas que regulen el uso de la IA en el ámbito académico, junto con estrategias de alfabetización digital que promuevan su uso responsable y crítico. Las bibliotecas deben asumir un papel proactivo como líderes educativos, organizando talleres, seminarios y capacitaciones para preparar a estudiantes e investigadores en competencias clave, como la evaluación de contenidos generados por IA y la comprensión de sus implicaciones éticas y legales

Situación actual de los agentes de Inteligencia artificial

LangChain. State of AI Agents 2024. Accedido el 17 de diciembre de 2024. https://www.langchain.com/stateofaiagents.

Los agentes de inteligencia artificial (IA) se están integrando cada vez más en las empresas para automatizar tareas, mejorar la productividad y asistir en la toma de decisiones. A pesar de su adopción creciente, las empresas enfrentan desafíos en cuanto a la calidad del rendimiento y la necesidad de controles para evitar errores. Sin embargo, el entusiasmo por los agentes de IA sigue siendo alto, con expectativas de que modelos más poderosos permitan abordar tareas aún más complejas en el futuro.

En 2024, los agentes de inteligencia artificial (IA) han alcanzado un punto de madurez significativo, dejando de ser una tecnología emergente para convertirse en una herramienta esencial en el mundo empresarial. Con el aumento de su adopción, las empresas de diversas industrias están incorporando agentes de IA en sus flujos de trabajo, desde la automatización de tareas repetitivas hasta la asistencia en la toma de decisiones complejas. Este fenómeno se ve reflejado en una encuesta realizada a más de 1,300 profesionales, que proporciona una visión detallada sobre el estado actual y los desafíos asociados con la implementación de agentes de IA.

Adopción de Agentes de IA

Un hallazgo importante de la encuesta es que el 51% de los encuestados ya está utilizando agentes de IA en producción. Además, el 78% de las empresas tiene planes activos para implementar agentes de IA en el futuro cercano. Esta alta tasa de interés refleja una tendencia creciente, especialmente entre las empresas medianas (100-2000 empleados), donde la adopción de agentes es aún mayor, alcanzando un 63%. Aunque la adopción está en aumento, la implementación de estos agentes en producción sigue siendo un desafío para muchas empresas, que todavía enfrentan barreras técnicas y de gestión.

Por otro lado, se observa que la industria tecnológica, históricamente conocida por ser una de las primeras en adoptar nuevas tecnologías, sigue siendo un actor clave en este campo. Sin embargo, la adopción de agentes de IA no se limita a las empresas tecnológicas; el 90% de los encuestados que trabajan en empresas no tecnológicas también están implementando o planean implementar agentes de IA en sus operaciones. Esto subraya la relevancia transversal de los agentes de IA en diversos sectores industriales, más allá del ámbito tecnológico.

Principales Usos de los Agentes de IA

Los agentes de IA están siendo utilizados en una variedad de tareas, con casos de uso que van desde la automatización de procesos rutinarios hasta la optimización de tareas de conocimiento. Entre los casos más comunes, destaca la investigación y la resumisión de información, con un 58% de los encuestados utilizando agentes para realizar estas tareas. Los agentes permiten a los usuarios realizar revisiones de literatura y análisis de datos de manera más eficiente, extrayendo los puntos clave de grandes volúmenes de información sin necesidad de realizar un trabajo manual intensivo.

La mejora de la productividad personal es otro de los usos destacados, con un 53.5% de los encuestados utilizando agentes para organizar tareas diarias y mejorar la eficiencia personal. Además, la atención al cliente es una de las áreas más beneficiadas por la implementación de agentes de IA, con un 45.8% de los encuestados utilizando agentes para manejar consultas, resolver problemas y acelerar los tiempos de respuesta al cliente.

Desafíos en la Implementación de Agentes de IA

A pesar del entusiasmo y la alta demanda de agentes de IA, su implementación en producción enfrenta varios desafíos. El principal obstáculo señalado por los encuestados es la calidad del rendimiento de los agentes, que es fundamental para garantizar respuestas precisas y contextualmente adecuadas. En particular, las empresas pequeñas mencionan que la fiabilidad del agente es un factor crítico, con un 45.8% de los encuestados de empresas pequeñas indicando que la calidad es su principal preocupación, frente a solo un 22.4% que se enfoca en el costo.

La imprevisibilidad de los agentes de IA, especialmente aquellos que utilizan Modelos de Lenguaje Grande (LLM), introduce un margen de error que puede comprometer la calidad de las respuestas. Esto hace que las empresas enfrenten dificultades para asegurar que los agentes proporcionen resultados consistentes y de alta calidad, lo que ralentiza su adopción en producción. Además, muchas empresas aún se enfrentan a la falta de conocimientos técnicos sobre cómo implementar y optimizar agentes de IA para casos de uso específicos, lo que agrava los desafíos en la implementación.

Otro reto importante es el tiempo necesario para construir y desplegar agentes de IA de manera efectiva. El proceso de desarrollo y prueba requiere una inversión significativa de tiempo y recursos, ya que las empresas deben asegurarse de que los agentes funcionen correctamente antes de ser lanzados al público. Esto incluye depuración, evaluación y ajuste continuo de los agentes para mantener su desempeño.

Controles y Guardias para la Seguridad de los Agentes de IA

La seguridad y el control sobre los agentes de IA son una prioridad para las empresas que los implementan, especialmente dado el potencial de estos agentes para tomar decisiones autónomas. La mayoría de las empresas emplea herramientas de trazabilidad y visibilidad para supervisar el comportamiento de los agentes, lo que les permite detectar cualquier desviación o error en su desempeño. Las empresas también están implementando «guardrails» (barreras de seguridad) para evitar que los agentes actúen de manera no deseada.

Las herramientas de permisos son otro aspecto clave para controlar el comportamiento de los agentes. Muchos equipos permiten que los agentes tengan permisos de solo lectura, lo que limita sus capacidades de acción, y requieren aprobación humana para tareas más críticas como la escritura o eliminación de datos. Además, las empresas más grandes tienden a ser más cautelosas, utilizando permisos más restrictivos y evaluaciones fuera de línea para detectar posibles problemas antes de que los agentes lleguen a los clientes.

Casos de Éxito de Agentes de IA

A pesar de los desafíos, ya existen aplicaciones exitosas de agentes de IA en el mercado. Cursor, un editor de código basado en IA, es uno de los ejemplos más destacados. Este agente ayuda a los desarrolladores a escribir, depurar y analizar código de manera más eficiente mediante autocompletado inteligente y asistencia contextual. Otros casos de éxito incluyen Replit, que acelera el ciclo de vida del desarrollo de software al permitir la creación y despliegue de aplicaciones funcionales en minutos, y Perplexity, un motor de respuestas basado en IA que puede responder consultas complejas utilizando búsquedas web y vinculando fuentes.

Estos casos demuestran que los agentes de IA no solo son una tecnología prometedora, sino que ya están resolviendo problemas reales en entornos de producción. Estas aplicaciones están llevando a los agentes más allá de las pruebas y experimentaciones iniciales, mostrando su potencial para transformar las operaciones comerciales.

Temas Emergentes en la Adopción de Agentes de IA

A medida que los agentes de IA continúan evolucionando, surgen nuevas expectativas y desafíos para las organizaciones que los adoptan. Las capacidades más valoradas de los agentes incluyen la gestión de tareas complejas, la automatización de tareas repetitivas y el enrutamiento de tareas en sistemas de múltiples agentes. Estos agentes pueden gestionar razonamientos más profundos y manejar contextos más complejos, lo que les permite abordar problemas de mayor envergadura y con más autonomía.

Sin embargo, también persisten desafíos significativos. La comprensión del comportamiento de los agentes y la capacidad para explicar sus decisiones a otros miembros de la organización son obstáculos para muchos ingenieros. Además, existe un interés creciente en los agentes de IA de código abierto, que se consideran una forma de acelerar la innovación mediante la inteligencia colectiva.

Conclusión

El panorama de los agentes de IA está en constante evolución. Las empresas están adoptando agentes de IA a un ritmo acelerado, pero la implementación exitosa en producción sigue siendo un reto. A pesar de los obstáculos técnicos y operativos, el potencial de los agentes para mejorar la eficiencia y la productividad es indiscutible. Las empresas que logren superar los desafíos de calidad, control y formación tendrán una ventaja en la próxima ola de innovación en automatización inteligente.

OpenAI lleva el vídeo al modo de voz avanzado de ChatGPT

Mauran, Cecily. «OpenAI Brings Video to ChatGPT Advanced Voice ModeMashable, December 12, 2024. https://mashable.com/article/openai-brings-video-to-chatgpt-advanced-voice-mode.

A partir del 12 de diciembre de 2024, OpenAI ha incorporado nuevas capacidades visuales al Modo de Voz Avanzado (AVM) de ChatGPT, que ahora incluye funciones de video y compartición de pantalla. Ahora, los usuarios pueden interactuar con ChatGPT utilizando la cámara de su teléfono, permitiendo que el modelo «vea» lo que ellos ven en tiempo real.

la actualización de Advanced Voice Mode (AVM) se había anticipado en mayo con el lanzamiento de GPT-4o, pero hasta ahora solo estaba disponible la modalidad de audio.Durante una demostración en vivo, el equipo de OpenAI, encabezado por el CPO Kevin Weil, mostró cómo ChatGPT puede asistir en tareas como preparar café con un filtro de goteo. Al apuntar la cámara hacia el proceso, ChatGPT comprendió el principio de la máquina y guió al equipo paso a paso en la preparación del café. También se mostró cómo la función de compartición de pantalla permite que ChatGPT entienda lo que aparece en la pantalla de un teléfono, como un mensaje abierto.

Este anuncio se produjo justo después de que Google presentara la próxima generación de su modelo insignia Gemini 2.0, que también tiene la capacidad de procesar entradas visuales y auditivas, con mayores capacidades de agente, permitiendo realizar tareas complejas en nombre del usuario.

En cuanto a la demostración de OpenAI, se destacó cómo ChatGPT, con su modalidad visual, pudo identificar objetos con precisión e incluso ser interrumpido en medio de la interacción. Además, se añadió una opción de voz de Santa Claus en el Modo de Voz, con una voz profunda y alegre que decía «ho-ho-ho». Esta función se activa tocando el ícono de copo de nieve en la aplicación de ChatGPT, aunque los usuarios son advertidos de que está destinada solo a mayores de 13 años. Aún no se ha confirmado si la voz de Santa Claus fue proporcionada por el propio Santa o si OpenAI la utilizó sin su consentimiento previo.

A partir de hoy, las funciones de video y compartición de pantalla están disponibles para los usuarios de ChatGPT Plus y Pro, y se espera que estén disponibles para Enterprise y Edu en enero de 2025.

La poesía generada por IA es indistinguible de la poesía escrita por humanos y es calificada de manera más favorable

Porter, Benjamin, y Edouard Machery. «AI-generated poetry is indistinguishable from human-written poetry and is rated more favorablyScientific Reports 14 (2024): 26133. https://doi.org/10.1038/s41598-024-76900-1

El estudio publicado en Scientific Reports explora cómo las personas perciben la poesía generada por inteligencia artificial (IA) en comparación con la escrita por humanos. A través de dos experimentos, los investigadores descubrieron que los lectores no expertos tenían una tasa de precisión inferior al azar al intentar distinguir entre poesía generada por IA y la escrita por poetas famosos. En promedio, acertaron solo en un 46.6% de las ocasiones. Curiosamente, los poemas generados por IA fueron más frecuentemente considerados como escritos por humanos que los poemas de autores reales.

Además, cuando los participantes evaluaron las cualidades de los poemas, los de IA fueron calificados más positivamente, especialmente en características como ritmo y belleza, lo que contribuyó a la confusión sobre su autoría. Este hallazgo sugiere que la poesía generada por IA puede ser percibida como más accesible o agradable en ciertos aspectos, lo que lleva a la preferencia de los lectores por estos poemas sobre los escritos por humanos.

Este estudio resalta cómo las capacidades de la IA están evolucionando rápidamente, y plantea preguntas sobre cómo distinguir entre las creaciones humanas y las generadas por máquinas, especialmente en el contexto de la literatura y el arte

Harvard publica un enorme conjunto de datos gratuitos de entrenamiento en IA del más de 1 millón de libros que tiene digitalizados

Leppert, Greg. «Harvard’s Library Innovation Lab Launches Institutional Data InitiativeHarvard Law School Today, December 12, 2024. https://hls.harvard.edu/today/harvards-library-innovation-lab-launches-initiative-to-use-public-domain-data-to-train-artificial-intelligence/.

La Iniciativa de Datos Institucionales (IDI, por sus siglas en inglés) es un nuevo programa lanzado por el Harvard Library Innovation Lab con el objetivo de mejorar la accesibilidad de los datos de dominio público para el entrenamiento de la inteligencia artificial (IA). Este programa tiene como foco hacer disponibles grandes cantidades de datos de instituciones de conocimiento, incluyendo casi un millón de libros digitalizados en la Biblioteca de la Facultad de Derecho de Harvard, para alimentar modelos

 Institutional Data Initiative (IDI), de la Biblioteca de la Facultad de Derecho de Harvard, lanzada el 12 de diciembre de 2024, tiene como objetivo ampliar y mejorar los recursos de datos disponibles para entrenar modelos de inteligencia artificial (IA). Este programa se centra en hacer accesibles los materiales de dominio público almacenados en instituciones como la Biblioteca de la Facultad de Derecho de Harvard, incluida una base de datos de casi un millón de libros digitalizados, para entrenar IA.

La iniciativa busca resolver la falta de diversidad y la subrepresentación de ciertos grupos en los conjuntos de datos utilizados actualmente para entrenar IA. Estos datos, proveniente de colecciones de instituciones académicas y bibliotecas públicas, son clave para desarrollar sistemas de IA más inclusivos y representativos. Según Greg Leppert, director ejecutivo de IDI, estos conjuntos de datos deben ser parte de la «dieta saludable» de datos para entrenar IA, ya que las IA solo son tan diversas como los datos con los que se entrenan.

Además, el proyecto busca garantizar que los datos de dominio público, como los obtenidos a través del Caselaw Access Project, no sean alterados ni omitidos, preservando la integridad de las colecciones institucionales. IDI también trabaja en colaboración con otras instituciones de conocimiento, como la Biblioteca Pública de Boston, y planea realizar un simposio para fomentar la cooperación y la liberación de datos entre diversas instituciones.

En general esta Iniciativa de Datos Institucionales de Harvard tiene como objetivo mejorar el acceso a los datos públicos y promover el uso ético de estos recursos para el entrenamiento de IA, con el fin de asegurar que las tecnologías futuras beneficien a la humanidad de manera más equitativa.

RAG hacer que sus respuestas de la IA sean más relevantes y precisas en contextos específicos

McKinsey & Company. «What Is Retrieval-Augmented Generation (RAG)?» McKinsey & Company, October 30, 2024. https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-retrieval-augmented-generation-rag.

RAG le permite al modelo consultar bases de datos, documentos específicos, o incluso la web en tiempo real, para proporcionar respuestas más detalladas y específicas, especialmente en contextos donde se necesita información actualizada o especializada.

El Retrieval-augmented generation (RAG) es un proceso que se aplica a los modelos de lenguaje grandes (LLM) para hacer que sus respuestas sean más relevantes y precisas en contextos específicos. A diferencia de los modelos tradicionales, que solo utilizan los datos con los que fueron entrenados, RAG permite que el modelo acceda a fuentes externas de información, como bases de datos de una organización, antes de generar una respuesta. Además, las respuestas incluyen citas que respaldan la información proporcionada. Esto permite que los modelos generen respuestas muy específicas sin necesidad de un ajuste costoso.

RAG funciona en dos fases: ingestión y recuperación. En la fase de ingestión, los datos relevantes se organizan y se convierten en representaciones numéricas (embeddings), que permiten localizarlos rápidamente. En la fase de recuperación, cuando un usuario hace una consulta, el sistema busca en su base de datos la información más relevante, la procesa y genera una respuesta precisa.

Además de acceder a las bases de datos internas de una organización, los sistemas RAG también pueden consultar fuentes externas en tiempo real, como bases de datos estructuradas, llamadas a API o búsqueda en la web.

Las aplicaciones de RAG son amplias y abarcan áreas como la atención al cliente, la gestión del conocimiento en empresas, la redacción de informes y la asistencia en tareas específicas. Por ejemplo, un chatbot de atención al cliente que use RAG podrá acceder a los datos específicos de la empresa para proporcionar respuestas más precisas y relevantes que uno tradicional basado solo en el entrenamiento del modelo.

Aunque RAG es una herramienta poderosa, tiene algunas limitaciones. La calidad de los datos a los que tiene acceso es crucial, ya que si los datos no son precisos o están desactualizados, la respuesta también lo será. Además, existen preocupaciones sobre la privacidad, la propiedad intelectual y los sesgos presentes en los datos utilizados.

A medida que RAG evoluciona, se espera que se estandaricen más las soluciones y que surjan modelos de LLM optimizados para trabajar con RAG, lo que mejorará la eficiencia y la escalabilidad de esta tecnología, generando mayor valor para las empresas.

Posibles problemas legales por el entrenamiento de Sora de OpenAI con contenido de videojuegos

Wiggers, Kyle. «It Sure Looks Like OpenAI Trained Sora on Game Content — and Legal Experts Say That Could Be a ProblemTechCrunch, December 11, 2024. https://techcrunch.com/2024/12/11/it-sure-looks-like-openai-trained-sora-on-game-content-and-legal-experts-say-that-could-be-a-problem/.

OpenAI ha lanzado Sora, una IA generadora de videos que parece haber sido entrenada con contenido de videojuegos, incluidos streamings de Twitch y videojuegos populares. Esto podría generar problemas legales debido al uso no autorizado de material con derechos de autor. Expertos en propiedad intelectual advierten sobre los riesgos de infringir derechos de autor y marcas al entrenar modelos generativos con estos datos.

OpenAI nunca ha revelado completamente los datos específicos utilizados para entrenar a Sora, su IA generadora de videos, pero parece probable que al menos parte de su material de entrenamiento provenga de transmisiones de Twitch y guías de juegos. Sora, que fue lanzada el lunes, puede generar videos de hasta 20 segundos de duración en varios formatos y resoluciones a partir de indicaciones de texto o imagen. Aunque OpenAI insinuó anteriormente que el modelo fue entrenado usando videos de Minecraft, parece que otro contenido de videojuegos también pudo haber sido incluido en el conjunto de entrenamiento. En algunas pruebas, Sora fue capaz de generar metraje de un juego similar a Super Mario Bros., un shooter en primera persona inspirado en juegos como Call of Duty y Counter-Strike, y un luchador estilo arcade de los años 90, semejante a los juegos de Teenage Mutant Ninja Turtles.

Una característica destacada de Sora es su aparente comprensión de las transmisiones en Twitch, ya que generó un video que imita la apariencia y el estilo de una plataforma de streaming popular. Esto incluyó un personaje que se parecía a Auronplay, un conocido streamer de Twitch, e incluso una figura similar a Pokimane, otra streamer prominente. Aunque OpenAI ha implementado medidas para evitar la generación de clips que involucren personajes con derechos de autor, mis pruebas sugieren que el contenido de videojuegos, posiblemente de Twitch y otras fuentes, pudo haber contribuido al entrenamiento de Sora.

OpenAI ha sido ambigua respecto a sus fuentes de datos, y en una entrevista anterior, la entonces CTO de la compañía, Mira Murati, no negó que el modelo pudiera haber sido entrenado utilizando contenido de plataformas como YouTube, Instagram y Facebook. OpenAI también ha reconocido el uso de datos disponibles públicamente y materiales con licencia de bibliotecas de medios de stock como Shutterstock en el desarrollo de Sora. Sin embargo, si el contenido de videojuegos forma parte del conjunto de entrenamiento, podría haber consecuencias legales, especialmente si OpenAI desarrolla aplicaciones interactivas sobre Sora.

Los expertos legales han expresado preocupaciones sobre los posibles riesgos de usar contenido de videojuegos no autorizado para entrenar modelos de IA. Joshua Weigensberg, un abogado de propiedad intelectual, señaló que el uso de material con derechos de autor de videojuegos sin las licencias adecuadas podría llevar a infracciones, especialmente si dichos datos se utilizan en modelos generativos de IA que producen nuevas obras. Los propios juegos suelen contener elementos protegidos, como texturas propietarias, y si estos se incluyen en los datos de entrenamiento de un modelo, podrían surgir problemas legales.

Además del riesgo de infracción de derechos de autor, existen preocupaciones sobre otros derechos de propiedad intelectual, como los derechos de marca registrada y los derechos sobre el contenido generado por los usuarios. Evan Everist, abogado especializado en derechos de autor, explicó que los videos de las partidas de juegos pueden implicar múltiples capas de protección de derechos de autor, como los derechos sobre el contenido del juego en sí, el video único creado por el jugador y el contenido generado por los usuarios. Esto crea una red compleja de titulares de derechos de autor que podrían reclamar infracción si las empresas de IA usan tales materiales en sus datos de entrenamiento.

Si bien algunos casos legales contra las empresas de IA se han centrado en si la IA generativa puede considerarse transformativa y, por lo tanto, no infringe los derechos de autor, los tribunales aún no han resuelto cuestiones clave sobre el uso de materiales con derechos de autor para entrenar la IA. Incluso si las empresas de IA ganan estos litigios, los usuarios individuales aún podrían ser responsables de infracción de derechos de autor si usan contenido generado por IA que copie obras protegidas. Además, existe el riesgo adicional de violación de derechos de marca registrada, especialmente si los videos generados por IA presentan personajes de juegos reconocibles u otros elementos protegidos. El creciente uso de modelos de mundo, que implican generar videojuegos sintéticos o experiencias interactivas en tiempo real, podría complicar aún más el panorama legal.

La IA generativa en la educación: ¿Aliada o amenaza para la escritura académica?

Van Niekerk, Johan, Petrus M.J. Delport, e Iain Sutherland. «Addressing the Use of Generative AI in Academic WritingComputers and Education: Artificial Intelligence 5 (2024): 100342. https://doi.org/10.1016/j.caeai.2024.100342.

El objetivo principal del estudio fue evaluar el impacto de ChatGPT en el desarrollo de habilidades de escritura académica, explorando tanto sus beneficios como sus limitaciones. Se buscó entender cómo los estudiantes perciben esta tecnología y de qué manera su interacción con textos generados por inteligencia artificial influye en sus intenciones de uso futuro. La investigación implementó una intervención educativa basada en aprendizaje activo, donde los estudiantes utilizaron ChatGPT para redactar artículos académicos. Posteriormente, analizaron y criticaron los textos generados por la IA, enfocándose en identificar sus debilidades, como la falta de coherencia, originalidad y profundidad en los razonamientos presentados.

Los resultados revelaron que, inicialmente, los estudiantes consideraban a ChatGPT como una herramienta útil y fácil de usar, especialmente por su capacidad para ahorrar tiempo y generar ideas de manera rápida. Sin embargo, tras la revisión crítica de los textos generados, identificaron limitaciones importantes. Los documentos creados por la IA presentaban una falta de profundidad analítica, lo que reducía su calidad académica. Asimismo, los textos mostraban problemas de coherencia, con argumentos confusos o contradictorios, y una ausencia de originalidad, ya que dependían en gran medida de fuentes existentes sin aportar ideas novedosas.

La intervención educativa tuvo un impacto significativo en las percepciones de los estudiantes. Si bien reconocieron que ChatGPT puede ser útil como herramienta complementaria para generar ideas o facilitar etapas iniciales del proceso de escritura, también concluyeron que no puede reemplazar el esfuerzo intelectual necesario para crear textos académicos de calidad. La experiencia destacó la importancia de desarrollar habilidades críticas y reflexivas, que no se adquieren cuando los estudiantes dependen excesivamente de la IA.

El estudio concluye que, aunque las herramientas de IA generativa representan una innovación poderosa, deben ser utilizadas con precaución en contextos educativos. Los autores enfatizan que un uso excesivo o inapropiado puede limitar el aprendizaje profundo y las habilidades críticas de los estudiantes. Sin embargo, cuando se integran de manera pedagógica, como en esta intervención, pueden convertirse en un recurso valioso para identificar deficiencias y mejorar el aprendizaje.

Finalmente, el artículo propone recomendaciones para un uso responsable de la inteligencia artificial en la educación. Los educadores deben promover el uso ético y complementario de estas herramientas, subrayando que no deben sustituir las habilidades fundamentales de escritura. Además, se sugiere diseñar intervenciones educativas que enseñen a los estudiantes a evaluar críticamente los textos generados por IA, al mismo tiempo que las instituciones académicas establecen directrices claras sobre su uso en actividades de evaluación y aprendizaje. De esta manera, se busca aprovechar el potencial de la IA, minimizando los riesgos asociados con su implementación en el ámbito académico.

¿Qué es la IA agente y cómo cambiará el trabajo?

Purdy, Mark. «What Is Agentic AI, and How Will It Change Work?» Harvard Business Review, December 12, 2024. https://hbr.org/2024/12/what-is-agentic-ai-and-how-will-it-change-work.

Imagina un asistente virtual que, al estilo de Siri o Alexa, no solo te responde preguntas, sino que también organiza tu agenda, te recuerda tus citas, puede reservar un viaje, ajustar tu itinerario si hay cambios y recomendarte actividades según tus preferencias. Este asistente no espera a que le digas cada paso, sino que actúa de manera autónoma para mejorar tu experiencia y alcanzar tus objetivos, como hacerte ahorrar tiempo.

La IA Agente es un tipo de inteligencia artificial que no solo responde a comandos o preguntas, sino que puede actuar de manera autónoma, tomando decisiones y realizando tareas por sí misma para alcanzar un objetivo específico. Es como tener un asistente digital que, en lugar de solo dar respuestas, también planifica, organiza y ejecuta acciones de forma independiente, sin la necesidad de que un ser humano esté guiando todo el proceso.

En el sector de atención al cliente, las IA agentes pueden gestionar consultas de clientes sin intervención humana. Un sistema de este tipo puede analizar un problema planteado por un cliente, buscar una solución en una base de datos, ofrecerla y hacer seguimiento de la satisfacción del cliente. Además, si detecta que un problema es más complejo, puede pasar el caso a un agente humano de manera eficiente.

En el ámbito de la salud, una IA agente puede gestionar el bienestar de un paciente. Imagina un sistema que monitorea los signos vitales de un paciente, ajusta la dosis de medicamentos según lo necesario y puede incluso llamar a los profesionales de salud si detecta una emergencia. En el caso de los pacientes con enfermedades crónicas, la IA agente puede seguir su historial médico y anticipar complicaciones, ofreciendo recomendaciones personalizadas.

Uno de los principales beneficios de la IA agente es el ahorro de tiempo y recursos. Estas tecnologías son capaces de realizar tareas repetitivas y complejas de manera más rápida y precisa que los seres humanos. Esto no solo reduce el tiempo dedicado a actividades rutinarias, sino que también optimiza los recursos disponibles, mejorando la eficiencia general. Al asumir tareas que, de otro modo, consumirían mucho tiempo, las IA agentes permiten que los trabajadores se enfoquen en actividades más estratégicas y creativas, lo que incrementa la productividad.

Otro beneficio importante es la mayor especialización que ofrecen estas tecnologías. Las IA agentes pueden ser diseñadas para realizar tareas muy específicas, lo que permite una especialización más detallada en diversos campos. Por ejemplo, pueden ser programadas para manejar el servicio al cliente en una empresa, gestionar inventarios o asistir en la toma de decisiones financieras. Esta especialización incrementa la precisión y efectividad en la ejecución de las tareas, al mismo tiempo que reduce la probabilidad de errores que podrían ocurrir en procesos más generalistas.

La mejora en la toma de decisiones es otro beneficio clave de la IA agente. Al tener acceso a grandes cantidades de datos, estos sistemas son capaces de tomar decisiones informadas y rápidas, basadas en un análisis profundo. Esto es especialmente útil para las empresas, que pueden beneficiarse de decisiones más acertadas y basadas en datos concretos, lo que a su vez optimiza la gestión y las operaciones. Además, los individuos también pueden aprovechar esta capacidad para recibir recomendaciones más acertadas y personalizadas, mejorando así su experiencia en diversos servicios.

A pesar de los múltiples beneficios, la IA agente también enfrenta ciertos desafíos. Uno de los más significativos es la dependencia de datos precisos. Para que estos sistemas funcionen correctamente, es fundamental que los datos con los que se entrenan sean de alta calidad. Si los datos son incorrectos o incompletos, las decisiones tomadas por la IA pueden ser erróneas, lo que podría tener consecuencias negativas tanto en la operación de una empresa como en la experiencia del usuario. Esto plantea la necesidad de asegurar la integridad y confiabilidad de los datos que alimentan estos sistemas.

Otro desafío importante es el de los problemas éticos. Dado que las IA agentes pueden tomar decisiones autónomas, es crucial garantizar que estas decisiones sean justas, transparentes y no estén sesgadas. La falta de supervisión humana puede generar riesgos en la toma de decisiones, especialmente en áreas delicadas como la atención al cliente o la contratación de personal. Por lo tanto, es esencial establecer marcos éticos y mecanismos de control para asegurar que las IA agentes operen de manera responsable y equitativa.