Archivo de la etiqueta: Inteligencia artificial

Cómo puede la inteligencia artificial (IA) mejorar la gestión de datos de investigación?

Exploring How AI Can Help Research Data Management.” UC3 Blog, August 21, 2025. https://uc3.cdlib.org/2025/08/21/exploring-how-ai-can-help-research-data-management/

El artículo de UC3 explora cómo la inteligencia artificial (IA) puede mejorar la gestión de datos de investigación, enfocándose en tres áreas clave: la mejora de metadatos, la generación automatizada de planes de gestión de datos (DMPs) y la conexión de estos planes con los resultados de investigación

Mejora de metadatos con IA

UC3 utiliza IA para optimizar la calidad y escala de la curaduría de metadatos, especialmente en el Registro de Organizaciones de Investigación (ROR). La IA ayuda a transformar entradas de usuarios en salidas estructuradas y estandarizadas, acelerando el procesamiento de más de 1.000 solicitudes mensuales. Este enfoque híbrido combina la eficiencia de la IA con el juicio humano para mantener la calidad y coherencia de los datos.

Generación automatizada de DMPs con DMP Chef

UC3 está desarrollando «DMP Chef», una herramienta basada en modelos de lenguaje que permite a los investigadores generar borradores de DMPs a partir de descripciones simples de sus estudios. Actualmente, se está probando con plantillas del Instituto Nacional de la Salud (NIH), con planes de expandir a otras agencias como la Fundación Nacional de Ciencias (NSF). El objetivo es facilitar la creación de DMPs de alta calidad que los investigadores puedan personalizar según sus necesidades.uc3.cdlib.org

Conexión de DMPs con resultados de investigación

UC3 también está desarrollando herramientas para vincular automáticamente los DMPs con los resultados de investigación que describen, como conjuntos de datos, artículos y software. Estas conexiones mejoran la visibilidad y accesibilidad de los datos de investigación, facilitando su descubrimiento y uso por parte de la comunidad científica.

Asta: acelerando la ciencia a través de un agente de IA confiable.

Allen Institute for AI. 2025. “Asta: Accelerating Science through Trustworthy Agentic AI.AI2 Blog, August 26, 2025. Allen Institute for AI. https://allenai.org/blog/asta

https://asta.allen.ai/chat

Allen Institute for Artificial Intelligence (AI2) anunció el 26 de agosto de 2025 el lanzamiento de Asta, una iniciativa concebida para acelerar el avance científico mediante el uso de asistentes de inteligencia artificial “agentic”, es decir, agentes autónomos capaces de planificar y ejecutar tareas complejas.

La meta de Asta es ofrecer a los investigadores herramientas que no solo sean potentes, sino también comprensibles, verificables y confiables, de manera que la comunidad científica pueda adoptarlas sin temor a opacidad ni falta de rigor.

El ecosistema Asta se compone de tres pilares fundamentales.

  • Asta Agents, asistentes diseñados para acompañar a los investigadores en procesos científicos reales. No buscan sustituir a los humanos, sino ayudarles a plantear preguntas, organizar ideas, rastrear evidencias y distinguir entre lo que está bien establecido y lo que todavía sigue siendo una incógnita en un campo de estudio.
  • AstaBench, un marco de evaluación riguroso que proporciona estándares transparentes para medir y comparar la eficacia de los agentes de IA, ya sean de Asta o de otras iniciativas. Este banco de pruebas incluye leaderboards y tareas reales, con lo que promueve la reproducibilidad y la confianza en los resultados.
  • Asta resources, un conjunto de recursos abiertos para desarrolladores: agentes de referencia de código abierto, modelos de lenguaje entrenados con literatura científica y herramientas modulares compatibles con el Model Context Protocol (MCP), todas ellas destinadas a facilitar la construcción de agentes de investigación más sólidos y fiables.

El anuncio subraya que uno de los principales problemas en la adopción de inteligencia artificial en la ciencia es la falta de estándares claros y confiables. Los científicos suelen mostrarse escépticos, ya que sin marcos de evaluación transparentes resulta difícil juzgar si un modelo tiene realmente la capacidad de razonamiento profundo que requiere el trabajo científico. Asta responde a este reto al proporcionar, al mismo tiempo, agentes prácticos para investigadores y un sistema robusto de evaluación para desarrolladores, integrando así los dos mundos en un mismo ecosistema.

La primera versión de Asta incluye tres funciones principales.

  • La herramienta Find Papers —que antes se conocía como Paperfinder— ofrece un sistema avanzado de búsqueda de artículos que reformula consultas, sigue citas y explica por qué un texto es relevante, superando las limitaciones de los buscadores académicos convencionales.
  • La función Summarize Literature, anteriormente llamada ScholarQA, transforma preguntas de investigación en resúmenes estructurados, con afirmaciones respaldadas por citas verificables y fragmentos textuales. De este modo, permite condensar millones de resúmenes y artículos completos en panorámicas claras que destacan resultados, controversias y preguntas abiertas.
  • Finalmente, Analyze Data, aún en versión beta, convierte preguntas en lenguaje natural en análisis reproducibles: explora conjuntos de datos, genera hipótesis, ejecuta pruebas estadísticas y explica los resultados de manera comprensible, haciendo que la investigación basada en datos sea más accesible para múltiples disciplinas.

En conjunto, Asta se plantea como un impulso hacia una ciencia abierta, transparente y reproducible. Para los investigadores, significa contar con un asistente confiable que facilita la búsqueda, la síntesis de información y el análisis de datos. Para los desarrolladores, representa un entorno integral de evaluación y recursos que permite crear agentes de IA preparados para producción y capaces de responder a las exigencias de la investigación científica. Con esta iniciativa, AI2 refuerza su compromiso de situar a la inteligencia artificial como un aliado estratégico en la generación de conocimiento y en la aceleración de descubrimientos que impacten en la sociedad.

ResearchRabbit, una herramienta de inteligencia artificial (IA) diseñada para optimizar la revisión de la literatura científica

ResearchRabbit

https://www.researchrabbit.ai/

ResearchRabbit es una herramienta de inteligencia artificial (IA) diseñada para optimizar el proceso de revisión de la literatura académica. Lanzada en 2021 por Research Rabbit Inc., fue creada por Lulú Liang y Eduardo L’Hotellier con el objetivo de ayudar a los investigadores a descubrir artículos académicos relevantes y explorar redes de citación de manera visual.

Características principales

Búsqueda y descubrimiento de artículos: Permite buscar artículos académicos y encontrar trabajos relacionados, citados o que citan el artículo seleccionado.

Visualización de redes de citas: Genera gráficos interactivos que muestran las relaciones entre artículos, facilitando la identificación de tendencias y conexiones en la literatura.

Integración con Zotero: Ofrece la posibilidad de sincronizar colecciones de ResearchRabbit con el gestor bibliográfico Zotero, permitiendo una gestión eficiente de las referencias .

Alertas personalizadas: Envía notificaciones sobre publicaciones recientes y tendencias emergentes dentro de los campos de interés del usuario.

ResearchRabbit es especialmente útil en bibliotecas universitarias, ya que facilita el acceso a información académica relevante y actualizada. Su capacidad para visualizar redes de citas y recomendar artículos relacionados mejora la eficiencia en la búsqueda de literatura y apoya en la elaboración de revisiones sistemáticas. Además, su integración con Zotero permite una gestión centralizada de las referencias, optimizando el flujo de trabajo de los investigadores.

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada

Consensus: motor de búsqueda impulsado por inteligencia artificial (IA) para facilitar la investigación científica y académica con fuentes confiables

Consensus

https://consensus.app/

Consensus es un motor de búsqueda impulsado por inteligencia artificial (IA) diseñado para facilitar la investigación científica y académica. A diferencia de los motores de búsqueda tradicionales, Consensus permite a los usuarios realizar preguntas en lenguaje natural y obtener respuestas basadas en evidencia extraídas de más de 200 millones de artículos científicos revisados por pares. La plataforma utiliza modelos de lenguaje avanzados para analizar y sintetizar la información relevante, proporcionando resúmenes claros y concisos con citas directas a las fuentes originales.

Cuando un usuario formula una pregunta, Consensus realiza una búsqueda en su base de datos de artículos científicos y utiliza algoritmos de IA para generar una respuesta que resume los hallazgos más relevantes. Cada respuesta incluye citas numeradas que corresponden a los artículos de donde se extrajo la información, permitiendo a los usuarios verificar y profundizar en las fuentes originales .

Consensus es especialmente útil para investigadores, estudiantes y profesionales que buscan acceder rápidamente a información científica confiable. Es ideal para:

  • Realizar revisiones de literatura
  • Obtener resúmenes de estudios científicos.
  • Identificar tendencias y consensos en la investigación.
  • Generar contenido académico respaldado por evidencia.

Los detectores de escritura con IA marcan erróneamente el 60 % de textos de hablantes no nativos como escritos por IA

Myers, Andrew. «AI-Detectors Biased Against Non-Native English WritersStanford Institute for Human-Centered Artificial Intelligence, 15 de mayo de 2023. https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers.

Los detectores de escritura con IA funcionan mejor con hablantes nativos de inglés. Los ensayos de estudiantes nacidos en EE. UU. fueron evaluados con alta precisión, mientras que los textos de hablantes no nativos fueron clasificados erróneamente como generados por IA en más del 60 % de los casos.

Un estudio de la Universidad de Stanford revela que los detectores de contenido generado por inteligencia artificial (IA) presentan sesgos significativos contra los escritores no nativos de inglés. Estos sistemas, diseñados para identificar textos producidos por IA, muestran una precisión notablemente baja al evaluar ensayos escritos por estudiantes cuya lengua materna no es el inglés.

La investigación, dirigida por el profesor James Zou, encontró que mientras los detectores alcanzaban una precisión casi perfecta al evaluar ensayos de estudiantes nacidos en EE. UU., clasificaron erróneamente más del 61% de los ensayos del TOEFL (Test of English as a Foreign Language) como generados por IA. Además, todos los detectores identificaron como IA 18 de los 91 ensayos evaluados (19%), y al menos uno de ellos marcó 89 de los 91 ensayos (97%) como potencialmente generados por IA.

Este sesgo se atribuye al uso de métricas como la «perplejidad», que mide la complejidad lingüística. Los escritores no nativos suelen obtener puntuaciones más bajas en aspectos como riqueza léxica, diversidad léxica, complejidad sintáctica y gramatical, lo que los hace más susceptibles a ser identificados erróneamente como generadores de IA. Además, los sistemas actuales son fácilmente manipulables mediante técnicas como la «ingeniería de indicaciones», donde se solicita a una IA generativa que reescriba un texto utilizando un lenguaje más sofisticado, lo que puede engañar a los detectores.

Los autores del estudio advierten sobre los riesgos éticos de utilizar estos detectores sin una evaluación rigurosa, ya que podrían llevar a acusaciones injustas o sanciones para estudiantes y trabajadores extranjeros. Proponen evitar su uso en entornos educativos con alta presencia de hablantes no nativos de inglés y sugieren el desarrollo de métodos más sofisticados, como la incorporación de marcas de agua digitales en los textos generados por IA, para mejorar la fiabilidad de los sistemas de detección.

Fiabilidad de los detectores de escritura con IA

La fiabilidad de los detectores de texto generado por inteligencia artificial (IA) es un tema de creciente preocupación y debate en diversos ámbitos, como la educación, el periodismo y la investigación académica. Aunque existen herramientas comerciales que afirman altos niveles de precisión, diversos estudios han evidenciado limitaciones significativas en su desempeño.

Investigaciones han revelado que muchos detectores de IA presentan tasas de precisión inferiores al 80%. Por ejemplo, un estudio realizado por Weber-Wulff y colaboradores en 2023 evaluó 14 herramientas de detección, incluyendo Turnitin y GPTZero, y encontró que «todos puntuaron por debajo del 80% de precisión, y solo 5 superaron el 70%» . Además, estas herramientas tienden a clasificar los textos más como humanos que como generados por IA, y su precisión disminuye al parafrasear el contenido.

Un estudio adicional de la Universidad de Maryland destacó que los detectores actuales no son fiables en escenarios prácticos, con un rendimiento apenas superior al de un clasificador aleatorio. Además, técnicas de parafraseo pueden reducir significativamente la tasa de detección.

El uso de detectores de IA también ha suscitado preocupaciones éticas. Investigaciones han demostrado que estos sistemas tienden a clasificar erróneamente los textos de personas no nativas en inglés como generados por IA. Por ejemplo, un estudio reveló que los ensayos de escritores no nativos fueron clasificados como generados por IA en un 61,3% de los casos, en comparación con solo el 10% de los ensayos de escritores nativos.

Además, se ha observado que los detectores de IA pueden tener dificultades para identificar contenido generado por modelos avanzados como GPT-4, lo que plantea desafíos adicionales para su aplicación en contextos académicos y profesionales.

Dado el panorama actual, se recomienda utilizar los detectores de IA como herramientas complementarias y no como métodos definitivos para evaluar la autoría de un texto. Es esencial considerar el contexto y aplicar un juicio humano informado al interpretar los resultados de estas herramientas. Además, se destaca la importancia de desarrollar tecnologías de detección más avanzadas y éticamente responsables para abordar los desafíos emergentes en la identificación de contenido generado por IA.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades, coordinado por Ana Cristina del Paso Gallego, Luis Gabriel Martínez Montenegro y Marcos Sánchez-Elez Martín, es una obra colectiva publicada por Tirant lo Blanch en 2025

Texto completo

Este volumen reúne catorce capítulos escritos por cuarenta expertos que analizan cómo la inteligencia artificial (IA) y las nuevas tecnologías están transformando la investigación, la docencia y la práctica profesional en diversas disciplinas de las ciencias sociales y las humanidades. Los temas abordados incluyen el impacto de la IA en áreas como la economía, la comunicación, la educación, el trabajo social, la filología, la psicología, el derecho, el periodismo, la ciberseguridad y la ética. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los beneficios como los riesgos asociados al uso de estas tecnologías.

Además de los capítulos principales, el libro presenta comunicaciones seleccionadas de un congreso celebrado en la Universidad Complutense de Madrid en abril de 2024, que aportan casos prácticos y reflexiones adicionales sobre la aplicación de la IA en contextos reales.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender cómo la IA y las nuevas tecnologías están moldeando el futuro de las ciencias sociales y las humanidades. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas herramientas en el ámbito académico y profesional.

La IA está haciendo que leer libros parezca obsoleto y los estudiantes tienen mucho que perder

Baron, Naomi S. – “AI Is Making Reading Books Feel Obsolete – and Students Have a Lot to Lose.The Conversation, August 14, 2023. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

El artículo aborda cómo la inteligencia artificial está cambiando la forma en que los estudiantes interactúan con la lectura y el aprendizaje.

«Se está gestando una tormenta perfecta para la lectura. La inteligencia artificial (IA) ha llegado en un momento en el que tanto los niños como los adultos ya dedicaban menos tiempo a leer libros que en un pasado no muy lejano. Como lingüista, estudio cómo la tecnología influye en la forma en que las personas leen, escriben y piensan. Esto incluye el impacto de la IA, que está cambiando drásticamente la forma en que las personas se relacionan con los libros u otros tipos de escritos, ya sea por obligación, para investigar o por placer. Me preocupa que la IA esté acelerando un cambio continuo en el valor que las personas otorgan a la lectura como actividad humana».

Naomi S. Barón

La autora, profesora y experta en educación, señala que las herramientas de IA, como los resúmenes automáticos y los asistentes de escritura, están reduciendo la necesidad de leer libros completos. Esto puede llevar a una comprensión superficial de los contenidos y a una pérdida de habilidades críticas como el análisis profundo y la reflexión personal.

Además, se destaca que la dependencia de la IA para tareas académicas puede disminuir la capacidad de los estudiantes para desarrollar habilidades cognitivas esenciales, como la concentración sostenida y el pensamiento crítico. La autora advierte que esta tendencia podría tener consecuencias a largo plazo en la formación intelectual de las nuevas generaciones.

Por último, se sugiere que, aunque la IA puede ser una herramienta útil, no debe reemplazar la experiencia de lectura profunda y reflexiva que los libros ofrecen. Se hace un llamado a equilibrar el uso de la tecnología con métodos tradicionales de aprendizaje para preservar el desarrollo cognitivo integral de los estudiantes.

Este análisis invita a reflexionar sobre cómo la tecnología está transformando la educación y la importancia de mantener prácticas que fomenten el pensamiento crítico y la comprensión profunda.