Archivo de la etiqueta: Investigación

Bitácora de herramienta digitales: la inteligencia artificial en la investigación y las producciones académicas

Bitácora de herramienta digitales: la inteligencia artificial en la investigación y las producciones académicas / Jhonatan Hinojosa Mamani, Edison Catacora Lucana, Javier Elías Mamani Gamarra. – Guarujá-SP: Científica Digital, 2024.

Texto completo

En el transcurso de esta travesía por la convergencia entre la inteligencia artificial y la investigación científica, nos sumergimos en las profundidades conceptuales delineadas por pensadores que han esbozado las complejidades de este terreno intrincado. Seremos orientados por las teorías que han moldeado nuestra apreciación de cómo las herramientas digitales, potenciadas por la inteligencia artificial, reestructuran los cimientos esenciales de la investigación científica. Este análisis crítico nos invita a explorar las intersecciones entre el desarrollo tecnológico y las metodologías científicas, desentrañando la influencia de la inteligencia artificial en la evolución misma de la investigación y sus implicaciones epistemológicas.

Una revista científica publica una rata generada por inteligencia artificial con un pene gigantesco que se aprobó por un comité de revisión científica de Frontiers

Pearson, J. «Scientific Journal Publishes AI-Generated Rat with Gigantic Penis In Worrying Incident». Vice. February 15, 2024. https://www.vice.com/en/article/dy3jbz/scientific-journal-frontiers-publishes-ai-generated-rat-with-gigantic-penis-in-worrying-incident

Una revista científica publicó esta semana un artículo lleno de imágenes generadas por inteligencia artificial (IA) que carecían de sentido, incluyendo un diagrama erróneo de un pene de rata, en un episodio preocupante que refleja cómo la IA generativa está ingresando en la academia con efectos preocupantes.

El artículo, titulado «Funciones celulares de las células madre espermatogénicas en relación con la vía de señalización JAK/STAT«, fue publicado en la revista de acceso abierto Frontiers in Cell Development and Biology por investigadores de la Hospital de Hong Hui y la Universidad Jiaotong en China. Aunque el contenido del artículo en sí podría ser de interés específico para aquellos con un interés particular en las células madre de mamíferos pequeños, las figuras publicadas con el artículo son otra historia completamente diferente.

Una de las figuras incluye un diagrama de un pene de rata disecado, con texto garabateado y etiquetas incorrectas que sugieren que el pene de la rata es más del doble del tamaño de su cuerpo. Otras figuras generadas por IA en el artículo también presentan un abundante sinsentido textual y visual, como diagramas celulares que parecen más pizzas alienígenas que cualquier cosa relacionada con la biología. Es incierto cómo estas imágenes pudieron pasar por el proceso de edición, revisión por pares y publicación.

A pesar de que uno de los revisores del artículo señaló que no era su responsabilidad evaluar la precisión de las imágenes generadas por IA, la política de la revista Frontiers establece que el autor es responsable de verificar la precisión factual de cualquier contenido creado por la tecnología IA generativa. Esta discrepancia resalta la creciente preocupación sobre el manejo de la IA generativa en la investigación académica.

La tendencia creciente de la IA generativa en la academia preocupa a científicos y observadores, y algunas publicaciones, como Nature, han comenzado a adoptar políticas para abordar este problema. Nature, por ejemplo, prohibió el uso de IA generativa para imágenes y figuras en artículos el año pasado, citando riesgos para la integridad científica. Este incidente subraya la necesidad de que la comunidad científica establezca estándares claros y políticas efectivas para abordar los desafíos éticos y de calidad relacionados con el uso de la IA en la investigación.

Se estima que al menos 60.000 artículos de todos los publicados en 2023 podrían haber sido asistidos por Inteligencia Artificial

Gray, Andrew. «ChatGPT “contamination”: estimating the prevalence of LLMs in the scholarly literature». arXiv, 25 de marzo de 2024. https://doi.org/10.48550/arXiv.2403.16887.

El uso de ChatGPT y herramientas similares de Large Language Model (LLM) en la comunicación académica y la publicación académica ha sido ampliamente discutido desde que se volvieron fácilmente accesibles para una audiencia general a fines de 2022.

Las herramientas de Modelos de Lenguaje Grande (LLM) ofrecen una forma de generar grandes cantidades de texto de calidad razonablemente alta automáticamente, en respuesta a indicaciones humanas. Aunque estas herramientas han estado disponibles durante algunos años, el lanzamiento de ChatGPT 3.5 a finales de 2022, que ofrece una interfaz fácil y amplia publicidad para la herramienta, las hizo disponibles y visibles para el público en general. Desde entonces, ha habido una amplia discusión sobre su uso en las comunicaciones académicas. El entusiasmo inicial de que podrían reemplazar de manera confiable la mayoría de las formas de escritura seria, incluidos los intentos de enumerarlas como autores en documentos, ha sido reemplazado por una comprensión más matizada de sus capacidades y sus considerables limitaciones.

A fines de 2023, las encuestas encontraron que el 30% de los investigadores había utilizado herramientas para ayudar a escribir manuscritos, y muchos editores habían comenzado a ofrecer orientación sobre su uso. Por ejemplo, Wiley permite el uso de herramientas para desarrollar contenido, pero solo si los autores asumen plena responsabilidad por las declaraciones realizadas, y cuando este uso se divulga de manera transparente en el documento. Sin embargo, «las herramientas que se utilizan para mejorar la ortografía, la gramática y la edición general no están incluidas en el alcance de estas pautas».

El uso de LLMs para generar documentos fue ampliamente predicho después del lanzamiento, particularmente en «fábricas de documentos» (Paper Mills) que producen grandes cantidades de artículos de calidad deficiente. Sin embargo, es desafiante evaluar el efecto a gran escala. Algunos elementos distintivos de ChatGPT (como su conocida propensión a «alucinar» referencias) son difíciles de identificar que con el análisis caso por caso, y es probable que sean detectados por editores de todas formas.

Recientes investigaciones han identificado evidencia sólida de que ChatGPT y herramientas similares están siendo utilizados por investigadores para generar revisiones por pares para documentos de conferencias en el campo de la inteligencia artificial. Sin embargo, no se encontraron indicios de un patrón similar en las revisiones por pares para el portafolio de revistas de Nature.

Para identificar potencialmente documentos asistidos por LLM, se han identificado palabras conocidas por estar desproporcionadamente asociadas con textos generados por LLM. Estas palabras pueden ser señales de un aumento en el uso de texto generado por LLM en la literatura en su conjunto.

El estudio ha analizado la prevalencia de ciertas palabras clave y ha encontrado un aumento significativo en el uso de estas palabras en 2023, indicativo del posible uso extendido de LLM en la escritura académica. Se estima que al menos 60.000 artículos publicados en 2023 podrían haber sido asistidos por LLM, representando ligeramente más del 1% de todos los artículos académicos publicados.

Se han observado implicaciones significativas tanto para la integridad de la investigación como para el desarrollo futuro de los LLMs. Es importante abordar estas implicaciones para garantizar la calidad y la integridad de la investigación académica en el futuro.

Directrices vivas sobre el uso responsable de la IA generativa en la investigación

Living guidelines on the responsible use of generative AI in research: ERA Forum
Stakeholders’ document. European Commission, 2024

Texto completo

La inteligencia artificial (IA) ha permeado nuestras vidas, transformando cómo vivimos y trabajamos. En los últimos años, ha ocurrido una aceleración rápida y disruptiva del progreso en IA, impulsada por avances significativos en la disponibilidad generalizada de datos, poder de cómputo y aprendizaje automático. Se han logrado avances notables, en particular, en el desarrollo de modelos fundamentales, es decir, modelos de IA entrenados en volúmenes extensos de datos no etiquetados. Esta innovación ha dado lugar a lo que se conoce como ‘IA de propósito general’, capaz de realizar una amplia gama de tareas, incluida la generación de diversos tipos de contenido nuevo (texto, código, datos, imágenes, música, voz, videos, etc.), comúnmente denominado ‘IA generativa’, generalmente basado en instrucciones (también conocidas como indicaciones) proporcionadas por el usuario. La calidad de la salida producida por estos modelos es tal que es difícil distinguirla del contenido generado por humanos.

La adopción generalizada y rápida de la IA generativa está creando mucha atención y amplias respuestas políticas e institucionales. La UE está liderando a nivel mundial con la Ley de IA, y se están llevando a cabo otros esfuerzos de gobernanza internacional. Estos incluyen el proceso de Hiroshima liderado por el G7 o la Declaración de Bletchley firmada después de la Cumbre de Seguridad de la IA.

La investigación es uno de los sectores que podría ser más significativamente interrumpido por la IA generativa. La IA tiene un gran potencial para acelerar el descubrimiento científico y mejorar la efectividad y el ritmo de los procesos de investigación y verificación. Ejemplos positivos del uso de estas herramientas por parte de los investigadores incluyen el apoyo a hablantes no nativos en la producción de textos en múltiples idiomas, la producción de resúmenes de texto a partir de diferentes fuentes en corpus extremadamente grandes de manera rápida y la recuperación automática y contextualización de un amplio cuerpo de conocimiento. Sin embargo, la tecnología también entraña el riesgo de abuso. Algunos riesgos se deben a las limitaciones técnicas de la herramienta, y otros tienen que ver con el uso (intencional o no intencional) de la herramienta de maneras que erosionan las prácticas de investigación sólidas. Otros riesgos para la investigación en Europa podrían derivarse de la naturaleza propietaria de algunas de las herramientas (por ejemplo, falta de apertura, tarifas para acceder al servicio, uso de datos de entrada) o de la concentración de propiedad.

El impacto de la IA generativa en la investigación y en varios aspectos del proceso científico requiere reflexión, por ejemplo, al trabajar con texto (resumir documentos, hacer lluvias de ideas o explorar ideas, redactar o traducir). En muchos aspectos, estas herramientas podrían dañar la integridad de la investigación y plantear preguntas sobre la capacidad de los modelos actuales para combatir prácticas científicas engañosas y desinformación.

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación 2024

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación. ANECA, 2024

Texto completo


La evaluación para la acreditación estatal de los cuerpos docentes universitarios se rige por el procedimiento establecido por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) en aplicación del Real Decreto 678/2023. Se requiere la presentación de un currículo abreviado que destaque las contribuciones más relevantes en investigación, transferencia de conocimiento, docencia y, en el caso de aspirar a Catedrático/a de Universidad (CU), competencias de liderazgo. La evaluación se basa en la selección y narrativa de las contribuciones, considerando su calidad, relevancia e impacto. La evaluación puede ser favorable o desfavorable, siendo necesaria una puntuación mínima de 50 sobre 100 en cada bloque establecido. Los requisitos mínimos varían según el cuerpo docente y el área de especialización, con énfasis en la investigación, la docencia y, en áreas clínicas de Ciencias de la Salud, la actividad profesional. Se establecen excepciones para solicitantes con trayectorias destacadas en investigación internacionalmente reconocida. En el caso de Profesor/a Titular de Escuela Universitaria, la acreditación se otorga a quienes obtengan 90 puntos o más en el bloque de actividad docente, según lo dispuesto en el Real Decreto 678/2023.

Las revistas científicas publican artículos con textos generados por inteligencia artificial

Maiberg ·, Emanuel. «Scientific Journals Are Publishing Papers With AI-Generated Text». 404 Media, 18 de marzo de 2024. https://www.404media.co/scientific-journals-are-publishing-papers-with-ai-generated-text/.

La frase ChatGPT «A partir de mi última actualización de conocimientos» aparece en varios trabajos publicados por revistas académicas. Las revistas científicas están publicando artículos con texto generado por IA

La inclusión de lenguaje aparentemente generado por herramientas de IA como ChatGPT en artículos científicos publicados muestra cuán omnipresente se ha vuelto la tecnología, y destaca los problemas que arrastra desde tiempo atrás la publicación académica en algunas revistas académicas revisadas por pares.

Al buscar la frase «As of my last knowledge update» en Google Scholar, una herramienta de búsqueda gratuita que indexa artículos publicados en revistas académicas, se obtienen 115 resultados. La frase es utilizada frecuentemente por ChatGPT de OpenAI para indicar cuándo se está obteniendo los datos que proporciona a los usuarios, y los meses y años específicos encontrados en estos artículos académicos corresponden a actualizaciones de conocimiento previas de ChatGPT.

«Hasta la última actualización de mis conocimientos, en septiembre de 2021, no existe una correlación científica ampliamente aceptada entre el entrelazamiento cuántico y las ondas escalares longitudinales», una frase que frecuentemente utiliza ChatGPT, se lee en un artículo titulado «Quantum Entanglement: Examining its Nature and Implications» publicado en el «Journal of Material Sciences & Manfacturing [sic] Research», una publicación que afirma estar revisada por expertos.

La mayoría de los artículos científicos que se observan y que incluyen esta frase fueron publicados en revistas que son pequeñas, no muy conocidas y parecen ser «fábricas de artículos«, revistas con bajos estándares editoriales que publicarán casi cualquier cosa rápidamente. Una publicación donde se encontró la frase generada por IA, la revista Open Access Research Journal of Engineering and Technology,, solicita «cargos por publicación bajos», un «certificado electrónico» de publicación, y actualmente está anunciando una convocatoria de artículos, prometiendo la aceptación dentro de 48 horas y la publicación dentro de cuatro días.

Este tipo de revistas son un problema bien conocido en la comunidad académica, y preceden a la llegada de las herramientas de IA generativas. En febrero, The Guardian informó que el año pasado se retiraron 10.000 «artículos fraudulentos» de revistas académicas. Un estudio en Nature también destacó estafas de «pago por publicación», que son revistas que cobran tarifas exorbitantes a cambio de publicar un artículo rápidamente. Separar este tipo de artículos y revistas de la ciencia legítima a veces puede ser difícil, porque muchas revistas respetables también cobran a los científicos «tarifas de procesamiento de artículos» (APCs) para ser publicadas.

Sin embargo, también se encontró lenguaje generado por IA en revistas académicas más respetables. La semana pasada, la investigadora de Bellingcat Kolina Koltai tuiteó un artículo publicado en Superficies e Interfaces, que incluía la frase «Certainly, here is a possible introduction for your topic:» (He aquí una posible introducción para su tema) al comienzo de la introducción del artículo. El título del artículo es “The three-dimensional porous mesh structure of Cu-based metal-organic-framework – aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries.”

Michael J. Naughton, profesor de física en Boston College y uno de los editores de Superficies e Interfaces, dijo que la publicación es consciente del artículo y está «retractándolo». Naughton también señaló la política existente de la publicación sobre IA.

«Cuando los autores utilizan inteligencia artificial generativa (IA) y tecnologías asistidas por IA en el proceso de escritura, los autores solo deben usar estas tecnologías para mejorar la legibilidad y el lenguaje», establece la política. «La aplicación de la tecnología debe hacerse con supervisión y control humanos, y los autores deben revisar cuidadosamente y editar el resultado, ya que la IA puede generar una salida que suena autoritaria pero que puede ser incorrecta, incompleta o sesgada.»

La política también establece que los autores deben revelar si usan IA en el artículo.

Algunos de los artículos indexados en Google Scholar que usan respuestas estándar de ChatGPT no son necesariamente investigaciones generadas por IA. Algunos de los artículos son estudios que investigan los tipos de respuestas que da ChatGPT, y simplemente citan las respuestas que obtienen. Por ejemplo, uno de los artículos que utiliza el término está investigando los «modelos de falla» de varios sistemas de chat de IA.

Esta no es la primera vez que se observa a revistas académicas publicar contenido generado por IA. En febrero, una revista llamada Frontiers in Cell Development and Biology publicó un artículo con varias imágenes claramente generadas por IA, incluida una de una rata con un pene gigante.

La cita más famosa de Einstein es totalmente malinterpretada


Big Think. «Einstein’s Most Famous Quote Is Totally Misunderstood», 11 de abril de 2023. https://bigthink.com/starts-with-a-bang/einstein-famous-quote-misunderstood/.

El famoso dicho de Einstein, «La imaginación es más importante que el conocimiento», a menudo se interpreta como que las concepciones superan lo que es real. Sin embargo, esa no fue su intención original.

Durante una entrevista con George Sylvester Viereck para el Saturday Evening Post en 1929, Einstein discutió su creencia en intuiciones y inspiraciones. Explicó que, aunque confiaba en su teoría de la relatividad, esperaba que las expediciones científicas financiadas por la Royal Academy confirmaran sus hipótesis. Cuando se le preguntó si confiaba más en su imaginación que en su conocimiento, Einstein respondió que era lo suficientemente artista como para aprovechar su imaginación libremente. Expresó que la imaginación es más importante que el conocimiento, ya que este último es limitado, mientras que la imaginación abarca el mundo.

En resumen, Einstein destacó la importancia de la imaginación sobre el conocimiento en el contexto de confiar en su intuición científica durante una entrevista, enfatizando que su éxito se basaba en gran medida en la capacidad de visualizar posibilidades más allá de lo que el conocimiento establecido permitía.

¿Cómo utilizar ChatGPT para la investigación científica?

Morales Chan, M. (2023). ¿Cómo utilizar ChatGPT para la investigación científica?. Recuperado 4 de marzo de 2024

Texto completo

Este guía básica ha sido creado para ayudar a desbloquear el poder de ChatGPT en la investigación. Su objetivo principal es compartir sugerencias de preguntas efectivas como punto de partida. Es importante destacar que ha sido concebido como un recurso de apoyo y no pretende sustituir el juicio crítico, la experiencia y la responsabilidad inherente al investigador.

Aunque ChatGPT puede apoyar el proceso de investigación, su eficacia está directamente relacionada con la claridad y precisión de las preguntas generadas.

En este guía, encontrarás:

  • Cómo ChatGPT puede ser tu aliado en la investigación. Aprende cómo hacer que ChatGPT sea un miembro de tu equipo de investigación, siempre disponible para ayudarte a explorar, analizar y sintetizar información relevante.
  • Dominio inmediato: Estrategias para formular preguntas que generen respuestas precisas y útiles. Domina el arte de la comunicación con ChatGPT para obtener información precisa y relevante para tus investigaciones.
  • Importancia de los prompts: Entiende por qué la forma en que formulas tus preguntas es crucial para la calidad de tus respuestas.
  • +30 Ejemplos de prompts de investigación: Una colección de prompts diseñados específicamente para investigadores, para inspirarte y guiarte en la formulación de tus propias preguntas efectivas.
  • Ética y responsabilidad: Claves para integrar la IA en tu investigación, manteniendo altos estándares éticos.
  • Recomendaciones generales: Consejos prácticos para el uso correcto de ChatGPT en investigaciones, garantizando resultados eficaces y éticos.

¿Cuán confiables son los DOI? Un 3% de los enlaces DOI fallan

Crossref, «What, though, do we actually know about the state of persistence of these links?,» Crossref Blog, acceso el 3 de marzo de 2024, https://www.crossref.org/blog/what-do-we-know-about-dois/.

Crossref guarda metadatos de aproximadamente 150 millones de artefactos académicos. Estos van desde artículos de revistas revisados por pares hasta libros académicos y entradas de blog científico. De hecho, en medio de tal heterogeneidad, el único factor singular que une a estos elementos es que se les ha asignado un identificador de objeto de documento (DOI, por sus siglas en inglés); una cadena de identificación única que se puede utilizar para resolver a un recurso relacionado con dichos metadatos (a menudo, aunque no siempre, una copia del trabajo identificado por los metadatos).

Pero, ¿qué sabemos realmente sobre el estado de persistencia de estos enlaces? ¿Cuántos DOIs se resuelven correctamente? ¿Cuántas páginas de destino, al otro extremo de la resolución del DOI, contienen la información que se supone que debe estar allí, incluido el título y el propio DOI? ¿Cómo podemos averiguarlo?

Hablemos de las estadísticas de resolución. Otros estudios, que examinan los enlaces generales en la web, han encontrado una tasa de descomposición de enlaces de aproximadamente del 60% al 70% en un período de diez años (Lessig, Zittrain y Albert 2014; Stox 2022). La tasa de resolución de DOIs que tenemos, con el 97% de los enlaces resueltos (o una tasa de descomposición de enlaces del 3%), es mucho mejor y más sólida que un enlace web en general.

¿Es un 3% un número bueno o malo? Es más sólido que la web en general, pero aún significa que, de cada 100 DOIs, casi 3 no se resolverán. Además, no podemos determinar si estos DOIs se están resolviendo al objetivo correcto, excepto mediante el uso de métricas de detección de metadatos (¿están el título y el DOI en la página de destino, lo cual solo podríamos detectar a una tasa mucho más baja?). Es completamente posible que un sitio web se resuelva con una respuesta HTTP 200 (OK), pero que la página en cuestión sea algo muy diferente a lo que el usuario esperaba, un fenómeno llamado deriva de contenido. Un buen ejemplo es el secuestro de dominios, donde un nombre de dominio expira y empresas de spam los compran. Estos todavía se resuelven a una página web, pero en lugar de un artículo sobre ARN, por ejemplo, el usuario recibe anuncios de mangueras de soldadura de caucho. Dicho esto, otros estudios también son propensos a esto y no hay garantía de que la deriva de contenido no afecte a una gran proporción de enlaces supuestamente buenos en los otros estudios también.

Dimensions Research GPT: Conectando la IA y la Investigación Científica

Dimensions. «Dimensions Research GPT on ChatGPT», 28 de febrero de 2024. https://www.dimensions.ai/products/all-products/dimensions-research-gpt/.

En Dimensions Research GPT se fusiona la interfaz conversacional de ChatGPT con los vastos registros de publicaciones de Dimensions, ofreciendo respuestas rápidas y confiables a consultas de investigación. Esta combinación de tecnología de IA y datos científicos garantiza una herramienta eficiente y precisa para acceder a información relevante.

Los usuarios pueden obtener respuestas generadas por IA a preguntas relacionadas con la investigación en la plataforma GPT, informadas por la enorme base de datos de Dimensions, lo que hace que ChatGPT sea más específico para la exploración de temas de investigación.

De este modo, Dimensions Research GPT combina la interfaz conversacional de ChatGPT con los extensos registros de publicaciones de Dimensions, proporcionando respuestas rápidas y confiables para consultas de investigación. Al aprovechar la tecnología de IA y estar fundamentado en evidencia científica, ofrece a los usuarios una herramienta eficiente y confiable para acceder a información.

Esta herramienta aprovecha el extenso repositorio de publicaciones de acceso abierto de Dimensions para proporcionar a los usuarios resultados generativos respaldados por evidencia científica sólida. De esta manera, los investigadores pueden confiar en la credibilidad y la calidad de la información obtenida.

Disponible exclusivamente para usuarios de ChatGPT Plus y Enterprise, Dimensions Research GPT garantiza que una amplia gama de investigadores tenga acceso a esta valiosa herramienta. Además, ofrece referencias accesibles para todo el contenido generado, lo que permite a los usuarios validar la información y explorar más a fondo el material fuente.

Los usuarios pueden navegar fácilmente por la lista de referencias y acceder a la página de detalles de Dimensions, lo que facilita una investigación más profunda sobre el artículo fuente. Esto proporciona una experiencia de usuario intuitiva y eficiente para profundizar en los temas de interés.

Para utilizar Dimensions Research GPT, los usuarios deben tener una cuenta de ChatGPT Plus o Enterprise. Una vez iniciada sesión, pueden acceder a la herramienta a través de la tienda GPT dentro de la aplicación y comenzar a realizar preguntas relacionadas con la investigación.

Así, Dimensions Research GPT se presenta como un asistente de IA transformador para la comunidad de investigación, ofreciendo respuestas rápidas y precisas basadas en evidencia científica. Su integración de la interfaz conversacional de ChatGPT y los registros de publicaciones de Dimensions proporciona una poderosa herramienta para acceder a información confiable y avanzar en la investigación científica.