Archivo de la etiqueta: Investigación

¿En qué se equivocó el movimiento por el acceso abierto?

Anderson, Rick. 2023. «Where Did the Open Access Movement Go Wrong?: An Interview with Richard Poynder». The Scholarly Kitchen. 7 de diciembre de 2023.

Ver entrevista

Richard Poynder, destacado analista del entorno de comunicación académica y del movimiento de acceso abierto (OA), ha anunciado su decisión de apartarse del movimiento OA, al que ha considerado fallido. En una entrevista por correo electrónico, Poynder explica que su frustración con varios aspectos del movimiento y la percepción de que este no ha cumplido sus promesas fundamentales fueron determinantes para su decisión.

Poynder señala que el movimiento OA no ha abordado adecuadamente los problemas de accesibilidad, asequibilidad y equidad en la comunicación académica. Critica la falta de definición clara y la falta de propiedad del movimiento por parte de sus defensores, lo que permitió a las editoriales cooptar el OA para sus propios fines.

El entrevistado destaca que la transición a un modelo de pago por publicación (APC) ha prevalecido en el OA, exacerbando problemas de asequibilidad y marginando a investigadores sin fondos. Además, observa la creciente burocratización del proceso, alejándolo de sus principios originales de voluntarismo y bottom-up*.

Poynder analiza los intentos actuales de «resetear» el OA, pero expresa dudas sobre la viabilidad de estos esfuerzos y sugiere que el OA ha llegado a un punto muerto. También cuestiona la viabilidad de la propuesta de infraestructuras abiertas no comerciales y plantea la posibilidad de que, en el futuro, se necesite más control sobre la información científica debido a la proliferación de la inteligencia artificial y los modelos de lenguaje. Predice que podríamos ver un regreso a paywalls y a un entorno «todos los derechos reservados».

* «Bottom-up OA» se refiere a un enfoque del movimiento de acceso abierto (OA) que aboga por la participación voluntaria y activa de los investigadores individuales. En este contexto, «bottom-up» significa que la adopción de prácticas de acceso abierto y la contribución de contenido de investigación de forma abierta son decisiones tomadas desde la base por los propios investigadores, en contraposición a enfoques más centralizados o impuestos por instituciones, editoriales u organismos financiadores.

Wiley dejará de utilizar la marca «Hindawi» por críticas sobre venta de autorías, lo que ha generado un descenso de ingresos de 18 millones de dólares

Kincaid, Author Ellie. 2023. «Wiley to Stop Using “Hindawi” Name amid $18 Million Revenue Decline». Retraction Watch (blog). 6 de diciembre de 2023. https://retractionwatch.com/2023/12/06/wiley-to-stop-using-hindawi-name-amid-18-million-revenue-decline/.


Wiley ha comunicado su decisión de no utilizar la problemática marca Hindawi. La editorial Hindawi ha llevado a controversias, desatando numerosas críticas acerca de la calidad de algunos de sus artículos, venta de autorías y retractaciones masivas. En un movimiento estratégico, Wiley planea integrar las alrededor de 200 revistas de Hindawi en el conjunto de su cartera para mediados del próximo año.

Hindawi era una editorial académica especializada en revistas de acceso abierto. La empresa se estableció en 1997 en Egipto y creció para convertirse en uno de los principales editores de acceso abierto en el mundo. Su adquisición por parte de Wiley en 2021 ha generado problemas significativos, con una pérdida de ingresos de 18 millones de dólares en el último trimestre financiero en comparación con el mismo trimestre del año anterior, según reveló la misma Wiley. Las revistas de Hindawi se han visto afectadas por la publicación de contenido de baja calidad y «fabricas de papel«*, lo que ha llevado a miles de retractaciones, cierres de revistas y la exclusión de varios títulos de un importante índice.

En el actual año fiscal, Wiley anticipa una pérdida de ingresos de entre 35 y 40 millones de dólares procedentes de Hindawi. Esto se debe a los esfuerzos en curso para abordar los problemas en las revistas y retractarse de los artículos. Matthew Kissner, presidente y CEO interino de Wiley, comunicó en la conferencia de resultados que la empresa espera que los ingresos comiencen a recuperarse en el próximo año fiscal.

* En el ámbito de la investigación, una fábrica de artículos se refiere a una organización con fines de lucro, no oficial y potencialmente ilegal que produce y vende manuscritos fraudulentos que pretenden asemejarse a investigaciones genuinas.

El cambio del oligopolio al acceso abierto. Cómo se benefician las cinco grandes editoriales académicas de los gastos de tramitación de los artículos (APCs)

Butler, Leigh-Ann, Lisa Matthias, Marc-André Simard, Philippe Mongeon, y Stefanie Haustein. 2023. «The oligopoly’s shift to open access: How the big five academic publishers profit from article processing charges». Quantitative Science Studies, noviembre, 1-22. https://doi.org/10.1162/qss_a_00272.


Elte estudio tiene como objetivo estimar la cantidad total de cargos por procesamiento de artículos (APCs, por sus siglas en inglés) pagados para publicar en acceso abierto (OA) en revistas controladas por las cinco grandes editoriales comerciales: Elsevier, Sage, Springer-Nature, Taylor & Francis y Wiley, entre 2015 y 2018.

Utilizando datos de publicación de WoS, el estado de OA de Unpaywall y precios anuales de APC de conjuntos de datos abiertos y tarifas históricas recuperadas a través de Internet Archive Wayback Machine, se estimó que globalmente los autores pagaron 1.06 mil millones de dólares en tarifas de publicación a estas editoriales de 2015 a 2018. Los ingresos de OA dorado ascendieron a 612.5 millones de dólares, mientras que se obtuvieron 448.3 millones de dólares por la publicación de OA en revistas híbridas. Entre las cinco editoriales, Springer-Nature generó los mayores ingresos por OA (589.7 millones de dólares), seguido por Elsevier (221.4 millones), Wiley (114.3 millones), Taylor & Francis (76.8 millones) y Sage (31.6 millones). Con Elsevier y Wiley generando la mayor parte de los ingresos de APC a través de tarifas híbridas y otras enfocándose en la ruta dorada, se pueden observar diferentes estrategias de OA entre las editoriales.

Los editores responden a los comentarios de la Oficina de Derechos de Autor diciendo que las empresas multimillonarias de inteligencia artificial copian en masa obras sin consentimiento

Publishers Submit Reply Comments to Copyright Office in Artificial Intelligence Proceeding—AAP. (2023, diciembre 6).

Texto completo

Association of American Publishers (AAP) de Estados Unidos presentó los comentarios de respuesta en la investigación de la U.S. Copyright Office de EE. UU. sobre la intersección entre la ley de derechos de autor y la inteligencia artificial (IA) en respuesta a afirmaciones defectuosas e inexactas presentadas por algunas empresas tecnológicas y/o sus inversores en la primera ronda de comentarios, incluidas afirmaciones agotadas de que los derechos de los autores y editores son un obstáculo para la innovación.

AAP presentó una extensa contribución que incluye los siguientes puntos:

  1. Las grandes empresas tecnológicas piden al gobierno «cobertura contra la responsabilidad por su desconsideración calculada de la autoría, ignorando también que los titulares de derechos ya licencian rutinariamente sus obras para todo tipo de usos digitales».
  2. «En lugar de trabajar con los propietarios de derechos de autor, estas empresas buscan apropiarse de la literatura y otras propiedades intelectuales invaluables para su propio beneficio comercial y torcer la ley a su voluntad. El gobierno no debería tener ningún papel en otorgar ventajas comerciales a las empresas de IA a expensas de autores, editores y otros creadores».
  3. «Las empresas que se benefician de la comercialización de esta tecnología deberían estar obligadas no solo a compensar a los titulares de derechos por su ingestión pasada de obras con derechos de autor para entrenar sistemas Gen AI, sino también por su uso continuo y futuro de obras protegidas para entrenar nuevos sistemas Gen AI o ajustar sus productos existentes».
  4. «Los desarrolladores de Gen AI no son ‘start-ups’ que luchan y necesitan un impulso del gobierno. Cuentan entre sus inversores a algunas de las empresas tecnológicas más grandes y rentables del mundo y tienen un valor, en algunos casos, entre 80 y 90 mil millones de dólares. No hay absolutamente ninguna razón de política pública para crear inmunidades legales para tales empresas, que solo enfrentan el requisito razonable de buscar el consentimiento o licencias de los titulares de derechos cuyas obras utilizan para entrenar sus sistemas Gen AI».
  5. «Sería un grave error repetir los errores de política pasados que permitieron a las empresas tecnológicas alcanzar una dominancia de mercado poco saludable, casi de monopolio, hasta el punto de que los gobiernos han luchado por frenar su poder, a pesar de los intentos repetidos de moderar sus tácticas agresivas en el mercado».
  6. «La cuestión de la seguridad nacional es ciertamente motivo de profunda preocupación para todos los ciudadanos estadounidenses, especialmente cuando los actores malintencionados pueden utilizar la IA y los sistemas Gen AI para sembrar desinformación o información falsa que socave nuestras instituciones democráticas y cree otros riesgos para la seguridad nacional. Esta posibilidad señala la necesidad aún mayor de autores y editores que produzcan y difundan contenido de calidad verificado y verificado. Avanzar en la agenda tecnológica y económica de la nación no es un juego de suma cero, y no debería convertirse en una carrera hacia el fondo».
  7. «La transparencia es un requisito esencial. Es de interés público saber qué obras de autor se han ingerido y es una parte esencial de buscar un consentimiento adecuado tener esa información claramente registrada. Este requisito no es oneroso y se presta a una mayor innovación en el campo de las empresas de derechos digitales».
  8. «En ningún caso la Ley de Derechos de Autor permite el acceso no autorizado o la adquisición de obras con derechos de autor. El acceso legal a fuentes autorizadas es importante. No se permite a un ser humano reproducir y descargar ilegalmente 183,000 obras con derechos de autor (el número de títulos infractores estimados en el corpus ‘Books3’) para leer o aprender de ellas».

Modelado de escenarios para Open Research Europe

Johnson, R., Scenario modelling for Open Research Europe, Publications Office of the European Union, 2023, https://data.europa.eu/doi/10.2777/15140

Este informe ofrece orientación sobre el modelo operativo y de financiamiento para establecer Open Research Europe (ORE), la plataforma de publicación de acceso abierto de la Comisión Europea, como un servicio de publicación colectivo sin fines de lucro a partir de 2026. Identifica y considera una variedad de factores internos y externos que influyen en el probable crecimiento en las salidas publicadas y los costos operativos de ORE entre 2026 y 2030, y propone un modelo operativo para el servicio. Presenta un escenario de planificación central basado en la publicación de 6.600 artículos durante cinco años, respaldado por 17.6 millones de euros de financiamiento. Se prefiere un crecimiento constante en lugar de exponencial para ORE, permitiendo mantener la calidad y reunir apoyo financiero con el tiempo a medida que la plataforma gana aceptación dentro de la comunidad de autores.

Acceso a la ciencia y la erudición: preguntas clave sobre el futuro de la publicación de trabajos de investigación

«Access to Science and Scholarship: Key Questions about the Future of Research Publishing» MIT Press, 2023

Texto completo

«Access to Science and Scholarship: Key Questions about the Future of Research Publishing» («Acceso a la Ciencia y la Investigación: Preguntas Clave sobre el Futuro de la Publicación de Investigaciones»), un nuevo informe técnico sobre la publicación de acceso abierto, escrito por Phillip A. Sharp, William B. Bonvillian, Robert Desimone, Barbara Imperiali, David R. Karger, Clapperton Chakanetsa Mavhunga, Amy Brand, Nick Lindsay y Michael Stebbins.

La salud de la empresa de investigación está estrechamente ligada a la efectividad del ecosistema de publicación científica y académica. Los cambios impulsados por políticas, tecnología y el mercado en los modelos de publicación durante las últimas dos décadas han provocado diversas interrupciones dentro de este ecosistema.

Cambios impulsados por políticas, tecnología y el mercado en los modelos de publicación durante las últimas dos décadas han desencadenado diversas interrupciones dentro de este ecosistema:

  1. Aumento continuo en el costo de la publicación de revistas, con modelos de acceso abierto dominantes que transfieren los costos de los suscriptores a los autores.
  2. Consolidación significativa e integración vertical (cadena de suministro) en la industria editorial, y una disminución en las revistas de suscripción propiedad de sociedades que durante mucho tiempo han subvencionado a las sociedades científicas y académicas.
  3. Un aumento drástico en el número de revistas «depredadoras» con revisiones por pares deficientes.
  4. Disminución en el poder adquisitivo de las bibliotecas académicas en relación con la cantidad y el costo de la investigación publicada.

Muchos en la comunidad de investigación no están al tanto de los impulsores del cambio en la publicación académica y las posibles consecuencias para la empresa de investigación. Aunque a menudo se les excluye de la conversación, los investigadores se ven directamente afectados por estos desarrollos. Se están tomando decisiones en la actualidad que podrían reducir potencialmente los presupuestos de investigación, aumentar las cargas de trabajo de los investigadores y alterar las opciones de publicación y la función reputacional que la publicación ha desempeñado durante mucho tiempo.

Para ilustrar cómo interactúan el comportamiento de los investigadores, las políticas de los financiadores y los modelos de negocios e incentivos de los editores, la parte 1 de este informe presenta un resumen histórico de la publicación de acceso abierto. La parte 2 del informe proporciona una lista de preguntas clave para una mayor investigación con el objetivo de comprender, medir y prepararse mejor para el impacto de las nuevas políticas relacionadas con el acceso abierto en la publicación de investigaciones, categorizadas en seis áreas generales: acceso y modelos de negocio, datos de investigación, publicación de preimpresos, revisión por pares, costos para investigadores y universidades, e infraestructura.

España quiere cambiar su forma de evaluar a los científicos y acabar con la «dictadura de los artículos».

«Spain Wants to Change How It Evaluates Scientists—and End the ‘Dictatorship of Papers’». Accedido 30 de noviembre de 2023. https://www.science.org/content/article/spain-wants-change-how-it-evaluates-scientists-and-end-dictatorship-papers.

El muy criticado sistema español de evaluación de científicos, en el cual el único criterio para el avance profesional es la publicación de artículos, está listo para ser reformado según las nuevas propuestas de la Agencia Nacional de Evaluación y Acreditación (ANECA) del país.

Las reformas, anunciadas a principios de este mes, verían por primera vez a los investigadores de las universidades públicas de España evaluados por una variedad de resultados además de los artículos, y también se fomentaría la distribución de hallazgos a través de plataformas de acceso abierto. Muchos científicos están dando la bienvenida a este cambio, diciendo que ayudará a la academia a dejar atrás un sistema que ha sido descrito como el establecimiento de una «dictadura de artículos».

Actualmente, ANECA evalúa el «rendimiento investigador» de los académicos cada 6 años. Para obtener un modesto aumento salarial y ser elegibles para ascensos, los investigadores deben demostrar que han publicado un mínimo de cinco artículos durante ese período en revistas de alto impacto indexadas en el Journal Citation Reports (JCR), una base de datos producida por la empresa de análisis editorial Clarivate. Cumplir con este objetivo también permite a los científicos supervisar a estudiantes de doctorado y ser enumerados como investigadores principales en sus universidades, lo que les brinda acceso a un presupuesto más amplio.

El gobierno español introdujo este sistema en 1994 en un esfuerzo por aumentar la productividad de los investigadores del país. Y tuvo éxito: para 2021, España ocupaba el puesto 11 a nivel mundial en producción científica, con más de 100.000 publicaciones anuales, según el Ministerio de Ciencia e Innovación.

Pero muchos académicos dicen que el sistema ha tenido un impacto negativo en la calidad de su trabajo y en la ciencia en general. Desencadenó «una máquina insaciable de publicación de artículos», según Ángel Delgado Vázquez, jefe del Servicio de Apoyo al Aprendizaje e Investigación en la Universidad Pablo de Olavide. Los investigadores pueden trabajar frenéticamente para cumplir con el objetivo, publicando un artículo cada 2 días. Otros han tomado atajos, publicando artículos de baja calidad o buscando fraudulentamente la coautoría; algunos han admitido recibir pagos de investigadores en Arabia Saudita o India para coautorar artículos en los que no contribuyeron. Los críticos dicen que el sistema también ha alentado a los investigadores a priorizar la publicación sobre la enseñanza y a utilizar fondos públicos para pagar tarifas de procesamiento de artículos cada vez más altas impuestas por algunas revistas.

Bajo el nuevo sistema, ANECA quiere que las evaluaciones consideren una gama más amplia de resultados de investigación, incluyendo «publicaciones, patentes, informes, estudios, trabajos técnicos, obras artísticas, exposiciones, excavaciones arqueológicas, [y la] creación de registros bibliográficos». Los evaluadores ya no solo tendrán en cuenta el factor de impacto de las revistas en las que publican los científicos, sino también detalles como si la investigación llega a audiencias no académicas a través de informes de noticias o documentos gubernamentales. Los artículos también obtendrán una puntuación más alta cuando se produzcan en colaboración con comunidades locales u otros autores no académicos. Y en un intento de reducir el nivel de fondos públicos gastados en costos de publicación, los evaluadores tendrán en cuenta los artículos publicados en plataformas de publicación de acceso abierto no comerciales que no cobran tarifas a los autores, como Open Research Europe.

Los cambios son un intento de corregir un sistema que ha priorizado «cantidad sobre calidad» y de «reconocer que hay diferentes formas de hacer ciencia», según Pilar Paneque, directora de ANECA. También espera que el nuevo sistema ayude a reducir el fraude en la publicación. (Delgado Vázquez, por su parte, cree que «sin duda contribuirá a erradicar prácticas poco éticas»).

Las propuestas son una «apuesta audaz», según Núria Benítez Monforte, administradora de investigación en el Instituto Catalán de Nanociencia y Nanotecnología. Pero otros dicen que se necesita una reforma aún más radical. Por ejemplo, la científica de la información Eva Méndez, miembro de la Junta Directiva de la Coalición para el Avance de la Evaluación de la Investigación, sostiene que los ciclos de evaluación de 6 años deberían abolirse por completo, porque «solo sirven para enriquecer a las principales editoriales científicas, aumentando la frustración de los investigadores más jóvenes».

ANECA está revisando actualmente unos 600 comentarios que ha recibido sobre sus propuestas de cambios, con el objetivo de finalizar el nuevo sistema de evaluación a finales de este mes. Si todo sale según lo planeado, entraría en vigencia el 1 de enero de 2024.

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.

Los LLMs de la Inteligencia Artificial pueden amenazar la integridad científica debido a su propensión a generar información errónea o fantasiosa

Mittelstadt, Brent, Sandra Wachter, y Chris Russell. «To Protect Science, We Must Use LLMs as Zero-Shot Translators». Nature Human Behaviour 7, n.o 11 (noviembre de 2023): 1830-32. https://doi.org/10.1038/s41562-023-01744-0.

Un artículo escrito por los profesores Brent Mittelstadt, Chris Russell y Sandra Wachter del Instituto de Internet de Oxford aborda preocupaciones sobre los Modelos de Lenguaje Grandes (LLMs) que representan una amenaza directa para la ciencia debido al fenómeno de ‘alucinaciones’, la generación de respuestas no verídicas. El artículo destaca la necesidad de restricciones en los LLMs para salvaguardar la verdad científica.

Un nuevo informe elaborado por destacados investigadores de Inteligencia Artificial en el Instituto de Internet de Oxford advierte que los Grandes Modelos de Lenguaje (LLMs) constituyen una amenaza directa para la ciencia debido a las denominadas ‘alucinaciones’ y deben ser restringidos para proteger la verdad científica. Publicado en Nature Human Behaviour, el documento, redactado por los Profesores Brent Mittelstadt, Chris Russell y Sandra Wachter, explica que los LLMs están diseñados para proporcionar respuestas útiles y convincentes sin garantías definitivas sobre su precisión o alineación con los hechos.

La razón detrás de esto es que los datos utilizados por la tecnología para responder preguntas no siempre provienen de fuentes factualmente correctas. Los LLMs se entrenan en grandes conjuntos de datos de texto, generalmente extraídos de fuentes en línea, que pueden contener declaraciones falsas, opiniones y escritura creativa, entre otros tipos de información no factual.

El Prof. Mittelstadt explica que las personas tienden a confiar en los LLMs como si fueran fuentes de información humanas, en parte debido a su diseño como agentes útiles y con sonido humano que conversan con los usuarios y responden a prácticamente cualquier pregunta con texto seguro y bien escrito. Esto conlleva al riesgo de que los usuarios se convenzan fácilmente de la precisión de las respuestas, incluso cuando carecen de base factual o presentan versiones sesgadas de la verdad.

Para proteger la ciencia y la educación contra la propagación de información incorrecta y sesgada, los autores argumentan que deben establecerse expectativas claras sobre lo que los LLMs pueden contribuir de manera responsable y útil. Según el informe, «para tareas en las que la verdad es crucial, alentamos a los usuarios a redactar indicadores de traducción que incluyan información verificada y factual».

La Prof. Wachter destaca la importancia de cómo se utilizan los LLMs, especialmente en la comunidad científica, enfatizando la necesidad de confianza en la información fáctica y la responsabilidad en el uso de esta tecnología. El Prof. Russell agrega que es crucial reflexionar sobre las oportunidades que ofrecen los LLMs y considerar si realmente queremos otorgar esas oportunidades a una tecnología solo porque podemos.

Actualmente, los LLMs se tratan como bases de conocimiento y se utilizan para generar información en respuesta a preguntas, lo que hace que el usuario sea vulnerable tanto a la regurgitación de información falsa presente en los datos de entrenamiento como a las ‘alucinaciones’, es decir, información falsa generada espontáneamente por el LLM que no estaba presente en los datos de entrenamiento.

Para superar esto, los autores argumentan que los LLMs deberían utilizarse de manera orientativa. En lugar de depender del LLM como fuente de información relevante, el usuario simplemente debe proporcionar al LLM información apropiada y pedirle que la transforme en una salida deseada, como reescribir puntos clave como conclusión o generar código para transformar datos científicos en un gráfico.

Utilizar los LLMs de esta manera facilita la verificación de la corrección factual y la consistencia con la entrada proporcionada. Los autores reconocen que la tecnología seguramente ayudará en los flujos de trabajo científicos, pero enfatizan que la escrutinio de sus resultados es fundamental para proteger una ciencia robusta.

Cosas que los investigadores no deben esperar del ChatGPT

Bhosale, Uttkarsha. «ChatGPT’s Limitations in Research». Enago Academy (blog), 5 de junio de 2023. https://www.enago.com/academy/chatgpt-cannot-do-for-researchers-2/.

¿Puede ChatGPT competir realmente con la brillantez de las mentes humanas? Sólo puede imitar aquello para lo que ha sido entrenado, dejando la verdadera innovación fuera de la ecuación. Ninguna inteligencia artificial podrá sustituir a la experiencia humana en la investigación y la escritura académica.

1- Aporte ideas de investigación originales

Las ideas originales de investigación son la savia del progreso científico. Impulsan la innovación, amplían el conocimiento y allanan el camino para descubrimientos revolucionarios. Sin embargo, generar estas ideas va más allá de las capacidades de ChatGPT.

2- Interpretar análisis de datos complejos

ChatGPT puede tener dificultades para comprender los matices y complejidades de estos enfoques analíticos. Los investigadores, por su parte, poseen los conocimientos y la experiencia necesarios para navegar a través del análisis de datos complejos, algo que ChatGPT no puede adquirir. Además, ChatGPT no puede identificar posibles sesgos, factores de confusión o valores atípicos que puedan afectar a la validez de los resultados.

3- Participar en la revisión académica por pares

ChatGPT carece de la capacidad de evaluar la calidad y validez de los trabajos de investigación, por lo que no es adecuado para la revisión académica por pares. Los modelos de IA como ChatGPT se entrenan con una gran cantidad de datos de texto y pueden generar respuestas basadas en patrones y conocimientos dentro de sus datos de entrenamiento. Sin embargo, no poseen la experiencia específica del dominio ni las habilidades de pensamiento crítico necesarias para una rigurosa revisión académica por pares.

4- Proporcionar información en tiempo real sobre el progreso de la investigación

Dada su falta de comprensión contextual, ChatGPT no puede proporcionar información en tiempo real sobre los proyectos de investigación en curso. ChatGPT puede no ser capaz de evaluar el progreso de la investigación, lo que requiere un profundo conocimiento del área de investigación específica, las metodologías empleadas y la literatura y marcos teóricos relevantes.

5- Generar revisiones bibliográficas exhaustivas

ChatGPT puede tener dificultades para evaluar la calidad y pertinencia de las fuentes, lo que limita su capacidad para generar reseñas bibliográficas exhaustivas. No puede examinar artículos de investigación, libros, ponencias y otras fuentes académicas por su metodología, análisis de datos, marcos teóricos y contribución al campo.

6- Redactar propuestas de investigación o solicitudes de subvención

Es posible que ChatGPT no comprenda del todo los matices de los requisitos de financiación, por lo que resulta inadecuado para redactar propuestas de investigación o solicitudes de subvención. No puede cumplir los requisitos de redacción de una subvención a medida e incluir detalles sobre los objetivos del proyecto de investigación, la metodología, los resultados esperados, el presupuesto, el calendario y la alineación con las prioridades del organismo de financiación.

7- Desarrollar nuevas metodologías experimentales

ChatGPT carece de la experiencia y los conocimientos específicos necesarios para desarrollar nuevas metodologías experimentales. Los investigadores poseen los conocimientos necesarios para identificar lagunas en la investigación, formular preguntas de investigación y diseñar experimentos a medida para abordar objetivos específicos. El desarrollo de nuevas metodologías experimentales suele requerir una combinación de creatividad, pensamiento crítico y capacidad para resolver problemas, algo que ChatGPT o cualquier otra herramienta de IA no pueden hacer en sus formas actuales.

8- Tomar decisiones éticas en la investigación

ChatGPT no está equipado para emitir juicios morales ni para navegar por los complejos dilemas éticos que pueden encontrar los investigadores. Los propios investigadores proporcionan el marco ético necesario para unas prácticas de investigación responsables y éticas. No está capacitado para comprender y aplicar los principios y directrices éticos específicos de su campo, como los que establecen los comités de revisión ética o los comités de revisión institucional (CEI).

9- Contribuir a los avances científicos

ChatGPT puede proporcionar apoyo y ofrecer ideas basadas en patrones en sus datos de entrenamiento; sin embargo, no puede conducir de forma independiente a avances científicos. Aunque ChatGPT puede ayudar a los investigadores ofreciéndoles información e ideas iniciales, carece de la intuición, la creatividad y el pensamiento innovador de los investigadores humanos.