Van Noorden, Richard, y Jeffrey M. Perkel. «
AI and Science: What 1,600 Researchers Think».
Nature 621, n.
o 7980 (27 de septiembre de 2023): 672-75.
https://doi.org/10.1038/d41586-023-02980-0.
Las herramientas de inteligencia artificial (IA) están cada vez más presentes en la ciencia, y muchos científicos anticipan que pronto serán centrales en la práctica de la investigación, según una encuesta de Nature a más de 1.600 investigadores de todo el mundo.
Cuando se les preguntó qué tan útiles creían que se volverían las herramientas de IA para sus campos en la próxima década, más de la mitad esperaba que las herramientas fueran «muy importantes» o «esenciales». Sin embargo, los científicos también expresaron fuertes preocupaciones sobre cómo la IA está transformando la forma en que se realiza la investigación.
El porcentaje de documentos de investigación que mencionan términos de IA ha aumentado en todas las áreas en la última década, según un análisis para este artículo realizado por Nature.
Las técnicas estadísticas de aprendizaje automático están ahora bien establecidas, y los últimos años han visto avances rápidos en la IA generativa, incluidos los modelos de lenguaje grandes (LLMs), que pueden producir salidas fluidas como texto, imágenes y código basado en los patrones en sus datos de entrenamiento. Los científicos han estado utilizando estos modelos para ayudar a resumir y escribir documentos de investigación, generar ideas y escribir código, y algunos han estado probando la IA generativa para ayudar a producir nuevas estructuras de proteínas, mejorar los pronósticos meteorológicos y sugerir diagnósticos médicos, entre muchas otras ideas.
Al centrarse primero en el aprendizaje automático, los investigadores destacaron muchas formas en que las herramientas de IA los ayudan en su trabajo. De una lista de posibles ventajas, dos tercios señalaron que la IA proporciona formas más rápidas de procesar datos, el 58% dijo que acelera cálculos que antes no eran factibles, y el 55% mencionó que ahorra tiempo y dinero a los científicos.
«La IA me ha permitido progresar en responder preguntas biológicas donde el progreso era previamente inviable», dijo Irene Kaplow, bióloga computacional en la Universidad Duke en Durham, Carolina del Norte.
Los resultados de la encuesta también revelaron preocupaciones generalizadas sobre los impactos de la IA en la ciencia. De una lista de posibles impactos negativos, el 69% de los investigadores dijo que las herramientas de IA pueden llevar a una mayor dependencia del reconocimiento de patrones sin comprensión, el 58% dijo que los resultados pueden afianzar el sesgo o la discriminación en los datos, el 55% pensó que las herramientas podrían facilitar el fraude y el 53% señaló que el uso mal considerado puede llevar a investigaciones irreproducibles.
«El principal problema es que la IA desafía nuestros estándares existentes de prueba y verdad», dijo Jeffrey Chuang, quien estudia análisis de imágenes de cáncer en el Laboratorio Jackson en Farmington, Connecticut.
Usos esenciales Para evaluar las opiniones de los investigadores activos, Nature envió por correo electrónico a más de 40,000 científicos que habían publicado documentos en los últimos 4 meses de 2022, además de invitar a los lectores del Nature Briefing a participar en la encuesta. Dado que los investigadores interesados en la IA eran mucho más propensos a responder a la invitación, los resultados no son representativos de todos los científicos. Sin embargo, los encuestados se dividieron en 3 grupos: el 48% que desarrollaba o estudiaba directamente la IA, el 30% que había usado IA para su investigación y el 22% restante que no usaba IA en su ciencia.
Entre los que usaban IA en su investigación, más de una cuarta parte sintió que las herramientas de IA se volverían «esenciales» para su campo en la próxima década, en comparación con el 4% que pensaba que las herramientas eran esenciales ahora, y otro 47% pensó que la IA sería «muy útil». A los investigadores cuyo campo de investigación ya era la IA no se les hizo esta pregunta. Los investigadores que no usan IA eran, como era de esperar, menos entusiastas. Aun así, el 9% sintió que estas técnicas se volverían «esenciales» en la próxima década, y otro 34% dijo que serían «muy útiles».
Grandes modelos de lenguaje El chatbot ChatGPT y sus primos LLM fueron las herramientas que los investigadores mencionaron más a menudo cuando se les pidió que escribieran el ejemplo más impresionante o útil de herramientas de IA en la ciencia
Cuando se les pidió que seleccionaran de una lista de posibles impactos negativos de la IA generativa, el 68% de los investigadores se preocuparon por la proliferación de desinformación, otro 68% pensaron que facilitaría el plagio y dificultaría su detección, y el 66% estaban preocupados por la introducción de errores o inexactitudes en los documentos de investigación.
Los encuestados agregaron que estaban preocupados por estudios falsificados, información falsa y la perpetuación de sesgos si las herramientas de IA para diagnósticos médicos se entrenaran con datos históricamente sesgados.
«Claramente hay un mal uso de los grandes modelos de lenguaje, inexactitud y resultados huecos pero con un tono profesional que carecen de creatividad», dijo Isabella Degen, ingeniera de software y exemprendedora que ahora está estudiando para un doctorado en el uso de IA en medicina en la Universidad de Bristol, Reino Unido. «En mi opinión, no entendemos bien dónde está la línea entre el buen uso y el mal uso».
El beneficio más claro, pensaron los investigadores, era que los LLMs ayudaban a los investigadores cuyo primer idioma no es el inglés, al ayudar a mejorar la gramática y el estilo de sus documentos de investigación, o para resumir o traducir otro trabajo. «A pesar de un pequeño número de actores malintencionados, la comunidad académica puede demostrar cómo utilizar estas herramientas para el bien», dijo Kedar Hippalgaonkar, científico de materiales en la Universidad Tecnológica de Nanyang en Singapur.
Los investigadores que usan regularmente LLMs en el trabajo todavía son una minoría, incluso entre el grupo interesado que respondió a la encuesta de Nature. Un 28% de los que estudiaron IA dijeron que usaban productos de IA generativa como LLMs todos los días o más de una vez a la semana, un 13% de los que solo usan IA lo dijeron, y solo un 1% entre otros, aunque muchos al menos habían probado las herramientas.
Además, el uso más popular entre todos los grupos fue para la diversión creativa no relacionada con la investigación (un encuestado usó ChatGPT para sugerir recetas); una proporción menor usó las herramientas para escribir código, idear ideas de investigación y ayudar a escribir documentos de investigación.
Algunos científicos no quedaron impresionados por los resultados de los LLMs. «Siento que ChatGPT ha copiado todos los malos hábitos de escritura de los humanos: usando muchas palabras para decir muy poco», escribió un investigador que usa el LLM para ayudar a editar copias de documentos. Aunque algunos estaban emocionados por el potencial de los LLMs para resumir datos en narrativas, otros tuvieron una reacción negativa. «Si usamos IA para leer y escribir artículos, la ciencia pronto pasará de ser ‘para humanos por humanos’ a ‘para máquinas por máquinas'», escribió Johannes Niskanen, un físico de la Universidad de Turku en Finlandia.