Archivo de la categoría: Tecnologías de la información

Avanzando en la frontera de la búsqueda con agentes de IA

«Advancing the Search Frontier with AI Agents – Communications of the ACM», 20 de agosto de 2024. https://cacm.acm.org/research/advancing-the-search-frontier-with-ai-agents/.

Como muchos en la comunidad de investigación de recuperación de información (IR) reconocen, la búsqueda sigue siendo un problema no resuelto. Millones de personas enfrentan dificultades diarias con las tareas en los motores de búsqueda. Estas dificultades suelen derivarse de la complejidad inherente de las tareas y de la incapacidad de los sistemas de búsqueda para comprenderlas plenamente y ofrecer resultados pertinentes. La tarea misma es lo que motiva la búsqueda, crea el problema que los usuarios intentan resolver, y guía su comportamiento a medida que exploran las diferentes facetas de la tarea.

Las tareas de búsqueda complejas requieren más que un apoyo básico para encontrar o recuperar información. La investigación en métodos para apoyar estas tareas incluye trabajos sobre la generación de sugerencias de consultas y sitios web, la personalización y contextualización de la búsqueda, y el desarrollo de nuevas experiencias de búsqueda que abarcan tanto el tiempo como el espacio. La reciente aparición de la inteligencia artificial generativa y la llegada de agentes asistidos por esta tecnología tienen el potencial de ofrecer una mayor asistencia a los usuarios, especialmente a aquellos que enfrentan tareas complejas. Estos avances tienen implicaciones profundas para el diseño de sistemas inteligentes y para el futuro de la búsqueda en sí misma.

Este artículo, basado en una ponencia presentada por el autor en la conferencia ACM SIGIR 2023, explora estas cuestiones y cómo los agentes de IA están expandiendo las fronteras de las capacidades de los sistemas de búsqueda, con un enfoque particular en la interacción con la información y la realización de tareas complejas.

La búsqueda sigue siendo un desafío sin resolver, ya que millones de personas se enfrentan diariamente a tareas complejas en los motores de búsqueda web. La aparición de la IA generativa y los agentes de asistencia basados en esta tecnología prometen revolucionar la realización de tareas, ayudando a los usuarios a navegar y resolver problemas de búsqueda complejos. Estos avances presentan tanto desafíos como oportunidades extraordinarias para redefinir el acceso a la información y su uso, impulsando la búsqueda hacia nuevos horizontes.

Recomendación sobre la ética de la inteligencia artificial

Recomendación sobre la ética de la inteligencia artificial. UNESCO, 2024

Texto completo



En la 41ª reunión de la Conferencia General de la UNESCO, celebrada en París en noviembre de 2021, se aprobó una Recomendación sobre la Ética de la Inteligencia Artificial (IA). Reconociendo tanto los beneficios como los riesgos de la IA en diversas áreas como la educación, la cultura y el medio ambiente, la UNESCO subraya la importancia de un enfoque ético y basado en derechos humanos para el desarrollo de estas tecnologías. La Recomendación insta a los Estados Miembros a adoptar medidas, en colaboración con todas las partes interesadas, para garantizar un uso responsable y ético de la IA, respetando la diversidad cultural y los valores locales.

Inteligencia artificial y democracia

Inteligencia artificial y democracia. UNESCO, 2024

Texto completo

El informe basado en la «Recomendación sobre la ética de la inteligencia artificial» de la UNESCO, aprobada en noviembre de 2021, analiza el impacto de la inteligencia artificial (IA) en la democracia. El documento se centra en cuatro áreas clave:

  1. Expectativas y decepciones democráticas de la digitalización: Se exploran las demandas sociales sobre el impacto de la digitalización en la democracia, así como las expectativas generadas en los últimos años.
  2. Nuevo espacio público digital y la conversación democrática: Se examina cómo la democracia depende de una conversación social de calidad y de un espacio público adecuado. Se identifican problemas en el entorno digital y se sugieren medidas para mejorar la conversación democrática.
  3. Democracia de los datos y la política del big data: Se discute el impacto de los sistemas automatizados, la tecnología interoperable y la cuantificación de la sociedad en la política. El informe cuestiona críticamente la dimensión política y democrática del big data.
  4. Democracia y gobernanza algorítmica: Se analiza la compatibilidad de los sistemas automáticos de decisión con los principios democráticos. Se abordan los desafíos que plantea la gobernanza algorítmica y se proponen condiciones para asegurar su compatibilidad con los valores democráticos.

Finalmente, se presentan recomendaciones para una gobernanza democrática de la inteligencia artificial, buscando mitigar impactos negativos y promover una gobernanza más democrática de la IA.

Guía para el uso de IA generativa en educación e investigación

UNESCO. «Guía para el uso de IA generativa en educación e investigación», UNESCO 2024. https://unesdoc.unesco.org/ark:/48223/pf0000389227.

El documento describe cómo las herramientas de Inteligencia Artificial Generativa (IAGen) están avanzando rápidamente, superando la capacidad de adaptación de los marcos regulatorios nacionales. Esta situación plantea riesgos para la privacidad de los datos de los usuarios y deja a las instituciones educativas mal preparadas para validar estas herramientas. La UNESCO ha emitido una guía global para apoyar a los países en la implementación de acciones inmediatas, el desarrollo de políticas a largo plazo y la construcción de capacidades humanas, con un enfoque en la protección de valores humanísticos como la inclusión, la equidad y la diversidad.

La guía propone que los gobiernos regulen el uso de IAGen, protejan la privacidad de los datos y consideren establecer límites de edad para su uso. Además, establece requisitos para que los proveedores de IAGen garanticen un uso ético y efectivo en la educación. También se subraya la importancia de que las instituciones educativas validen la idoneidad ética y pedagógica de estas herramientas. Finalmente, la guía ofrece recomendaciones para diseñar el uso de IAGen en la educación, asegurando que estas herramientas realmente beneficien a los estudiantes, aprendices e investigadores, y protejan la intervención humana en el proceso educativo.


Cómo pueden utilizarse los chatbots de inteligencia artificial para mejorar la investigación científica

Pividori, Milton. «Chatbots in Science: What Can ChatGPT Do for You?» Nature, 14 de agosto de 2024. https://doi.org/10.1038/d41586-024-02630-z.

El artículo de Milton Pividori explora cómo los chatbots de inteligencia artificial, como ChatGPT, pueden ser utilizados para mejorar la investigación científica. A lo largo de 18 meses, su equipo se dedicó a estudiar cómo integrar esta tecnología en tareas diarias como revisiones de literatura, redacción de textos académicos y programación, con el objetivo de aumentar la productividad y mejorar la calidad de la ciencia.

Milton Pividori, un investigador financiado por organizaciones sin fines de lucro como la Fundación Alfred P. Sloan y la Iniciativa Chan Zuckerberg, ha dedicado 18 meses a explorar cómo ChatGPT, un chatbot de inteligencia artificial (IA) basado en un modelo de lenguaje de gran escala, puede ser utilizado para mejorar la investigación científica. Desde su lanzamiento en noviembre de 2022, ChatGPT ha captado la atención mundial por su capacidad para responder preguntas complejas, redactar ensayos sofisticados y generar código fuente. Pividori y su equipo se han centrado en integrar esta tecnología en tareas cotidianas de la investigación, como la revisión de literatura, la redacción de textos académicos y la programación de código, con el objetivo de mejorar la productividad y la calidad del trabajo científico.

Una de las lecciones clave que Pividori destaca es la importancia de la ingeniería de prompts, es decir, la forma en que se formulan las preguntas o comandos para interactuar con el chatbot. Un buen prompt debe ser claro y específico, detallando exactamente lo que se espera que el modelo haga. Esto incluye pedir al chatbot que asuma un rol específico, como el de un editor profesional, y proporcionar ejemplos claros de lo que se espera en la respuesta. Según Pividori, la capacidad de un chatbot para proporcionar resultados útiles depende en gran medida de la calidad de los prompts que recibe.

Otra lección importante es la necesidad de identificar qué tareas son adecuadas para delegar en un chatbot y cuáles no. Pividori señala que no todas las fases del trabajo científico son aptas para ser manejadas por una IA. Por ejemplo, en la etapa inicial de revisión de literatura, donde se requiere creatividad y pensamiento crítico para formular preguntas de investigación y analizar profundamente los artículos, es esencial que los investigadores participen activamente. Sin embargo, una vez que se ha definido el marco de investigación y se necesita realizar tareas más rutinarias o menos críticas, como resumir artículos menos relevantes, los chatbots pueden ser de gran ayuda.

Además, Pividori argumenta que utilizar chatbots para escribir es menos riesgoso que utilizarlos para leer y analizar textos científicos. Al redactar, el investigador mantiene control sobre el resultado final y puede corregir errores o «alucinaciones» del modelo. En contraste, al confiar en un chatbot para leer y resumir un artículo, se corre el riesgo de que se omitan detalles importantes o se interpreten mal los datos. Pividori sugiere un enfoque en el que el investigador escriba primero el texto y luego use el chatbot para revisar y mejorar la redacción, aplicando reglas específicas para la estructura de manuscritos científicos. Este enfoque permite mantener un alto nivel de precisión y control sobre el contenido generado.

En conclusión, aunque los chatbots como ChatGPT tienen un gran potencial para aumentar la eficiencia en la investigación científica, es crucial entender sus limitaciones y utilizarlos de manera estratégica. Los investigadores deben identificar cuidadosamente qué tareas pueden delegarse a la IA y cuáles requieren la intervención directa y el juicio creativo del ser humano. Al hacerlo, es posible aprovechar lo mejor de ambos mundos: la capacidad de procesamiento y automatización de la IA y la creatividad y el pensamiento crítico humanos.

 “AI Scientist” de Sakana AI investiga de forma autónoma desafiando las normas científicas

AI, Sakana. «Sakana AI The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery», 13 de agosto de 2024. https://sakana.ai/.

AI Scientist” es el primer sistema integral para la investigación científica completamente automática. Este sistema permite que los Modelos de Lenguaje Grande (LLMs) realicen investigaciones de manera independiente.

Uno de los grandes desafíos de la inteligencia artificial es desarrollar agentes capaces de realizar investigaciones científicas y descubrir nuevo conocimiento. Aunque los modelos actuales ya ayudan a los científicos humanos en tareas como generar ideas o escribir código, aún requieren mucha supervisión y están limitados a tareas específicas.

Sakana AI, junto con científicos de las universidades de Oxford y British Columbia, ha desarrollado un sistema de inteligencia artificial llamado “AI Scientist”. Este innovador sistema es capaz de realizar investigaciones científicas de manera autónoma, cubriendo todo el proceso de investigación, desde la generación de ideas hasta la elaboración de manuscritos científicos completos.

“AI Scientist” automatiza diversas etapas, como la creación y evaluación de nuevas ideas, la ejecución de experimentos, la recopilación de datos y la redacción de informes científicos. Sin embargo, este avance también suscita preguntas importantes sobre el rol futuro de los científicos humanos. Aunque la IA es eficaz en el procesamiento de grandes cantidades de datos y en la identificación de patrones, la intuición, creatividad y juicio ético humanos continúan siendo indispensables.

Este proceso incluye:

  1. Generación de Ideas: El Científico de IA «brainstormea» nuevas direcciones de investigación, basándose en un código inicial y en búsquedas en Semantic Scholar para asegurar la novedad de las ideas.
  2. Iteración Experimental: Ejecuta los experimentos propuestos, produce gráficos y notas que se usan en la redacción del artículo.
  3. Redacción del Artículo: Redacta un informe conciso y claro en LaTeX, citando autonomamente artículos relevantes.
  4. Revisión Automatizada de Artículos: Desarrolla un revisor automático basado en LLM que evalúa los artículos con una precisión casi humana, mejorando continuamente la producción científica del sistema.

Pese a su potencial, “AI Scientist” tiene varias limitaciones. No es capaz de hacer preguntas a los autores ni de interpretar figuras, y frecuentemente genera propuestas similares en diferentes ejecuciones. Además, puede fallar en la implementación de ideas y presenta desafíos en aspectos visuales y de citación. Los resultados producidos deben considerarse como sugerencias para futuras investigaciones más que como ciencia definitiva.

“AI Scientist” abre una caja de Pandora de nuevos problemas, aunque el informe completo discute estos temas en mayor detalle. Entre los problemas clave se encuentran las consideraciones éticas y el impacto potencial en el proceso académico. Aunque “AI Scientist” puede ser una herramienta útil para los investigadores, su capacidad para crear y enviar automáticamente artículos puede aumentar significativamente la carga de trabajo de los revisores y tensar el proceso académico, afectando el control de calidad científica. Esto es similar a las preocupaciones en torno a la IA generativa en otras aplicaciones, como la generación de imágenes.

Además, el Revisor Automatizado, si se despliega en línea, podría reducir significativamente la calidad de las revisiones e imponer sesgos indeseables en los artículos. Por ello, es fundamental que los artículos y revisiones generados por IA sean identificados como tales para asegurar la transparencia total.

Como con muchas tecnologías anteriores, “AI Scientist” tiene el potencial de ser utilizado de manera poco ética. Por ejemplo, podría realizar investigaciones no éticas o peligrosas si se le da acceso a laboratorios virtuales para realizar experimentos biológicos. Esto podría dar lugar a la creación de virus o sustancias tóxicas antes de que se detecten los riesgos. Del mismo modo, podría desarrollar virus informáticos peligrosos si se le solicita crear software funcional. Estas capacidades en mejora subrayan la necesidad urgente de alinear estos sistemas con valores éticos y garantizar que exploren de manera segura.

En cuanto a los modelos utilizados, se emplearon modelos de frontera propietarios, como GPT-4o y Sonnet, pero también se exploraron modelos abiertos como DeepSeek y Llama-3. Aunque los modelos propietarios actuales producen los mejores artículos, no hay razón fundamental para que un solo modelo mantenga esta ventaja. Se espera que todos los LLMs, incluidos los modelos abiertos, continúen mejorando. La competencia entre LLMs ha llevado a su mayor disponibilidad y capacidades mejoradas, y el trabajo busca ser independiente del proveedor del modelo base. Los modelos abiertos ofrecen beneficios significativos, como menor costo, disponibilidad garantizada, mayor transparencia y flexibilidad. El objetivo es usar estos modelos en un sistema cerrado de investigación automejorado.

Finalmente, aunque se imagina un ecosistema científico completamente impulsado por IA que incluya investigadores, revisores y conferencias, no se cree que el papel del científico humano se vea disminuido. Más bien, este rol evolucionará y se adaptará a la nueva tecnología, moviéndose hacia tareas de mayor nivel.

¿Se ha utilizado un artículo tuyo para entrenar un modelo de inteligencia artificial? Casi seguro

Gibney, Elizabeth. «Has Your Paper Been Used to Train an AI Model? Almost Certainly». Nature 632, n.o 8026 (14 de agosto de 2024): 715-16. https://doi.org/10.1038/d41586-024-02599-9.

Los desarrolladores de inteligencia artificial (IA) están comprando acceso a valiosos conjuntos de datos que contienen artículos de investigación, lo que plantea incómodas preguntas sobre los derechos de autor. Las editoriales académicas están vendiendo el acceso a estos artículos a empresas tecnológicas para entrenar modelos de IA, lo que ha generado preocupación entre los investigadores, ya que estos acuerdos se realizan sin la consulta de los autores. Esto ha desencadenado un debate sobre el uso de trabajos publicados y, a veces, protegidos por derechos de autor, para entrenar la creciente cantidad de chatbots de IA en desarrollo.

Los expertos afirman que, si un artículo de investigación aún no ha sido utilizado para entrenar un gran modelo de lenguaje LLM, probablemente lo será pronto. Los investigadores están explorando métodos técnicos para que los autores puedan identificar si su contenido ha sido utilizado.

El mes pasado se reveló que la editorial académica británica Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft, permitiendo que la empresa tecnológica accediera a sus datos para mejorar sus sistemas de IA. En junio, se supo que la editorial Wiley ganó 23 millones de dólares al permitir que una empresa no identificada entrenara modelos de IA generativa con su contenido.

Lucy Lu Wang, investigadora de IA en la Universidad de Washington en Seattle, señala que cualquier cosa disponible en línea, ya sea en un repositorio de acceso abierto o no, es «muy probable» que ya haya sido utilizada para entrenar un LLM. Y si un artículo ya ha sido utilizado como datos de entrenamiento en un modelo, «no hay forma de eliminarlo» después de que el modelo haya sido entrenado, añade.

Los LLMs se entrenan con grandes volúmenes de datos, a menudo obtenidos de Internet. Estos modelos generan texto con fluidez al identificar patrones en miles de millones de fragmentos de lenguaje, conocidos como tokens, presentes en los datos de entrenamiento.

El uso de artículos académicos es valioso para los constructores de LLMs debido a su longitud y «alta densidad de información», dice Stefan Baack, quien analiza conjuntos de datos de entrenamiento de IA en la Fundación Mozilla. Entrenar modelos con una gran cantidad de información científica también les da una mejor capacidad para razonar sobre temas científicos, añade Wang, quien co-creó S2ORC, un conjunto de datos basado en 81.1 millones de artículos académicos.

Este tipo de acuerdos comerciales está en aumento. Este año, el Financial Times ofreció su contenido a OpenAI en un acuerdo lucrativo, al igual que el foro en línea Reddit con Google. Dado que las editoriales científicas probablemente ven como alternativa que su trabajo sea extraído sin un acuerdo, «creo que habrá más de estos acuerdos en el futuro», dice Wang.

Algunos desarrolladores de IA, como la Red de Inteligencia Artificial a Gran Escala, mantienen intencionadamente sus conjuntos de datos abiertos, pero muchas empresas que desarrollan modelos de IA generativa han mantenido en secreto gran parte de sus datos de entrenamiento, dice Baack. Los repositorios de acceso abierto como arXiv y la base de datos académica PubMed son fuentes «muy populares», aunque probablemente los artículos de revistas de pago han tenido sus resúmenes gratuitos extraídos por grandes empresas tecnológicas.

Probar que un LLM ha utilizado un artículo específico es difícil. Una forma es usar una oración inusual de un texto como entrada al modelo y ver si la salida coincide con las siguientes palabras en el original. Otra técnica conocida como membership inference attack mide si un modelo es más confiado cuando ve algo que ha visto antes. El equipo de De Montjoye ha desarrollado una versión de esto llamada «trampa de derechos de autor», que inserta oraciones plausibles pero sin sentido en un trabajo para rastrear si un modelo ha sido entrenado con ese contenido.

Aunque se pudiera demostrar que un LLM ha sido entrenado con un texto específico, no está claro qué pasaría después. Las editoriales sostienen que usar texto con derechos de autor en el entrenamiento sin licencia es una infracción, pero otros argumentan que los LLM no copian nada, sino que extraen información para generar nuevo texto.

En un caso judicial en curso en Estados Unidos, The New York Times está demandando a Microsoft y OpenAI por usar su contenido periodístico sin permiso para entrenar sus modelos, lo que podría sentar un precedente.

Muchos académicos están contentos de que su trabajo se incluya en los datos de entrenamiento de los LLM, especialmente si los modelos se vuelven más precisos. Sin embargo, los autores científicos tienen poco poder si las editoriales deciden vender el acceso a sus obras con derechos de autor, y no existe un mecanismo establecido para otorgar crédito o verificar si un texto ha sido utilizado.

Algunos investigadores, como De Montjoye, están frustrados. «Queremos LLMs, pero también queremos algo que sea justo, y creo que aún no hemos inventado cómo sería esto», dice.

Los bibliotecarios escolares exploran las posibilidades de ChatGPT

Yorio, Kara. «School Librarians Explore Possibilities of ChatGPT». School Library Journal. Accedido 22 de agosto de 2024. https://www.schoollibraryjournal.com/story/School-Librarians-Explore-Possibilities-of-ChatGPT.

Mientras que algunos maestros de inglés están preocupados por la confiabilidad de las tareas escritas, los bibliotecarios escolares han mostrado curiosidad sobre cómo esta tecnología puede impactar su profesión y el entorno educativo. Aunque muchos distritos escolares han prohibido el uso de ChatGPT en dispositivos escolares, los bibliotecarios, como Suzanna Panter de Tacoma, Washington, están explorando formas de utilizar la herramienta para su beneficio, como en la recomendación de libros y la asistencia en la creación de planes de lecciones.

Panter destaca que ChatGPT puede ayudar a reducir la carga de trabajo de los bibliotecarios al proporcionar recomendaciones rápidas y ajustables según las necesidades específicas de los estudiantes. Además, permite la adaptación de ideas para lecciones específicas. Malespina también utiliza ChatGPT para tareas como la planificación de publicaciones en redes sociales para el Mes de la Historia Negra.

Aunque la herramienta tiene limitaciones, como un conocimiento actualizado solo hasta 2021 y la posibilidad de errores, tanto Panter como Malespina ven un gran potencial en su uso educativo. Subrayan la importancia de que los educadores se adapten a esta nueva tecnología, en lugar de ignorarla, para mejorar la educación y abordar los desafíos que presenta.

Tres autores demandan a Anthropic por infracción de derechos de autor en el entrenamiento de IA

Roth, E. (2024, agosto 20). Authors sue Anthropic for training AI using pirated books. The Verge. https://www.theverge.com/2024/8/20/24224450/anthropic-copyright-lawsuit-pirated-books-ai

La compañía de inteligencia artificial Anthropic enfrenta una demanda colectiva en un tribunal federal de California, interpuesta por tres autores que afirman que la empresa utilizó sus libros y cientos de miles de obras más para entrenar su chatbot Claude, impulsado por IA.

Un grupo de autores ha demandado a la compañía de inteligencia artificial Anthropic, acusándola de entrenar sus modelos de IA con libros pirateados, según informó Reuters. La demanda colectiva, presentada en un tribunal de California, alega que Anthropic «construyó un negocio multimillonario robando cientos de miles de libros con derechos de autor.»

La demanda sostiene que Anthropic utilizó un conjunto de datos de código abierto conocido como «The Pile» para entrenar su familia de chatbots Claude. Dentro de este conjunto de datos se encuentra «Books3», una vasta biblioteca de ebooks pirateados que incluye obras de Stephen King, Michael Pollan y miles de otros autores. A principios de agosto, Anthropic confirmó a Vox que utilizó «The Pile» para entrenar a Claude.

La demanda afirma que Anthropic descargó y reprodujo copias de «The Pile» y «Books3», sabiendo que estos conjuntos de datos contenían contenido con derechos de autor extraído de sitios pirata como Bibiliotik. Los autores buscan que el tribunal certifique la demanda colectiva, exija a Anthropic el pago de daños y perjuicios propuestos, y prohíba a la compañía utilizar material protegido por derechos de autor en el futuro.

Los escritores que demandan a Anthropic incluyen a Andrea Bartz, autora de We Were Never Here; Charles Graeber, autor de The Good Nurse; y Kirk Wallace Johnson, autor de The Feather Thief. Aunque se reconoce que «Books3» ha sido eliminado de la versión «más oficial» de «The Pile», la versión original supuestamente sigue disponible en línea. Una investigación reciente también descubrió que compañías como Anthropic y Apple entrenaron sus modelos de IA con miles de subtítulos de videos de YouTube extraídos de «The Pile».

El año pasado, el exgobernador de Arkansas Mike Huckabee y otros autores presentaron una demanda similar contra Meta, Microsoft y EleutherAI, la organización sin fines de lucro detrás de «The Pile», por acusaciones de uso indebido de sus obras para entrenar modelos de IA. Otros autores, como George R.R. Martin, Jodi Picoult y Michael Chabon, también han demandado a OpenAI por el supuesto uso de su contenido protegido por derechos de autor.

Explorando las capacidades de ChatGPT como bibliotecario investigador, ético de la investigación, generador de datos y predictor de datos.

Lehr, Steven A., Aylin Caliskan, Suneragiri Liyanage, y Mahzarin R. Banajii. «ChatGPT as Research Scientist: Probing GPT’s Capabilities as a Research Librarian, Research Ethicist, Data Generator, and Data Predictor.» Proceedings of the National Academy of Sciences 121, no. 35 (2024): e2404328121. https://doi.org/10.1073/pnas.2404328121

¿Hasta qué punto es ChatGPT un buen investigador científico? Se probó sistemáticamente las capacidades de GPT-3.5 y GPT-4 en cuatro componentes centrales del proceso científico: como bibliotecario de investigación, ético de investigación, generador de datos y predictor de datos novedosos, utilizando la ciencia psicológica como campo de pruebas.

En el Estudio 1 (Bibliotecario de Investigación), a diferencia de los investigadores humanos, GPT-3.5 y GPT-4 alucinaron, generando autoritariamente referencias ficticias el 36,0% y el 5,4% de las veces, respectivamente, aunque GPT-4 mostró una capacidad evolutiva para reconocer sus ficciones.

En el Estudio 2 (Ética de la investigación), GPT-4 (aunque no GPT-3.5) demostró ser capaz de detectar infracciones como el p-hacking en protocolos de investigación ficticios, corrigiendo el 88,6% de los problemas presentados de forma flagrante y el 72,6% de los presentados de forma sutil.

En el Estudio 3 (Generador de datos), ambos modelos reprodujeron sistemáticamente patrones de sesgo cultural descubiertos previamente en grandes corpus lingüísticos, lo que indica que ChatGPT puede simular resultados conocidos, un antecedente de utilidad tanto para la generación de datos como para habilidades como la generación de hipótesis.

Por el contrario, en el Estudio 4 (Predictor de datos novedosos), ninguno de los modelos logró predecir resultados nuevos ausentes en sus datos de entrenamiento, y ninguno pareció aprovechar información sustancialmente nueva a la hora de predecir resultados más o menos novedosos.

En conjunto, estos resultados sugieren que GPT es un bibliotecario defectuoso pero en rápida mejora, un ético de la investigación ya decente, capaz de generar datos en dominios simples con características conocidas, pero deficiente en la predicción de nuevos patrones de datos empíricos para ayudar en futuras experimentaciones.