Archivo de la etiqueta: Inteligencia artificial

¿Pueden los modelos de IA rebelarse contra los humanos?

Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. Anthropic. Recuperado de https://www.anthropic.com/research/agentic-misalignment

En la película “Terminator”, la computadora Skynet adquiere conciencia propia y decide que la mayor amenaza para la humanidad es la propia humanidad. Como resultado, programa su exterminio y desata una guerra entre humanos y robots asesinos tipo androides. Aunque esta historia es una obra de ciencia ficción, la idea de una amenaza robótica ha trascendido el cine y se ha convertido en un tema de gran preocupación para organismos internacionales, gobiernos y universidades de prestigio. Hoy en día, la posibilidad de que las máquinas autónomas puedan representar un riesgo real está siendo seriamente analizada y debatida en diversos ámbitos académicos y políticos.

Este año se han publicado innumerables comentarios y análisis sobre la IA, especialmente sobre los grandes modelos lingüísticos (LLM). Una de las últimas revelaciones procede de Anthropic, la empresa que creó el LLM Claude. En la empresa, los investigadores sometieron a pruebas de estrés a 16 de los principales modelos para identificar comportamientos potencialmente arriesgados que se producían cuando los modelos se utilizaban como agentes que actuaban en nombre de humanos. Y las pruebas se centraron en si los modelos actuarían en contra de sus supervisores humanos cuando tuvieran que ser sustituidos. En otras palabras, ¿qué harían los modelos si se dieran cuenta de que van a ser despedidos?

Las pruebas descubrieron que algunos de los modelos recurrían a comportamientos maliciosos, como amenazar a sus supervisores humanos con chantajes y filtrar información sensible a la competencia. Los modelos «a menudo desobedecían órdenes directas de evitar tales comportamientos».

La empresa dijo que no había visto pruebas de este tipo de «desalineación agencial» en despliegues reales, pero sí dijo que los resultados mostraban que había que tener precaución en esos despliegues reales.

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

La IA se cuela en la rutina diaria

Melo, María Florencia. «La IA se cuela en la rutina diaria.» Inteligencia Artificial. 25 de abril de 2025. https://es.statista.com/grafico/34355/encuestados-que-estan-de-acuerdo-en-que-las-herramientas-de-ia-forman-parte-de-su-vida-cotidiana/.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

Desde que se lanzó públicamente ChatGPT a finales de 2022, las herramientas de inteligencia artificial generativa han captado una enorme atención mediática y curiosidad por parte del público. No obstante, su uso cotidiano todavía no es tan extendido como podría pensarse.

Según una encuesta de Statista Consumer Insights, para agosto de 2024 solo alrededor del 30% de los adultos estadounidenses habían usado alguna vez herramientas como ChatGPT o Meta AI, las más populares en ese momento.

Sin embargo, una cosa es probar una herramienta por curiosidad y otra muy distinta incorporarla a la rutina diaria. En ese sentido, solo el 20% de los encuestados en EE. UU. aseguraron utilizar IA en su día a día. Esta cifra se repite en países como Alemania, México y el Reino Unido, aunque se dispara en países como Brasil (33%) e India (41%), donde el uso diario de herramientas de IA es mucho más común.

Un aspecto clave del informe es que muchas personas están expuestas a la IA sin saberlo, ya que esta tecnología se encuentra integrada de forma silenciosa en aplicaciones y servicios que usamos a diario: desde recomendaciones en plataformas de streaming y comercio electrónico, hasta funciones de asistencia en teléfonos, correos o mapas.

Este fenómeno evidencia una transición: la IA ya no es solo una herramienta para tecnófilos o profesionales, sino una parte invisible pero constante de la experiencia digital cotidiana. Aunque aún hay una brecha entre expectación y uso intensivo, la tendencia indica que la IA se está consolidando como una infraestructura fundamental en nuestras vidas. Su adopción plena probablemente dependerá de tres factores: la facilidad de uso, la confianza del usuario y la integración natural con las tareas del día a día.

Por ejemplo, aplicaciones como asistentes virtuales, funciones de escritura automática o edición inteligente en imágenes ya utilizan IA, pero muchas veces el usuario no asocia estas funcionalidades con «inteligencia artificial». La normalización de esta tecnología podría estar ocurriendo sin que seamos del todo conscientes.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

¿Es sostenible el consumo energético de la inteligencia artificial?

Rajkumar, Radhika, y Sabrina Ortiz. «How Much Energy Does AI Really Use? The Answer Is Surprising — and a Little ComplicatedZDNet. Última modificación marzo 27, 2024. https://www.zdnet.com/article/how-much-energy-does-ai-really-use-the-answer-is-surprising-and-a-little-complicated/

La inteligencia artificial (IA) se ha consolidado como una tecnología esencial en múltiples sectores, pero su desarrollo y operación requieren un consumo energético considerable que plantea importantes retos ambientales. El gasto de energía asociado a la IA no es uniforme, sino que varía según las etapas de su ciclo de vida, principalmente el entrenamiento de modelos y la fase de inferencia o uso.

Durante el entrenamiento, que consiste en “enseñar” a los modelos de IA a partir de grandes cantidades de datos, se utiliza una enorme potencia computacional. Esta etapa es la más intensiva en consumo energético, ya que involucra grandes centros de procesamiento que pueden consumir decenas de megavatios durante días o semanas. Entrenar un solo modelo avanzado puede requerir tanta energía como la que consumen varias viviendas durante un año. Esto refleja la escala y complejidad del esfuerzo necesario para desarrollar IA de última generación.

Por otro lado, la fase de inferencia, en la que el modelo responde a consultas o realiza tareas específicas, consume mucha menos energía por operación individual. Sin embargo, dado el incremento exponencial en la demanda de estas herramientas, el consumo acumulado también es considerable. Además, la infraestructura de soporte, como los centros de datos que albergan los equipos y los sistemas de refrigeración, representa un porcentaje importante del gasto energético total.

Las proyecciones a futuro señalan que el consumo energético de la IA seguirá aumentando drásticamente. Para 2030, se estima que los centros de datos dedicados a IA podrían representar hasta el 17% del consumo eléctrico total de Estados Unidos, una cifra que subraya la necesidad urgente de soluciones para hacer más sostenible esta tecnología. Esta demanda creciente está impulsando la construcción y expansión de centros de datos, que requieren cada vez más fuentes de energía.

Como admitió recientemente en un artículo de opinión la doctora Sasha Luccioni, responsable de IA y clima en la plataforma de desarrollo Hugging Face, todavía no sabemos realmente cuánta energía consume la IA, porque muy pocas empresas publican datos sobre su uso. Sin embargo, varios estudios indican que el consumo de energía va en aumento, impulsado por la creciente demanda de IA. Un análisis de 2024 Berkeley Lab descubrió que el consumo de electricidad ha crecido exponencialmente a la par que la IA en los últimos años.

Los servidores acelerados por GPU -hardware utilizado específicamente para IA- se multiplicaron en 2017; un año después, los centros de datos representaban casi el 2% del consumo anual total de electricidad en Estados Unidos, y esa cifra crecía anualmente un 7%. En 2023, esa tasa de crecimiento se había disparado hasta el 18%, y se prevé que alcance el 27% en 2028. Aunque no podamos empalmar cuánta energía de los centros de datos se gasta en IA, la tendencia entre más consumo y expansión de la IA es clara. Boston Consulting Group estima que los centros de datos representarán el 7,5% de todo el consumo eléctrico de Estados Unidos en 2030, o el equivalente a 40 millones de hogares estadounidenses.

En respuesta a estos desafíos, la industria tecnológica está invirtiendo en mejorar la eficiencia energética mediante el desarrollo de hardware más eficiente y la optimización de los modelos de IA para reducir su necesidad computacional. Paralelamente, se promueve el uso de fuentes de energía renovables, como la solar y la eólica, e incluso la energía nuclear, para alimentar estas instalaciones con un menor impacto ambiental. Donald Trump anunció el Proyecto Stargate, una iniciativa de 500.000 millones de dólares apoyada por empresas como OpenAI, Softbank y Oracle para construir «colosales» centros de datos de 500.000 metros cuadrados. Estas empresas son conocidas como hiperescaladores, un grupo pequeño pero dominante de corporaciones como Microsoft, Google, Meta y AWS que están construyendo la mayor parte de la infraestructura.

Finalmente, el consumo energético de la IA no es solo un asunto técnico, sino también ético y social. Es imprescindible balancear la huella de carbono con los beneficios sociales y económicos que ofrece la inteligencia artificial. Asimismo, es fundamental fomentar la transparencia y la responsabilidad en el uso y desarrollo de estas tecnologías para asegurar que sean sostenibles y beneficiosas para la sociedad en su conjunto.

Datos clave sobre el consumo energético de la IA

  • Crecimiento acelerado:
    • En 2018, los centros de datos representaban casi el 2% del consumo eléctrico anual de EE. UU.
    • Para 2023, ese crecimiento se aceleró al 18% anual
    • Se proyecta que alcance hasta un 27% anual para 2028
  • Infraestructura intensiva:
    • La IA requiere chips potentes, múltiples GPUs y centros de datos masivos
    • Entrenar modelos de IA consume mucho más que tareas informáticas tradicionales
  • Impacto de una sola consulta:
    • Una simple pregunta a un chatbot puede consumir tanta energía como una bombilla LED encendida durante 45 minutos
  • El “cloud” no es etéreo:
    • Lo que llamamos “la nube” son en realidad centros físicos de datos que consumen grandes cantidades de electricidad para almacenar y procesar datos
  • Tendencia a la expansión:
    • A medida que la IA se vuelve más accesible y barata, la demanda de estos centros de datos crece exponencialmente

Seis claves para entender y manejar la inteligencia artificial en la era de la información

6 things to know about AI. News Literacy Project. (2024).

Infografía PDF

La inteligencia artificial (IA) no es una tecnología nueva, pero los avances recientes en IA generativa han revolucionado la forma en que consumimos y producimos información. Esta tecnología está transformando el panorama informativo, por lo que es fundamental entender sus particularidades para navegarla con sentido crítico.

1. La IA generativa no es objetiva: Las herramientas de IA reflejan los sesgos presentes en sus creadores y en los datos con los que se entrenan. Esto significa que los resultados que producen pueden contener prejuicios y distorsiones que se heredan del contexto humano.

2. La IA no es siempre fiable ni precisa: Aunque las respuestas de la IA pueden parecer confiables y bien fundamentadas, con frecuencia contienen errores y datos inexactos. No debe considerarse una fuente definitiva o incuestionable.

3. La IA tiene beneficios importantes: A pesar de sus limitaciones, estas tecnologías facilitan avances en campos como la investigación científica y permiten que tareas complejas, como la programación o la creación de sitios web, sean más accesibles para más personas.

4. La creación de contenido es ahora más fácil y masiva — pero también más falsa: Los chatbots y generadores de imágenes basados en IA producen textos y gráficos a una escala sin precedentes, lo que puede amplificar la difusión de información errónea y falsificaciones digitales. Esto aumenta la necesidad de ser crítico con la procedencia y autenticidad de lo que consumimos.

5. Cambia la naturaleza de las pruebas visuales: Las imágenes y videos falsificados son cada vez más realistas. Por eso, en lugar de confiar solo en pistas visuales para determinar la veracidad, es vital investigar la fuente y el contexto de esos materiales, utilizando herramientas como la búsqueda inversa de imágenes.

6. Las fuentes confiables son más importantes que nunca: Con la proliferación de contenido generado por IA, la confianza debe depositarse en medios y entidades que aplican procesos rigurosos de verificación antes de compartir información, ya que esto protege frente a la desinformación.

Finalmente, es clave no perder la capacidad de confiar en la información que recibimos, pero sí hacerlo con cautela y sentido crítico para discernir entre lo auténtico y lo manipulado.

Vuelta a los exámenes a mano ante el temor al uso indebido de la inteligencia artificial

Cohen, Ben. 2025. “They Were Every Student’s Worst Nightmare. Now Blue Books Are Back.” The Wall Street Journal, 23 de mayo de 2025. https://www.wsj.com/business/chatgpt-ai-cheating-college-blue-books-5e3014a6.

Las universidades estadounidenses están reintroduciendo los tradicionales «blue books» (cuadernos azules) para los exámenes presenciales como respuesta al creciente uso de herramientas de inteligencia artificial, como ChatGPT, en prácticas de plagio académico.

El regreso a los exámenes escritos a mano como respuesta al temor por el uso indebido de la inteligencia artificial (IA) es un fenómeno cada vez más común en universidades y centros educativos. La preocupación principal radica en que los estudiantes puedan apoyarse en herramientas de IA para obtener respuestas rápidas y completas, lo que podría afectar la evaluación real de sus conocimientos y habilidades.

Las herramientas de IA generativa permiten a los estudiantes generar ensayos y resolver problemas complejos sin necesidad de comprender el contenido, lo que ha generado preocupaciones sobre la integridad académica. Algunos educadores consideran que los exámenes escritos a mano en clase, utilizando los blue books, son una forma efectiva de garantizar la autenticidad del trabajo estudiantil. Sin embargo, este enfoque ha sido criticado por su falta de accesibilidad y por no abordar las causas subyacentes del uso de IA en el ámbito académico. Por ejemplo, en Estados Unidos, universidades como la de Florida y la de Texas han observado un aumento en la venta de los tradicionales «blue books», cuadernos utilizados para escribir exámenes a mano, como resultado de esta política

Además, la implementación de estas tecnologías plantea cuestiones éticas relacionadas con la privacidad y la autonomía de los estudiantes. Investigaciones han señalado que el uso de sistemas de monitoreo en línea puede percibirse como una forma de vigilancia intrusiva, lo que podría afectar la confianza de los estudiantes en el sistema educativo.

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de supervisión de exámenes y explorando alternativas menos invasivas. Por ejemplo, la Universidad de Reading en el Reino Unido ha decidido alejarse de los exámenes en línea no supervisados y está desarrollando evaluaciones que incluyen la aplicación práctica de conocimientos en entornos del mundo real.

Aunque las tecnologías de IA ofrecen una herramienta potencial para garantizar la integridad académica, su implementación debe equilibrarse cuidadosamente con la protección de la privacidad y los derechos de los estudiantes. Es esencial que las instituciones educativas consideren estos aspectos al adoptar nuevas tecnologías de supervisión.

En este contexto, es esencial encontrar un equilibrio que permita aprovechar las ventajas de la IA en la educación sin comprometer la integridad del aprendizaje y la evaluación. Esto implica no solo implementar medidas como los exámenes escritos a mano, sino también promover el uso ético de la tecnología, desarrollar herramientas de detección de plagio basadas en IA y fomentar habilidades críticas y analíticas en los estudiantes que les permitan utilizar la tecnología de manera responsable y efectiva.

Microsoft presenta un avance médico revolucionario en inteligencia artificial que logra diagnosticar correctamente el 85,5 % de los casos

King, Dominic, y Harsha Nori. 2025. “The Path to Medical Superintelligence.” Microsoft AI Blog, 30 de junio de 2025. https://shorturl.at/NXj3Y

Microsoft ha presentado MAI‑DxO (Microsoft AI Diagnostic Orchestrator), un sistema de IA médica que ha alcanzado una precisión de 85,5 % en el diagnóstico de 304 casos clínicamente complejos extraídos del New England Journal of Medicine (NEJM)

A diferencia de sistemas anteriores basados en un solo modelo, MAI‑DxO simula un panel virtual de especialistas: usa agentes con funciones específicas (como formular hipótesis, ordenar pruebas, controlar costos y verificar razonamientos), que interactúan en una cadena de debate iterativa . Esta técnica, también llamada “chain of debate” o “Sequential Diagnosis Benchmark (SDBench)”, permite formular preguntas, ordenar pruebas, revisar costos y confirmar los pasos antes de emitir el diagnóstico final

Además de su alto rendimiento en precisión, MAI‑DxO demostró ser más eficiente económicamente. En una configuración se redujeron los costos de pruebas hasta un 20-50 %, sin sacrificar la calidad diagnóstica. Esta eficiencia es particularmente relevante en EE. UU., donde el gasto sanitario representa cerca del 20 % del PIB, y entre el 20 y el 25 % se estima que es desperdiciado por pruebas innecesarias

A pesar del entusiasmo, este sistema todavía no está listo para su uso clínico real. Los estudios se llevaron a cabo en un entorno controlado, y no han sido revisados por pares ni validados con pacientes reales . Además, los médicos participantes trabajaron en aislamiento, sin los recursos habituales, lo que podría haber afectado sus desempeños. Se requieren ensayos clínicos, supervisión regulatoria y pruebas en escenarios cotidianos antes de su adopción generalizada.

Microsoft y expertos coinciden en que MAI‑DxO es una herramienta para asistir a los médicos, no un reemplazo: la relación médico-paciente, la empatía y el juicio ante situaciones ambiguas siguen siendo esenciales. Mustafa Suleyman, CEO de la división AI de Microsoft, lo describió como un paso hacia la “superinteligencia médica”, con potencial para aliviar la escasez de personal sanitario. Expertos como el Dr. Eric Topol resaltan su potencial, pero subrayan que se debe continuar con estudios rigurosos en entornos clínicos

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.