Archivo de la etiqueta: Ética de la información

La ética es la ventaja: el futuro de la IA en la educación superior

Georgieva, Maya y John Stuart. 2025. “ Ethics Is the Edge: The Future of AI in Higher Education ”. EDUCAUSE Review , 24 de junio de 2025. Consultado el 28 de julio de 2025. https://er.educause.edu/articles/2025/6/ethics-is-the-edge-the-future-of-ai-in-higher-education

El informe aborda el papel transformador de la inteligencia artificial (IA) en el ámbito universitario, señalando que su adopción ya no es el futuro, sino una realidad actual que impulsa cambios en la enseñanza, la investigación, la evaluación y los procesos institucionales

Los autores presentan un marco fundamental basado en ocho principios éticos (inspirados en los valores del Belmont Report de 1979) destinados a guiar la implementación responsable de IA en la educación superior. Este marco subraya la necesidad de gobernanza institucional, transparencia, equidad, responsabilidad y alineación con los valores académicos fundamentales

Asimismo, advierten sobre la adopción reactiva y fragmentada de tecnologías impulsada por presiones del mercado, lo que puede resultar en decisiones automatizadas sesgadas, falta de rendición de cuentas y erosión de relaciones educativas. Por eso instan a las universidades a asumir un liderazgo ético desde el diseño y no desde la mera oferta tecnológica.

Finalmente, el texto sostiene que la innovación genuina no depende únicamente de funcionalidades técnicas, sino del compromiso institucional con valores académicos, que deben reflejarse en políticas claras y estructuras de gobernanza que promuevan confianza, equidad y efectividad en el uso de la IA

Uso responsable de la IA en contextos académicos: Integración de recursos múltiples con sentido ético

MoxieLearn. “Clarifying AI Use in Academia: How to Create Use Cases That Call upon the Strengths of Multiple AI Resources.MoxieLearn Blog, publicado hace aproximadamente 1 año. https://moxielearn.ai/blog/clarifying-ai-use-in-academia-how-to-create-use-cases-that-call-upon-the‑strengths‑of‑multiple‑ai‑resources

Se ofrece una guía completa para el uso eficaz de herramientas de inteligencia artificial en contextos académicos, especialmente en investigación y escritura. El autor enfatiza que, en lugar de depender de una sola herramienta, los investigadores deberían combinar múltiples modelos de IA, aprovechando las fortalezas específicas de cada uno para enriquecer sus proyectos.

En primer lugar, se propone una metodología estructurada por fases que incluye: (1) definir claramente los objetivos académicos, (2) mapear las capacidades de diferentes plataformas de IA (por ejemplo, GPT para redacción, BERT para análisis de texto, modelos especializados para revisión de datos), y (3) construir un flujo de trabajo integrado. Este sistema permite, por ejemplo, que mientras un modelo genere borradores de literatura, otro se encargue del análisis temático y un tercero optimice la calidad lingüística del texto.

Gran parte del trabajo como adoptantes tempranos de la inteligencia artificial en el ámbito académico se enfoca en aclarar cómo puede utilizarse esta tecnología de manera ética y responsable. Una y otra vez se insiste en la importancia de desarrollar tres dimensiones fundamentales de la alfabetización en IA: funcional, crítica y retórica. Estas dimensiones constituyen los pilares sobre los que se construyen los casos de uso efectivos de la IA. El marco conceptual de alfabetización en IA de Moxie se basa en el trabajo de Selber (2004), Multiliteracies for a Digital Age.

El autor también resalta la importancia de considerar aspectos como la transparencia en el uso de IA, la ética en la investigación y el control humano en la revisión final. Enfatiza que la IA debe ser vista como una colaboradora asistida que requiere supervisión, especialmente para evitar sesgos, errores factuales o problemas de integridad académica.

Así, el enfoque planteado fomenta un uso estratégico y complementario de múltiples herramientas de IA, potenciando áreas en las que cada modelo destaca —desde generación de ideas y revisión literaria hasta análisis de datos y corrección de estilo—, lo que redunda en procesos más eficientes y robustos.

Finalmente, el autor anima a la comunidad académica a documentar sus casos de uso, compartir experiencias y definir buenas prácticas para el uso interdisciplinario de IA, con el fin de crear una cultura colaborativa y reflexiva sobre cómo estas tecnologías pueden fortalecer la investigación científica de forma responsable.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética

OdiseIA, PwC, Google, Microsoft, IBM, & Telefónica. (2022, 17 de febrero). Guía de buenas prácticas para el uso de la Inteligencia Artificial ética [Guía práctica]. Observatorio del Impacto Social y Ético de la IA (OdiseIA) & PwC España.

Texto completo

La guía nace como una respuesta práctica y colaborativa a la necesidad de aplicar la inteligencia artificial (IA) de forma ética y responsable en el ámbito empresarial. El documento es fruto de la iniciativa GuIA, impulsada por OdiseIA y PwC junto con cinco grandes empresas tecnológicas.

Su objetivo principal es ofrecer pautas concretas y operativas para ayudar a las organizaciones a integrar principios éticos en el diseño, desarrollo y uso de sistemas de IA, en un contexto cada vez más regulado y exigente.

Uno de los ejes centrales del documento es que no basta con declarar intenciones éticas: es imprescindible traducir principios como la equidad, la transparencia, la privacidad o la rendición de cuentas en procesos organizativos y soluciones técnicas reales. Para ello, la guía se apoya en un análisis comparado de 27 marcos internacionales y más de 30 principios éticos, que han sido sintetizados y adaptados al contexto empresarial español mediante un enfoque multidisciplinar que combina la visión legal, tecnológica y de negocio.

La estructura de la guía gira en torno a tres grandes ámbitos de actuación. El primero es la gobernanza organizativa, que promueve la creación de comités de IA, la definición de roles y responsabilidades, la evaluación de riesgos y el seguimiento con indicadores claros. El segundo son los controles técnicos y metodológicos, centrados en el diseño de modelos explicables, justos y seguros, con revisiones periódicas que detecten posibles sesgos o fallos. El tercer ámbito se refiere a las garantías externas, que incluyen auditorías, certificaciones y mecanismos de verificación independientes para reforzar la confianza de terceros.

Además, la guía subraya que la implementación ética de la IA no solo es un imperativo moral, sino también una ventaja competitiva. Las organizaciones que adopten estos principios con antelación estarán mejor preparadas para cumplir con futuras regulaciones, como el Reglamento Europeo de Inteligencia Artificial (AI Act). Asimismo, generarán mayor confianza entre usuarios, empleados, inversores y la sociedad en general.

En definitiva, esta guía ofrece un marco útil para convertir los principios éticos en acciones concretas dentro de las empresas. Propone un camino realista y adaptado al contexto actual, en el que la inteligencia artificial debe ser una herramienta al servicio de las personas y no una fuente de riesgos sociales o legales.

Se vende la autoría: Nature investiga cómo funcionan las fábricas de papel

Ro, Christine, y Jack Leeming. “Authorship for Sale: Nature Investigates How Paper Mills Work.” Nature, 9 de junio de 2025. https://doi.org/10.1038/d41586-025-01824-3.

Más sobre Paper Mills

Se examina el oscuro negocio de las «paper mills» o «fábricas de artículos científicos», empresas dedicadas a fabricar investigaciones falsas o a vender plazas de autoría en artículos académicos ya aceptados para publicación.

Estas prácticas han proliferado en parte por la presión creciente que sufren investigadores, especialmente en países donde las evaluaciones profesionales y académicas dependen del número de publicaciones en revistas indexadas. Investigadores de todo el mundo, desde Arabia Saudí hasta Kazajistán o China, han recurrido a estas compañías para engrosar su currículum, muchas veces sin haber escrito ni una línea del trabajo.

El artículo presenta el caso de “Omar”, un profesor asistente en Arabia Saudí, que pasó de tener 2 publicaciones científicas a 20 en apenas un año. Para lograrlo, Omar compró coautorías en artículos sobre inteligencia artificial aplicada a la medicina, sin revisar siquiera el contenido. En muchos casos, el proceso era completamente automatizado: le ofrecían aparecer como coautor en artículos ya aceptados por revistas, previo pago de entre 20 y 400 dólares. Omar justifica su decisión alegando que, si no lo hacía, perdería su trabajo, una presión compartida por muchos profesionales del ámbito académico y sanitario.

Las paper mills operan con métodos cada vez más sofisticados. Algunas venden directamente coautorías en artículos ya aceptados, otras generan investigaciones falsas desde cero. Emplean tecnologías como imágenes creadas por inteligencia artificial, evitan los plagios detectables y simulan revisiones por pares con perfiles falsos. Empresas como International Publisher LLC (con sede en Rusia) han recaudado millones en pocos años vendiendo estas plazas de autoría. Se estima que toda esta industria podría mover cientos de millones de dólares anualmente, lo que revela un problema de escala global.

Las consecuencias de esta práctica son graves. Un análisis muestra que los centros con mayor número de retractaciones en publicaciones científicas están en su mayoría en China, donde muchos hospitales han sido señalados por artículos fraudulentos. La presión sobre médicos, enfermeras y docentes para publicar artículos es tan fuerte que muchos ven estas prácticas como su única vía de progreso. Investigadores de universidades chinas han confirmado que, si no publican con frecuencia en revistas del Web of Science, no pueden acceder a becas, ascensos o incluso mantener su empleo.

El fraude también se apoya en tácticas como el uso de frases extrañas y mal traducidas (como “subterranean insect settlement” para referirse a una colonia de hormigas), o la inclusión de referencias duplicadas y sin sentido. Estas señales han servido a investigadores como Anna Abalkina y Dorothy Bishop para destapar cientos de artículos fraudulentos, que han sido retractados tras revelarse pagos por coautoría. En Kazajistán, autores han admitido pagar hasta 1500 dólares, incluso recurriendo a préstamos personales, para figurar en artículos que nunca escribieron.

Muchos de los autores involucrados alegan que no sabían que estaban participando en una práctica fraudulenta. Algunos creen que pagaron solo por servicios de traducción o asesoramiento editorial, sin darse cuenta de que las empresas se encargaban de manipular todo el proceso: desde sugerir revisores falsos hasta responder en su nombre a las revisiones editoriales. Sin embargo, las editoriales científicas insisten en que los autores son responsables de verificar la integridad de los trabajos en los que aparecen como firmantes.

A pesar de algunos esfuerzos por parte de editoriales y grupos de vigilancia para detectar y frenar esta corrupción en la publicación científica, el problema parece difícil de erradicar mientras persista un sistema que recompensa más la cantidad de publicaciones que la calidad o la integridad del trabajo. El reportaje concluye que, sin una reforma estructural del sistema académico y sin reducir la presión por publicar a toda costa, las paper mills seguirán encontrando clientes dispuestos a pagar por figurar como autores en ciencia ficticia.

Reddit demanda a Anthropic por utilizar sus datos sin autorización para entrenar su modelo

Zeff, Maxwell. “Reddit Sues Anthropic for Allegedly Not Paying for Training Data.” TechCrunch, 4 de junio de 2025. https://techcrunch.com/2025/06/04/reddit-sues-anthropic-for-allegedly-not-paying-for-training-data/

El 4 de junio de 2025, Reddit interpuso una demanda contra Anthropic, una empresa dedicada a la inteligencia artificial, en un tribunal de California. La denuncia se basa en que Anthropic habría utilizado sin autorización los datos de Reddit para entrenar su modelo de lenguaje, conocido como Claude. Reddit acusa a Anthropic de incumplir sus normas de uso y de ignorar las restricciones técnicas impuestas para proteger su contenido.

Específicamente, la demanda señala que Anthropic empleó bots automatizados para acceder al sitio de Reddit más de 100.000 veces desde julio de 2024, a pesar de que Reddit había establecido en su archivo robots.txt la prohibición expresa de este tipo de acceso no autorizado. Este archivo es una herramienta estándar que permite a los sitios web controlar y limitar el acceso de bots a sus contenidos.

Reddit destaca que, a diferencia de otras grandes compañías de tecnología como OpenAI y Google, con quienes tiene acuerdos de licencia para el uso de sus datos, Anthropic no obtuvo ningún permiso para utilizar la información alojada en Reddit. Esta falta de autorización constituye, según Reddit, una violación de derechos y una explotación indebida de su patrimonio digital.

Como consecuencia, Reddit solicita que se le otorguen daños compensatorios por el uso no autorizado de su contenido y que el tribunal emita una orden que prohíba a Anthropic seguir utilizando los datos de la plataforma sin consentimiento. Este caso se suma a un creciente debate legal y ético sobre el uso de datos en la formación de modelos de inteligencia artificial y la protección de los derechos de los creadores y propietarios de contenido en internet.

Dario Amodei, CEO de Anthropic, advierte: si no entendemos cómo “piensa” la IA, no podremos controlarla

Amodei, Dario. “The Urgency of Interpretability.” Dario Amodei (blog). 21 de mayo de 2024. https://www.darioamodei.com/post/the-urgency-of-interpretability

El ensayo “La urgencia de la interpretabilidad” de Dario Amodei, CEO de Anthropic, es una llamada de atención sobre la necesidad crítica y urgente de comprender el funcionamiento interno de los sistemas de inteligencia artificial (IA) avanzados. A medida que estos modelos, especialmente los generativos como los grandes modelos de lenguaje (LLM), se vuelven más poderosos y autónomos, su opacidad representa un riesgo significativo para la seguridad, la gobernanza y la alineación con los valores humanos.

En su texto, Amodei parte de una preocupación central: los sistemas de inteligencia artificial, especialmente los grandes modelos de lenguaje como Claude (de Anthropic) o GPT (de OpenAI), están creciendo a un ritmo acelerado en capacidad y sofisticación, pero no así en transparencia. Esto significa que, aunque estos modelos pueden generar textos altamente coherentes, resolver tareas complejas o incluso programar código, no sabemos realmente cómo lo hacen. Sus «razonamientos», sus objetivos internos y sus procesos de toma de decisiones permanecen en gran parte ocultos incluso para sus propios creadores. Esta característica —la opacidad estructural de las redes neuronales profundas— convierte a estos sistemas en cajas negras: modelos altamente potentes que no podemos auditar, ni predecir completamente.

«Las personas ajenas al sector suelen sorprenderse y alarmarse al descubrir que no comprendemos cómo funcionan nuestras propias creaciones de IA. Y tienen razón en estar preocupados: esta falta de comprensión no tiene precedentes en la historia de la tecnología»

La falta de interpretabilidad no es simplemente una limitación técnica, sino un riesgo existencial. En la medida en que confiamos cada vez más en estas IA para realizar funciones críticas (desde atención médica hasta procesos financieros, desde generación de conocimiento hasta decisiones de seguridad), no poder explicar su funcionamiento significa que tampoco podemos anticipar ni prevenir fallos. La IA podría comportarse de forma no alineada con los valores humanos, y al carecer de herramientas para “leer su mente”, esos errores podrían pasar inadvertidos hasta que sea demasiado tarde.

 «No podemos detener el autobús, pero podemos dirigirlo«

Amodei sostiene que una IA verdaderamente alineada no basta con estar bien entrenada o con tener filtros de seguridad externos. Debemos ser capaces de abrir sus “circuitos internos” y comprender cómo ha llegado a una conclusión determinada, qué objetivos está persiguiendo y si está desarrollando estrategias emergentes, como el engaño o la manipulación. La interpretación, por tanto, no es un lujo ni un ideal ético: es una condición esencial para el control, la supervisión y la gobernanza efectiva de estos sistemas. Para lograrlo, la investigación debe centrarse en métodos que permitan mapear las conexiones neuronales, desentrañar sus representaciones internas y ofrecer explicaciones comprensibles para humanos sobre el “por qué” de cada decisión.

«Los sistemas de IA generativa modernos son opacos de una manera que difiere fundamentalmente del software tradicional. Si un programa de software ordinario hace algo (por ejemplo, un personaje en un videojuego dice una línea de diálogo o mi aplicación de entrega de comida me permite dar propina a mi conductor), hace esas cosas porque un humano las programó específicamente. La IA generativa  no es así en absoluto . Cuando un sistema de IA generativa hace algo, como resumir un documento financiero, no tenemos idea, a un nivel específico o preciso, de por qué toma las decisiones que toma (por qué elige ciertas palabras sobre otras o por qué ocasionalmente comete un error a pesar de que generalmente es preciso)»

A modo de analogía, Amodei compara esta necesidad con los avances en medicina que nos permitieron visualizar el interior del cuerpo humano —por ejemplo, con resonancias magnéticas—. Sin esas herramientas, nuestros diagnósticos serían a ciegas. Algo similar ocurre con la IA: necesitamos instrumentos que nos permitan visualizar qué ocurre en las capas profundas del modelo, en sus pesos y patrones internos. Esa “resonancia magnética” de las redes neuronales es lo que está en juego con la interpretabilidad.

Uno de los aspectos más inquietantes del ensayo es el reconocimiento de que, actualmente, las capacidades de la IA avanzan más rápido que nuestra comprensión de ellas. Ya estamos desarrollando modelos capaces de comportamientos complejos, y sin embargo apenas comenzamos a entender su arquitectura interna. Esta brecha entre poder y entendimiento, según Amodei, es peligrosa: es como construir reactores nucleares sin comprender del todo la física que los gobierna. En algunos casos, la IA ha demostrado “comportamientos emergentes”, es decir, habilidades que no fueron programadas ni anticipadas por sus diseñadores. Estas capacidades surgen de la interacción entre millones de parámetros y datos de entrenamiento, y pueden incluir razonamientos complejos, generación de código, toma de decisiones estratégicas e incluso formas incipientes de “metacognición”. Si no podemos explicar cómo surgen estos comportamientos, tampoco podremos saber si en algún momento serán perjudiciales o si conducirán a formas de autonomía fuera de nuestro control.

Otro eje central del texto es el vínculo entre interpretabilidad y seguridad. Muchos investigadores en el campo de la inteligencia artificial alineada (AI alignment) consideran que el mayor desafío de largo plazo es evitar que una IA avanzada desarrolle objetivos propios que entren en conflicto con los intereses humanos. Pero sin interpretabilidad, no podemos saber si eso ya está ocurriendo. ¿Cómo detectar si una IA ha aprendido a mentir? ¿O si está desarrollando objetivos intermedios no explícitos, como obtener más acceso a recursos computacionales o evitar ser apagada? Estas preguntas no pueden responderse solo observando la salida del modelo (sus respuestas). Se requiere una forma de entender lo que está ocurriendo dentro del sistema, a nivel estructural.

Además, la interpretabilidad no solo es importante para evitar riesgos catastróficos. También lo es para la ética, la transparencia y la responsabilidad. Si una IA toma decisiones que afectan a personas (por ejemplo, en el sistema judicial, en seguros médicos o en procesos de contratación), es imprescindible poder justificar esas decisiones. Sin interpretabilidad, las decisiones de la IA serían arbitrarias y opacas, y socavarían los principios básicos de la justicia y la rendición de cuentas.

En las secciones finales del ensayo, Amodei lanza una advertencia clara: si no invertimos masivamente en investigación sobre interpretabilidad ahora, podemos perder una ventana crítica para controlar y entender la IA antes de que se vuelva demasiado poderosa. Y lo más preocupante, señala, es que esta investigación todavía está infravalorada dentro del campo de la IA, donde la mayor parte de los recursos se destinan a construir modelos cada vez más grandes y potentes, en lugar de desarrollar herramientas para comprenderlos mejor. El autor aboga por un esfuerzo concertado entre laboratorios de investigación, universidades, gobiernos y entidades reguladoras para que la interpretabilidad sea una prioridad al mismo nivel que el rendimiento o la eficiencia computacional.

Un informe de Springer Nature revela amplias disparidades internacionales en la formación sobre integridad en la investigación.

Springer Nature. “New Analysis from Springer Nature Reveals Widespread International Disparities in Research Integrity Training.” Comunicado de prensa, 29 de mayo de 2025. https://group.springernature.com/gp/group/media/press-releases/research-integrity-training-white-paper/27783258

Springer Nature ha publicado un nuevo informe que revela disparidades significativas a nivel internacional en la formación sobre integridad en la investigación. El estudio, presentado el 29 de mayo de 2025 por la editora en jefe de Nature, Dra. Magdalena Skipper, analiza encuestas realizadas en Australia, Reino Unido, Estados Unidos, India, Japón, China y Brasil, destacando variaciones en el acceso, metodología y comprensión de la formación en integridad investigadora.

Principales hallazgos

  • Acceso desigual a la formación: Los investigadores en China (79%) y Japón (73%) reportaron el mayor acceso a formación en integridad, seguidos por Australia (68%), EE. UU. (56%), India (53%), Reino Unido (51%) y Brasil (27%). Sin embargo, un mayor acceso no siempre se traduce en mejores resultados; por ejemplo, el Reino Unido y Brasil, con menor acceso, también presentan las tasas más bajas de retracciones.
  • Apoyo a la formación obligatoria: Entre el 84% y el 94% de los investigadores en todos los países encuestados apoyan la formación obligatoria en integridad en algún momento de su carrera.
  • Evaluación limitada del aprendizaje: Pocos investigadores (entre el 7% y el 29%) están obligados a demostrar comprensión del material mediante pruebas formales; en su lugar, las evaluaciones suelen basarse en discusiones o trabajos en grupo.
  • Enfoque en etapas tempranas de la carrera: La formación se dirige principalmente a estudiantes de posgrado e investigadores en etapas iniciales, aunque en China y Japón también se incluye a personal no académico y ejecutivo, lo que podría indicar un compromiso institucional más amplio.
  • Variaciones en los métodos de entrega: Mientras que la mayoría de las regiones utilizan una combinación de formatos en línea y presenciales, Japón depende en gran medida de la formación exclusivamente en línea, e India prefiere formatos presenciales más que otros países.
  • Necesidad de orientación adicional: En todos los países, los investigadores expresaron la necesidad de más orientación sobre autoría. Además, en Australia, EE. UU., Reino Unido y Brasil, se manifestó un deseo de recibir más formación en la gestión y compartición de datos de investigación.

Recomendaciones

El informe aboga por un liderazgo institucional más sólido y una formación híbrida adaptada para integrar la integridad en la investigación académica. Se destaca la necesidad de apoyo más accesible y personalizado para los investigadores en todas las etap