Archivo de la etiqueta: Ética de la información

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética

OdiseIA, PwC, Google, Microsoft, IBM, & Telefónica. (2022, 17 de febrero). Guía de buenas prácticas para el uso de la Inteligencia Artificial ética [Guía práctica]. Observatorio del Impacto Social y Ético de la IA (OdiseIA) & PwC España.

Texto completo

La guía nace como una respuesta práctica y colaborativa a la necesidad de aplicar la inteligencia artificial (IA) de forma ética y responsable en el ámbito empresarial. El documento es fruto de la iniciativa GuIA, impulsada por OdiseIA y PwC junto con cinco grandes empresas tecnológicas.

Su objetivo principal es ofrecer pautas concretas y operativas para ayudar a las organizaciones a integrar principios éticos en el diseño, desarrollo y uso de sistemas de IA, en un contexto cada vez más regulado y exigente.

Uno de los ejes centrales del documento es que no basta con declarar intenciones éticas: es imprescindible traducir principios como la equidad, la transparencia, la privacidad o la rendición de cuentas en procesos organizativos y soluciones técnicas reales. Para ello, la guía se apoya en un análisis comparado de 27 marcos internacionales y más de 30 principios éticos, que han sido sintetizados y adaptados al contexto empresarial español mediante un enfoque multidisciplinar que combina la visión legal, tecnológica y de negocio.

La estructura de la guía gira en torno a tres grandes ámbitos de actuación. El primero es la gobernanza organizativa, que promueve la creación de comités de IA, la definición de roles y responsabilidades, la evaluación de riesgos y el seguimiento con indicadores claros. El segundo son los controles técnicos y metodológicos, centrados en el diseño de modelos explicables, justos y seguros, con revisiones periódicas que detecten posibles sesgos o fallos. El tercer ámbito se refiere a las garantías externas, que incluyen auditorías, certificaciones y mecanismos de verificación independientes para reforzar la confianza de terceros.

Además, la guía subraya que la implementación ética de la IA no solo es un imperativo moral, sino también una ventaja competitiva. Las organizaciones que adopten estos principios con antelación estarán mejor preparadas para cumplir con futuras regulaciones, como el Reglamento Europeo de Inteligencia Artificial (AI Act). Asimismo, generarán mayor confianza entre usuarios, empleados, inversores y la sociedad en general.

En definitiva, esta guía ofrece un marco útil para convertir los principios éticos en acciones concretas dentro de las empresas. Propone un camino realista y adaptado al contexto actual, en el que la inteligencia artificial debe ser una herramienta al servicio de las personas y no una fuente de riesgos sociales o legales.

Se vende la autoría: Nature investiga cómo funcionan las fábricas de papel

Ro, Christine, y Jack Leeming. “Authorship for Sale: Nature Investigates How Paper Mills Work.” Nature, 9 de junio de 2025. https://doi.org/10.1038/d41586-025-01824-3.

Más sobre Paper Mills

Se examina el oscuro negocio de las «paper mills» o «fábricas de artículos científicos», empresas dedicadas a fabricar investigaciones falsas o a vender plazas de autoría en artículos académicos ya aceptados para publicación.

Estas prácticas han proliferado en parte por la presión creciente que sufren investigadores, especialmente en países donde las evaluaciones profesionales y académicas dependen del número de publicaciones en revistas indexadas. Investigadores de todo el mundo, desde Arabia Saudí hasta Kazajistán o China, han recurrido a estas compañías para engrosar su currículum, muchas veces sin haber escrito ni una línea del trabajo.

El artículo presenta el caso de “Omar”, un profesor asistente en Arabia Saudí, que pasó de tener 2 publicaciones científicas a 20 en apenas un año. Para lograrlo, Omar compró coautorías en artículos sobre inteligencia artificial aplicada a la medicina, sin revisar siquiera el contenido. En muchos casos, el proceso era completamente automatizado: le ofrecían aparecer como coautor en artículos ya aceptados por revistas, previo pago de entre 20 y 400 dólares. Omar justifica su decisión alegando que, si no lo hacía, perdería su trabajo, una presión compartida por muchos profesionales del ámbito académico y sanitario.

Las paper mills operan con métodos cada vez más sofisticados. Algunas venden directamente coautorías en artículos ya aceptados, otras generan investigaciones falsas desde cero. Emplean tecnologías como imágenes creadas por inteligencia artificial, evitan los plagios detectables y simulan revisiones por pares con perfiles falsos. Empresas como International Publisher LLC (con sede en Rusia) han recaudado millones en pocos años vendiendo estas plazas de autoría. Se estima que toda esta industria podría mover cientos de millones de dólares anualmente, lo que revela un problema de escala global.

Las consecuencias de esta práctica son graves. Un análisis muestra que los centros con mayor número de retractaciones en publicaciones científicas están en su mayoría en China, donde muchos hospitales han sido señalados por artículos fraudulentos. La presión sobre médicos, enfermeras y docentes para publicar artículos es tan fuerte que muchos ven estas prácticas como su única vía de progreso. Investigadores de universidades chinas han confirmado que, si no publican con frecuencia en revistas del Web of Science, no pueden acceder a becas, ascensos o incluso mantener su empleo.

El fraude también se apoya en tácticas como el uso de frases extrañas y mal traducidas (como “subterranean insect settlement” para referirse a una colonia de hormigas), o la inclusión de referencias duplicadas y sin sentido. Estas señales han servido a investigadores como Anna Abalkina y Dorothy Bishop para destapar cientos de artículos fraudulentos, que han sido retractados tras revelarse pagos por coautoría. En Kazajistán, autores han admitido pagar hasta 1500 dólares, incluso recurriendo a préstamos personales, para figurar en artículos que nunca escribieron.

Muchos de los autores involucrados alegan que no sabían que estaban participando en una práctica fraudulenta. Algunos creen que pagaron solo por servicios de traducción o asesoramiento editorial, sin darse cuenta de que las empresas se encargaban de manipular todo el proceso: desde sugerir revisores falsos hasta responder en su nombre a las revisiones editoriales. Sin embargo, las editoriales científicas insisten en que los autores son responsables de verificar la integridad de los trabajos en los que aparecen como firmantes.

A pesar de algunos esfuerzos por parte de editoriales y grupos de vigilancia para detectar y frenar esta corrupción en la publicación científica, el problema parece difícil de erradicar mientras persista un sistema que recompensa más la cantidad de publicaciones que la calidad o la integridad del trabajo. El reportaje concluye que, sin una reforma estructural del sistema académico y sin reducir la presión por publicar a toda costa, las paper mills seguirán encontrando clientes dispuestos a pagar por figurar como autores en ciencia ficticia.

Reddit demanda a Anthropic por utilizar sus datos sin autorización para entrenar su modelo

Zeff, Maxwell. “Reddit Sues Anthropic for Allegedly Not Paying for Training Data.” TechCrunch, 4 de junio de 2025. https://techcrunch.com/2025/06/04/reddit-sues-anthropic-for-allegedly-not-paying-for-training-data/

El 4 de junio de 2025, Reddit interpuso una demanda contra Anthropic, una empresa dedicada a la inteligencia artificial, en un tribunal de California. La denuncia se basa en que Anthropic habría utilizado sin autorización los datos de Reddit para entrenar su modelo de lenguaje, conocido como Claude. Reddit acusa a Anthropic de incumplir sus normas de uso y de ignorar las restricciones técnicas impuestas para proteger su contenido.

Específicamente, la demanda señala que Anthropic empleó bots automatizados para acceder al sitio de Reddit más de 100.000 veces desde julio de 2024, a pesar de que Reddit había establecido en su archivo robots.txt la prohibición expresa de este tipo de acceso no autorizado. Este archivo es una herramienta estándar que permite a los sitios web controlar y limitar el acceso de bots a sus contenidos.

Reddit destaca que, a diferencia de otras grandes compañías de tecnología como OpenAI y Google, con quienes tiene acuerdos de licencia para el uso de sus datos, Anthropic no obtuvo ningún permiso para utilizar la información alojada en Reddit. Esta falta de autorización constituye, según Reddit, una violación de derechos y una explotación indebida de su patrimonio digital.

Como consecuencia, Reddit solicita que se le otorguen daños compensatorios por el uso no autorizado de su contenido y que el tribunal emita una orden que prohíba a Anthropic seguir utilizando los datos de la plataforma sin consentimiento. Este caso se suma a un creciente debate legal y ético sobre el uso de datos en la formación de modelos de inteligencia artificial y la protección de los derechos de los creadores y propietarios de contenido en internet.

Dario Amodei, CEO de Anthropic, advierte: si no entendemos cómo “piensa” la IA, no podremos controlarla

Amodei, Dario. “The Urgency of Interpretability.” Dario Amodei (blog). 21 de mayo de 2024. https://www.darioamodei.com/post/the-urgency-of-interpretability

El ensayo “La urgencia de la interpretabilidad” de Dario Amodei, CEO de Anthropic, es una llamada de atención sobre la necesidad crítica y urgente de comprender el funcionamiento interno de los sistemas de inteligencia artificial (IA) avanzados. A medida que estos modelos, especialmente los generativos como los grandes modelos de lenguaje (LLM), se vuelven más poderosos y autónomos, su opacidad representa un riesgo significativo para la seguridad, la gobernanza y la alineación con los valores humanos.

En su texto, Amodei parte de una preocupación central: los sistemas de inteligencia artificial, especialmente los grandes modelos de lenguaje como Claude (de Anthropic) o GPT (de OpenAI), están creciendo a un ritmo acelerado en capacidad y sofisticación, pero no así en transparencia. Esto significa que, aunque estos modelos pueden generar textos altamente coherentes, resolver tareas complejas o incluso programar código, no sabemos realmente cómo lo hacen. Sus «razonamientos», sus objetivos internos y sus procesos de toma de decisiones permanecen en gran parte ocultos incluso para sus propios creadores. Esta característica —la opacidad estructural de las redes neuronales profundas— convierte a estos sistemas en cajas negras: modelos altamente potentes que no podemos auditar, ni predecir completamente.

«Las personas ajenas al sector suelen sorprenderse y alarmarse al descubrir que no comprendemos cómo funcionan nuestras propias creaciones de IA. Y tienen razón en estar preocupados: esta falta de comprensión no tiene precedentes en la historia de la tecnología»

La falta de interpretabilidad no es simplemente una limitación técnica, sino un riesgo existencial. En la medida en que confiamos cada vez más en estas IA para realizar funciones críticas (desde atención médica hasta procesos financieros, desde generación de conocimiento hasta decisiones de seguridad), no poder explicar su funcionamiento significa que tampoco podemos anticipar ni prevenir fallos. La IA podría comportarse de forma no alineada con los valores humanos, y al carecer de herramientas para “leer su mente”, esos errores podrían pasar inadvertidos hasta que sea demasiado tarde.

 «No podemos detener el autobús, pero podemos dirigirlo«

Amodei sostiene que una IA verdaderamente alineada no basta con estar bien entrenada o con tener filtros de seguridad externos. Debemos ser capaces de abrir sus “circuitos internos” y comprender cómo ha llegado a una conclusión determinada, qué objetivos está persiguiendo y si está desarrollando estrategias emergentes, como el engaño o la manipulación. La interpretación, por tanto, no es un lujo ni un ideal ético: es una condición esencial para el control, la supervisión y la gobernanza efectiva de estos sistemas. Para lograrlo, la investigación debe centrarse en métodos que permitan mapear las conexiones neuronales, desentrañar sus representaciones internas y ofrecer explicaciones comprensibles para humanos sobre el “por qué” de cada decisión.

«Los sistemas de IA generativa modernos son opacos de una manera que difiere fundamentalmente del software tradicional. Si un programa de software ordinario hace algo (por ejemplo, un personaje en un videojuego dice una línea de diálogo o mi aplicación de entrega de comida me permite dar propina a mi conductor), hace esas cosas porque un humano las programó específicamente. La IA generativa  no es así en absoluto . Cuando un sistema de IA generativa hace algo, como resumir un documento financiero, no tenemos idea, a un nivel específico o preciso, de por qué toma las decisiones que toma (por qué elige ciertas palabras sobre otras o por qué ocasionalmente comete un error a pesar de que generalmente es preciso)»

A modo de analogía, Amodei compara esta necesidad con los avances en medicina que nos permitieron visualizar el interior del cuerpo humano —por ejemplo, con resonancias magnéticas—. Sin esas herramientas, nuestros diagnósticos serían a ciegas. Algo similar ocurre con la IA: necesitamos instrumentos que nos permitan visualizar qué ocurre en las capas profundas del modelo, en sus pesos y patrones internos. Esa “resonancia magnética” de las redes neuronales es lo que está en juego con la interpretabilidad.

Uno de los aspectos más inquietantes del ensayo es el reconocimiento de que, actualmente, las capacidades de la IA avanzan más rápido que nuestra comprensión de ellas. Ya estamos desarrollando modelos capaces de comportamientos complejos, y sin embargo apenas comenzamos a entender su arquitectura interna. Esta brecha entre poder y entendimiento, según Amodei, es peligrosa: es como construir reactores nucleares sin comprender del todo la física que los gobierna. En algunos casos, la IA ha demostrado “comportamientos emergentes”, es decir, habilidades que no fueron programadas ni anticipadas por sus diseñadores. Estas capacidades surgen de la interacción entre millones de parámetros y datos de entrenamiento, y pueden incluir razonamientos complejos, generación de código, toma de decisiones estratégicas e incluso formas incipientes de “metacognición”. Si no podemos explicar cómo surgen estos comportamientos, tampoco podremos saber si en algún momento serán perjudiciales o si conducirán a formas de autonomía fuera de nuestro control.

Otro eje central del texto es el vínculo entre interpretabilidad y seguridad. Muchos investigadores en el campo de la inteligencia artificial alineada (AI alignment) consideran que el mayor desafío de largo plazo es evitar que una IA avanzada desarrolle objetivos propios que entren en conflicto con los intereses humanos. Pero sin interpretabilidad, no podemos saber si eso ya está ocurriendo. ¿Cómo detectar si una IA ha aprendido a mentir? ¿O si está desarrollando objetivos intermedios no explícitos, como obtener más acceso a recursos computacionales o evitar ser apagada? Estas preguntas no pueden responderse solo observando la salida del modelo (sus respuestas). Se requiere una forma de entender lo que está ocurriendo dentro del sistema, a nivel estructural.

Además, la interpretabilidad no solo es importante para evitar riesgos catastróficos. También lo es para la ética, la transparencia y la responsabilidad. Si una IA toma decisiones que afectan a personas (por ejemplo, en el sistema judicial, en seguros médicos o en procesos de contratación), es imprescindible poder justificar esas decisiones. Sin interpretabilidad, las decisiones de la IA serían arbitrarias y opacas, y socavarían los principios básicos de la justicia y la rendición de cuentas.

En las secciones finales del ensayo, Amodei lanza una advertencia clara: si no invertimos masivamente en investigación sobre interpretabilidad ahora, podemos perder una ventana crítica para controlar y entender la IA antes de que se vuelva demasiado poderosa. Y lo más preocupante, señala, es que esta investigación todavía está infravalorada dentro del campo de la IA, donde la mayor parte de los recursos se destinan a construir modelos cada vez más grandes y potentes, en lugar de desarrollar herramientas para comprenderlos mejor. El autor aboga por un esfuerzo concertado entre laboratorios de investigación, universidades, gobiernos y entidades reguladoras para que la interpretabilidad sea una prioridad al mismo nivel que el rendimiento o la eficiencia computacional.

Un informe de Springer Nature revela amplias disparidades internacionales en la formación sobre integridad en la investigación.

Springer Nature. “New Analysis from Springer Nature Reveals Widespread International Disparities in Research Integrity Training.” Comunicado de prensa, 29 de mayo de 2025. https://group.springernature.com/gp/group/media/press-releases/research-integrity-training-white-paper/27783258

Springer Nature ha publicado un nuevo informe que revela disparidades significativas a nivel internacional en la formación sobre integridad en la investigación. El estudio, presentado el 29 de mayo de 2025 por la editora en jefe de Nature, Dra. Magdalena Skipper, analiza encuestas realizadas en Australia, Reino Unido, Estados Unidos, India, Japón, China y Brasil, destacando variaciones en el acceso, metodología y comprensión de la formación en integridad investigadora.

Principales hallazgos

  • Acceso desigual a la formación: Los investigadores en China (79%) y Japón (73%) reportaron el mayor acceso a formación en integridad, seguidos por Australia (68%), EE. UU. (56%), India (53%), Reino Unido (51%) y Brasil (27%). Sin embargo, un mayor acceso no siempre se traduce en mejores resultados; por ejemplo, el Reino Unido y Brasil, con menor acceso, también presentan las tasas más bajas de retracciones.
  • Apoyo a la formación obligatoria: Entre el 84% y el 94% de los investigadores en todos los países encuestados apoyan la formación obligatoria en integridad en algún momento de su carrera.
  • Evaluación limitada del aprendizaje: Pocos investigadores (entre el 7% y el 29%) están obligados a demostrar comprensión del material mediante pruebas formales; en su lugar, las evaluaciones suelen basarse en discusiones o trabajos en grupo.
  • Enfoque en etapas tempranas de la carrera: La formación se dirige principalmente a estudiantes de posgrado e investigadores en etapas iniciales, aunque en China y Japón también se incluye a personal no académico y ejecutivo, lo que podría indicar un compromiso institucional más amplio.
  • Variaciones en los métodos de entrega: Mientras que la mayoría de las regiones utilizan una combinación de formatos en línea y presenciales, Japón depende en gran medida de la formación exclusivamente en línea, e India prefiere formatos presenciales más que otros países.
  • Necesidad de orientación adicional: En todos los países, los investigadores expresaron la necesidad de más orientación sobre autoría. Además, en Australia, EE. UU., Reino Unido y Brasil, se manifestó un deseo de recibir más formación en la gestión y compartición de datos de investigación.

Recomendaciones

El informe aboga por un liderazgo institucional más sólido y una formación híbrida adaptada para integrar la integridad en la investigación académica. Se destaca la necesidad de apoyo más accesible y personalizado para los investigadores en todas las etap

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

El impacto de la inteligencia generativa en la integridad académica.

Tertiary Education Quality and Standards Agency (TEQSA). The Evolving Risk to Academic Integrity Posed by Generative Artificial Intelligence: Options for Immediate Action. TEQSA, agosto de 2024.

Texto completo

El informe aborda el creciente riesgo que la inteligencia artificial generativa representa para la integridad académica. A medida que las herramientas de IA, como los generadores de texto, se vuelven más accesibles y avanzadas, surgen preocupaciones sobre su uso indebido en el ámbito educativo.

Los estudiantes pueden recurrir a estas herramientas para crear respuestas automatizadas en exámenes y tareas, lo que plantea desafíos para las instituciones en la evaluación de la autenticidad del trabajo académico.

El documento sugiere que las universidades deben adoptar estrategias inmediatas para mitigar este riesgo. Estas incluyen la revisión y actualización de las políticas de evaluación, la implementación de tecnologías de detección de IA y el fomento de métodos de evaluación más centrados en el análisis crítico y la aplicación práctica del conocimiento. También se hace hincapié en la necesidad de educar a los estudiantes sobre el uso ético de la inteligencia artificial y en la importancia de la formación docente para identificar y abordar el uso indebido de estas tecnologías.

En conclusión, la rápida evolución de la inteligencia artificial generativa exige una respuesta urgente y adaptada de las instituciones educativas para proteger la integridad académica y garantizar una evaluación justa y precisa de los estudiantes.