Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.