Archivo de la etiqueta: Ética de la información

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

El impacto de la inteligencia generativa en la integridad académica.

Tertiary Education Quality and Standards Agency (TEQSA). The Evolving Risk to Academic Integrity Posed by Generative Artificial Intelligence: Options for Immediate Action. TEQSA, agosto de 2024.

Texto completo

El informe aborda el creciente riesgo que la inteligencia artificial generativa representa para la integridad académica. A medida que las herramientas de IA, como los generadores de texto, se vuelven más accesibles y avanzadas, surgen preocupaciones sobre su uso indebido en el ámbito educativo.

Los estudiantes pueden recurrir a estas herramientas para crear respuestas automatizadas en exámenes y tareas, lo que plantea desafíos para las instituciones en la evaluación de la autenticidad del trabajo académico.

El documento sugiere que las universidades deben adoptar estrategias inmediatas para mitigar este riesgo. Estas incluyen la revisión y actualización de las políticas de evaluación, la implementación de tecnologías de detección de IA y el fomento de métodos de evaluación más centrados en el análisis crítico y la aplicación práctica del conocimiento. También se hace hincapié en la necesidad de educar a los estudiantes sobre el uso ético de la inteligencia artificial y en la importancia de la formación docente para identificar y abordar el uso indebido de estas tecnologías.

En conclusión, la rápida evolución de la inteligencia artificial generativa exige una respuesta urgente y adaptada de las instituciones educativas para proteger la integridad académica y garantizar una evaluación justa y precisa de los estudiantes.

20.000 investigadores publican la sospechosa cifra de cientos de artículos al año

Chawla, Dalmeet Singh. “20,000 Scientists Publish at Unrealistic Rates, Study Says.Chemical & Engineering News, February 4, 2025. https://cen.acs.org

Un nuevo análisis sugiere que alrededor de 20.000 científicos están publicando un número «implausiblemente alto» de artículos en revistas académicas y cuentan con un número inusualmente alto de nuevos colaboradores.

El estudio, publicado en Accountability in Research, analizó los patrones de publicación de aproximadamente 200.000 investigadores de la lista de los principales científicos del 2% de Stanford, basada en métricas de citación. Se encontró que alrededor del 10% de estos científicos producen cientos de estudios anualmente, con cientos o miles de nuevos coautores cada año.

Simone Pilia, coautor del estudio y geocientífico en la Universidad Rey Fahd de Petróleo y Minerales, advierte que esta tendencia está poniendo en riesgo la integridad académica, ya que muchos investigadores, especialmente los jóvenes, sienten presión para priorizar la cantidad sobre la calidad.

El estudio también examinó la producción de 462 ganadores del Premio Nobel en física, química, medicina y economía, y reveló que muchos académicos pueden estar utilizando prácticas poco éticas, como la inclusión de coautores sin una contribución real a la investigación.

Para abordar este problema, Pilia y su coautor Peter Mora proponen corregir o ajustar las métricas cuando los científicos alcanzan ciertos umbrales de publicaciones y coautores, con el objetivo de reducir la presión por producir en volumen.

Sin embargo, Ludo Waltman, experto en métricas de investigación en la Universidad de Leiden, critica la propuesta, argumentando que añadir complejidad a las métricas puede hacerlas menos transparentes y difíciles de interpretar. En su opinión, la evaluación de los científicos debe basarse en un conjunto más amplio de actividades de investigación, y no solo en métricas de publicación.

Meta utilizó libros pirateados de Library Genesis (LibGen) para entrenar su modelo de inteligencia artificial Llama 3 sin autorización de los autores

Reisner, Alex. “Meta Used Pirated Books to Train Its AI.” The Atlantic, March 20, 2025. https://www.theatlantic.com/technology/archive/2025/03/libgen-meta-openai/682093/?gift=iWa_iB9lkw4UuiWbIbrWGYDRoX8kfg3ZQZL6J-W0kQE.

La decisión de emplear estos materiales surge de la necesidad de contar con grandes volúmenes de texto de alta calidad para mejorar sus productos de IA y competir con modelos como ChatGPT. Sin embargo, en lugar de optar por acuerdos de licencia con editoriales y autores, lo cual implicaba costos elevados y plazos largos, la empresa decidió recurrir a LibGen, una de las mayores bibliotecas piratas de Internet, que alberga más de 7.5 millones de libros y 81 millones de artículos académicos.

Las revelaciones provienen de documentos judiciales recientemente desclasificados en el marco de una demanda por infracción de derechos de autor presentada por autores como Sarah Silverman y Junot Díaz. Entre los hallazgos más significativos se encuentra la confirmación de que Meta obtuvo permiso explícito de su CEO, Mark Zuckerberg, para descargar y utilizar la base de datos de LibGen en el entrenamiento de su modelo de IA. Este hecho subraya que la empresa no solo era consciente de la ilegalidad de sus acciones, sino que las respaldó desde los niveles más altos de la compañía.

Meta, al igual que OpenAI, ha defendido su uso de contenido protegido argumentando que los modelos de IA generan obras «transformadoras» a partir del material entrenado y, por lo tanto, están amparados bajo el principio de «fair use» (uso justo). No obstante, este argumento es altamente controvertido y todavía está lejos de una resolución definitiva en los tribunales. Más allá de la cuestión de si entrenar IA con libros pirateados constituye un uso legítimo de los materiales protegidos por derechos de autor, el artículo plantea un problema adicional: la forma en que Meta accedió a estos contenidos. Según los registros internos, la empresa utilizó BitTorrent para descargar los archivos, un método que generalmente implica no solo la descarga, sino también la distribución de los mismos, lo que agravaría aún más su situación legal.

Los documentos internos de Meta también revelan que sus empleados eran plenamente conscientes del riesgo legal que implicaba usar LibGen, calificándolo de «riesgo medio-alto». Para mitigar posibles repercusiones, sugirieron estrategias para ocultar la procedencia de los datos, como eliminar metadatos que indicaran que los textos estaban protegidos por derechos de autor y evitar cualquier mención pública del uso de LibGen. Además, se discutió la posibilidad de ajustar Llama 3 para que se negara a responder solicitudes que pudieran revelar la reproducción de contenido protegido, como pedirle que generara las primeras páginas de un libro específico.

El artículo también aborda el papel de LibGen en el acceso al conocimiento. Esta biblioteca pirata surgió en Rusia en 2008 con el propósito de ofrecer acceso gratuito a libros y artículos académicos, particularmente para estudiantes y profesionales de países con dificultades para costear estos materiales, como India, Pakistán e Irán. Sin embargo, su crecimiento exponencial ha facilitado su uso más allá de estos contextos, permitiendo que grandes corporaciones tecnológicas como Meta se beneficien del contenido sin retribuir a los autores originales.

Finalmente, Reisner plantea una reflexión sobre el impacto de esta práctica en el ecosistema del conocimiento y la creación intelectual. Si bien bibliotecas piratas como LibGen han democratizado el acceso a la información, el uso que hacen las empresas de IA de estos materiales plantea preocupaciones éticas y económicas. Al desarrollar chatbots y modelos generativos que sintetizan el conocimiento sin citar sus fuentes, estas compañías descontextualizan la información, limitan la colaboración intelectual y dificultan que escritores e investigadores reciban reconocimiento por su trabajo. La cuestión de fondo es si este tipo de apropiación tecnológica realmente beneficia a la sociedad en su conjunto o simplemente maximiza los beneficios de las grandes corporaciones, desplazando a los creadores originales en el proceso.

Las grandes empresas de inteligencia artificial han hecho caso omiso de las leyes de copyright

Pastor, Javier. “Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias.” Xataka, 13 de marzo de 2025. https://www.xataka.com/legislacion-y-derechos/todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias

Las grandes empresas de inteligencia artificial utilizan material protegido por derechos de autor para entrenar sus modelos, y hasta ahora, no han enfrentado repercusiones significativas. La reciente demanda de editoriales francesas contra Meta es solo otro capítulo en una batalla legal que parece no tener fin.

Las grandes empresas de inteligencia artificial (IA) han sido objeto de múltiples demandas por presuntas violaciones de derechos de autor al utilizar contenido protegido para entrenar sus modelos. A pesar de la gravedad de estas acusaciones, muchas de estas compañías han logrado eludir consecuencias legales significativas.

Las editoriales francesas han decidido actuar contra Meta por el uso indebido de contenido protegido. Sin embargo, no son las primeras en dar este paso, ni probablemente serán las últimas. Desde hace años, compañías de IA han empleado materiales con derechos de autor para alimentar sus algoritmos sin autorización, y la respuesta judicial ha sido, hasta ahora, ineficaz.

Getty Images fue una de las primeras en llevar a los tribunales a una empresa de IA. En 2023, demandó a Stable Diffusion por el uso no autorizado de sus imágenes en la generación de contenido visual. Sin embargo, a pesar de la magnitud de este caso y de muchos otros que han surgido desde entonces, la falta de resoluciones contundentes ha permitido que el problema persista.

Demandas destacadas contra empresas de IA

  • Getty Images vs. Stability AI: En enero de 2023, Getty Images demandó a Stability AI, desarrolladora de Stable Diffusion, acusándola de copiar y procesar ilegalmente millones de imágenes protegidas por derechos de autor para entrenar su modelo de IA generativa.
  • Discográficas vs. Empresas de IA: En junio de 2024, las principales discográficas, incluyendo Sony Music Entertainment, Universal Music Group y Warner Records, demandaron a las empresas de IA Suno y Udio por supuesta infracción de derechos de autor al utilizar contenido musical protegido sin autorización en el entrenamiento de sus modelos.
  • Autores vs. Anthropic: En agosto de 2024, un grupo de escritores presentó una demanda contra la empresa de IA Anthropic, acusándola de construir su negocio utilizando cientos de miles de libros protegidos por derechos de autor sin permiso ni compensación.

Resultados legales favorables a las empresas de IA

A pesar de las numerosas demandas, varias empresas de IA han obtenido fallos judiciales favorables:

  • OpenAI: En julio de 2024, OpenAI logró que se desestimaran dos demandas en su contra por supuestas violaciones de derechos de autor, relacionadas con la eliminación de información de gestión de derechos en los datos de entrenamiento de ChatGPT.
  • GitHub Copilot: En noviembre de 2022, se presentó una demanda contra GitHub Copilot por presunta violación de acuerdos de licencia abierta al utilizar código protegido para entrenar su modelo de IA. Sin embargo, en julio de 2024, un juez desestimó prácticamente todas las reclamaciones de los demandantes.

Iniciativas regulatorias y debates legales

La creciente preocupación por el uso de contenido protegido en el entrenamiento de modelos de IA ha llevado a iniciativas regulatorias y debates legales:

  • Regulación en España: El Gobierno español aprobó en marzo de 2025 una norma que obliga a etiquetar claramente los contenidos creados con IA, adaptando la legislación al Reglamento Europeo de IA. Las infracciones pueden acarrear multas de hasta 35 millones de euros o entre el 5% y el 7% de la facturación mundial de las empresas infractoras.
  • Propuestas en EE. UU.: OpenAI y Google han sugerido al Gobierno de Estados Unidos relajar las medidas de copyright para permitir un entrenamiento más eficiente de los modelos de IA, lo que ha generado debates sobre el equilibrio entre la innovación tecnológica y la protección de los derechos de autor.

La tensión entre el avance de la inteligencia artificial y la protección de los derechos de autor continúa siendo un tema central en la industria tecnológica. Mientras las empresas de IA buscan acceder a vastos conjuntos de datos para mejorar sus modelos, creadores y titulares de derechos exigen mecanismos que garanticen el uso ético y legal de sus obras. El desarrollo de marcos legales y regulaciones claras será esencial para equilibrar la innovación tecnológica con la protección de la propiedad intelectual.

Normas ISO sobre Inteligencia Artificial

International Organization for Standardization. ISO/IEC 22989:2022: Information Technology—Artificial Intelligence—Artificial Intelligence Concepts and Terminology. International Organization for Standardization. Última modificación el 2022. https://www.iso.org/es/contents/data/standard/07/42/74296.html

International Organization for Standardization. ISO/IEC 23894:2023: Artificial Intelligence — Guidance on Risk Management. International Organization for Standardization. Última modificación en 2023. https://www.iso.org/es/contents/data/standard/07/73/77304.html

La norma ISO/IEC 22989:2022, titulada «Tecnologías de la información — Inteligencia artificial — Conceptos y terminología de inteligencia artificial», establece una terminología común y describe los conceptos fundamentales en el ámbito de la inteligencia artificial (IA). Esta norma, publicada en julio de 2022, tiene como objetivo facilitar la comunicación entre diversos actores, incluyendo empresas, investigadores y organismos reguladores, proporcionando un lenguaje común que mejore la comprensión y la interoperabilidad en el desarrollo y uso de sistemas de IA.

Principales aspectos de la ISO/IEC 22989:2022:

  1. Definición de conceptos clave: La norma aborda una amplia gama de términos relacionados con la IA, tales como:
    • Tipos de IA: Diferencia entre IA general (capaz de realizar múltiples tareas como un humano) e IA estrecha (diseñada para tareas específicas).
    • Aprendizaje automático (Machine Learning): Explica métodos como aprendizaje supervisado, no supervisado, por refuerzo y transferencia de aprendizaje.
    • Redes neuronales: Introduce términos como perceptrón, redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN).
    • Confiabilidad de la IA: Aborda factores como sesgo algorítmico, explicabilidad, transparencia y controlabilidad.
    • Ciclo de vida de los sistemas de IA: Desde el diseño y desarrollo hasta la operación y monitoreo continuo.
  2. Facilitación de la interoperabilidad: Al establecer un marco de referencia común, la norma promueve la interoperabilidad entre diferentes tecnologías y sistemas de IA, lo que es esencial en un entorno tecnológico diverso y en constante evolución. iso.org
  3. Mejora de la transparencia y confianza: Proporcionar definiciones claras y consistentes ayuda a mejorar la transparencia en los sistemas de IA, lo que a su vez aumenta la confianza de los usuarios y facilita la adopción ética y responsable de estas tecnologías.
  4. Aplicaciones prácticas: La norma es aplicable a una amplia gama de organizaciones, incluyendo empresas comerciales, agencias gubernamentales y organizaciones sin fines de lucro. Su adopción puede beneficiar a sectores como el desarrollo de asistentes virtuales, sistemas de detección de fraudes y otras aplicaciones de IA, permitiendo a las organizaciones tomar decisiones más informadas y alineadas con las mejores prácticas internacionales. iso.org

La ISO/IEC 22989:2022 es una herramienta esencial para profesionales y organizaciones involucradas en el desarrollo, implementación y regulación de sistemas de IA. Su adopción contribuye a la construcción de sistemas más confiables, eficientes y éticamente alineados, promoviendo una mayor comprensión y colaboración en el campo de la inteligencia artificial.

La norma ISO/IEC 23894, titulada Artificial Intelligence — Guidance on Risk Management, publicada en 2023 proporciona directrices sobre cómo gestionar los riesgos asociados con la inteligencia artificial (IA). Se enfoca en la identificación, evaluación y mitigación de riesgos en el ciclo de vida de los sistemas de IA, incluyendo aspectos éticos, operativos y de seguridad. La norma busca asegurar que las organizaciones adopten prácticas responsables para minimizar los impactos negativos de la IA, fomentando una implementación más segura y confiable de estas tecnologías.

El marco de alfabetización en IA

Stanford Teaching Commons. «Understanding AI LiteracyTeaching Commons, last modified 2024. https://teachingcommons.stanford.edu/teaching-guides/artificial-intelligence-teaching-guide/understanding-ai-literacy

La alfabetización en IA se define como un conjunto de competencias que permite a las personas evaluar críticamente las tecnologías de IA, colaborar efectivamente con ellas y utilizarlas de manera ética, tanto en el hogar como en el trabajo. Se relaciona estrechamente con la alfabetización digital y de datos, ya que la IA depende de estos aspectos.

El marco de alfabetización en IA incluye cuatro dominios: funcional, ético, retórico y pedagógico. Cada uno tiene objetivos progresivos de competencia, buscando que se superpongan y se informen mutuamente.

El marco de alfabetización en IA sigue un enfoque centrado en el ser humano, subrayando que los individuos deben liderar el uso de la IA para maximizar sus beneficios y minimizar impactos negativos. El objetivo es emplear la IA para potenciar el aprendizaje y las capacidades humanas. Además, se destaca la responsabilidad ética en el uso de la tecnología, reconociendo que las decisiones informadas requieren esfuerzo y tiempo continuo.

El marco de alfabetización en IA identifica cuatro dominios clave:

  1. Alfabetización funcional: ¿Cómo funciona la IA?
  2. Alfabetización ética: ¿Cómo abordar los problemas éticos de la IA?
  3. Alfabetización retórica: ¿Cómo usar el lenguaje natural y generado por IA para lograr objetivos?
  4. Alfabetización pedagógica: ¿Cómo usar la IA para mejorar la enseñanza y el aprendizaje?

La alfabetización funcional en IA abarca el conocimiento de cómo funciona la IA, las habilidades necesarias para usar herramientas comunes y la conciencia sobre el desarrollo de la tecnología. Comienza con el uso básico de herramientas y la comprensión de términos y procesos clave, como el papel de los datos en el entrenamiento de la IA. Con el tiempo, se pueden evaluar las capacidades y limitaciones de la IA, usar herramientas avanzadas y crear recursos personalizados para la comunidad.

Los chatbots de IA basados en modelos de lenguaje grandes (LLM) generan respuestas al analizar datos masivos de la web, creando una voz compuesta basada en patrones comunes. Aunque pueden ser útiles en tareas como la lluvia de ideas o explicaciones generales, no son ideales para contenido especializado o soluciones originales. Comprender cómo funcionan los LLMs puede mejorar el uso de herramientas de IA y permitir aplicaciones más sofisticadas.

La alfabetización ética en IA implica comprender los problemas éticos relacionados con la IA y las prácticas para su uso responsable. Inicia con la evaluación de la precisión, fiabilidad y sesgos implícitos, y avanza hacia la reflexión sobre la integridad académica, la equidad, la privacidad y otros temas éticos. Con el tiempo, se pueden investigar impactos en comunidades marginadas y diseñar herramientas más éticas para la educación.

Al usar herramientas de IA para trabajos académicos, como un artículo de investigación, es crucial examinar sus implicaciones en términos de autoría, originalidad y propiedad. Aunque las herramientas de IA pueden ser muy útiles, pueden generar confusión sobre quién posee el contenido. Con el uso colaborativo de IA, las diferencias entre el material generado por IA y el creado por humanos pueden volverse más sutiles, y las políticas sobre transparencia y atribución pueden variar según el contexto.

La alfabetización retórica en IA se refiere a la habilidad de usar el lenguaje de manera efectiva para lograr objetivos y analizar la relación entre el lenguaje humano y el generado por IA. Comienza con la experimentación en la estructuración de tus escritos y en la elección de palabras al interactuar con herramientas de IA. A medida que adquieres experiencia, puedes colaborar con la IA para mejorar la calidad del contenido y utilizarla de manera más inclusiva y crítica, promoviendo lenguajes y perspectivas marginadas.

La alfabetización pedagógica en IA implica integrar prácticas de enseñanza efectivas con herramientas de IA para apoyar el aprendizaje estudiantil. Se comienza explorando teorías del aprendizaje, métodos de diseño de cursos y estrategias pedagógicas, además de herramientas educativas impulsadas por IA. Con el tiempo, se identifican prácticas basadas en evidencia para promover el pensamiento crítico, la inclusión y el bienestar. Con maestría, se evalúan los efectos de la IA en la enseñanza y se promueven innovaciones pedagógicas.

¿Cómo pueden los bibliotecarios proteger a los investigadores de revistas y editoriales no confiables?

Estelle, Lorraine. «How Librarians Can Protect Researchers from Untrustworthy Journals and Book Publishers.» International Federation of Library Associations and Institutions, February 26, 2025. https://blogs.ifla.org/arl/2025/02/26/how-librarians-can-protect-researchers-from-untrustworthy-journals-and-book-publishers/

En el ámbito de la publicación académica, los bibliotecarios pueden ayudar a los investigadores a evitar las editoriales y revistas depredadoras, que cobran tarifas sin ofrecer servicios adecuados. Los bibliotecarios pueden orientar y promover recursos a través de sus sitios web y materiales visuales, convirtiéndose en guías confiables para mantener la integridad de la investigación.

En el vertiginoso mundo de la publicación académica, los investigadores se enfrentan a una gran cantidad de opciones, no todas legítimas. Una amenaza creciente son los editores y revistas depredadoras, también conocidos como editoriales fraudulentas o engañosas. Estos actores operan con un objetivo común: explotar a los investigadores, imponiéndoles tarifas considerables sin proporcionar los servicios de edición o revisión por pares que prometen.

Aunque el modelo de negocio basado en tarifas es común en la publicación académica, lo que diferencia a los editores depredadores es su mala fe. En lugar de contribuir al avance del conocimiento, se aprovechan de la manipulación y la tergiversación, dejando a los investigadores vulnerables y sin el reconocimiento que su trabajo merece.

La amenaza creciente de la publicación depredadora

La publicación depredadora no es solo una molestia; se ha convertido en una epidemia global que afecta a todos los países. Con el aumento de las revistas en línea, los editores depredadores han encontrado una vía más fácil para operar encubiertos. Aunque los correos electrónicos mal redactados podrían ser una señal de advertencia, los editores depredadores actuales son cada vez más astutos, adoptando nombres que imitan a revistas respetables y presumiendo factores de impacto falsos o consejos editoriales inventados. Incluso existen revistas secuestradas que copian el sitio web de una revista legítima para engañar a los investigadores y hacer que envíen sus artículos a la versión clonada. Incluso los académicos experimentados pueden caer en esta trampa.

Una solución simple: Think. Check. Submit.

La buena noticia es que los investigadores no tienen que enfrentarse a esta amenaza por su cuenta. Think. Check. Submit. es una colaboración intersectorial que ofrece herramientas para ayudar a los investigadores a evaluar la confiabilidad de las editoriales y revistas antes de enviarles su trabajo. Mediante listas de verificación prácticas, esta iniciativa permite a los investigadores evaluar si una editorial o revista es adecuada para su investigación y si es confiable.

El rol de los bibliotecarios como socios confiables

Los bibliotecarios desempeñan un papel crucial en la difusión de Think. Check. Submit., ya que los sitios web de las bibliotecas son una de las principales fuentes a través de las cuales los investigadores descubren este recurso. A continuación se mencionan algunas formas en las que las bibliotecas pueden ayudar:

  1. Agregar un enlace: Incluir el enlace a Think. Check. Submit. en los sitios web o guías bibliográficas de la biblioteca para facilitar su acceso a los investigadores.
  2. Compartir recursos visuales: Descargar carteles, gráficos para redes sociales y otros materiales para promover la concienciación sobre el tema. P. ejemplo ¿Cómo detectar una revista depredadora? Planeta Biblioteca 2019/10/15
  3. Incorporar el video explicativo: Usar el video animado de Think. Check. Submit. para explicar de manera divertida y memorable cómo evaluar la confiabilidad de una editorial o revista.

Al tomar estas simples medidas, los bibliotecarios pueden convertirse en defensores de la integridad de la investigación, ayudando a los investigadores a evitar las trampas de la publicación depredadora y asegurando que su trabajo llegue al público que merece.

Fuentes adicionales sobre publicaciones depredadoras:

  • La Unión Internacional de Editores ha abordado el tema de las publicaciones depredadoras, destacando la necesidad de aumentar la conciencia sobre estas prácticas y apoyar a los investigadores en la toma de decisiones informadas.
  • Think. Check. Submit. también está respaldado por organizaciones de bibliotecas y universidades de todo el mundo, como la Sociedad de Bibliotecarios de Reino Unido (CILIP), que promueven su uso como herramienta educativa esencial.
  • Un informe de Nature (2019) señala que los investigadores que caen en las trampas de las publicaciones depredadoras pueden enfrentar serias consecuencias profesionales, incluida la deslegitimación de su trabajo académico.

Estos recursos, junto con el compromiso activo de bibliotecarios y otros profesionales de la información, pueden ayudar a mitigar los efectos perjudiciales de las publicaciones depredadoras en la comunidad académica.

Más sobre

Alonso Arévalo J., Saraiva R. y Flórez Holguín R. (2020). Revistas depredadoras: fraude en la ciencia. Cuadernos de Documentación Multimedia31, e68498. https://doi.org/10.5209/cdmu.68498

La inteligencia artificial y la generación de contenidos académicos

La inteligencia artificial y la generación de contenidos académicos

27 DE FEBRERO de 2025 10:00 AM de Colombia. 16 h. de España Escuela de Ingenieros Militares de Colombia Biblioteca Coronel Lino de Pombo de la Escuela de Ingenieros Militares los invita: CONFERENCIA Virtual GRATUITA

Conferenciante: Julio Alonso Arévalo Universidad de Salamanca