Archivo por meses: noviembre 2023

Definición de una gestión responsable de los datos

«Defining Responsible Data Stewardship». London: Open Data Institute (ODI),, 2023. Accedido 26 de agosto de 2023.  Accedido 26 de agosto de 2023. 

Texto completo

Este informe presenta los hallazgos de la investigación para definir la gestión responsable de datos llevada a cabo por el Open Data Institute (ODI) entre junio de 2022 y marzo de 2023, con el apoyo de la Fundación Patrick J. McGovern.

El acceso adecuado a los datos es fundamental para abordar los grandes desafíos que enfrentamos en la sociedad, desde la detección y tratamiento temprano de enfermedades hasta la reducción de la contaminación en entornos urbanos. Sin embargo, los datos y las tecnologías relacionadas también pueden causar daño, incluso al automatizar decisiones que requieren un toque humano o al incorporar sesgos y desigualdades existentes.

En respuesta al creciente conocimiento de los perjuicios y los impactos negativos de los datos, han surgido diferentes conceptos que representan nuevas formas de pensar sobre cómo deberían utilizarse, incluyendo cosas como «ética de datos» y «justicia de datos». Uno de los conceptos que hemos utilizado en el ODI es el de gestión de datos, describiéndolo generalmente como «la recopilación, mantenimiento y compartición de datos». En nuestro trabajo sobre instituciones de datos en los últimos años, hemos ampliado esto sugiriendo que estas organizaciones gestionan datos «en nombre de otros con fines públicos, educativos o benéficos».

Sin embargo, al inicio de esta investigación, nuestra comprensión de lo que constituye una buena gestión de datos se basaba en gran medida en anécdotas y experiencias específicas. Nos impulsó desarrollar e articular una interpretación de lo que significa la gestión responsable de datos para agregar un elemento normativo a nuestra descripción de la gestión de datos. Esta definición proporciona una perspectiva más crítica que podemos utilizar en nuestro trabajo para ayudar a otros a diseñar y practicar la recopilación, uso y compartición de datos. Entendemos la gestión responsable de datos de la siguiente manera:

  • Iterativo: Para nosotros, la gestión responsable de datos es un proceso negociado y reflexivo. Dado que los contextos varían y cambian con el tiempo, las mitigaciones y enfoques para la recopilación, mantenimiento y compartición de datos deben evolucionar constantemente.
  • Sistémico: Los impactos de la recopilación y uso de datos rara vez están completamente bajo el control de una sola organización, por lo que las organizaciones deben desarrollar una visión sistémica de sus prácticas de datos que enlace cómo las decisiones tomadas en torno a los datos tienen impacto fuera de la organización.
  • Beneficio público: Gestionar datos de manera responsable implica asegurarse de que se utilicen y compartan en beneficio de otros, en lugar de solo en beneficio de la organización que los posee.
  • Daño: Junto con la búsqueda de un impacto positivo en el uso de los datos, la gestión responsable de datos implica identificar y reducir los impactos perjudiciales en individuos y comunidades, a menudo yendo más allá de los requisitos legales en torno a la privacidad, seguridad y transparencia.
  • Reparación de desigualdades estructurales: La gestión de datos siempre ocurre dentro de un sistema más amplio de relaciones, intercambios de valor y desequilibrios de poder, que tienen consecuencias del mundo real para los datos. La gestión responsable de datos puede implicar una nueva comunicación significativa con los sujetos de datos y otras partes interesadas, o la adopción de formas alternativas de gobernanza.

¿Quién posee los derechos de autor de un contenido generado por inteligencia artificial generativa?


La determinación de quién posee los derechos de autor del contenido producido por inteligencia artificial (IA) es un asunto legal de gran complejidad y en constante cambio. Por lo general, las herramientas de IA generativa, como ChatGPT, no pueden ser consideradas autoras en el sentido legal o creativo, ya que no tienen la capacidad de comparecer ante un tribunal en caso de conflictos de intereses entre otras cuestiones.

La cuestión de quién posee los derechos de autor del contenido generado por inteligencia artificial (IA) es un asunto legal complejo y en constante evolución que puede variar según la jurisdicción y depende de las circunstancias específicas.

  1. Autoría: Las leyes de derechos de autor tradicionalmente otorgan derechos de autor al creador o autor humano de una obra. La IA, al ser una máquina, no se considera una persona legal capaz de poseer derechos de autor. Esto ha llevado a debates sobre si el programador humano de la IA o la organización que emplea al programador debería considerarse el autor o propietario del contenido generado por la IA.
  2. Doctrina del «Trabajo por Encargo»: En algunas jurisdicciones, cuando una obra se crea como parte de una relación laboral, el empleador suele considerarse el propietario de los derechos de autor. Si un empleado crea contenido generado por la IA en el ámbito de su empleo, es posible que su empleador tenga un reclamo más fuerte sobre los derechos de autor.
  3. Acuerdos Contractuales: La propiedad del contenido generado por la IA también puede determinarse mediante acuerdos contractuales. Las empresas y programadores pueden especificar la propiedad y los derechos asociados con el contenido generado por la IA en contratos o acuerdos de licencia. Estos contratos pueden anular las reglas de derechos de autor por defecto.
  4. Uso Justo: En algunos casos, el uso de contenido generado por la IA podría considerarse «uso justo» bajo la ley de derechos de autor. El uso justo puede aplicarse en situaciones en las que se utiliza material con derechos de autor con fines como comentario, crítica, informes de noticias, enseñanza o investigación. Sin embargo, el uso justo es una doctrina legal compleja que puede variar según la jurisdicción y depende de los detalles de cada caso.
  5. Transformación y Obras Derivadas: El contenido generado por la IA que se basa en material con derechos de autor existente puede considerarse una obra derivada. Los derechos de autor del material original aún pueden aplicarse en la medida en que sea reconocible en el contenido generado por la IA.
  6. Marco Legal en Evolución: El marco legal que rodea el contenido generado por la IA sigue evolucionando, y algunos países pueden promulgar leyes o regulaciones específicas para abordar estos problemas. Los tribunales y legisladores están considerando activamente las implicaciones de la IA en los derechos de autor y la propiedad intelectual.

A nivel general puede decirse que una inteligencia artificial generativa (IA) en sí misma no puede ser propietaria de los derechos de autor de una obra. Los derechos de autor tradicionalmente se otorgan a autores humanos, y las IA no son consideradas entidades legales con la capacidad de poseer derechos de autor.

Por lo tanto, ChatGPT, como una inteligencia artificial desarrollada por OpenAI, no puede ser considerado un autor en el sentido legal o creativo. Los derechos de autor tradicionalmente se aplican a obras creadas por personas físicas. ChatGPT es una herramienta de procesamiento de lenguaje natural que genera respuestas y texto basados en patrones y datos previamente aprendidos, pero no tiene la capacidad de tener intenciones, creatividad o una voluntad propia. Por lo tanto, cualquier contenido generado por ChatGPT generalmente se atribuiría a los usuarios que lo utilizan o a las organizaciones que lo emplean, y no a la IA en sí misma.

Además, la responsabilidad de citar fuentes recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información específica de fuentes con derechos de autor o utiliza contenido protegido en sus interacciones con ChatGPT, es responsabilidad del usuario garantizar que cumple con las leyes de derechos de autor al citar adecuadamente esas fuentes. La responsabilidad de evitar el plagio recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información o ideas específicas de fuentes externas sin citar adecuadamente esas fuentes, eso podría considerarse un acto de plagio por parte del usuario, no de ChatGPT.

Es esencial consultar con expertos legales especializados en derechos de autor o propiedad intelectual para obtener orientación en casos específicos. Las leyes y las interpretaciones pueden haber evolucionado desde mi última actualización en enero de 2022, y diferentes jurisdicciones pueden tener enfoques únicos para este tema.

Un profesor contratado por OpenAI para probar GPT-4 afirma que existe un «riesgo significativo» de que las personas lo utilicen para llevar a cabo «química peligrosa»

Bhaimiya, Sawdah. «A Professor Hired by OpenAI to Test GPT-4 Says There’s “significant Risk” of People Using It to Do “Dangerous Chemistry”». Business Insider. Accedido 3 de noviembre de 2023. https://www.businessinsider.com/open-ai-gpt4-high-risk-used-for-dangerous-chemistry-expert-2023-4.

Un profesor contratado por OpenAI para probar GPT-4, creadora del chatbot ChatGPT, ha advertido sobre el «riesgo significativo» de que las personas lo utilicen para realizar «química peligrosa». Andrew White, profesor asociado de ingeniería química en la Universidad de Rochester en el estado de Nueva York, formó parte de un grupo de 50 expertos contratados para probar la nueva tecnología durante un período de seis meses en 2022.

Este grupo de expertos, conocido como el «equipo rojo«, planteó preguntas peligrosas y provocadoras al modelo de inteligencia artificial para evaluar hasta dónde podía llegar. White reveló que utilizó GPT-4 para sugerir un compuesto que pudiera funcionar como un arma química, utilizando «complementos» que permitían al chatbot acceder a información de documentos científicos y directorios de fabricantes químicos. Según se informa, el chatbot pudo encontrar información sobre cómo fabricar el compuesto.

White comentó que, si bien esta tecnología puede acelerar y mejorar la química, también existe el riesgo de que las personas realicen actividades químicas peligrosas.

Los hallazgos del equipo de 50 expertos se presentaron en un documento técnico sobre el nuevo modelo, que también mostró que la IA podría ayudar a los usuarios a redactar discursos de odio y a encontrar armas no registradas en línea. Estos hallazgos contribuyeron a que OpenAI abordara estos problemas antes de lanzar GPT-4 para uso público.

GPT-4 se lanzó en marzo y se describe como la tecnología de IA más avanzada de OpenAI, capaz de aprobar un examen de abogacía o alcanzar una calificación de 5 en algunos exámenes de nivel avanzado (AP).

El CEO de Twitter, Elon Musk, y cientos de expertos en IA, académicos e investigadores firmaron una carta abierta el mes pasado en la que pedían una pausa de seis meses en el desarrollo de herramientas de IA más poderosas que GPT-4. La carta argumentaba que los sistemas de IA poderosos solo deberían desarrollarse «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables».

Bolsas de esperanza: campaña de recogida de alimentos y productos de higiene de la biblioteca de las Bibliotecas Públicas del Condado de Spartanburg (SCPL)


American Libraries Magazine. «It’s in the Bag», 1 de septiembre de 2023. https://americanlibrariesmagazine.org/2023/09/01/its-in-the-bag/.

En 2022, el condado de Spartanburg, el quinto más poblado de Carolina del Sur, experimentó un crecimiento poblacional, alcanzando casi 346,000 residentes. Sin embargo, cerca del 14% vivía en o por debajo del umbral de pobreza federal, y aproximadamente el 11% de los niños enfrentaban inseguridad alimentaria. Para abordar estos problemas de accesibilidad y asequibilidad, las Bibliotecas Públicas del Condado de Spartanburg (SCPL) lanzaron la iniciativa «Bags of Hope» en 2021, conectando alimentos y otros elementos esenciales con aquellos en situación de necesidad.

La iniciativa, similar a un programa sin fines de lucro existente, proporciona bolsas de alimentos y artículos esenciales a individuos que pueden enfrentar la pobreza. A través de donaciones y colaboraciones con organizaciones locales, SCPL ha logrado distribuir más de 740 bolsas llenas de productos, impactando positivamente a la comunidad y fortaleciendo las conexiones comunitarias. A pesar de los desafíos logísticos, la iniciativa se ha vuelto valiosa, demostrando su impacto y planificando futuras ediciones en la primavera de 2024.

Deepfakes y la seguridad de las herramientas de IA: formas de navegar por este turbio panorama

IndiaTimes. «Deepfakes And The Safety Of AI Tools: Ways To Navigate This Murky Landscape», 6 de noviembre de 2023. https://www.indiatimes.com/technology/news/deepfakes-and-the-safety-of-ai-tools-619754.html.


Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.

Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA).  El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?

Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.

Amenaza a la privacidad individual

La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.

Modificación de la opinión pública

Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.

Dificultades para identificar los deepfakes

Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.

Estrategias para garantizar la seguridad

A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?

  • Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
  • Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
  • Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
  • Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.

Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.

La IA tiene un enorme potencial para apoyar a los profesores, no para sustituirlos

Cappelle, Frank van. «AI Has Huge Potential to Support Teachers, Not Replace Them». ThePrint (blog), 21 de octubre de 2023. https://theprint.in/tech/ai-has-huge-potential-to-support-teachers-not-replace-them/1813903/.

La IA encierra un enorme potencial para la educación mediante la colaboración con los gobiernos, la sociedad civil, el sector privado y otros socios.

Los avances recientes en inteligencia artificial (IA) han generado un creciente interés en el impacto potencial que puede tener en la educación. Como cualquier tecnología, la IA presenta oportunidades y desafíos. Desafortunadamente, avances previos en tecnología a menudo han favorecido a los privilegiados, exacerbando las desigualdades en la educación y otros sectores. ¿Seguirá la IA el mismo camino? ¿O tiene el potencial de reducir las desigualdades educativas y transformar el aprendizaje para los más marginados?

Al considerar el impacto más amplio de la IA en la educación, no hay duda de que será transformadora, es solo cuestión de tiempo. Muchos líderes en educación y tecnología han opinado sobre el potencial, así como las trampas, de la IA en la educación. Bill Gates, por ejemplo, cree que pronto las herramientas de IA podrán ayudar a los niños a aprender a leer y escribir. Por otro lado, muchos críticos han condenado el uso de la IA, señalando que ayuda a los estudiantes a hacer trampa, puede entregar resultados sesgados, incluido el sesgo de género, y tiende a cometer errores y presentarlos como hechos.

Sin embargo, debemos ser realistas acerca del impacto global. Aunque casi todos los países implementaron plataformas de aprendizaje digital durante la pandemia de COVID-19, la investigación de UNICEF sobre Pulse Check on Digital Learning reveló que un tercio de esas plataformas ya no se mantienen o actualizan, y la gran mayoría carece de contenido interactivo. Transformar estas plataformas de repositorios de contenido de aprendizaje en plataformas interactivas, y mucho menos integrar soluciones impulsadas por IA, requiere un esfuerzo y una inversión significativos.

Algunos gobiernos están comprometidos en transformar digitalmente sus sistemas educativos a un ritmo rápido, incluida la prueba de soluciones de IA. A través de la iniciativa Gateways to Public Digital Learning, UNICEF, en colaboración con la UNESCO, está trabajando con estos países pioneros en África, Asia, América Latina y otras partes del mundo para compartir mejores prácticas y soluciones. El objetivo es mostrar el potencial de la educación digital innovadora para transformar la educación y convertir el aprendizaje digital en un bien público, de acceso gratuito para todos.

El uso de la IA para ayudar a niños sin acceso a educación es una prioridad clave para UNICEF. A nivel global, 222 millones de niños se ven afectados por emergencias y crisis prolongadas; 244 millones de niños están fuera de la escuela y 1.000 millones de niños, casi la mitad de los niños del mundo, viven en países clasificados como «extremadamente alto riesgo» para los impactos del cambio climático. Las escuelas en estos países cierran con frecuencia debido a desastres naturales como inundaciones, huracanes y tormentas.

Cientos de millones de niños carecen de acceso a tabletas, computadoras o conectividad a Internet confiable en casa, lo que plantea desafíos para el aprendizaje en el hogar cuando las escuelas cierran. Para llegar a los más marginados a gran escala, debemos considerar cómo las soluciones que aprovechan la IA pueden funcionar en teléfonos inteligentes compartidos de bajo costo y funcionar sin conexión. También necesitamos soluciones de aprendizaje digital más y mejores para ayudar a los niños a adquirir habilidades de lectura básicas. Casi dos tercios de los niños de 10 años se estima que no pueden leer y comprender un texto simple. Las soluciones de IA, como ChatGPT, tienen poco uso para aquellos que aún no han aprendido a leer y escribir, a menos que incorporen reconocimiento de voz multilingüe.

Independientemente de los avances en sistemas de tutoría de IA y otras tecnologías que respaldan el aprendizaje independiente, los maestros deben seguir siendo centrales en el proceso de aprendizaje. Esto también es cierto para el aprendizaje en el hogar durante el cierre de las escuelas. Nuestra investigación reveló que la frecuencia del contacto con los maestros se correlacionó significativamente con el aprendizaje durante la COVID-19. Entonces, vemos que la IA tiene un gran potencial para apoyar a los maestros, no para reemplazarlos.

La falta de acceso a dispositivos limita el potencial de la IA. En muchos países, menos de la mitad de las escuelas tienen dispositivos para el aprendizaje. En las escuelas con dispositivos, a menudo se comparten entre muchos estudiantes o solo están accesibles para los maestros. Sin embargo, el potencial aún es enorme. Las soluciones de IA pueden permitir experiencias de aprendizaje personalizadas incluso en dispositivos compartidos y ayudar a transformar las escuelas y las prácticas de enseñanza para centrarse más en el estudiante.

La falta de habilidades digitales también es una barrera clave para el uso de la tecnología. Existe una brecha digital de género significativa en términos de acceso a la tecnología, así como habilidades digitales, según la última investigación de UNICEF en 32 países y territorios; por cada 100 jóvenes varones con habilidades digitales, solo hay 65 jóvenes mujeres. La IA puede ayudar a los aprendices con baja alfabetización digital mediante la incorporación de características como el reconocimiento de voz y el procesamiento del lenguaje natural. También puede ayudar en la adquisición de habilidades digitales a través de sistemas adaptativos que se ajustan automáticamente a la alfabetización del aprendiz, así como a los niveles de alfabetización digital. Sin embargo, muchas de estas innovaciones tecnológicas están detrás de barreras de pago y están destinadas a dispositivos de alta gama. Se necesitan inversiones significativas y esfuerzos para hacerlas de acceso gratuito para todos.

Otra área crítica de enfoque para UNICEF es el aprendizaje digital accesible para niños con discapacidades. De los 240 millones de niños con discapacidades en todo el mundo, la mayoría carece de acceso a tecnologías inclusivas, materiales de aprendizaje accesibles y otros apoyos educativos esenciales.

La inteligencia artificial (IA) también puede marcar una diferencia sustancial en esta área. Aprovechar el reconocimiento de voz en diferentes idiomas y dialectos, la automatización del texto al lenguaje de señas y la ‘visión’ de ChatGPT para interpretar imágenes y diagramas podrían ser útiles. UNICEF ha estado trabajando durante varios años con gobiernos en el desarrollo de libros de texto digitales accesibles, pero hasta ahora ha sido un proceso costoso y que consume tiempo. Además, el aprendizaje personalizado que utiliza la IA para adaptarse a las habilidades e intereses del aprendiz puede beneficiar a los niños con discapacidades. UNICEF está trabajando actualmente con socios en una serie de consultas con especialistas en IA y discapacidad, investigadores y desarrolladores para idear soluciones escalables basadas en la IA para el aprendizaje accesible.

Para abordar la pregunta planteada en el título de este blog: ¿puede la IA transformar el aprendizaje para los más marginados? la respuesta es un rotundo sí. El tiempo dirá, sin embargo, si la IA reducirá o ampliará aún más las desigualdades. Inversiones significativas y un enfoque concertado en el diseño y desarrollo de soluciones para los más marginados son esenciales. Creemos firmemente que esta transformación es posible mediante la colaboración con gobiernos, la sociedad civil, el sector privado y otros socios. Juntos, podemos lograrlo.

Feria del libro antiguo y de ocasión de Salamanca. Planeta Biblioteca 2023/11/08

Feria del libro antiguo y de ocasión de Salamanca.

Planeta Biblioteca 2023/11/08

ESCUCHAR

Ir a descargar

En este programa conversamos con Isabel Sánchez Fernández, quien desempeña la función de coordinadora de servicios en la Biblioteca Municipal Torrente Ballester de Salamanca, entidad encargada de la organización de este evento que se celebra durante la primera quincena en nuestra ciudad. Isabel nos ha compartido la como surgió la idea que llevó a la biblioteca a organizar una feria dedicada a libros antiguos y de ocasión en Salamanca, así como su evolución desde sus inicios. También nos ha hablado acerca de las novedades y elementos destacados que podremos encontrar en esta edición de la feria, incluyendo detalles sobre la selección de los libreros que expondrán sus obras y las actividades paralelas programadas, como la exposición sobre las «Misiones pedagógicas», actuaciones y charlas con escritores.

Reconocimiento de la alfabetización informacional como disciplina: reflexiones sobre una mesa redonda de ACRL 2023

Maybee, Clarence, Karen F. Kaufmann, Virginia M. Tucker, y John Budd. «Recognizing Information Literacy as a Discipline: Reflections on an ACRL 2023 Panel Discussion | Maybee | College & Research Libraries News», 2 de noviembre de 2023. https://doi.org/10.5860/crln.84.10.363.

Los panelistas discutieron cómo la alfabetización informacional se alinea con las características comúnmente identificadas con las disciplinas. Describiendo cómo creen que el reconocimiento de que es una disciplina fomentará los resultados de la enseñanza y la investigación de la alfabetización informacional en los contextos en los que trabajan.

El debate en torno a la naturaleza de la alfabetización informativa ha sido largo y controvertido, planteando preguntas sobre si se trata de un conjunto de habilidades, como se estableció en los Information Literacy Competency Standards for Higher Education (que posteriormente fueron retirados), o si se compone de conceptos interrelacionados, como se expuso en el Framework for Information Literacy for Higher Education. Un grupo internacional de educadores e investigadores en alfabetización informativa se reunió en octubre de 2021 para explorar la idea de que la alfabetización informativa es una disciplina académica y especular sobre sus implicaciones para la educación e investigación. El grupo, conocido como «Information Literacy is a Discipline» (ILIAD), llevó esta conversación a la comunidad de alfabetización informativa para un debate más amplio. La discusión abordó temas como posibles cambios en el plan de estudios de biblioteconomía y ciencias de la información, ética en la disciplina de la alfabetización informativa y las implicaciones para la enseñanza de la alfabetización informativa en la educación superior. También se consideraron las pautas éticas necesarias para la disciplina, y se presentaron declaraciones éticas preliminares. El reconocimiento de la alfabetización informativa como una disciplina puede tener un impacto significativo en la práctica de la enseñanza de la alfabetización informativa en bibliotecas universitarias y en la investigación relacionada con la disciplina.

Implicaciones para el plan de estudios de MLIS (Master of Library and Information Science)

Si la alfabetización informativa fuera reconocida como una disciplina, un área esencial para considerar sería el plan de estudios de MLIS (Master of Library and Information Science). En la sesión del panel de ACRL, esta área se planteó inicialmente como una pregunta amplia: ¿Cuál sería el impacto en el plan de estudios de MLIS si la alfabetización informativa fuera una disciplina académica? Para abordar esta gran pregunta, se plantearon tres preguntas más pequeñas:

  1. ¿Cómo aprenderían los estudiantes actuales de MLIS a pensar de manera diferente sobre la alfabetización informativa?
  2. ¿Qué tipos de habilidades diferentes tendrían los graduados de MLIS, para qué tipos de trayectorias profesionales o entornos laborales estarían preparados?
  3. ¿Qué nuevos tipos de contribuciones serían probables de hacer por parte de estudiantes y graduados de MLIS?

Con estas preguntas como contexto, se presentaron hallazgos sobre cómo se enseña actualmente la alfabetización informativa en los cursos de MLIS utilizando programas de estudios de tres programas (Drexel University, Simmons University y San José State University). Los programas de estudios mostraron que la alfabetización informativa se enseña con énfasis en cinco áreas conceptuales y prácticas principales:

  1. Aplicaciones en diferentes entornos: bibliotecas públicas, bibliotecas académicas, espacios de trabajo corporativos.
  2. Problemas relacionados con la alfabetización informativa: precisión, privacidad, autenticidad.
  3. Conceptos básicos de pedagogía: resultados de aprendizaje, evaluación, formatos/plataformas.
  4. Diseño de instrucción para diversos aprendices.
  5. Alineación con las definiciones de ACRL, como los Estándares o el Marco.

De manera similar, una exploración de la literatura reveló temas consistentes a un nivel conceptual elevado:

  1. Una comprensión ampliada de la alfabetización informativa «hace hincapié en la dinámica, la flexibilidad, el crecimiento individual y el aprendizaje en comunidad».
  2. «La alfabetización informativa tiene su propia epistemología y realidad ontológica».
  3. «La alfabetización informativa es la adopción de un comportamiento informativo… que conduce a un uso sabio y ético de la información en la sociedad».

La discusión luego volvió a las preguntas iniciales para que los participantes pudieran contribuir con sus ideas utilizando la herramienta Slido. Tanto los asistentes en la sala como los que participaban en línea pudieron contribuir. La pregunta planteada fue: «¿Cuáles verían como cambios en el plan de estudios de MLIS al tener la alfabetización informativa como una disciplina académica?»

Las respuestas fueron inmediatas y continuaron durante varios minutos, con un total de 195 publicaciones, 15 de las cuales recibieron un total de 29 votos positivos. Además, como los asistentes podían ver las respuestas de todos en la pantalla de la sala y en sus propios dispositivos, también comenzaron a interactuar con las ideas de los demás, generando un mayor nivel de participación. Por ejemplo, una publicación temprana abogaba por «más teoría», y otros respondieron con «menos teoría» y «tiempo desperdiciado con teoría», pero también «fundamentación en teoría». Para fomentar más interacciones, el presentador destacó algunas de las publicaciones sobre nuevas áreas temáticas e ideas contrastantes a medida que avanzaba la discusión. Las 195 publicaciones y votos positivos se organizaron temáticamente, lo que resultó en seis temas destacados que representan las posibles implicaciones para el plan de estudios de MLIS:

  1. La alfabetización informativa sería un curso obligatorio.
  2. Mejoras en la pedagogía de la alfabetización informativa.
  3. Mayor fundamentación teórica para la alfabetización informativa.
  4. Mayor enfoque y rigor en metodologías de investigación.
  5. Los docentes de alfabetización informativa profundizarían su imagen como expertos.
  6. Mayor promoción y posicionamiento en el campus universitario.

Cuando los autores declaran más de una filiación deben poner en primer lugar la universidad en la que trabajan


Press, Europa. «Comité de Ética en Investigación pone orden: los autores deben poner primero la principal Universidad en la que trabajan». Europa Press, 3 de noviembre de 2023.

Texto completo

El Comité Español de Ética de la Investigación ha señalado que, cuando los autores declaran más de una afiliación, «es importante el orden o prioridad con el que se declaran dichas afiliaciones, que debe corresponderse con la relación contractual del autor».

En abril del año pasado, un informe de la consultora Siris reveló que varios investigadores españoles que figuraban en la lista de Highly Cited Researchers de Clarivate con afiliación principal en instituciones españolas cambiaron su afiliación principal a universidades de Arabia Saudita. Este cambio, destacado en el informe, tiene implicaciones significativas, ya que contar con investigadores altamente citados es crucial para la reputación de las universidades y su posición en el Ranking Académico de Shanghai. En este contexto, la investigación destacó que un solo investigador altamente citado puede permitir que una universidad suba hasta 200 lugares en el Ranking de Shanghái. Además, el informe subraya la importancia de clarificar los detalles de afiliación, así como el derecho de las entidades a preservar la afiliación en el caso de autores que cambian de institución, sugiriendo la necesidad de códigos éticos que aborden estos aspectos.

Así, el informe del comité, encargado por el Ministerio de Ciencia e Innovación, establece que la autoría científica debe estar vinculada a la afiliación y que ambas informaciones son inseparables en la producción científica. Se reconoce que los autores pueden tener varias afiliaciones, pero se destaca que la entidad principal, que corresponde a la entidad empleadora principal, debe ser declarada primero. Además, se señala que los cambios en la afiliación deben reflejar adecuadamente el período de la investigación y que los códigos éticos de las instituciones deben destacar la importancia de la afiliación en la autoría. El Comité Español de Ética en la Investigación es un órgano independiente que vela por la integridad y la ética en la investigación científica y técnica en España, y ha sido establecido en conformidad con la nueva Ley de la Ciencia, la Tecnología y la Innovación.

Así se refleja en el primer informe del órgano consultivo sobre autoría y filiaciones en trabajos científicos y técnicos, recogido por Europa Press, a raíz de un encargo del Ministerio de Ciencia e Innovación.

El informe explica que la autoría científica se indica siempre junto con la afiliación y subraya que ambos datos son inseparables y deben figurar en todo tipo de producción científica (publicaciones, presentaciones en congresos, etc.).

La afiliación, añade el documento, indica las entidades, instituciones o empresas a las que está asociado cada uno de los autores de una publicación científica.

En este sentido, el Comité de Ética de la Investigación destaca que es habitual que los autores tengan múltiples afiliaciones. Por ejemplo, en el ámbito de las ciencias de la salud, muchos autores indican simultáneamente su afiliación hospitalaria y universitaria porque la vinculación (y el espacio de trabajo) de ambos cargos suele ser compartida.

En cualquier caso, advierte de que la afiliación primaria distingue a la entidad principal, que corresponde a la entidad empleadora primaria, de las afiliaciones secundarias. «Cuando los autores tienen afiliaciones secundarias con segundas y terceras entidades, es natural declarar esta conexión cuando sea pertinente», especifica la organización.