Archivo de la etiqueta: Big Data

Big Data: Monográfico

 

 

big_data

Ira al Monográfico

Big Data

Más monográficos

MONOGRÁFICOS SOBRE BYD

Casi todos los analistas consideran “Big Data” como una de las tendencias de futuro que tendrán que tener en cuenta la mayoría de las empresas e instituciones. La sociedad TIC propicia y requiere un diluvio universal de datos, procesarlos, entenderlos y transformarlos en decisiones de valor es el reto del análisis big data. Vital para las empresas cuyo activo es la información.

Según estima idC hoy hay muchos más datos se incrementan un 50% al año, o sea que se duplican cada dos años. Un informe del Foro Económico Mundial declaró que los datos constituyen una nueva clase de activo económico, como la moneda o el oro. Para la revista Forbes, el big data ha sido la principal tendencia tecnológica del 2012 que se mantendrá los próximos años. Según IDC, hasta el 2015 su crecimiento será siete veces superior al de la media de todo el sector TIC.

Áreas tan variadas como la ciencia y los deportes, la publicidad y la salud pública, se ha producido un salto hacia el descubrimiento y la toma de decisiones a partir de los datos. La tendencia ligada a Big data también es alimentada por un mejor acceso a la información.

La agencia Gartner proporciona una descripción del término en la siguiente frase “Big Data se refieren al volumen, variedad y velocidad de datos estructurados y no estructurados que se vierten a través de redes en los procesadores y dispositivos de almacenamiento, así como la conversión de dichos datos para el asesoramiento empresarial. Estos elementos se pueden dividir en tres categorías distintas:. volumen, variedad y velocidad.

  • Volumen (terabytes, petabytes y exabytes eventualmente): La cantidad cada vez mayor de datos creada por los seres humanos y las máquinas-está poniendo un reto a  los sistemas informáticos, que están luchando para almacenar, proteger y poner a disposición toda la información para su uso futuro.
  • Variedad: Big data es también  el creciente número de tipos de datos que deben ser manejados de manera diferente a partir de simple correo electrónico, registros de datos y los registros de tarjetas de crédito. Reunido datos para estudios científicos, registros de salud, datos financieros y multimedia: fotos, presentaciones gráficas, música, audio y video.
  • Velocidad: Se trata de la velocidad a la que estos datos se mueve a partir de criterios de valoración en el procesamiento y almacenamiento.

¿Se trata de un verdadero reto para las empresas en los próximos años o una nueva estrategia de marketing y vaporware de los proveedores tecnológicos? Big Data puede llegar a ser el activo más valioso de una organización o una de sus obligaciones más costosas, todo depende de las estrategias y soluciones que se pongan en marcha  a corto plazo para afrontar el ingente crecimiento del volumen, la complejidad, la diversidad, y la velocidad de los datos. Como veremos, es una tendencia importante para las organizaciones y sus procesos de toma de decisiones, pero en absoluto afectará de la misma forma a todas las firmas y sectores. En España según Big Data de IDC cerca de un 5% de las empresas españolas ya utiliza esta tecnología.

Bibliotecas y Big Data : como hacer unas gestión de datos de investigación sostenible

ifyoubuildit-cover

Erway, R. and A. Rinehart (2016). [e-Book] If You Build It, Will They Fund? Making Research Data Management Sustainable OCLC, 2016.

Texto completo

Los llamados “Big Data”, un término utilizado para referirse a la explosión de una ingente cantidad y diversidad de datos digitales de alta frecuencia,  se están  convirtiendo en un elemento esencial para la competencia, y en un futuro inmediato serán clave para el crecimiento de la productividad, la innovación y la posibilidad de generar el suficiente excedente para las sostenibilidad de la sociedad.  Datos de registros de llamadas, transacciones de banca móvil, contenido generado por el usuario de internet, tales como blogs y tweets, búsquedas en línea, imágenes de satélite, etc. es información procesable que requiere el uso de técnicas computacionales para dar a conocer las tendencias y patrones dentro de y entre éstos extremadamente grandes conjuntos de datos socioeconómicos. Las bibliotecas de investigación juegan un papel vital en la gestión y curación de este tipo contenido, pero requieren de mecanismos de financiación adecuados. 

 

La gestión de los datos de investigación (Big Data) se plantea como uno de los grandes retos que han de asumir durante los próximos años las bibliotecas científicas y de investigación.  Algunas bibliotecas han sido proactivas en asumir el nuevo rol de apoyo a las necesidades de gestión de datos de investigación, mientras que a otras le ha venido impuesto. En uno y otro caso, pocas instituciones se han visto dotadas de los recursos de personal, formación y financieros necesarios para implementar y mantener esta actividad. Este documento analiza los pros y los contras de siete posibles fuentes de financiación. También describe las circunstancias actuales en siete países fuera de Estados Unidos.

La gestión de datos sustenta la investigación actual y futura, los mandatos de finacciacion, las iniciativas de acceso abierto, la reputación de los investigadores, y el posicionamiento institucional. Si bien se reconoce que es necesario proporcionar apoyo a la gestión de datos, el reconocimiento de que también requiere de una financiación sostenible y adecuada tarda en llegar. Beagrie, Chruszcz y Lavoie estiman que los costos de los repositorios de datos son mayores que los necesarios para el mantenimiento de los repositorios institucionales que se centran fundamentalmente en las publicaciones electrónicas y en los resultados finales de la investigación.

Estos costos se producen principalmente durante la adquisición, procesamiento y gestión de los mismos A pesar de que la los estados y organismos de financiación de proyectos están comenzando a tener en cuenta estos costos, es prioritario comenzar a abordar cómo podría financiarse una gestión de datos de manera sostenible. Una evaluación reciente de los centros nacionales de gestión de datos puso de manifiesto que los aumentos significativos en la investigación, la enseñanza y el estudio de la eficiencia que tienen para los usuarios finales supera la inversión realizada en el intercambio y curación de datos. Con el fin de explorar las distintas posibilidades, el este informe ofrece una visión general de las diferentes estrategias de financiación y la situación en torno a la tema en EE.UU.. Se presentan los argumentos a favor y en contra de cada estrategia y se expone la situación y prácticas desarrolladas por otros países.

Debido a que algunos datos de la investigación son un valioso activo para la universidad, las instituciones deben construir mecanismos de financiación continua reflejados en  sus presupuestos base para proporcionar recursos a las unidades responsables de la gestión de ese activo. Las siete estrategias de financiación incluyen la obtención de apoyo presupuestario institucional, otorgando un presupuestos regular, los costes de apoyo a los depositantes de datos, y los relativos a los usuarios de datos, el establecimiento de un fondo patrimonial, utilizando los fondos existentes para el desarrollo de repositorio de datos con los presupuestos existentes. Otra opción es la de subcontratar repositorios de datos externos, teniendo en cuenta que muchas de estas empresa no desarrollan ningún esfuerzo para cumplir con las normas de preservación digital.

El fenómeno de los datos abiertos. Indicaciones y normas para un mundo de datos abiertos.

opendata1

Aliprandi, Simone Il fenomeno open data. Indicazioni e norme per un mondo di dati aperti.  [e-Book] Roma, LediPublishing, 2014

Texto completo

En el fascinante mundo de la cultura abierta después del software de código abierto, estándares abiertos, el acceso abierto y el contenido abierto; el fenómeno de los datos abiertos es la última frontera y quizás incluso en la actualidad uno de los recursos más estratégicos para gobiernos y organizaciones. A finales de la década del 2000 se abrió el debate sobre la importancia de la disponibilidad y la libre difusión de los datos “en bruto” con el fin de aumentar el potencial de la información y la comunicación del conocimiento compartido de la revolución digital. Pronto se percibió que la capacidad de recopilar, gestionar y reutilizar cantidades de datos cada vez más relacionados y más densos conducía a la necesidad de algunas reflexiones de carácter tanto legales como tecnológicas. En este libro se trata de presentar los principales temas emergentes, dibujando un marco normativo completo y ofreciendo algunas líneas esenciales.

Dataverse: una aplicación web de código abierto para compartir, preservar, citar, explorar y analizar datos de investigación

.

Dataverse es una aplicación web de código abierto desarrollada por la Universidad de Harvard para compartir, preservar, citar, explorar y analizar datos de investigación. El programa facilita la toma de datos y los pone a disposición de los demás, y permite replicar otros trabajos de investigación.

Dataverse es un proyecto  colaborativo desarrollado por el Institute for Quantitative Social Science (IQSS) y Harvard Library  que ponen a disposición de los investigadores, disciplinas  y recolectores de datos en todo el mundo.

Un repositorio Dataverse aloja varios dataverses. Cada Dataverse contiene un datatset u otros dataverses, y cada conjunto de datos contiene metadatos descriptivos y archivos de datos (incluyendo la documentación y el código que acompañan a los datos).

[]

Dataverse normaliza la cita de los conjuntos de datos para que sea más fácil para los investigadores publicar sus datos y obtener un mejor reconocimiento de su trabajo. Cuando se crea un conjunto de datos en Dataverse, se genera la citación y se presenta de forma automática como un marco único de código abierto y repositorio de datos de investigación, lo que hace que los datos científicos sean lo más accesibles, reutilizables, y abiertos posibles.

[]

El estándar de citación definido por Dataverse ofrece un adecuado reconocimiento a los autores, así como la identificación permanente mediante el uso de identificadores persistentes globales, en lugar de direcciones URL, que pueden cambiar con frecuencia. El uso de huellas numéricas universales ( UNFs) garantiza a la comunidad académica que los futuros investigadores serán capaces de verificar que los datos recuperados son idénticos a los utilizados en una publicación de décadas anteriores, incluso si ha cambiado el medio de almacenamiento, los sistemas operativos, el hardware, y el formato del programa.

[]

Ejemplo de una citación basada en el proyecto Joint Declaration of Data Citation Principles (2014).

Es de uso gratuito y muy fácil de utilizar, y permite a los autores controlar sus datos de investigación de manera que se puedan conservar en el futuro, y se puedan generar citas para esos conjuntos de datos.

Recientemente Dataverse ha creado un plugin que se integra con OJS (Open Journal Systems), la plataforma de publicación de muchas de las mejores publicaciones de acceso abierto, permitiendo a los autores que presenten sus datos para archivar junto con la presentación del artículo.

Dataverse es la mejor manera de asegurarse de que los datos de una investigación están listos para la preservación a largo plazo, simplemente el investigador deberá crear una cuenta en Dataverse al comienzo de un proyecto de investigación y construir el archivo de datos a medida que se completa cada etapa del proyecto.

Dataverse es mejor que tener los datos en la nube porque los archivos están enriquecidos con metadatos que permiten la búsqueda por facetas. El investigador puede elegir que datos liberar, tanto en su totalidad o parte. Además, si si se está trabajando como un equipo de investigación se puede utilizar Dataverse como una plataforma para compartir archivos de datos con los miembros del equipo autorizados  excluyendo el acceso a los mismos al público en general.

Al crear una cuenta en cualquiera de las instituciones citadas, los archivos se alojan en sus servidores (Universidad de Harvard). Aunque un investigador o grupo también puede crear su propia red Dataverse en un servidor propio, ya que se trata de un software de código abierto, por lo que lo único que tiene que hacer es tener los conocimientos técnicos para instalarlo y los recursos para disponer de un espacio en un servidor.

Una de las limitaciones de Dataverse es que no tiene ninguna supervisión de curación de contenidos, el investigador debe asumir la responsabilidad principal de la gestión de sus propios datos.

dvn

Minería de Datos para las masas

[]

North, M. [e-Book]  Data Mining for the Masses. OpenLibra, 2012

.

Texto completo

Monográfico sobre Minería de datos

 

 

Emulando el título del famoso disco de Depeche Mode “Music from the masses”, la minería de datos como disciplina forma parte de la vida cotidiana de cualquier persona sin que se sea consciente de ello, ya que cada vez que hacemos compra con una tarjeta de crédito o navegamos por la Web estamos generando datos. Estos datos se almacenan en grandes conjuntos de poderosas computadoras propiedad de las empresas con las que tratamos todos los días. Y esos conjuntos de datos sirven para establecer indicadores de patrones de de nuestros intereses, nuestros hábitos y nuestros comportamientos. La minería de datos permite a las personas localizar e interpretar esos patrones, lo que ayuda a tomar decisiones mejor informadas y para servir mejor a los intereses de las empresas y de sus clientes. Dicho esto, también hay una cierta preocupación por la práctica de la minería de datos, sobre todo lo relacionado con la privacidad y los grupos de vigilancia, ya que las empresas acumulan grandes cantidades de datos, algunos de los cuales pueden ser muy personales en su naturaleza. La intención de este libro es presentar los conceptos y prácticas comunes de la minería de datos. Está destinado principalmente para estudiantes universitarios de grado y profesionales de negocios que puedan estar interesados en el uso de sistemas y tecnologías de la información para resolver problemas de sus negocios mediante la minería de datos. Aunque la minería de datos es la fusión de la estadística aplicada, la lógica, la inteligencia artificial, el aprendizaje automático y los  sistemas de gestión de datos, no es necesario tener una sólida formación en estos campos para utilizar este libro. Aunque tener conocimientos previos de estadística y bases de datos será de gran utilidad.

La minería de datos o exploración de datos (es la etapa de análisis de “Knowledge Discovery in Databases” o KDD) es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos. El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior. Además de la etapa de análisis en bruto, que involucra aspectos de bases de datos y gestión de datos, procesamiento de datos, el modelo y las consideraciones de inferencia, métricas de Intereses, consideraciones de la Teoría de la complejidad computacional, post-procesamiento de las estructuras descubiertas, la visualización y actualización en línea.

El término es una palabra de moda, y es frecuentemente mal utilizado para referirse a cualquier forma de datos a gran escala o procesamiento de la información (recolección, extracción, almacenamiento, análisis y estadísticas), pero también se ha generalizado a cualquier tipo de sistema de apoyo informático decisión, incluyendo la inteligencia artificial, aprendizaje automático y la inteligencia empresarial. En el uso de la palabra, el término clave es el descubrimiento, comúnmente se define como “la detección de algo nuevo”. Incluso el popular libro “La minería de datos: sistema de prácticas herramientas de aprendizaje y técnicas con Java” (que cubre todo el material de aprendizaje automático) originalmente iba a ser llamado simplemente “la máquina de aprendizaje práctico”, y el término “minería de datos” se añadió por razones de marketing. A menudo, los términos más generales “(gran escala) el análisis de datos”, o “análisis” -. o cuando se refiere a los métodos actuales, la inteligencia artificial y aprendizaje automático, son más apropiados.

La normalización en el ámbito de la innovación y el desarrollo tecnológico, especialmente en el campo minería de textos y datos

[]Hargreaves, I., L. Guibault, et al. (2014). [e-Book]  Standardisation in the area of innovation and technological development, notably in the field of Text and Data Mining: Report from the Expert Group. Luxembourg, Publications Office of the European Union, 2014.

Texto completo

Texto y minería de datos (TDM) es una técnica importante para el análisis y la extracción de nuevas ideas y el conocimiento de la exponencialmente creciente almacén de datos digitales (‘Big Data’). Es importante comprender la medida en que el marco jurídico actual de la UE alienta u obstruye esta nueva forma de investigación y evaluación escalable de los problemas económicos en juego. TDM es útil para los investigadores de todo tipo, desde los historiadores expertos médicos, y sus métodos son relevantes para las organizaciones a través de los sectores público y privado. Debido a que la tecnología de la investigación TDM no es prohibitivamente cara, es fácilmente disponible para los emprendedores independientes, estudiantes de postgrado y para las pequeñas empresas. También es susceptible de usos lúdicos y altamente especulativos, lo que permite conexiones entre los campos de investigación previamente inconexos. Existe un creciente reconocimiento de que estamos en el umbral de la automatización masiva de las industrias de servicios (automatización del pensamiento) comparables con la automatización robótica de fabricación de líneas de producción en una época anterior. TDM se usa ampliamente para proporcionar información en el rediseño de esta economía de los servicios digitales.

Alfabetización sobre datos en bibliotecas de investigación : mejores prácticas para los bibliotecarios

Wanner, AmandaData literacy instruction in academic libraries: best practices for librarians. Archival and Information Studies Student Journal 2015 – Spring

Texto completo

El aumento del volumen y el detalle de la información capturada por las empresas, el aumento de los multimedia, las redes sociales y la “Internet de las cosas” van a impulsar un crecimiento exponencial de los datos en el futuro previsible. La Ciencia Datos se refiere a un área emergente de trabajo se ocupa de la recogida, preparación, análisis, visualización, administración y conservación de grandes colecciones de información. Aunque el nombre de Datos Científicos parece conectar más fuertemente con áreas tales como bases de datos y la informática, incluye muchos tipos diferentes de habilidades – incluyendo habilidades no-matemáticas -. Casi todos los analistas consideran “Big Data” como una de las tendencias de futuro que tendrán que tener en cuenta la mayoría de las empresas e instituciones. La sociedad TIC propicia y requiere un diluvio universal de datos, procesarlos, entenderlos y transformarlos en decisiones de valor es el reto del análisis big data. Vital para las empresas cuyo activo es la información. Según estima idC hoy hay muchos más datos se incrementan un 50% al año, o sea que se duplican cada dos años. Áreas tan variadas como la ciencia y los deportes, la publicidad y la salud pública, se ha producido un salto hacia el descubrimiento y la toma de decisiones a partir de los datos. La tendencia ligada a Big data también es alimentada por un mejor acceso a la información. Big Data puede llegar a ser el activo más valioso de una organización o una de sus obligaciones más costosas, todo depende de las estrategias y soluciones que se pongan en marcha  a corto plazo para afrontar el ingente crecimiento del volumen, la complejidad, la diversidad, y la velocidad de los datos. Como veremos, es una tendencia importante para las organizaciones y sus procesos de toma de decisiones, pero en absoluto afectará de la misma forma a todas las firmas y sectores.

Este documento analiza los retos y oportunidades de llevar la alfabetización sobre datos en bibliotecas universitarias y de investigación. La alfabetización informacional y alfabetización digital en las bibliotecas ha sido ampliamente discutido y aplicada en la literatura profesional, pero hasta hace muy poco se ha dado poco énfasis a la alfabetización de datos. Sin embargo, las nuevas iniciativas de gobierno electrónico y de datos abierta en la última década han creado datos públicos ampliamente disponibles que son de gran interés para investigadores y estudiantes. El aumento de la capacidad tecnológica para procesar gran cantidad de datos (Big data) ofrece nuevas oportunidades tanto para el laico como para el investigador. Conocer y alfabetizar sobre estas cuestiones requiere un esfuerzo de readaptación profesional para fomentar una mentalidad sobre la importancia de estos datos y la cultura de análisis, ya que se trata de la adopción de las nuevas tecnologías, ello presenta desafíos únicos para los bibliotecarios. ¿Cómo pueden las bibliotecas desempeñar su papel en este esfuerzo recualificación para desarrollar una “mentalidad basada en datos”?

Entre las cuestiones que se plantean está la diferencia entre ¿Qué es la alfabetización de datos y en qué se diferencia de su contraparte la alfabetización informacional?, ¿Qué puede aportar a un plan de estudios la alfabetización de datos en instituciones de educación superior? Este trabajo trata de abordar estas cuestiones. En la parte I  se examina críticamente el concepto de alfabetización de datos – en qué se diferencia, o se asemeja a otros tipos de alfabetizaciones, y por qué es importante, En la parte II examina la alfabetización de datos en el mundo académico, incluyendo una breve reseña bibliográfica de las prácticas de instrucción recientes en este sentido. El documento concluye con un conjunto de mejores prácticas para los bibliotecarios que desean seguir la alfabetización de datos en sus instituciones y recomendaciones para futuras investigaciones.

Ver

Monográfico: Big Data

 

Pongamos los datos en uso: la investigación digital para las nuevas generaciones

.

Polydoratou, Panayiota  and Milena  Dobreva (eds.). [e-Book] Let’s Put Data to Use: Digital Scholarship for the Next Generation: Proceedings of the 18th International Conference on Electronic Publishing, IOS Press, 2014

Texto completo

 

El tema principal de la 18ª Conferencia Internacional sobre Publicación Electrónica (ELPUB) fue la apertura y uso de datos de investigación, así como los nuevos e innovadores paradigmas editoriales. En concreto, su objetivo fue reunir las presentaciones y discusiones que demuestran el papel de las organizaciones gestoras del patrimonio y de servicios culturales en la preservación creación, organización y accesibilidad de los datos de investigación a largo plazo. El objetivo fue proporcionar un foro para la discusión de la evaluación, la citación y la concesión de licencias de datos de investigación. Así como el alcance de la revisión, la edición y la tecnología editorial en un entorno centrado en los datos.

ELPUB reunió a investigadores y profesionales para discutir sobre la minería de datos, la publicación digital y las redes sociales junto con sus implicaciones para la comunicación académica, servicios de información, e-learning, e-business, y sobre el sector del patrimonio cultural, y otras áreas en las que la publicación electrónica es imprescindible. ELPUB 2014 recibió 32 presentaciones en papel. Estos documentos se agruparon en las sesiones en base a los siguientes temas: Acceso Abierto y Open Data;Los investigadores y sus necesidades; Contenido Especializada de Investigadores; Publicación y acceso; Aspectos prácticos de la publicación electrónica.

 

Las principales tendencias ACRL en bibliotecas universitarias

[]

Committee, A. R. P. a. R. “Top trends in academic libraries: A review of the trends and issues affecting academic libraries in higher education.” C&RL News vol., n. June 2014 (2014).  pp. 294-302.

Texto completo

Las principales tendencias en las bibliotecas universitarias: una revisión de las tendencias y las cuestiones que afectan a las bibliotecas académicas en la educación superior. Cada dos años, el Comité de Planificación y Análisis de Investigación ACRL produce un documento sobre las tendencias principales en las bibliotecas universitarias. Este año, después de numerosas discusiones y revisiones de la literatura, el comité decidió centrarse en un tema único para las tendencias actuales: una colaboración más profunda.

El comité consideró distintos ejemplos de colaboraciones en la educación superior que estimó que podrían beneficiarse y enriquecerse con la participación de la biblioteca en las mismas. Se destacan las siguientes grandes categorías dentro de la educación superior: datos, servicios con dispositivos digitales neutros, evolución hacia la apertura en la educación superior, iniciativas de éxito de los estudiantes, el aprendizaje basado en competencias, altmetrics y humanidades digitales.

1. Datos

Cada vez se pone mayor énfasis en la apertura de datos, gestión de datos planos, y en la investigación en torno a  ”Big data”, lo que está impulsando a las instituciones académicas a desarrollar y desplegar nuevas iniciativas.  El análisis de las necesidades de datos de los investigadores a través de dominios institucionales puede requerir de la participación de la biblioteca para identificar y conectar a los investigadores en todas las unidades funcionales, tanto formales e informales para compartir, analizar, y reutilizar datos. De hecho algunas universidades están lanzando programas de postgrado para preparar profesionales de las carreras relacionadas con el análisis y la manipulación de grandes volúmenes de datos.

Funciones de cooperación entre investigadores, repositorios, y editores de revistas. Unos y otros almacenan datos asociados a sus publicaciones específicas, proporciona linformación sobne acceso y opciones para los investigadores con el objeto de localizar datos para su verificación. Esta tendencia se mantendrá para disponer de más datos en abierto para compartir, lo que permitirá que los datos citados en publicaciones revisadas por expertos puedan ser reutilizados y se analicen de manera más eficiente . Esto puede crear nuevos desafíos a los bibliotecarios a cerca de cuestiones relacionadas con la atribución, la citación, e identificadores únicos.

Asociaciones relacionados con el descubrimiento y la reutilización de los datos. Editores y agregadores de revistas también se ven sometidos a la presión para poner su contenido disponible en línea para proyectos de minería de textos y recolección de documentos a gran escala.

2. Servicios a través de soluciones neutras con dispositivos digitales

El mercado de dispositivos móviles se expandió y diversificó en los últimos dos años, con un número creciente de proveedores. En enero de 2014, el Centro de Investigación Pew informó que más del 42% de los adultos estadounidenses poseen una tableta (un 8% más que cuatro meses antes). Además, el estudio ECAR 2013 destacó las altas expectativas que tienen los estudiantes en torno el acceso móvil a los materiales. Incluso el informe “Horizon” que marca los plazos de las tendencias en la enseñanza superior considera que las tabletas se incorporarán a la enseñanza en un plazo de  ”un año o menos”  por lo cual es importante que las bibliotecas diseñen servicios digitales para equipos de escritorio y móviles.

También esta tendencia incluye a proveedores de bases de datos y plataformas que deberán ofrecer soluciones neutras para todo tipo de dispositivos, ya que la mayoría actualmente sólo ofrecen sitios móviles y / o aplicaciones. Rompiendo esta tendencia OCLC, pondrá en marcha una nueva interfaz de descubrimiento con WorldCat Discovery (fusión de WorldCat Local y First Search) que se ajusta a cualquier tamaño de pantalla.

3. Evolución de la apertura de la educación superior

Con dos grandes tendencias. “Open access” y “Open education”. Además de apoyar el pago o reembolso de los gastos de las publicaciones de acceso abierto, las bibliotecas universitarias están empezando a proporcionar apoyo financiero a la promoción de recursos educativos abiertos (OER). La tendencia a la promoción de REA (OER) podría beneficiarse de la participación de la biblioteca en cursos masivos abiertos en línea (MOOCs). Aunque todavía no existe una dirección clara o cronograma de cómo va a llevarse a cabo. Se estima que se están ofreciendo 500 MOOCs a través de más de 100 universidades de renombre, un modelo de negocio aceptable y sostenible para su desarrollo y despliegue. Cathy Davidson señala que proporcionar instrucción en línea  requiere de una inversión inicial importante, si bien a la larga va a ser beneficioso económicamente para la organización.

En este paisaje rápidamente cambiante, los investigadores seguirán necesitando apoyo y orientación de profesionales de la información para el cumplimiento de los requisitos necesarios para una mejor visibilidad de los recursos en acceso abierto; y el desarrollo y promoción de los REA. Además, los bibliotecarios tendrán que estar al tanto de liderar el camino en la colaboración con sus instituciones, editoriales, organizaciones y otras bibliotecas universitarias para el desarrollo de nuevos mecanismos de financiación e incentivos para apoyar la participación de los investigadores en el autoarchivo de las la publicación en acceso abierto.

El creciente interés por los resultados (por ejemplo, el aprendizaje del estudiante, la retención, la persistencia, y la evaluación) sobre los insumos (por ejemplo, la matriculación,) y el énfasis continuo en la demostración de estos resultados, tendrá un impacto en las bibliotecas universitarias en el futuro. La importancia de la biblioteca en el éxito del estudiante, la persistencia, y la retención ya ha sido discutida en la literatura profesional. La cultura de orientar los objetivos a los resultados requerirá que las bibliotecas encuentren mejores maneras de documentar estas conexiones.

4. Aprendizaje basado en competencias

Aunque el concepto aprendizaje realizado fuera de las aulas de la universidad no es nuevo, está poniendose de actualidad cuando aumentan las presiones sobre las instituciones de educación superior para llevar a cabo, innovar, y reducir los costos para los estudiantes en tiempos de crisis, lo cual ha traído un interés renovado en el desarrollo de modelos alternativos para la evaluación de aprendizaje. El resultado es un mayor énfasis en el aprendizaje basado en las competencias, que puede proporcionar nuevas oportunidades para que las bibliotecas; consideren como un objetivo primordial integrar la alfabetización en información, y las habilidades y estrategias de investigación en el tejido de los currículos institucionales.

Para ello se están utilizando modelos para documentar el aprendizaje de los estudiantes. Algunos modelos enlazan competencias con las horas de crédito, mientras que otros exploran la “evaluación directa” independientemente de las hora por crédito u otras métricas tradicionales. Algunas alternativas a estos modelos tienen en cuenta incluir en tal medición los objetivos básicos a conseguir.

5. Altmetrics

Un entorno digital en expansión impulsa cambios en los criterios para medir el impacto de la investigación y la erudición. Muchos de estos trabajos de investigación se conocen o se publica en la web, es importante disponer de un método para el seguimiento del impacto de su trabajo en estos nuevos medios de comunicación. Altmetrics, abreviatura de métricas alternativas, es una metodología de desarrollo rápido para medir el impacto de los trabajos académicos y de investigación publicados en el web. Los defensores de altmetrics sostienen que la utilización de las citas de artículos y los factores de impacto de las revistas como medios exclusivos para la evaluación de la investigación no miden con suficiente precisión el impacto de los artículos basados en la web o la comunicación académica entre los científicos, académicos e investigadores. Altmetrics, pues, complementa a los medios tradicionales que miden el impacto académico y el proceso de revisión por pares. Estas métricas son cada vez más importantes para conocer como los investigadores utilizan los programas de Internet para organizar y compartir sus artículos con otros colegas a través de Mendeley, Impact Story, y PLOS, OA, o sitios de redes sociales para compartir artículos científicos tales como Academia.edu y ResearchGate.

Bibliotecas y bibliotecarios poseen la cualificación necesaria para proporcionar en su instrucción el uso apropiado de altmetrics para promover a la comunidad académica global. el impacto y el valor de la investigación producida en sus instituciones  De acuerdo con un informe sobre NISO altmetrics, la gran cantidad de resultados de Google que citan tanto “Libguides” y “altmetrics” “indican que las bibliotecas ya están incorporando información altmetrica  en los recursos para la comunicación científica, el impacto y la gestión de citas,” pero el informe llega a la conclusión de que “la eficacia de estas guías sigue siendo desconocida.

En 2013, NISO comenzó un ambicioso proyecto para desarrollar estándares y prácticas para altmetrics. Potencialmente, altmetrics podrían tener relación con la evaluación del profesorado y proceso de acreditación proporcionando a los comités de revisión información complementaria sobre la investigación a efectos sociales o interdisciplinares, y también podría ser potencialmente considerado para la concesión y dotación de premios. Si los investigadores pueden demostrar que su investigación está generando una gran cantidad de interacción en la comunidad académica, tal información puede proporcionar una ventaja en este entorno de crisis financiera para la obtención de proyectos de investigación.

6. Humanidades digitales

“DH (humanidades digitales) se puede entender como el lugar donde las se cruzan las las metodologías de investigación de las humanidades tradicionales con los nuevos medios de comunicación y tecnologías digitales .” Las bibliotecas universitarias pueden jugar un papel clave en el apoyo de la investigación en esta área mediante la creación de asociaciones y colaboraciones de ayuda a conectarse con otras unidades del campus, para implementar y llevar a cabo el desarrollo de las humanidades digitales en la investigación. Con el aumento de oportunidades para involucrar a los estudiantes de pregrado en una experiencia única de investigación, las bibliotecas universitarias pueden identificar, organizar los recursos y colaborar con la facultad de humanidades para enseñar las habilidades necesarias para la investigación para llegar al objetivo de tener unas humanidades más eficaces.

Algunas bibliotecas académicas han respondido mediante la creación de nuevos servicios para apoyar la producción académica digital y otras se centra en la asociación y la colaboración con otras unidades de sus instituciones para apoyar el desarrollo de nuevas metodologías de investigación. Por lo que las bibliotecas universitarias pueden jugar un papel clave al asociarse y colaborar con los estudiosos de las humanidades en los proyectos de las humanidades digitales.

Big Data: la nueva frontera de la innovación, la competencia y la productividad

[]

Big data: The next frontier for innovation, competition, and productivity. Report|McKinsey Global Institute, 2012

Descargar

La cantidad de datos en nuestro mundo ha sido la explosión, y el análisis de grandes conjuntos de datos-los llamados datos grandes se ha convertido en un elemento esencial de la competencia, que sustenta las nuevas olas de crecimiento de la productividad, la innovación y el excedente del consumidor, según una investigación de MGI y Oficina de McKinsey Business Technology. Los líderes de cada sector tendrá que lidiar con las consecuencias de grandes volúmenes de datos, no sólo unos pocos datos orientadas a los directivos. El aumento del volumen y detalle de la información capturada por las empresas, el aumento de los medios de comunicación multimedia, sociales e Internet  impulsará el crecimiento exponencial de los datos para el futuro previsible.