Archivo por años: 2016

Libro blanco del comercio electrónico

 

libro_blanco1


Libro blanco del comercio electrónico. Guía Práctica de Comercio Electrónico para PYMES. Asociación Española de Comercio Electrónico y Marketing Relacional (AECEM), 2012

Descargar

El libro blanco del comercio electrónico es una publicación de AECEM (Asociación Española de Comercio Electrónico y Marketing Relacional) cuya edición ha sido posible gracias al apoyo del Ministerio de Industria, Comercio y Turismo a través de fondos del Plan Avanza para el desarrollo de la Sociedad de la Información en España.

Esta publicación quiere ser ante todo un manual práctico de utilidad para quienes estén o quieran estar en Internet para vender sus productos o servicios y convertir el canal online en una vía de desarrollo y fuente de beneficio.

Al margen de estadísticas, análisis y proyecciones, el presente trabajo reúne sobre todo un compendio de experiencias prácticas de profesionales que llevan varios años en el sector y que han vivido y viven de forma directa y personal los éxitos y dificultades de la venta on-line en todas sus facetas. Lo que aporta el libro blanco es la visión de profesionales que desde PYMES, start-ups, grandes compañías o empresas de desarrollo y tecnología trabajan de un modo u otro en aspectos relacionados con Internet y la venta on-line.

En los distintos capítulos del libro se citan y aportan ejemplos, referencias y herramientas que pretendemos sean de utilidad para cualquier empresa de cualquier tamaño que esté o quiera estar presente en comercio electrónico.

7 cosas que deberías saber sobre…

29664902710_7b8ab1ea78_o_d

Las publicaciones EDUCASE abordan una amplia gama de temas profesionales sobre tecnologías de la información en temas emergentes en el ámbito de la Documentación. Los informes dedicados a materias como libros electrónicos, acceso abierto, gestores de referencias, etc. analizan cuestiones básicas sobre cada uno de ellos, tratándose de un buen inicio para actualizarse y estar al día en algunos temas de primera actualidad.

7 Things You Should Know About IT Accessibility

August 13, 2014

IT accessibility is the ongoing process by which an organization ensures its current and future IT can be used effectively by everyone , including individuals with disabiliti…

 

7 Things You Should Know About Badging for Professional Development

August 7, 2014

Digital badges recognize a particular experience or signify accomplishments , such as completion of a project or mastery of a skill. In a professional context, a learner typically earns a …

 

7 Things You Should Know About Information Security Metrics

January 17, 2014

An information security metric is an ongoing collection of measurements to assess security performance , based on data collected from various sources . Information security metrics …

 

7 Things You Should Know About VDI

June 24, 2011

Virtual desktop infrastructure (VDI) separates the operating system and applications from the client device, providing a model of desktop computing that is much more flexible and efficie…

 

7 Things You Should Know About IPv6

April 20, 2011

The rapid expansion in the use of the Internet, coupled with explosive growth in the number of devices that access it, has prompted development of a new protocol, IPv6. Apart from adding subs…

 

7 Things You Should Know About Mobile App Development

April 19, 2011

Users increasingly expect to be able to do virtually everything on a mobile device that they can do on a laptop (if not more ). The initial decision point for any mobile development program …

 

7 Things You Should Know About Mobile Security

March 17, 2011

Very small computing devices represent a new frontier in the computer security war. Mobile devices amplify existing security concerns while introducing a new set of risks, but most people have …

 

7 Things You Should Know About Agile Development

December 1, 2010

The “agile” model for software development and IT project management is more about principles and practice than policy and process. In contrast to more traditional approaches, agile i…

 

7 Things You Should Know About ITIL

October 5, 2010

The Information Technology Infrastructure Library (ITIL) is a framework for guiding the design and delivery of IT services. In the same way that an organization might have standards for project m…

 

7 Things You Should Know About Cloud Security

September 3, 2010

Cloud computing promises to provide considerable benefits for colleges and universities, including increased reliability and flexibility, with lower or more transparent costs. At the same time, c…

 7 Things You Should Know About VoIP

July 30, 2010

Voice over Internet Protocol (VoIP) is a technology that converts voice calls to data packets that travel over the same networks that carry data traffic. With VoIP, users with can make calls via …

 

7 Things You Should Know About Net Neutrality

June 22, 2010

Net neutrality is the principle that broadband Internet providers will handle all network traffic in a nondiscriminatory manner. The Internet was conceived as an “open” service that w…

 

7 Things You Should Know About the P2P Provisions of the HEOA

May 24, 2010

The Higher Education Opportunity Act (HEOA) includes a number of provisions that require colleges and universities to take specific actions to limit the unauthorized distribution of copyrighted m…

 

7 Things You Should Know About Emergency Notification Systems

April 21, 2010

An emergency notification system (ENS) provides broad-based notification to on- and off-campus communities in the event of a crisis or emergency, including natural disasters and acts of terrorism…

 

7 Things You Should Know About Green IT

March 23, 2010

A broad consciousness has developed about environmental sustainability, and IT is not only is responsible for an appreciable portion of emissions but is also in a position to facilitate reduction…

 

7 Things You Should Know About Mobile IT

February 25, 2010

The evolution of computer and telecom technologies is resulting in smaller and more powerful portable devices, expanded coverage for wireless and cellular networks, and a flourishing pool of appl…

 

7 Things You Should Know About DNSSEC

January 15, 2010

The Domain Name System (DNS) uses a distributed network of name servers to translate text-based web addresses into IP addresses, directing Internet traffic to proper servers. DNS was built withou…

 

7 Things You Should Know About Virtualization

October 5, 2009

Virtualization is an approach by which several applications—sometimes running on different operating systems—run on the same piece of hardware, creating multiple “virtual 

 

7 Things You Should Know About Federated Identity Management

September 10, 2009

Identity management refers to the policies, processes, and technologies that establish user identities and enforce rules about access to digital resources. With an enterprise identity management …

 

7 Things You Should Know About Cloud Computing

August 3, 2009

Cloud computing is the delivery of scalable IT resources over the Internet, as opposed to hosting and operating those resources locally, such as on a college or university network. Those resource…

7 Things You Should Know About P2P

March 11, 2009

Peer-to-peer (P2P) is an approach to content distribution in which digital files are transferred between “peer” computers over the Internet. Because they do not rely on a central serv…

 

 

 

Academia.edu: una red social para la investigación 2.0

academia

Academia.edu es una red social para investigadores que cuenta con un directorio de 12500 publicaciones científicas de todo el mundo, facilitando la tarea de los que buscan artículos para sus trabajos. Lanzado en septiembre de 2008, se convirtió en uno de los mayores sitios de redes sociales para universitarios. Actualmente tiene 830.000 visitantes mensuales y cuenta con más de 42 millones de investigadores de todo el mundo.  Un estudio publicado recientemente en PLoS One encontró que los documentos subidos a Academia.edu tuvieron un incremento de citas en un 69% en 5 años.

En el momento actual mantenerse informado ante el enorme volumen de información que es una tarea difícil realizar un seguimiento de los artículos que son relevantes para nuestra investigación. El problema, según Richard Price el fundador de Academia.edu es que este contenido y las comunidades alrededor de ellos están muy fragmentados. Así que Academia.edu ha construido un directorio de revistas para facilitar esta tarea.

Permite publicar el texto completo de artículos, conferencias, libros, charlas y otros recursos de investigación, con la misma idea que la de cualquier red social: encontrar nuevos colegas y fortalecer nuestros contactos y colaboraciones. Utiliza para ello el mismo sistema que cualquier otra red a través de seguidores y seguidos (following & followers). Además de incrementar la visibilidad de los documentos de investigación

Otras redes similares son:

Modelo de Presentación de la Tesis Doctoral en Ciencias de la Salud

modelopresentaciontesis

Maquedano Martínez, Luisa and Juan José Ríos blanco (2010). [e-Book]  Modelo de Presentación de la Tesis Doctoral en Ciencias de la Salud. Madrid, Biblioteca. Hospital Universitario, 2010.

Descargar

Modelo de Presentación de la Tesis Doctoral en Ciencias de la Salud by María Luisa Maquedano Martínez y Juan José Ríos Blanco i licensed under a Creative Commons Attribution?NonCommercial?NoDerivs 3.0 Spain License.

Modelos de negocio y costos del acceso abierto en las instituciones

 

eu35_four-models

Johnson, R., S. Pinfield, et al. «Business process costs of implementing “gold” and “green” open access in institutional and national contexts.» Journal of the Association for Information Science and Technology vol. 67, n. 9 (2016). pp. 2283-2295. http://onlinelibrary.wiley.com/doi/10.1002/asi.23545/full

Dado que el acceso abierto (OA) a la publicación de los resultados de la investigación es cada vez más común y requerido por las instituciones de investigación y proveedores de fondos, es importante entender los diferentes aspectos de los costos involucrados. Este documento ofrece una revisión de los costos asumidos por las universidades en la puesta a disposición de productos de investigación en acceso abierto, ya sea a través de la publicación en revistas (ruta dorada), que implica el pago de los cargos por procesamiento de artículo (APC), o mediante depósito en repositorios (ruta verde).

Para ello se utilizan datos de 29 instituciones del Reino Unido que demuestran que el coste de publicar un artículo mediante la ruta dorada es más de 2,5 veces superior a hacerlo en la verde. Los costos se han calculado en función de los modelados disponibles a nivel nacional, utilizando las últimas iniciativas de política del Consejos de Investigación del Reino Unido y el Marco de Investigación de Excelencia de los Consejos de Financiación de Educación Superior. El estudio también demuestra que los costos de cumplimiento de las políticas de financiación de la investigación en acceso abierto son considerablemente más altos que los de las publicaciones de acceso abierto en las que se deja la capacidad depositar un documento enteramente a discreción de los autores. En el estudio se identifican áreas que son objetivo clave para las futuras eficiencias en los modelos de negocio con posibles ahorros de los costes. El análisis está diseñado para informar el desarrollo de políticas en curso en los planos institucional y nacional.

fig-5-800x505

Fuente Introducing Data to the Open Access Debate: OBP’s Business Model (Part Three)

La Biblioteca Pública de Nueva York instala un «tren libro» para agilizar la consulta de la colección

 

nyplbooktrain

La Biblioteca Pública de Nueva York acaba de instalar un “tren libro” que transporta volúmenes desde las zonas de almacenamiento hasta la “Sala Rosa” para los investigadores en toda la biblioteca. Los libros viajan por galerías subterráneas subterráneas a la sala de lectura principal (que abre de nuevo el 5 de octubre). Como algunos han dicho se trata de “una montaña rusa de la literatura”

El sistema transportador cuenta con 24 coches rojos individuales, que se desplazan sobre raíles de forma automática tanto en horizontal como en vertical. Los coches pueden transportar hasta 14 kilos de materiales a la vez desde la Biblioteca de almacenamiento subterránea  recientemente ampliada hasta la sala de lectura principal, la icónica Rose Roon en el tercer piso. – Ver vídeo adjunto.

Geovisualización de grandes volúmenes de datos ambientales: diseño e implementación de un sistema para el acceso y la difusión de datos globales

20150720-congreso-ci-geovisualizacion-1

Álvarez Francoso, J. I., M. F. Pita López, et al. (2016). [e-Book] Geovisualización de grandes volúmenes de datos ambientales: Diseño e implementación de un sistema para el acceso y la difusión de datos globales. Sevilla, Universidad de Sevilla, 2016.

Texto completo

PDF

El dato climático es una representación abstracta que se utiliza para intentar alcanzar un mayor grado de comprensión de una realidad extraordinariamente compleja. De forma paradójica, el formidable crecimiento de la capacidad para registrar y almacenar datos los ha convertido en otra realidad tan compleja, que se revela imprescindible la utilización de sistemas que ayuden a descifrarlos. Uno de los aspectos fundamentales de la información climática es la importancia de su dimensión espacial, que se presta especialmente bien a la exploración mediante herramientas de visualización. Además, el desarrollo de las tecnologías de la información ha propiciado que hoy en día, el número de usuarios interesados que pueden acceder a la información climática haya aumentado también de manera sustancial. Pero el simple acceso no es suficiente para una transmisión efectiva de la información, sino que esta debe organizarse de manera adecuada y acompañarse de los medios y herramientas para su exploración y comunicación. En este sentido, la geovisualización web juega un papel fundamental. Esta tesis doctoral hace una aportación en el campo de la geovisualización web de datos climáticos haciendo en primer lugar una revisión de los principales aspectos de la misma: los datos, los sistemas de geovisualización y los usuarios; y proponiendo posteriormente una metodología para el diseño e implementación de dos sistemas abiertos para la geovisualización web de datos climáticos a dos escalas: global y regional. Los resultados demuestran la efectividad de la metodología propuesta, basada en un adecuado diseño, tanto del modelo de datos en el que se sustentan los sistemas, como de los flujos de los procesos implicados en el funcionamiento de los mismos.

La biblioteca de la Universidad de Michigan lanza Deep Blue Data un respositorio de servicios de datos de investigación

29312939863_9ee9e7673a_o_d

Deep Blue Data

La biblioteca de la Universidad de Michigan ha puesto en marcha un conjunto de servicios, así como un repositorio que incluye la planificación, creación, organización, intercambio y preservación de los datos de investigación para apoyar la tarea de los investigadores a lo largo de todas las fases del ciclo de vida de datos de investigación.

 

Los conjuntos de datos que subyacen a los resultados de la investigación son cada vez más demandados. Los organismos de financiación exigen que los datos de la investigación sean visibles, accesibles y conservado para su uso futuro. Los editores piden conjuntos de datos para ser incluidos junto de publicaciones como archivos suplementarios para apoyar los resultados de la investigación. Los investigadores buscan conjuntos de datos existentes para poner a prueba las nuevas teorías o generar nuevos descubrimientos.

Deep Blue Data es un repositorio que proporciona servicios de acceso y conservación de los datos digitales de investigación para apoyar las actividades de investigación en la U-M. El objetivo de este proyecto es fundamental maximizar los beneficios de los 1.3 mil millones de dólares que gastan anualmente los investigadores U-M, y para asegurar el cumplimiento con el creciente número de mandatos de gestión y distribución de datos recomendados por el gobierno y otros proveedores de fondos.

Para ello el personal, formado fundamentalmente por bibliotecarios de referencia, se ha formado y ha desarrollado un programa de planes de gestión de datos, esquemas de metadatos, sistemas de acceso y publicación, visualización y preservación para una variedad amplia de conjuntos de datos. Deep Blue ofrece una nueva plataforma especializada para conjuntos de datos que permite a los investigadores U-M cumplir con los mandatos de intercambio de datos y lograr sus objetivos de hacer que sus conjuntos de datos de investigación sean más fácilmente reutilizados por los propios colegas de todo el mundo y que los investigadores de la U-M sean más visibles;  ya que el sistema asigna un Identificador de Objetos Digitales (DOI) por cada depósito, por lo que es fácil que otros investigadores les citen y dispongan de una identificación persistente y adecuada de sus datos de investigación.

 

¿Qué es la «revisión por pares» posterior a la publicación?

peerreview

Disambiguating post-publication peer review. Tony Ross-Hellauer 2016-09-14 scholarly communication en OpenAire blog

Ver completo

Interesante reflexión de Tony Ross en torno a la revisión post publicación en favor de una ciencia más abierta. El autor considera que la revisión abierta implica todo el ciclo de la publicación y diferencia dos procesos: PPR1, Apertura de los manuscritos antes de revisión y  PPR2 o revisión posterior a la publicación. 

La revisión por pares puede tener dos sentidos, uno específico y el otro más general. «Peer Review» es una práctica editorial bien definida íntimamente ligado al proceso de publicación para el aseguramiento de la calidad de los artículos de investigación y otros productos de investigación. Tradicionalmente la revisión comienza cuando un editor envía un manuscrito a los colaboradores expertos en un tema determinado y termina cuando el editor acepta un manuscrito para su publicación. Pero «revisión por pares» representa sólo la crítica y la evaluación de las ideas, teorías y descubrimientos por parte de los que tienen una visión experta en un tema y no por ejemplo de los lectores o de otros colegas próximos.

Sin embargo el proceso de evaluación de la calidad y retroalimentación de la publicación se da en todas las etapas. Antes de presentar los manuscritos: cuando se muestran las ideas iniciales a otros colegas, la reacción de expertos cuando se exponen esas ideas en conferencias o mediante comentarios privados cuando se muestra el primer proyecto de manuscritos a los colegas de confianza. Y continúa después de la aparición del artículo en una revista, a través de una multitud de canales, por medio de los cuales los lectores pueden aportar alguna nueva visión, incluyendo las secciones de comentarios en los sitios web de revistas, canales y plataformas dedicadas a ofrecer comentarios posteriores a la publicación, blogs y redes sociales, y por supuesto futuras investigaciones que citan y comentan los resultados.

La  diferencia entre  “Post-publication peer review” (PPPR) y «peer review”(pr) es, por lo tanto temporal: la primera incluye todo el proceso (o por lo menos comienza a partir de la formación inicial de ideas, teorías e hipótesis); mientras que la última es un proceso bien definido que se produce en ese momento existente entre la creación del manuscrito y la publicación del artículo.

La revisión post publicación (PPPR) trata de tender un puente sobre esta desconexión, para incorporar elementos de la «peer review» en el proceso posterior a la publicación con el objetivo de abrir la investigación a un escrutinio más amplio, ampliando de esta manera esta orden temporal estándar de revisión por pares clásico (presentación, examen, publicación). Sin embargo, el término se utiliza para destacar las dos maneras distintas sobre como se puede llevar a cabo este proceso; es decir, la apertura de los manuscritos al público antes o en sincronía con la revisión por pares y la evaluación continua de la versión final publicada.

Tipo PPPR 1: Comentarios abiertos al manuscrito antes de la revisión

Repositorios de versiones preliminares como arXiv.org y bioRxiv.org, repositorios institucionales, u otros repositorios como Zenodo.org o Figshare.com y algunos repositorios alojados por el editor (como PeerJ Preprints) permiten a los autores depositar sus manuscritos inmediatamente para que estén disponibles para todos. Esto puede ser usado como un complemento a un proceso de la publicación más tradicional, para verter comentarios sobre la versión previa a la publicación (preprint) y posteriormente incorporando algunas de estos a la nueva redacción del manuscrito que posteriormente será revisado por los expertos para su publicación en una revista. El nuevo módulo recientemente desarrollado por Open Scholar en asociación con OpenAIRE, es un software de código abierto con plug-in que añade funcionalidades de revisión por pares a los repositorios que utilizan el software DSpace. Otro modelo innovador en este sentido es el de Science Open, que genera metadatos desde los servidores de preprints, los contextualiza añadiendo altmetrics y otras informaciones relacionales antes del proceso de revisión por pares.

En otros casos los manuscritos son sometidos a la revisión por parte de los editores de la forma habitual, para ponerlos inmediatamente en línea a disposición de las personas  (por lo general después de un rápido examen preliminar  o «comprobación de validez») antes del inicio del proceso de revisión por pares. Este enfoque fue iniciado por la revista Electronic Transactions in Artificial Intelligence (ETAI), donde se utilizó un proceso de revisión en dos etapas en 1997. En primer lugar, los manuscritos se pusieron a disposición en línea para su discusión por parte de la comunidad, antes de ser objeto de la tradicional revisión por pares anónimos. Atmospheric Chemistry and Physics utiliza un sistema similar de múltiples etapas de revisión por pares, a través de los manuscritos que se ponen a disposición de inmediato como «documentos de trabajo» para poder recibir los comentarios de la comunidad y la revisión por pares. Otros ejemplos destacados son F1000Research y Semantic Web Journal .

Los beneficios que se pueden obtener a partir de los manuscritos antes de la revisión abierta tiene que ver con que los investigadores puedan hacer valer su prioridad en la comunicación de los resultados, sin que sea necesario esperar a que el proceso de revisión y publicación – a veces aparentemente sin fin –  haya sido completado.. Por otra parte, al depositar la investigación con anterioridad se aumenta la visibilidad, permite la participación abierta en la revisión por pares (donde el comentario está abierto a todos),lo que también favorece un aumento de la calidad del manuscrito inicial.

Tipo PPPR 2: Comentarios abiertos a la revision final

Si el propósito de la revisión por pares es ayudar en la selección y mejora de manuscritos para su publicación, entonces, en alguna manera parece ilógico sugerir que la revisión por pares puede continuar una vez que el registro de la versión final se hace público. No obstante, en un sentido literal, incluso la versión puede seguir experimentando un proceso de mejora perpetuamente.

Al igual que con la mayoría de las áreas de la comunicación, Internet se ha expandido el rango de acción sobre la versión final para que los lectores puedan enriquecer con sus comentarios los trabajos científicos. Antes de la era Internet, las únicas vías formales, eran las cartas al director de los lectores de la revistas. Actualmente las revistas digitales proporcionan la posibilidad de hacer comentarios. En una investigación al efecto, Walker y Rocha da Silva encontraron que de los 53 lugares de publicación revisados, 24  ofrecían la posibilidad de hacer comentarios sobre los artículos publicados – aunque éstos eran por lo general poco utilizados (Walker y Rocha da Silva, 2015). Sin embargo, en la actualidad los usuarios pueden «publicar» sus pensamientos en cualquier lugar en la Web – a través de redes sociales académicas como Mendeley, ResearchGate y Academia.edu, o generales como Twitter, o en sus propios blogs. La reputación de una obra, por tanto, sufre una evolución continua, siempre y cuando se mantenga el tema de discusión.

Las mejoras basadas en los comentarios se dan de manera más evidente en el caso de los llamadas  publicaciones «vivas» como The Living, un grupo que recoge críticas a tres revistas disciplinarias en los campos de la relatividad, la física solar y astrofísica computacional, publicación que invita a la revisión de artículos, que permiten a los autores actualizar regularmente sus artículos para incorporar los últimos avances en el campo. Pero incluso si se prevé que la versión publicada puede ser la versión final, queda abierta la posibilidad futura de retracción o corrección. Además en el momento actual, estos cambios también son son retroalimentados por los medios sociales, como en el caso de #arseniclife, donde los usuarios hacen criticas sobre fallas en la metodología de un documento.

Una influencia importante aquí ha sido el Pubpeer, una  plataforma independiente que se enorgullece de ser «una plataforma de revisión por pares post-publicación». A este respecto PubPeer comenta que la «revisión por pares posterior a la publicación supera ampliamente  la revisión más cuidadosa de la mejor revista.  La ciencia es ahora capaz de autocorregirse de manera instantánea. Después de la publicación de la revisión por pares está aquí para quedarse » (PubPeer, 2014).

Los comentarios prepublicación y postpublicación son fenómenos distintos. Los manuscritos abiertos a la revisión preliminar ayudan a establecer prioridades y obtener conclusiones antes de tiempo.la revisión postpublicación,  por otra parte, ayuda a que los artículos publicados actúa como un organismo de control final para asegurar que los resultados erróneos puedan ser corregidos.

Aunque ambos procesos se agrupen bajo el término revisión post publicación (PPPR) es probablemente un elemento de confusión sobre el significado del término «publicación». ¿Cuándo podemos decir que un manuscrito digital es»publico»? ¿Cuando se hizo por primera vez «público»? O ¿Cuándo aparece una (presunta) versión «final», después de la revisión por pares, la edición del texto y el sello de goma de la marca de la revista en que se ha publicado?

El lenguaje de la ciencia es una herencia del mundo de la impresión analógica que se muestra insuficiente en el contexto actual. Como en una ocasión comentó Cameron Neylon en  #weneedbetterwordsforthis, la publicación es un proceso y no un evento. Pero tal vez ha llegado el momento para el reconocimiento de que una «publicación» sea también un proceso. En este último punto de vista, el término «revisión por pares posterior a la publicación» es un término equivoco, no sólo porque es ambiguo al confundir dos fenómenos distintos, sino más bien porque realmente no tiene sentido hablar de cualquiera post o pre-publicación en tales condiciones. Lo que llamamos «publicaciones» no son artefactos fijos , ya que permanecen en un continuo estado de devenir, al igual que las ideas iniciales florecen y la investigación toma forma, como argumentos, y los resultados de investigación encuentran un lugar en la conversación científica de la humanidad.

Boldt, A., 2011. Extending ArXiv.org to achieve open peer review and publishing. J. Sch. Publ. 42, 238–242.

Gowers, T., 2015. Discrete Analysis — an arXiv overlay journal. Gowerss Weblog.

Open Scholar, 2016. Open access repositories start to offer overlay peer review services [WWW Document]. Open Sch. CIC. URL http://www.openscholar.org.uk/institutional-repositories-start-to-offer-peer-review-services/ (accessed 8.25.16).

Perakakis, P., Taylor, M., Mazza, M., Trachana, V., 2010.Natural selection of academic papers.Scientometrics 85, 553–559. doi:10.1007/s11192-010-0253-1

Pöschl, U., 2012. Multi-stage open peer review: scientific evaluation integrating the strengths of traditional peer review with the virtues of transparency and self-regulation. Front. Comput.Neurosci.6, 33. doi:10.3389/fncom.2012.00033

PubPeer, 2014. Science self-corrects – instantly. PubPeer Online J. Club.

Sandewall, E., 2012. Maintaining Live Discussion in Two-Stage Open Peer Review. Front. Comput.Neurosci. 6. doi:10.3389/fncom.2012.00009

Walker, R., Rocha da Silva, P., 2015. Emerging trends in peer review – a survey. Front. Neurosci. 9. doi:10.3389/fnins.2015.00169

Informe anual sobre eBook de Aptara: tercera encuesta a editores

ebook-libro-electronico-3

Uncovering eBooks’ Real Impact. Aptara’s Third Annual eBook Survey of Publishers (2011).

Resultados y análisis de la tercera encuesta anual sobre eBook de Aptara. El informe proporciona información sobre los modelos de producción y modelos de negocio de libros electrónicos. La encuesta se realiza sobre más de 1.300 editores de libros tanto en el ámbito de los mercados de consumo como del libro profesional, de educación y corporativo. El informe recoge las tendencias, estrategias y mejores prácticas sobre libros electrónicos.

Uno de cada cinco editores de libros electrónicos genera más del 10% de los ingresos por venta de libros electrónicos. Esta es una estadística importante para un mercado en fase inicial. Teniendo en cuenta la tasa de aumento de las ventas al consumidor, destaca que el mercado todavía tiene un montón de margen de crecimiento.

• El mercado sigue dominandolo EE.UU con un 70% seguido de Europa con un 8%, Reino Unido otro 8% y el resto del mundo un 14%

Amazon todavía domina la distribución, pero por un margen constantemente decreciente.

Los Libros electrónicos son la fuerza más dominante en la publicación actual. Sus ventas crecieron un 40 por ciento en 2010.

Un tercio de los editores de libros publicaron más de 75 por ciento de los ebooks.

El porcentaje de editores que publican libros electrónicos comerciales ha aumentado de 50% a 76% en dos años. Un crecimiento rápido que pone de manifiesto que es el segmento más dinámico de la edición en estos momentos.

Dos de cada tres editores no han convertido la mayor parte de su fondo editorial al formato electrónico. Con márgenes de beneficio más alto que los títulos de catálogo de novedades, estos activos digitales tienen un potencial significativo de futuros ingresos a explotar.

Las webs de los editores de comercio electrónico generan el mayor porcentaje de ventas de todos los segmentos del mercado editorial que no sea comercial produciendo la mayoría de las ventas de los editores con un margen significativo (hasta un 18%). Esto refleja la renuencia de muchos editores de compartir los ingresos con los socios de canal, tales como Apple y Amazon.

Amazon genera la mayoría de las ventas de los editores de libros electrónicos, a pesar de que un porcentaje relativamente pequeño de contenido comercial se distribuye a través de Amazon. Con beneficios cercanos al 43%, lo que supone que el retorno de la inversión (ROI) de la distribución a través de Amazon es mayor. Lo que significa que una plataforma como Amzon está jugando un papel fundamental en el desarrollo del libro electrónico.

Amazon genera más ventas que el resto de las plataformas que lo hacen en formato ePuB, a pesar de ser considerado este el formato normalizado.

• La mayoría de la producción de libros electrónicos aún sigue modelos de impresión de producción obsoletos con importantes deficiencias operativas.

• La gran mayoría de editores de libros (85%), en todos los segmentos del mercado, están produciendo versiones impresas y libros electrónicos de sus títulos. Por el momento, la estructura de la edición impresa conviven junto a las prácticas más recientes inspirados en los modelos de comercio y producción de libros electrónicos.

• EPUB 3 es el próxima formato normalizado de edición electrónica estándar e incluye soporte para mejoras importantes. Hay una falta general de conocimiento de la misma y de cuales serán sus beneficios para los editores. Si bien ha habido un aumento considerable de la producción de libros electrónicos mejorado en el último año, el 60% de los editores todavía están investigando o tienen planes para producir libros electrónicos mejorados

Aptar ha hecho un seguimiento de la transición de los editores a la impresión digital en respuesta al incremento de libros electrónicos a través de de tres encuestas, de 2009 a 2011, con el objetivo de analizar el impacto de los libros electrónicos en las editoriales. Los temas tratados en las encuestas anuales incluyen el estudio de los formatos preferidos formatos de libros electrónicos, métodos de producción específicos, los dispositivos y plataformas preferidos, canales de distribución, estrategias de mejora, volúmenes y las fuentes de las ventas de libros electrónicos. Así como conocer los datos más significativos sobre tendencias y mejores prácticas en todos los segmentos del mercado. En cuatro apasectos:

– Consumidores (Comercio)

– Professionales en las áreas Científica, técnica, Médica, Enseñanz y Empresa

El crecimiento en la participación en la encuesta, un 100 por ciento más que el año precedente, refleja la rápida expansión del mercado de libros electrónicos y proporciona una base estadística válida para las conclusiones extraídas de la encuesta. La encuesta se llevó a cabo en abril de 2011 con la participación de 1350 editores.