Archivo de la etiqueta: Escritura académica

Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

La ética de revelar el uso de herramientas de inteligencia artificial en la redacción de manuscritos académicos

Hosseini, Mohammad, David B Resnik, y Kristi Holmes. «The Ethics of Disclosing the Use of Artificial Intelligence Tools in Writing Scholarly Manuscripts». Research Ethics, 15 de junio de 2023, 17470161231180448. https://doi.org/10.1177/17470161231180449.

En este artículo se analizan cuestiones éticas relacionadas con el uso y la divulgación de herramientas de inteligencia artificial (IA), como ChatGPT y otros sistemas basados en grandes modelos lingüísticos (LLM), para escribir o editar manuscritos académicos.

Algunas revistas, como Science, han prohibido el uso de LLM por los problemas éticos que plantean en relación con la autoría responsable. Aquí se argumenta que ésta no es una respuesta razonable a los enigmas morales creados por el uso de los LLM, ya que las prohibiciones son inaplicables y fomentarían el uso no revelado de los LLM. Además, los LLM pueden ser útiles para redactar, revisar y editar textos, y promueven la equidad en la ciencia. Otros han argumentado que los LLM deberían mencionarse en los agradecimientos, ya que no cumplen todos los criterios de autoría.

En el artículo se sostiene que nombrar a los LLM como autores o mencionarlos en los agradecimientos son formas inapropiadas de reconocimiento porque los LLM no tienen libre albedrío y, por lo tanto, no pueden ser considerados moral o legalmente responsables de lo que hacen. Las herramientas en general, y el software en particular, suelen citarse dentro del texto, y luego se mencionan en las referencias.

Se proporcionan sugerencias para mejorar el Estilo APA para referenciar ChatGPT con el fin de indicar específicamente el colaborador que utilizó los LLM (porque las interacciones se almacenan en cuentas de usuario personales), la versión y el modelo utilizados (porque la misma versión podría utilizar diferentes modelos de lenguaje y generar respuestas disímiles, por ejemplo, ChatGPT Mayo 12 Versión GPT3.5 o GPT4), y el tiempo de uso (porque los LLM evolucionan rápidamente y generan respuestas disímiles a lo largo del tiempo).

Se recomienda que los investigadores que utilicen LLMs:

(1) revelen su uso en la introducción o en la sección de métodos para describir de forma transparente detalles tales como las indicaciones utilizadas y señalar qué partes del texto se ven afectadas,

(2) utilicen citas y referencias en el texto (para reconocer sus aplicaciones utilizadas y mejorar la localización y la indexación), y

(3) registren y presenten sus interacciones relevantes con LLMs como material suplementario o apéndices.

Presentación de artículos y revisión por pares.

Article submission and peer review: your complete guide to submitting your research paper and navigating the peer review process. Taylor & Francis, Author Services, 2022

Texto completo

Una vez que hayas escrito y perfeccionado tu trabajo de investigación, es es el momento de dar el paso y enviarlo a la revista elegida. Si supera la evaluación inicial, pasará al proceso de revisión por pares. Esta guía explica todo lo que necesitas saber sobre presentar su artículo y superar la revisión por pares, desde la redacción de la carta de presentación hasta qué hacer cuando tu cuando su artículo es aceptado o rechazado.

Originalidad, imitación y plagio: Enseñar a escribir en la era digital

 

default-1

 

Originality, Imitation, and Plagiarism: Teaching Writing in the Digital Age
Caroline Eisner and Martha Vicinus, Editors.

Texto completo

ePub

PDF

Ver además + de 101 libros sobre

Metodologia de la Investigación Gratis

 

Esta colección es una oportuna intervención en los debates nacionales sobre lo que constituye la escritura original o plagiada en la era digital. De manera algo irónica, Internet facilita tanto la copia como la detección de la misma. Los ensayos de este volumen exploran las complejas cuestiones de la originalidad, la imitación y el plagio, en particular en lo que respecta a estudiantes, académicos, escritores profesionales y lectores, al tiempo que abordan una serie de cuestiones conexas, como las convenciones sobre derecho de autor y la propiedad de la obra original, la difusión adecuada de ideas innovadoras y la autoridad y la función del escritor/autor. A lo largo de estos ensayos, los colaboradores se enfrentan a su deseo de fomentar y mantener el libre acceso al material protegido por derechos de autor con fines no comerciales, respetando al mismo tiempo los deseos razonables de los autores de mantener el control sobre su propia obra.

Tanto los profesores de escritura principiantes como los experimentados aprenderán de las sugerencias prácticas de los colaboradores sobre cómo crear tareas únicas, enseñar sobre la atribución adecuada y aumentar la participación de los estudiantes en su propia escritura. Esta es una antología para cualquiera que esté interesado en cómo los eruditos y los estudiantes pueden navegar por el mar de información intelectual que caracteriza a la era digital/informática.

 

 

Guía de escritura académica para estudiantes

about-writing-revised

 

 

Jeffrey, Robin About Writing: A Guide,  [e-Book]  Open Textbook Library, 2017

 

Texto completo

PDF

ePub

mobi

 

La obra de Roin Jeffrey condensa y cubre todo lo que un estudiante necesita saber para componer exitosamente un trabajo universitario, incluyendo lo básico de composición, gramática e investigación. El libro se divide en secciones fáciles de comprender, sin sobrecargar a los estudiantes con más información de la que necesitan. Excelente para cualquier estudiante principiante en escritura o como referencia para estudiantes avanzados!

La escritura en la universidad: de la competencia a la excelencia

9781942341215

Guptill, A. (2016). [e-Book] Writing in College: From Competence to Excellence. New York, SUNY. Texto completo:

PDF

ePub

Writing in College: From Competence to Excellence. es un libro orientado a los estudiantes que han desarrollado un nivel de escritura durante la enseñanza secundaria e inician su carrera universitaria. Los estudiantes encontrarán en Writing in College una invitación a pensar en sí mismos como miembros completos y motivados de la comunidad académica. Con breves explicaciones, claros ejemplos multidisciplinarios y empatía por los desafíos que habrán de afrontar durante su formación universitaria, este breve libro de texto explica los propósitos de la escritura a nivel universitario y ofrece consejos indispensables sobre la organización y la expresión.

Manual práctico de escritura académica y editorial

[]

Hartley, J.. [e-Book]  Academic Writing and Publishing: A practical handbook. New York, Routledge, 2008.

Texto completo

 

Si examinamos el texto de los artículos científicos, es evidente que hay una manera generalmente aceptada de escribirlos. El texto científico es preciso, impersonal y objetivo. Se suele utilizar la tercera persona, la terminología especializada, utilización de la voz pasiva, varias notas al pie y un sistemas de referencia bibliográfica. El libro guía al lector a través del proceso de la escritura y la edición. Repleto de ejemplos y análisis del trabajo reciente, el libro se presenta en capítulos cortos para reflejar la redacción y proceso de publicación. Escrito en un estilo vivo y personal, directo y práctico. Se divide en cuatro partes: 1. analiza la naturaleza de la escritura académica y examina cómo diferentes individuos abordan la tarea; 2. disecciona el artículo de revista y esboza resultados de la investigación sobre cómo escribir sus partes constituyentes; 3. examina otros tipos de escritura académica: libros, tesis, documentos de conferencias, cartas al editor, etc .; 4. describe otros aspectos de la escritura académica – se trata de la publicación, retrasos, dilación y colaborando con los demás.

Manual de Redacción Científica: Comprender y Producir Textos Escritos para Investigar

Cadena, S. and E. Narváez (2009). [e-Book]  Manual de Redacción Científica: Comprender y Producir Textos Escritos para Investigar. Cali, Valle del Cauca, Colombia, Universiadad Autónoma de Occidente, 2009.

Texto completo

Consideramos que la investigación es un fenómeno complejo que implica distintos momentos y exige diversidad de competencias para quienes se involucran en ella; si bien son útiles las técnicas, la investigación no se reduce a ellas y demanda todo el potencial analítico, sintético y creativo por parte del investigador. En especial, la investigación está relacionada con procesos de comprensión y composición de textos escritos de modo transversal. Es probable que pensemos que tales demandas son más evidentes en la fase inicial, en la que se planea el proyecto, y en la última fase en la que se elabora el informe final; sin embargo, en la mayoría de los casos, la investigación exige un proceso de divulgación que también pasa por la escritura, como es el caso de la elaboración de ponencias, artículos para revistas científicas y, por supuesto, la publicación de un libro completo. Dado el contexto anterior, un investigador (o grupos de ellos) requiere(n) el desarrollo de competencias de comprensión y composición de textos escritos para hacerse consciente(s) sobre el modo en que “funcionan” los textos escritos que circulan para ser leídos, y sobre el proceso que se debe desarrollar para producirlos durante el proceso investigativo en sus diferentes fases