Archivo de la etiqueta: Propiedad intelectual

Consulta sobre Derechos de Autor en la Era de la Inteligencia Artificial Generativa: Respuesta de la Federación Canadiense de Asociaciones de Bibliotecas (CFLA)

Consultation on Copyright in the Age of Generative Artificial Intelligence: CFLA Response, Canadian Federation of Library Associations, 2024

Texto completo


Las bibliotecas, archivos y museos apoyan la investigación en inteligencia artificial (IA) en el desarrollo de conjuntos de datos de entrenamiento para su uso en modelos de IA, especialmente aquellos utilizados para entrenar modelos de lenguaje. Las bibliotecas proporcionan acceso a grandes corpus de texto y facilitan la licencia de contenido para propósitos de IA. Las bibliotecas universitarias canadienses informan informalmente que los investigadores se ven obstaculizados por las herramientas deficientes y los altos costos de licencia de los editores académicos para la investigación en IA. Estas herramientas son costosas, propietarias y carecen de la funcionalidad que los investigadores necesitan. Los costos de licencia para actividades de Minería de Datos y Texto (TDM, por sus siglas en inglés) son ahora una fuente de ingresos para los grandes editores multinacionales, lo que requiere que las bibliotecas paguen múltiples veces por el uso, aunque sean usos diferentes, del mismo contenido. Tales acciones ejemplifican el impulso para mercantilizar todos los usos y, por lo tanto, reducir los recursos comunes, amenazando el bien público y desequilibrando la balanza entre usuarios y titulares de derechos de autor establecida por la Ley de Derechos de Autor. Algunos editores bloquean el uso no consumptivo de obras publicadas para el entrenamiento en IA, al mismo tiempo que recopilan datos y patrones de uso de sus clientes pagos para desarrollar sistemas de IA para otros fines comerciales.

Recomendaciones generales:

  1. Proporcionar claridad sobre el contenido de los conjuntos de datos de entrenamiento al alentar a que estos tengan metadatos suficientes para que cada elemento de contenido sea identificable.
  2. Asegurar que cualquier excepción de la Ley de Derechos de Autor para la creación de copias no consumptivas con fines de análisis informativo sea lo suficientemente amplia como para permitir que las LAMs y otros usuarios hagan copias no consumptivas de obras. Esto incluiría la capacidad de eludir un Mecanismo de Protección de Títulos (TPM, por sus siglas en inglés) para hacer tales copias, o con el propósito de utilizar herramientas tecnológicas como la inteligencia artificial generativa para crear metadatos y permitir una búsqueda superior de esas obras.

Text and Data Mining

  1. Crear una excepción específica para la Minería de Datos y Texto (TDM, por sus siglas en inglés). La comunidad bibliotecaria respalda la creación de una excepción específica que «facilite el uso de una obra u otro contenido con el propósito de análisis informativo».
  2. Facilitar aún más la Minería de Datos y Texto (TDM, por sus siglas en inglés): prohibir la anulación por contrato y permitir la elusión de Mecanismos de Protección de Títulos (TPMs, por sus siglas en inglés) para cualquier propósito no infractor. CFLA recomienda introducir una excepción que impida que los contratos anulen las excepciones de derechos de autor para fines no infractores. Esta disposición debería aplicarse a todos los contratos futuros y preexistentes.
  3. Hacer que los propósitos de uso legítimo sean ilustrativos. CFLA respalda las recomendaciones en la Revisión de Derechos de Autor de 2019 relacionadas con la lista enumerada de propósitos bajo la Sección 29 de la Ley de Derechos de Autor.
  4. Apoyar la creación de una excepción internacional específica para la Minería de Datos y Texto (TDM).

Autoría y propiedad de obras generadas por IA

  1. Las obras creadas por inteligencia artificial no deben estar protegidas por derechos de autor.
  2. La Oficina Canadiense de Propiedad Intelectual (CIPO) debería abstenerse de otorgar registro de derechos de autor a obras creadas por IA y de reconocer a las máquinas de IA como coautores o autores únicos de obras sin que el solicitante demuestre que ha habido una contribución humana significativa a las salidas.
  3. Si bien CFLA reconoce que la inteligencia artificial generativa puede ser disruptiva para los creadores, el tema de una posible compensación para los creadores de material utilizado para entrenar máquinas de IA debería ser separado de la Ley de Derechos de Autor.

Infracción y responsabilidad en relación con la IA

  1. Un mecanismo para juzgar la infracción de derechos de autor para las salidas de inteligencia artificial generativa ya existe en las leyes de derechos de autor de Canadá, y si un uso constituye una infracción debe determinarse caso por caso en los tribunales.
  2. La responsabilidad en lo que respecta a las salidas de IA que potencialmente infringen derechos de autor podría recaer en el desarrollador, la empresa de IA o el usuario, y podría situarse en un continuo.
  3. Puede ser necesario considerar la inclusión incidental en lo que respecta a las salidas de IA generativa.
  4. Dado que hay muy poca jurisprudencia en el área de la responsabilidad, muchas jurisdicciones pueden estar utilizando un enfoque de «esperar y ver» antes de avanzar con la legislación, y Canadá podría ser sabio al hacer lo mismo.

Conclusión: Al navegar por la intersección de los derechos de autor y la IA generativa, CFLA aboga por un enfoque progresista que fomente la innovación, promueva el acceso equitativo al conocimiento y salvaguarde los derechos de los creadores. Al participar en un diálogo colaborativo y adoptar marcos regulatorios flexibles, podemos aprovechar el potencial de la IA mientras preservamos la integridad de la ley de derechos de autor.

OpenAI y Axel Springer firman un acuerdo que permite que ChatGPT se entrene con datos de la editorial

Knibbs, Kate. s. f. «Journalists Had “No Idea” About OpenAI’s Deal to Use Their Stories». Wired. Accedido 22 de diciembre de 2023. https://www.wired.com/story/openai-axel-springer-news-licensing-deal-whats-in-it-for-writers/.

OpenAI y el conglomerado mediático alemán Axel Springer firmaron la semana pasada un acuerdo de licencia a largo plazo que permite a OpenAI incorporar artículos de los medios de Axel Springer, como Business Insider y Politico, en sus productos, incluido ChatGPT. Aunque el acuerdo se centra en el uso de trabajos periodísticos, los periodistas cuyas historias se compartirán como parte del acuerdo no fueron consultados previamente.

Empleados de Business Insider revelaron que se enteraron del acuerdo de inteligencia artificial al mismo tiempo que se anunció públicamente. PEN Guild, el sindicato estadounidense que representa a alrededor de 280 trabajadores de Politico y E&E News, otra publicación de Axel Springer, afirmó que «no fue consultado ni informado sobre la decisión de que los robots resumieran nuestro trabajo».

Este acuerdo destaca la tendencia emergente de empresas de inteligencia artificial que buscan acuerdos con empresas de medios en lugar de recopilar datos de entrenamiento mediante el rastreo no autorizado de contenido con derechos de autor en Internet. Mientras algunas asociaciones de escritores ven estos acuerdos como una alternativa positiva al rastreo de datos, hay dudas sobre si realmente beneficiarán a los periodistas.

El editor de Techdirt, Mike Masnick, cuestiona la efectividad de estos acuerdos y sugiere que podrían ser estrategias para evitar demandas de las editoras a cambio de cierto acceso a la tecnología. Además, se desconoce cómo afectará financieramente a los periodistas individuales el acuerdo entre OpenAI y Axel Springer.

El acuerdo, que implica que OpenAI pagará a Axel Springer millones de euros, según Bloomberg, plantea preguntas sobre si los periodistas recibirán alguna compensación. Aunque Axel Springer considera que el acuerdo beneficia a los periodistas y a la industria del periodismo, algunos críticos dudan de que el acceso indirecto a la tecnología realmente mejore las condiciones laborales de los periodistas.

En el contexto de la creciente automatización en la industria de los medios, sindicatos y líderes laborales están vigilando de cerca estos acuerdos para proteger los derechos e integridad del trabajo de los periodistas. La cuestión de si estos acuerdos serán beneficiosos a largo plazo y cómo afectarán a la industria de los medios sigue siendo objeto de debate.

El uso legítimo: mitos y conceptos erróneos sobre los derechos de autor

Carrie Russell «Figuring Out Fair Use». 2023. American Libraries Magazine. 1 de noviembre de 2023. https://americanlibrariesmagazine.org/?p=140589.

Libreros y maestros, profesionales bibliotecarios especializados en alfabetización informacional, acceso equitativo a la información y avance del aprendizaje, a menudo enfrentan ansiedades y conceptos erróneos sobre el copyright. El miedo infundado a litigios de copyright y la falta de educación sobre el tema contribuyen a esta situación.

El desconocimiento sobre el copyright se agrava en entornos educativos saturados de trabajo, donde el personal, ya sobrecargado, carece de tiempo para abordar cuestiones legales como el copyright. La complejidad añadida de los formatos digitales y las licencias privadas complica aún más la gestión efectiva del copyright en las escuelas.

La Constitución de EE.UU. dice que la ley de derechos de autor se crea «para promover el progreso de la ciencia y de las artes útiles». Su intención es, ante todo, fomentar la creación y difusión de obras originales y creativas que beneficien al público. Estas políticas también están diseñadas para avanzar en el bienestar público poniendo a disposición obras que promuevan el aprendizaje, inspiren la creación de nuevas obras, produzcan ciudadanos bien informados y fomenten la búsqueda de la felicidad.

La noción de que la ley de derechos de autor sirve al interés público puede sonar pintoresca cuando gran parte de la discusión pública, y ciertamente gran parte del debate político, gira en torno al valor monetario de los derechos de autor. Aunque los derechos de autor tienen un importante valor económico en la economía global de la información, el propósito fundamental de estas leyes es el bienestar público. Por lo tanto, los valores que subyacen a la ley de derechos de autor son totalmente coherentes con los valores profesionales de profesores y bibliotecarios.

A menudo se confunde a la gente o se le hace creer que la ley de derechos de autor es lo mismo que la ley de propiedad. Esta confusión se ve agravada por términos como propiedad intelectual, que es un término equivocado. En cambio, la ley de derechos de autor se asemeja a la regulación gubernamental en que el Congreso crea la ley para intervenir en el mercado mediante la concesión a los titulares de derechos de un monopolio -a través de los derechos exclusivos de autor- para lograr un propósito público.

A muchos bibliotecarios y profesores les molesta que no existan normas claras. A menudo, la respuesta a una pregunta concreta sobre derechos de autor exige analizar la situación para determinar si se trata de un uso legítimo. Puede que sea molesto, pero nos conviene que la ley sea ambigua. Fijar las normas de derechos de autor en piedra sería congelar la ley. La ley debe ser maleable para servir a nuestra sociedad ahora y en el futuro, un futuro sobre el que sólo podemos especular. El uso legítimo nos servirá porque está abierto a las nuevas tecnologías.

Cinco conceptos erróneos comunes sobre el copyright se destacan en el artículo:

  1. Erróneamente se cree que el propósito principal del copyright es compensar monetariamente a los autores y creadores, cuando en realidad busca fomentar el progreso de la ciencia y las artes útiles en beneficio del público.
  2. Existe el temor de que los titulares de derechos demanden a bibliotecarios, maestros y escuelas con frecuencia, cuando los casos reales en los tribunales son raros. Además, existen limitaciones legales y protecciones para instituciones educativas y bibliotecas.
  3. La confusión entre la ley de copyright y la propiedad intelectual lleva a la creencia errónea de que las obras protegidas son propiedad exclusiva de los creadores. En realidad, el copyright otorga derechos exclusivos para comercializar la obra, no para poseerla.
  4. Muchos esperan reglas legales definitivas para cuestiones de copyright, pero la ley es flexible y la determinación de uso justo a menudo requiere análisis caso por caso.
  5. Se percibe que el uso justo es difícil de entender y aplicar, cuando, en realidad, comprender y aplicar los cuatro factores del uso justo puede ser más natural con la práctica.

En conclusión, a pesar de las dificultades y malentendidos, es crucial para los profesionales de bibliotecas y educación comprender el copyright y aplicar el uso justo para equilibrar los derechos de los usuarios con los intereses de los titulares de derechos.

Libro Blanco: Inteligencia Artificial Generativa en Comunicación científica

Generative AI in Scholarly Communications: Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process. STM, 2023

Texto completo

STM ha publicado un nuevo libro blanco: Generative AI in Scholarly Communications: Directrices éticas y prácticas para el uso de la IA generativa en el proceso de publicación. Como continuación de AI Ethics in Scholarly Communication, que STM publicó en abril de 2021, esta nueva publicación es un recurso para las partes interesadas en la publicación académica y aborda el papel cada vez más importante de las tecnologías de IA Generativa (GenAI).

El documento examina los aspectos éticos, jurídicos y prácticos de GenAI, destacando su potencial para transformar las comunicaciones académicas, y abarca una serie de temas que van desde los derechos de propiedad intelectual hasta los desafíos de mantener la integridad en la era digital. El documento ofrece principios de buenas prácticas y recomendaciones para autores, equipos editoriales, revisores y proveedores, garantizando un enfoque responsable y ético en el uso de las herramientas GenAI.

Redefiniendo la Inteligencia Artificial: cómo la práctica de la Propiedad Intelectual se va adaptando a lo que se avecina

Los avances rápidos en inteligencia artificial indudablemente influirán en la ley y la práctica de la propiedad intelectual. Esto requiere que los profesionales de PI y sus socios tecnológicos reevalúen ciertas suposiciones sobre cómo se crea, protege y administra la PI. Se espera que estos cambios no lleguen como una revolución, sino a través de una serie de pasos incrementales.

Clarivate Plc ha publicado un informe titulado «Redefining AI: How IP practice meets the coming wave«, que investiga el impacto de la inteligencia artificial (IA) en la ley, la práctica y los procesos de propiedad intelectual (PI). El informe revela que la IA se está adoptando cada vez más en el campo de la PI, ofreciendo beneficios como la automatización de tareas manuales y la mejora de la productividad.

El informe aborda las percepciones de la IA y se centra en los beneficios, riesgos y la disposición a su integración en el ciclo de vida de la PI. Se parte de la suposición fundamental de que las perspectivas reales y los usos de la IA deben ser centrales en su desarrollo. El informe se basa en una encuesta en línea en la que participaron 575 profesionales de PI e investigación y desarrollo (I+D) de firmas de abogados y corporaciones de todo el mundo entre el 17 de julio y el 1 de agosto de 2023.

Al igual que en muchos sectores, el uso de la IA para potenciar los procesos de PI y la toma de decisiones abarca una amplia gama de tecnologías con diferentes niveles de sofisticación. El 43% de los encuestados informaron que actualmente no se estaba utilizando la IA. La mayoría de los encuestados mostraron un sentimiento negativo hacia la IA en general y expresaron su mayor preocupación por la precisión (74%). Hubo un fuerte interés en que la IA respaldara tareas manuales y laboriosas (67%), con solo una pequeña minoría (8%) sugiriendo que no querían que la IA se aplicara en absoluto a los procesos de PI. En conjunto, estos hallazgos sugieren la posibilidad de que la implementación de la IA sea altamente contextual, dependiendo del problema específico a resolver y del entorno de riesgo. Las percepciones negativas de la IA tienden naturalmente hacia tareas de alto riesgo que dependen en gran medida de la experiencia. En estas áreas, se enfatiza la creación de herramientas que ponen de relieve la experiencia. Enfoques centrados en el ser humano pueden mitigar algunos riesgos asociados con la incorporación de la IA en los flujos de trabajo de PI, calibrando su desarrollo a las necesidades de los profesionales. Sin confianza en sistemas autónomos, es poco probable que se aproveche el verdadero potencial de la IA. Situamos la IA responsable y ética en el contexto de la práctica de la PI, no para sugerir que el desarrollo de la IA hasta la fecha haya sido irresponsable, sino para avanzar hacia un panorama equitativo en el que las tecnologías basadas en la IA satisfagan las necesidades de quienes las utilizan.

Puntos clave del informe:

  1. La IA se está adoptando en la gestión de la PI, mejorando la toma de decisiones y acelerando los procesos de investigación.
  2. Las actitudes hacia la adopción de la IA en el campo de la PI varían según los roles y las ubicaciones geográficas. Los abogados y las firmas de abogados son más reacios, mientras que los no abogados, ejecutivos y profesionales de I+D se sienten más cómodos con la IA.
  3. Europa y los Estados Unidos muestran actitudes más cautelosas hacia la adopción de la IA, mientras que las regiones de Asia Pacífico y MENA son más receptivas.
  4. Las preocupaciones sobre la adopción de la IA incluyen la precisión de los resultados, la confiabilidad, consideraciones éticas, la confidencialidad del cliente, la responsabilidad y la falta de regulación.
  5. Las firmas de abogados, en particular, expresan reservas sobre la adopción de la IA, con preocupaciones sobre la responsabilidad, la confiabilidad y la confidencialidad del cliente.
  6. Los profesionales de I+D son los más entusiastas acerca de la adopción de la IA y creen que tendrá un impacto positivo en su función.
  7. Los departamentos legales internos y las firmas de abogados enfrentan barreras significativas para adoptar la IA, lo que enfatiza la necesidad de un enfoque responsable que tenga en cuenta las implicaciones legales, éticas y sociales.

El informe sugiere que adoptar la IA en la PI requiere un compromiso continuo para gestionar y evaluar riesgos, teniendo en cuenta consideraciones legales, éticas y sociales. Este enfoque puede ayudar a calibrar los sistemas de IA para satisfacer necesidades específicas y al mismo tiempo mantener la integridad del sistema de PI y garantizar la equidad y la justicia.

Estudio sobre los informes de transparencia (2019-2020) de las entidades de gestión de derechos de propiedad intelectual (2022)

Luis Fernando Ramos Simón e Ignacio Miró-Charbonnier. Estudio sobre los informes de transparencia (2019-2020) de las entidades de gestión de derechos de propiedad intelectual Madrid. FESABID, 2022

Texto completo

El presente estudio trata de analizar los Informes Anuales de Transparencia (en adelante: IAT), que son publicados por todas las entidades españolas de gestión de derechos de autor desde el ejercicio 2019. El objetivo principal de nuestro estudio consiste en conocer en qué medida la nueva regulación de las entidades de gestión de los derechos de autor –verificable a través de los IAT—modifica la operatividad de esas instituciones, que desempeñan un papel clave en la gestión de los derechos de propiedad intelectual.

Ellas pueden actuar como engranaje esencial de la actividad cultural del Estado, en la medida en que promuevan la competencia y el desarrollo tecnológico; por ello, forman parte importante de la industria cultural española. Conocerlas, comprender su papel, corregir sus defectos e impulsar sus iniciativas puede servir para revitalizar al sector cultural y en particular a todas aquellas instituciones públicas y privadas que tengan la información, el conocimiento y el patrimonio cultural como ejes de su misión.

La IA destapa la caja de Pandora: ChatGPT genera artículos científicos falsos y convincentes

Májovský, Martin, Martin Černý, Matěj Kasal, Martin Komarc, y David Netuka. «Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened». Journal of Medical Internet Research 25, n.o 1 (31 de mayo de 2023): e46924. https://doi.org/10.2196/46924.


Un estudio publicado en el Journal of Medical Internet Research por Martin Májovský y sus colegas revela que los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), pueden generar artículos científicos fraudulentos que parecen notablemente auténticos. Este descubrimiento plantea preocupaciones críticas sobre la integridad de la investigación científica y la confiabilidad de los documentos publicados.

Investigadores de la Universidad Charles, República Checa, se propusieron investigar las capacidades de los modelos actuales de lenguaje de IA para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot de IA, ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente ficticio en el campo de la neurocirugía. Las preguntas y sugerencias se refinaron a medida que ChatGPT generaba respuestas, lo que permitió mejorar iterativamente la calidad del resultado.

Los resultados de este estudio de concepto fueron sorprendentes: el modelo de lenguaje de IA produjo con éxito un artículo fraudulento que se asemejaba estrechamente a un documento científico genuino en cuanto al uso de palabras, estructura de las oraciones y composición general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin necesidad de ningún entrenamiento especial por parte del usuario humano.

Si bien el artículo generado por IA parecía sofisticado e impecable, al examinarlo más detenidamente, los lectores expertos pudieron identificar inexactitudes y errores semánticos, especialmente en las referencias; algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y métodos de detección mejorados para combatir el posible mal uso de la IA en la investigación científica.

Los hallazgos de este estudio destacan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en la escritura e investigación científica genuina. Modelos como ChatGPT tienen el potencial de mejorar la eficiencia y precisión en la creación de documentos, el análisis de resultados y la edición de lenguaje. Al utilizar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder al tiempo que minimizan el riesgo de mal uso o abuso.

En un comentario sobre el artículo del Dr. Májovský, el Dr. Pedro Ballester habla sobre la necesidad de priorizar la reproducibilidad y visibilidad de las obras científicas, ya que estas sirven como salvaguardias esenciales contra la proliferación de investigaciones fraudulentas.

A medida que la IA continúa avanzando, es crucial que la comunidad científica verifique la precisión y autenticidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que se necesita una mejor manera de verificar la precisión y autenticidad del contenido generado por IA, cómo se puede lograr esto es menos claro. «Deberíamos al menos declarar en qué medida la IA ha ayudado en la escritura y análisis de un artículo», sugiere el Dr. Ballester como punto de partida. Otra posible solución propuesta por Májovský y sus colegas es hacer obligatoria la presentación de datos para respaldar los resultados de la investigación, lo cual podría aumentar la transparencia y la verificabilidad de los estudios.

La ética de revelar el uso de herramientas de inteligencia artificial en la redacción de manuscritos académicos

Hosseini, Mohammad, David B Resnik, y Kristi Holmes. «The Ethics of Disclosing the Use of Artificial Intelligence Tools in Writing Scholarly Manuscripts». Research Ethics, 15 de junio de 2023, 17470161231180448. https://doi.org/10.1177/17470161231180449.

En este artículo se analizan cuestiones éticas relacionadas con el uso y la divulgación de herramientas de inteligencia artificial (IA), como ChatGPT y otros sistemas basados en grandes modelos lingüísticos (LLM), para escribir o editar manuscritos académicos.

Algunas revistas, como Science, han prohibido el uso de LLM por los problemas éticos que plantean en relación con la autoría responsable. Aquí se argumenta que ésta no es una respuesta razonable a los enigmas morales creados por el uso de los LLM, ya que las prohibiciones son inaplicables y fomentarían el uso no revelado de los LLM. Además, los LLM pueden ser útiles para redactar, revisar y editar textos, y promueven la equidad en la ciencia. Otros han argumentado que los LLM deberían mencionarse en los agradecimientos, ya que no cumplen todos los criterios de autoría.

En el artículo se sostiene que nombrar a los LLM como autores o mencionarlos en los agradecimientos son formas inapropiadas de reconocimiento porque los LLM no tienen libre albedrío y, por lo tanto, no pueden ser considerados moral o legalmente responsables de lo que hacen. Las herramientas en general, y el software en particular, suelen citarse dentro del texto, y luego se mencionan en las referencias.

Se proporcionan sugerencias para mejorar el Estilo APA para referenciar ChatGPT con el fin de indicar específicamente el colaborador que utilizó los LLM (porque las interacciones se almacenan en cuentas de usuario personales), la versión y el modelo utilizados (porque la misma versión podría utilizar diferentes modelos de lenguaje y generar respuestas disímiles, por ejemplo, ChatGPT Mayo 12 Versión GPT3.5 o GPT4), y el tiempo de uso (porque los LLM evolucionan rápidamente y generan respuestas disímiles a lo largo del tiempo).

Se recomienda que los investigadores que utilicen LLMs:

(1) revelen su uso en la introducción o en la sección de métodos para describir de forma transparente detalles tales como las indicaciones utilizadas y señalar qué partes del texto se ven afectadas,

(2) utilicen citas y referencias en el texto (para reconocer sus aplicaciones utilizadas y mejorar la localización y la indexación), y

(3) registren y presenten sus interacciones relevantes con LLMs como material suplementario o apéndices.

Inteligencia artificial y su impacto en la escritura académica

Alonso Arévalo, Julio Inteligencia artificial y su impacto en la escritura académica. Revista Praxis & Saber. Accedido 17 de junio de 2023.

Video

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.