Libros electrónicos de baja calidad escritos con Inteligencia Artificial inundan el mercado de Kindle Amazon

Grady, Constance. «Amazon Is Filled with Garbage Ebooks. Here’s How They Get Made.» Vox, 16 de abril de 2024. https://www.vox.com/culture/24128560/amazon-trash-ebooks-mikkelsen-twins-ai-publishing-academy-scam.


El artículo explora cómo se generan los libros electrónicos de baja calidad que inundan el mercado de Amazon, describiendo una combinación de inteligencia artificial, esquemas para hacerse rico rápidamente y un perjuicio total para los consumidores confundidos. Lo que ilustra cómo la explotación de la inteligencia artificial y la ausencia de regulación han facilitado la propagación de libros de baja calidad, teniendo un impacto negativo tanto en los escritores como en los lectores.

Es tan difícil para la mayoría de los autores ganarse la vida con su escritura que a veces perdemos de vista cuánto dinero hay que ganar con los libros, si solo pudiéramos ahorrar costos en el proceso laborioso y que consume mucho tiempo de escribirlos.

Internet, sin embargo, siempre ha sido un puerto seguro para aquellos con planes de innovar esa molesta parte de escribir un libro fuera de la publicación de libros real. En internet, es posible copiar texto de una plataforma y pegarlo en otra sin problemas, compartir archivos de texto, construir vastas bases de datos de libros robados. Si quisieras diseñar un lugar específicamente para piratear y monetizar libros de manera rastrera, sería difícil hacerlo mejor que internet tal como ha existido durante mucho tiempo.

Ahora, la IA generativa ha hecho posible crear imágenes de portada, esquemas e incluso texto con solo hacer clic en un botón. La IA ha creado un mundo donde los utopistas tecnológicos sueñan abiertamente con eliminar la parte humana de escribir un libro — cualquier cantidad de arte o artesanía o incluso solo esfuerzo puro — y reemplazarla con corrientes de texto generadas por máquina; como si poner el trabajo de escribir fuera un juego para tontos; como si importara si lo que estás leyendo es o no un sinsentido solo para elitistas. El futuro es ahora, y está lleno de libros basura que nadie se molestó realmente en escribir y que ciertamente nadie quiere leer.

La parte más triste de todo esto, sin embargo, es que los libros basura en realidad no ganan tanto dinero. Incluso es posible perder dinero generando tu libro electrónico de baja calidad para venderlo en Kindle por 0.99$. La forma en que la gente gana dinero en estos días es enseñando a los estudiantes el proceso de hacer un libro basura. Es estafa y basura, y las personas que finalmente salen perdiendo son los lectores y escritores que aman los libros.

Hoy en día, el paisaje de la publicación de libros electrónicos basura está totalmente saturado de estafadores. Hay blogs que hablan sobre la industria, pero tienden a ser sitios sensacionalistas plagados de palabras clave de SEO y enlaces de afiliados que se citan entre ellos. Prácticamente cada parte del mundo de las estafas de autopublicación que se puede automatizar o monetizar se ha automatizado y monetizado. Según los blogs de la época, uno de los maestros más infames era un hombre que se hacía llamar Luca de Stefani, o Big Luca. La leyenda decía que tenía el récord mundial de ganar más dinero usando Kindle Publishing en un solo día. Aunque Luca no inventó esta fórmula. Lo aprendió del curso OG de estafa de autoedición K Money Mastery, ahora aparentemente extinto, donde sobresalió.

Para la estafa de la autoedición, las buenas reseñas son cruciales. Cuantas más reseñas de cinco estrellas tenga un libro, más probable es que el algoritmo de Amazon lo empuje hacia los lectores. Si principalmente estás publicando libros basura, no vas a obtener toneladas de reseñas de cinco estrellas de manera orgánica. El grupo de Facebook de Big Luca les dio a los estafadores un lugar para ofrecer intercambios de reseñas de cinco estrellas o vender reseñas de cinco estrellas por 0.99$ cada una. Según el algoritmo de Amazon, no había diferencia entre ese tipo de reseña y la que podría dejar un lector real. Los resultados fueron extremadamente lucrativos.

Cómo se hacen los libros basura

El caso de estudio de cómo se hacen los libros basura comienza con el curso ofrecido por los hermanos Mikkelsen en el dominio Publishing.com cuyo titular es «Donde la edición se encuentra con los beneficios. Ayudamos a personas sin experiencia empresarial ni tecnológica a crear y publicar libros que se venden». Su presentación de ventas dura dos horas y es un video de Christian en una habitación oscura, mostrando capturas de pantalla de cheques de regalías de sus estudiantes y repitiendo que ya es rico; no tiene que mostrar cómo ganar ese dinero. Christian ofrece enseñar a producir un libro sin necesidad de escribirlo, utilizando inteligencia artificial (IA) para generar el esquema del libro, ahorrando semanas de investigación. Aunque Amazon refuerza las regulaciones contra textos generados puramente por IA, los Mikkelsen anuncian su nuevo programa de IA, Publishing.ai, que promete escribir un manuscrito aún más rápido que un escritor fantasma. Bajo su modelo, los estudiantes tienen acceso a rastreadores de palabras clave y luego envían el esquema generado por IA a un escritor fantasma por una tarifa. Además, los Mikkelsen prometen enseñar a contratar narradores de audiolibros y a conseguir reseñas de cinco estrellas. Aunque nada de esto es ilegal, es éticamente cuestionable, según las normas de la industria editorial.

En última instancia, el timo explota cada faceta del proceso de creación y venta de libros, capitalizando los aspectos laboriosos y socavando el significado cultural de los libros como artefactos significativos y enriquecedores. El resultado es una proliferación de archivos digitales con forma de libro carentes de sustancia, perpetuando un ciclo de explotación y desilusión en el mundo literario.

Ello ilustra cómo la explotación de la inteligencia artificial y la ausencia de regulación han facilitado la propagación de libros de baja calidad, teniendo un impacto negativo tanto en los escritores como en los lectores.

IV Jornadas Innovación educativa en comunicación y alfabetización mediática

Dasilva, Jesús Pérez, Koldobika Meso Ayerdi, y Simón Peña Fernández. IV Jornadas Innovación educativa en comunicación y alfabetización mediática [Recurso electrónico]: libro de comunicaciones. Servicio Editorial = Argitalpen Zerbitzua, 2022.

Texto completo


El contenido del libro aborda diversas temáticas relacionadas con la educación y la comunicación, destacando diferentes enfoques pedagógicos y metodologías aplicadas en estos campos. El primer artículo analiza las ventajas pedagógicas de la metodología de aula invertida, destacando su impacto en el aprendizaje del alumnado a través de la participación activa y crítica. A continuación, se presenta un estudio sobre el papel del procesamiento dual de la información en la identificación de noticias falsas, resaltando la importancia de desarrollar habilidades para discernir la veracidad de la información en la era digital. Otro artículo explora una metodología creativa y colaborativa para la enseñanza del periodismo, mientras que otro examina la calidad de la comunicación digital a través de la comparación de medios web. Además, se aborda el diseño de un sistema híbrido como herramienta educativa y se reflexiona sobre el papel de la ética y la deontología en la formación de profesionales de la comunicación. Por último, se discuten consideraciones sobre la formación en comunicación para personas con discapacidades y se proponen diferentes enfoques para enseñar historia de la comunicación basados en la historia social.

Un hackathon de alfabetización en IA de las bibliotecas amplía los recursos educativos abiertos

Carnegie Mellon University Libraries. (2024, April). AI literacy hackathon. Recuperado de https://www.library.cmu.edu/about/news/2024-04/ai-literacy-hackathon

El miércoles 3 de abril, especialistas de diversas instituciones visitaron las Bibliotecas para participar en un Hackatón de Recursos de Alfabetización en Inteligencia Artificial. El objetivo del evento fue reunir a bibliotecarios universitarios, personal y otros interesados para desarrollar materiales educativos abiertos sobre los principios emergentes de la alfabetización en inteligencia artificial.

Un hackatón es un evento colaborativo en el que personas con diversos conocimientos y habilidades se reúnen para trabajar intensivamente en proyectos de forma conjunta y creativa durante un período de tiempo determinado, por lo general de uno o varios días. Durante un hackatón, los participantes suelen formar equipos y trabajar en el desarrollo de software, aplicaciones, prototipos, soluciones tecnológicas o proyectos relacionados con la innovación, la tecnología o cualquier otro tema específico.

En esta ocasión hackatón contó con 36 participantes de 17 instituciones diferentes, incluidas la Universidad Estatal de Ohio, la Universidad de Virginia Occidental, la Universidad de Princeton y la Universidad de Binghamton. Los participantes eran principalmente bibliotecarios universitarios, aunque también participaron diseñadores instruccionales y otro personal de apoyo académico.

El evento proporcionó una forma divertida de crear un sentido de comunidad en torno a la alfabetización en inteligencia artificial. Estuvo impulsado por las voces de los participantes y se centró específicamente en su experiencia.

Después de una serie de segmentos de lluvia de ideas, los participantes fueron divididos en ocho equipos para crear materiales educativos sobre un tema designado. No hubo límite en el tipo de materiales creados, que iban desde ejercicios de ingeniería de indicaciones hasta infografías sobre sesgos en modelos y conjuntos de datos de inteligencia artificial. Los equipos tenían la libertad de determinar el público objetivo para estos materiales, creando recursos para estudiantes universitarios y de posgrado, así como para el público en general.

Todos los recursos creados en el evento están licenciados abiertamente para que otros los reutilicen y modifiquen. Una colección completa de los materiales creados se puede encontrar en el sitio del proyecto Open Science Framework del Hackatón.

La biblioteca de Biología de la USAL seleccionada por la IFLA para el Premio Biblioteca Verde. Planeta biblioteca 2024/03/24

La biblioteca de Biología de la USAL seleccionada por la IFLA para el Premio Biblioteca Verde.

Planeta biblioteca 2024/03/24

ESCUCHAR

Ir a descargar

Entrevista a Ángel Poveda, Jefe de la Biblioteca de Biblioteca de Biología y Biotecnología de la Universidad de Salamanca, que lidera una institución seleccionada entre las siete finalistas al Premio Biblioteca Verde del mundo, destacando sus servicios innovadores más allá del préstamo de libros, la biblioteca representa una nueva forma de ser biblioteca, enfocada en ofrecer servicios conectados con los usuarios y buscar alianzas para alcanzar sus objetivos. Con iniciativas como el Festival de Cine y Ciencia BIOFILM y la Semana de Consumo Responsable, la biblioteca promueve la divulgación científica y la conexión con la comunidad.

El reconocimiento a la Mejor Biblioteca Verde del mundo, concedido por la Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA), resalta la labor de las bibliotecas que sobresalen por su compromiso con la sostenibilidad y la preservación del medio ambiente.

La Biblioteca de Biología y Biotecnología de la USAL ha sido destacada por su amplio espectro de actividades y servicios relacionados con la conciencia ambiental y la divulgación científica, incluyendo jornadas de consumo responsable, organización de mercados ecológicos, paseos guiados ornitobotánicos, eventos de cine y ciencia, publicaciones electrónicas, visitas a centros de investigación, creación de galerías de imágenes didácticas y seminarios de inserción laboral. Además, la biblioteca forma parte de RECIDA, la Red de Centros de Información y Documentación Ambiental, que reúne a más de 150 centros de diversos orígenes en España, fortaleciendo así su impacto y colaboración en el ámbito de la sostenibilidad.

Cómo una biblioteca ahorró 35 millones de dólares a los estudiantes

Leading with the library how one university positioned its library as a central hub for innovation and strategic partnerships. The University of South Florida, 2024

Texto completo

El papel de la biblioteca universitaria está evolucionando, presentando a los líderes la oportunidad de reimaginar sus bibliotecas como colaboradores estratégicos y creadores de contenidos innovadores.

En este estudio de caso, lea cómo la Universidad del Sur de Florida capacitó a su biblioteca para definir un enfoque de investigación, contratar especialistas de campo para desarrollar colecciones de vanguardia y ampliar el acceso a nivel mundial, al tiempo que aborda cuestiones universales como el aumento de los costes de los libros de texto.

Los costos de los libros de texto universitarios aumentan en promedio un seis por ciento cada año, duplicándose cada 11 años, según la Iniciativa de Datos Educativos. En un momento en que se cuestiona el valor de la educación universitaria y las instituciones buscan formas de ampliar el acceso, hacer que los materiales de instrucción sean más asequibles es una prioridad. USF comenzó a explorar la creación de un Programa de Asequibilidad de Libros de Texto hace más de una década, reconociendo cómo estos costos impactaban en el éxito de los estudiantes. El equipo de la biblioteca se enfocó en los miembros de la facultad como clave para el éxito del programa y les proporcionó datos sobre los costos para los estudiantes y alternativas de acceso abierto a los libros de texto y materiales de instrucción tradicionales. Armados con esos detalles, la facultad adoptó el programa y la idea detrás de él. «Les importaba el problema y solo necesitaban información precisa para tomar la decisión correcta para nuestros estudiantes», dice Chávez.

El trabajo ha ahorrado a los estudiantes más de 35 millones de dólares desde 2016 y ha reducido el costo promedio de los libros de texto por hora de crédito de pregrado de USF de más de 65$ en 2016 a 20.60$ en 2023. Las bibliotecas también pueden apoyar el éxito de los estudiantes de otras maneras. Dahlia Thomas accedió a los recursos de la biblioteca como estudiante de arte de estudio de pregrado que trabajaba en dos empleos mientras tomaba clases a tiempo completo. Su experiencia coincidió con el cambio más amplio hacia la digitalización de contenido y servicios. Colecciones especiales que antes requerían visitar la biblioteca en persona debido a su tamaño o restricciones de derechos de autor ahora podían ser accedidas desde cualquier lugar. «Ver las colecciones en línea me ahorró tiempo en piezas de arte, ensayos de historia del arte y trabajos de humanidades», dice Thomas, quien ahora se desempeña como Coordinadora de Operaciones de Historia Oral de las Bibliotecas de USF.

Hoy, las Bibliotecas de USF están creando contenido en 3D para colecciones digitales que preservan artefactos, como tallados en piedra mesoamericanos centenarios que están siendo erosionados por la lluvia ácida, que la mayoría de las personas nunca verán en dos dimensiones, y mucho menos en tres. Está liderando una iniciativa a nivel institucional para hacer que los libros de texto sean más asequibles para los estudiantes. Está enviando especialistas de bibliotecas a bordo de barcos para facilitar el proceso de gestión de datos que apoya a los científicos en el mar que intentan comprender las implicaciones de la explosión y derrame de petróleo del Deepwater Horizon de 2010. Y se aventura en cuevas junto a investigadores que exploran terrenos kársticos globales que proporcionan agua para más de mil millones de personas en todo el mundo. Desde su disposición para cambiar rápidamente en medio de una pandemia mundial en desarrollo hasta el trabajo orientado al futuro que realiza ahora, el equipo de Chávez ha empujado repetidamente los límites tradicionales en torno a los recursos y servicios que proporcionan las bibliotecas académicas. «Las bibliotecas universitarias a menudo han sido lentas para cambiar, lo que puede dificultar establecer un caso de relevancia», dice Chávez. «Muchas bibliotecas reformatean sus colecciones digitalmente o compran contenido digital, lo organizan y lo hacen accesible. Nosotros también hacemos esas cosas. Pero no muchas otras bibliotecas salen al campo para crear contenido utilizando tecnología 3D, de imágenes y geoespacial. No somos la biblioteca de tus abuelos». Las bibliotecas que persiguen este tipo de trabajo están comprometidas con comprender los mayores desafíos de la sociedad, lo que se alinea con los objetivos de la Asociación de Universidades Americanas de servir al bien público y contribuir al ecosistema de conocimiento global. Y están posicionadas para ayudar a las comunidades y a los socios estratégicos a navegar por un paisaje de aprendizaje e investigación impulsado por la tecnología que cambia minuto a minuto.

VASA-1 de Microsoft puede transformar fotografías en animaciones sincronizadas en video que imitan el habla humana

VASA-1

Ejemplo 1

Ejemplo 2


Microsoft Research ha logrado un avance en tecnología de animación al desarrollar una aplicación de inteligencia artificial que convierte una imagen estática de una persona y una pista de audio en una animación realista con expresiones faciales adecuadas. El sistema, llamado VASA-1, puede transformar imágenes estáticas, como fotografías, dibujos o pinturas, en animaciones «exquisitamente sincronizadas» que imitan el habla humana y el canto.

VASA-1 está entrenado con miles de imágenes con una amplia variedad de expresiones faciales y puede producir imágenes de 512×512 píxeles a 45 cuadros por segundo. Sin embargo, debido al potencial de mal uso, el equipo de investigación actualmente no ha puesto el sistema disponible públicamente. Están dedicados a desarrollar la IA de manera responsable y no tienen planes de lanzar una demostración en línea, API, producto o detalles adicionales hasta estar seguros de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones adecuadas.

El modelo principal, VASA-1, es capaz no solo de producir movimientos de labios exquisitamente sincronizados con el audio, sino también de capturar un amplio espectro de matices faciales y movimientos naturales de la cabeza que contribuyen a la percepción de autenticidad y vivacidad. Las innovaciones principales incluyen un modelo holístico de generación de dinámicas faciales y movimientos de cabeza que funciona en un espacio latente facial, y el desarrollo de un espacio latente facial expresivo y disociado utilizando videos. A través de experimentos extensos, incluida la evaluación en un conjunto de nuevas métricas, se demuestra que el método supera significativamente a los métodos anteriores en diversas dimensiones de manera integral. El método no solo ofrece una alta calidad de video con dinámicas faciales y de cabeza realistas, sino que también admite la generación en línea de videos de 512×512 a hasta 40 FPS con una latencia inicial insignificante. Allana el camino para interacciones en tiempo real con avatares realistas que emulan comportamientos conversacionales humanos.

El enfoque de investigación se centra en generar habilidades visuales afectivas para avatares virtuales de IA, con el objetivo de aplicaciones positivas. No pretenden crear contenido que se utilice para engañar o malinterpretar. Sin embargo, como otras técnicas relacionadas de generación de contenido, aún podría ser potencialmente mal utilizado para suplantar a humanos. Se oponen a cualquier comportamiento que cree contenidos engañosos o perjudiciales de personas reales, y están interesados en aplicar la técnica para avanzar en la detección de falsificaciones. Actualmente, los videos generados por este método aún contienen artefactos identificables, y el análisis numérico muestra que aún hay una brecha para lograr la autenticidad de los videos reales.

Aunque reconocen la posibilidad de mal uso, es imperativo reconocer el sustancial potencial positivo de la técnica. Los beneficios, como mejorar la equidad educativa, mejorar la accesibilidad para personas con desafíos de comunicación, ofrecer compañía o apoyo terapéutico a quienes lo necesitan, entre muchos otros, subrayan la importancia de la investigación y otras exploraciones relacionadas. Están dedicados a desarrollar la IA de manera responsable, con el objetivo de avanzar en el bienestar humano.

Dado dicho contexto, no tienen planes de lanzar una demostración en línea, API, producto, detalles de implementación adicionales o cualquier oferta relacionada hasta estar seguros de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones adecuadas.

AI y la ciencia: lo que piensan 1.600 investigadores

Van Noorden, Richard, y Jeffrey M. Perkel. «AI and Science: What 1,600 Researchers Think». Nature 621, n.o 7980 (27 de septiembre de 2023): 672-75. https://doi.org/10.1038/d41586-023-02980-0.

Las herramientas de inteligencia artificial (IA) están cada vez más presentes en la ciencia, y muchos científicos anticipan que pronto serán centrales en la práctica de la investigación, según una encuesta de Nature a más de 1.600 investigadores de todo el mundo.

Cuando se les preguntó qué tan útiles creían que se volverían las herramientas de IA para sus campos en la próxima década, más de la mitad esperaba que las herramientas fueran «muy importantes» o «esenciales». Sin embargo, los científicos también expresaron fuertes preocupaciones sobre cómo la IA está transformando la forma en que se realiza la investigación.

El porcentaje de documentos de investigación que mencionan términos de IA ha aumentado en todas las áreas en la última década, según un análisis para este artículo realizado por Nature.

Las técnicas estadísticas de aprendizaje automático están ahora bien establecidas, y los últimos años han visto avances rápidos en la IA generativa, incluidos los modelos de lenguaje grandes (LLMs), que pueden producir salidas fluidas como texto, imágenes y código basado en los patrones en sus datos de entrenamiento. Los científicos han estado utilizando estos modelos para ayudar a resumir y escribir documentos de investigación, generar ideas y escribir código, y algunos han estado probando la IA generativa para ayudar a producir nuevas estructuras de proteínas, mejorar los pronósticos meteorológicos y sugerir diagnósticos médicos, entre muchas otras ideas.

Al centrarse primero en el aprendizaje automático, los investigadores destacaron muchas formas en que las herramientas de IA los ayudan en su trabajo. De una lista de posibles ventajas, dos tercios señalaron que la IA proporciona formas más rápidas de procesar datos, el 58% dijo que acelera cálculos que antes no eran factibles, y el 55% mencionó que ahorra tiempo y dinero a los científicos.

«La IA me ha permitido progresar en responder preguntas biológicas donde el progreso era previamente inviable», dijo Irene Kaplow, bióloga computacional en la Universidad Duke en Durham, Carolina del Norte.

Los resultados de la encuesta también revelaron preocupaciones generalizadas sobre los impactos de la IA en la ciencia. De una lista de posibles impactos negativos, el 69% de los investigadores dijo que las herramientas de IA pueden llevar a una mayor dependencia del reconocimiento de patrones sin comprensión, el 58% dijo que los resultados pueden afianzar el sesgo o la discriminación en los datos, el 55% pensó que las herramientas podrían facilitar el fraude y el 53% señaló que el uso mal considerado puede llevar a investigaciones irreproducibles.

«El principal problema es que la IA desafía nuestros estándares existentes de prueba y verdad», dijo Jeffrey Chuang, quien estudia análisis de imágenes de cáncer en el Laboratorio Jackson en Farmington, Connecticut.

Usos esenciales Para evaluar las opiniones de los investigadores activos, Nature envió por correo electrónico a más de 40,000 científicos que habían publicado documentos en los últimos 4 meses de 2022, además de invitar a los lectores del Nature Briefing a participar en la encuesta. Dado que los investigadores interesados en la IA eran mucho más propensos a responder a la invitación, los resultados no son representativos de todos los científicos. Sin embargo, los encuestados se dividieron en 3 grupos: el 48% que desarrollaba o estudiaba directamente la IA, el 30% que había usado IA para su investigación y el 22% restante que no usaba IA en su ciencia.

Entre los que usaban IA en su investigación, más de una cuarta parte sintió que las herramientas de IA se volverían «esenciales» para su campo en la próxima década, en comparación con el 4% que pensaba que las herramientas eran esenciales ahora, y otro 47% pensó que la IA sería «muy útil». A los investigadores cuyo campo de investigación ya era la IA no se les hizo esta pregunta. Los investigadores que no usan IA eran, como era de esperar, menos entusiastas. Aun así, el 9% sintió que estas técnicas se volverían «esenciales» en la próxima década, y otro 34% dijo que serían «muy útiles».

Grandes modelos de lenguaje El chatbot ChatGPT y sus primos LLM fueron las herramientas que los investigadores mencionaron más a menudo cuando se les pidió que escribieran el ejemplo más impresionante o útil de herramientas de IA en la ciencia

Cuando se les pidió que seleccionaran de una lista de posibles impactos negativos de la IA generativa, el 68% de los investigadores se preocuparon por la proliferación de desinformación, otro 68% pensaron que facilitaría el plagio y dificultaría su detección, y el 66% estaban preocupados por la introducción de errores o inexactitudes en los documentos de investigación.

Los encuestados agregaron que estaban preocupados por estudios falsificados, información falsa y la perpetuación de sesgos si las herramientas de IA para diagnósticos médicos se entrenaran con datos históricamente sesgados.

«Claramente hay un mal uso de los grandes modelos de lenguaje, inexactitud y resultados huecos pero con un tono profesional que carecen de creatividad», dijo Isabella Degen, ingeniera de software y exemprendedora que ahora está estudiando para un doctorado en el uso de IA en medicina en la Universidad de Bristol, Reino Unido. «En mi opinión, no entendemos bien dónde está la línea entre el buen uso y el mal uso».

El beneficio más claro, pensaron los investigadores, era que los LLMs ayudaban a los investigadores cuyo primer idioma no es el inglés, al ayudar a mejorar la gramática y el estilo de sus documentos de investigación, o para resumir o traducir otro trabajo. «A pesar de un pequeño número de actores malintencionados, la comunidad académica puede demostrar cómo utilizar estas herramientas para el bien», dijo Kedar Hippalgaonkar, científico de materiales en la Universidad Tecnológica de Nanyang en Singapur.

Los investigadores que usan regularmente LLMs en el trabajo todavía son una minoría, incluso entre el grupo interesado que respondió a la encuesta de Nature. Un 28% de los que estudiaron IA dijeron que usaban productos de IA generativa como LLMs todos los días o más de una vez a la semana, un 13% de los que solo usan IA lo dijeron, y solo un 1% entre otros, aunque muchos al menos habían probado las herramientas.

Además, el uso más popular entre todos los grupos fue para la diversión creativa no relacionada con la investigación (un encuestado usó ChatGPT para sugerir recetas); una proporción menor usó las herramientas para escribir código, idear ideas de investigación y ayudar a escribir documentos de investigación.

Algunos científicos no quedaron impresionados por los resultados de los LLMs. «Siento que ChatGPT ha copiado todos los malos hábitos de escritura de los humanos: usando muchas palabras para decir muy poco», escribió un investigador que usa el LLM para ayudar a editar copias de documentos. Aunque algunos estaban emocionados por el potencial de los LLMs para resumir datos en narrativas, otros tuvieron una reacción negativa. «Si usamos IA para leer y escribir artículos, la ciencia pronto pasará de ser ‘para humanos por humanos’ a ‘para máquinas por máquinas'», escribió Johannes Niskanen, un físico de la Universidad de Turku en Finlandia.



La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

Monitoreo de casos de reutilización de datos abiertos para comprender el impacto económico, gubernamental, social y ambiental de los datos abiertos.

The use case observatory – A 3-year monitoring of open data reuse cases to understand the economic, governmental, social and environmental impact of open data. Volume II, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/073480

Vol 1


El observatorio de casos de uso: Un monitoreo de 3 años de casos de reutilización de datos abiertos para comprender el impacto económico, gubernamental, social y ambiental de los datos abiertos. Volumen II. Metadatos de publicación.

El Observatorio de Casos de Uso, iniciado y llevado a cabo por data.europa.eu, el portal oficial para datos europeos gestionado por la Oficina de Publicaciones de la Unión Europea, sirve como un proyecto de investigación integral para evaluar el impacto económico, gubernamental, social y ambiental de los datos abiertos en toda Europa desde 2022 hasta 2025. El Observatorio de Casos de Uso se centra en monitorear y analizar casos de reutilización, con el objetivo de contribuir con ideas valiosas a los objetivos más amplios de data.europa.eu.

Inteligencia Artificial Generativa y Publicación Académica

Ahari, Juni. «Generative AI and Scholarly Publishing». Ithaka S+R (blog), 23 de abril de 2024. https://sr.ithaka.org/blog/generative-ai-and-scholarly-publishing/.

Durante los últimos años, Ithaka S+R ha llevado a cabo varios estudios importantes sobre el panorama de la publicación académica durante un período de cambio tecnológico rápido. No hay mejor ejemplo de lo rápido y radical que es este ritmo que las herramientas de inteligencia artificial generativa, que han pasado de los márgenes a un punto focal de la publicación académica en poco más de un año.

La primavera pasada, se llevaron a canbo entrevistas con editores, bibliotecarios, defensores, analistas, financiadores y responsables políticos a medida que los horizontes de posibilidad y riesgo planteados por la inteligencia artificial generativa se hacían evidentes. Se publicó, » The Second Digital Transformation of Scholarly Publishing«, a principios de este año.

En los meses intermedios, el alcance de la inteligencia artificial generativa en el ciclo de vida de la publicación académica ha crecido dramáticamente. Las herramientas de descubrimiento mejoradas están proporcionando formas más eficientes de adaptar la búsqueda y sintetizar cuerpos enteros de literatura para investigadores y lectores. Mientras tanto, las herramientas en el detección para automatizar aspectos de la revisión por pares, facilitar la presentación de artículos e identificar el fraude en la investigación ya están en uso o en la cima de los pipelines de desarrollo de productos. A medida que el panorama de productos comienza a madurar, y a medida que los casos de uso de los investigadores se vuelven más discernibles, se disponen de datos para respaldar una reflexión más profunda sobre cómo la inteligencia artificial generativa afectará a la comunicación y prácticas de publicación académica que no existían en este momento el año pasado.

Las cambiantes y rápidas necesidades y expectativas de los usuarios, el potencial de la inteligencia artificial generativa para mitigar desafíos sistémicos obstinados en la industria de la publicación académica, y la conciencia de los riesgos que plantea la inteligencia artificial generativa para el conocimiento experto demandan que encontremos tiempo para una reflexión profunda sobre lo que significa la inteligencia artificial generativa para la publicación académica como sector y su valor como componente de la infraestructura compartida que apoya la investigación científica y académica y las comunicaciones.

Para ayudar, Ithaka S+R está lanzando un nuevo estudio sobre las implicaciones estratégicas de la inteligencia artificial generativa para la publicación académica, con el apoyo de STM Solutions y un grupo de sus miembros. Las siguientes preguntas clave guiarán nuestra investigación:

¿La inteligencia artificial generativa se integrará en los objetivos, procesos e infraestructuras existentes para la publicación académica? ¿O representa esta una tecnología transformadora que requerirá una reestructuración fundamental de esos objetivos, procesos e infraestructuras? ¿Podría la inteligencia artificial generativa interpretar efectivamente nuestras suposiciones actuales sobre el papel y propósito de los editores obsoletas? ¿Qué nuevos roles podrían desempeñar los editores en un entorno de información radicalmente transformado? ¿Qué transformaciones potenciales deberían alentar los editores y qué riesgos requieren respuestas coordinadas inmediatas mientras la tecnología aún está echando raíces en el sector? ¿Qué tipos nuevos de infraestructura técnica y/o social compartida son necesarios para apoyar la adopción ética de la inteligencia artificial generativa en apoyo de los objetivos de la investigación y la publicación académica? ¿Qué sistemas y estructuras serán necesarios para equilibrar las necesidades de autores, lectores, titulares de derechos, editores y agregadores? ¿Qué sigue?

Ithaka S+R llevará a cabo entrevistas con tomadores de decisiones del sector editorial y otros con experiencia en el tema de la inteligencia artificial generativa, sobre las oportunidades y riesgos. Los hallazgos de nuestra investigación se compartirán a través de un informe temático y un seminario web público este verano. Este proyecto es parte de un conjunto de investigaciones que estamos llevando a cabo para explorar los impactos de la inteligencia artificial generativa en las prácticas de investigación y comunicación académica.