Archivo de la etiqueta: Plagio

TikTok comenzará a etiquetar el contenido generado por IA para combatir la desinformación


TikTok ha anunciado que comenzará a etiquetar contenido creado utilizando inteligencia artificial cuando se cargue desde fuera de su propia plataforma, como parte de su esfuerzo para combatir la desinformación.

La compañía afirma que si bien la IA ofrece oportunidades creativas increíbles, puede confundir o engañar a los espectadores si no saben que el contenido fue generado por IA. Por lo tanto, la etiqueta ayudará a proporcionar claridad sobre el origen del contenido. TikTok ya etiqueta contenido generado por IA creado con efectos de IA de TikTok, y ha requerido a los creadores que etiqueten contenido realista generado por IA durante más de un año.

Esta medida de TikTok forma parte de un esfuerzo más amplio en la industria tecnológica para proporcionar más salvaguardias para el uso de la IA. Meta anunció en febrero que estaba trabajando con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de inteligencia artificial. Los usuarios de Facebook e Instagram verían etiquetas en imágenes generadas por IA. Google también anunció el año pasado que las etiquetas de IA llegarían a YouTube y otras plataformas.

Este impulso hacia el «marcado de agua digital» y la etiquetación del contenido generado por IA también fue parte de una orden ejecutiva que el presidente de Estados Unidos, Joe Biden, firmó en octubre.

TikTok espera que esta medida ayude a fortalecer la confianza del usuario y a reducir la propagación de desinformación en su plataforma.

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

El crecimiento explosivo del fraude impulsado por la IA: Deepfakes

Statista Daily Data. «Infografía: El explosivo crecimiento del fraude impulsado por la IA», 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

La proliferación de videos, fotos y grabaciones de audio engañosas, generadas con sistemas de inteligencia artificial (IA), ha alcanzado proporciones alarmantes en diversas plataformas de internet.

Desde imágenes de Donald Trump posando con votantes negros hasta el Papa luciendo una chaqueta estilo puffer, estos contenidos manipulados pueden hacer que parezca que figuras prominentes en la política o el entretenimiento expresen ideas o acciones que nunca han realizado.

Además de su uso para crear contenido falso, esta tecnología también facilita la comisión de fraudes de identidad, ya sea mediante la fabricación de documentos falsificados o usurpando la identidad de personas a través de llamadas telefónicas. Entre 2022 y 2023, los casos de fraude vinculados a deepfakes se han disparado en numerosos países alrededor del mundo, como lo revela nuestro análisis basado en el informe anual más reciente del proveedor de verificación de identidad Sumsub.

Entre los hallazgos clave del estudio se destacan:

  • Un aumento significativo de 10 veces en el número de deepfakes detectados globalmente en todas las industrias entre 2022 y 2023, con diferencias regionales notablemente marcadas.
  • España es el país más atacado por deepfakes, el pasaporte de los Emiratos Árabes Unidos es el documento más falsificado a nivel mundial, y América Latina es la región donde el fraude aumentó en todos los países.
  • Las tarjetas de identificación siguen siendo las más explotadas para el fraude de identidad, representando casi el 75% de todas las actividades fraudulentas relacionadas con documentos de identidad.
  • Los medios de comunicación en línea son la industria con el mayor aumento de fraude de identidad.

Por ejemplo, en Filipinas, los intentos de fraude aumentaron en un 4.500% respecto al año anterior, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, es probable que los intentos de fraude mediante deepfakes se expandan a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, señala que «hemos observado cómo los deepfakes se han vuelto cada vez más convincentes en los últimos años, y esto solo continuará y se ramificará hacia nuevos tipos de fraudes, como se ha visto con los deepfakes de voz».

Aunque la creación de deepfakes en sí misma no constituye un delito, muchos gobiernos están adoptando regulaciones más estrictas en el uso de la IA para prevenir daños a las partes involucradas. Además, alrededor de 400 expertos en IA y tecnología han suscrito una carta abierta el mes pasado, instando a los gobiernos de todo el mundo a tomar medidas enérgicas contra los deepfakes.

El informe concluye con predicciones para el próximo año en cuanto a verificación de identidad, así como pautas para la prevención del fraude proporcionadas por expertos. Entre las predicciones se incluyen un énfasis en la verificación no documental, un aumento de las reglas más estrictas en los medios de comunicación en línea y un cambio en la posesión de datos de identidad hacia un almacenamiento local obligatorio.

Libros electrónicos de baja calidad escritos con Inteligencia Artificial inundan el mercado de Kindle Amazon

Grady, Constance. «Amazon Is Filled with Garbage Ebooks. Here’s How They Get Made.» Vox, 16 de abril de 2024. https://www.vox.com/culture/24128560/amazon-trash-ebooks-mikkelsen-twins-ai-publishing-academy-scam.


El artículo explora cómo se generan los libros electrónicos de baja calidad que inundan el mercado de Amazon, describiendo una combinación de inteligencia artificial, esquemas para hacerse rico rápidamente y un perjuicio total para los consumidores confundidos. Lo que ilustra cómo la explotación de la inteligencia artificial y la ausencia de regulación han facilitado la propagación de libros de baja calidad, teniendo un impacto negativo tanto en los escritores como en los lectores.

Es tan difícil para la mayoría de los autores ganarse la vida con su escritura que a veces perdemos de vista cuánto dinero hay que ganar con los libros, si solo pudiéramos ahorrar costos en el proceso laborioso y que consume mucho tiempo de escribirlos.

Internet, sin embargo, siempre ha sido un puerto seguro para aquellos con planes de innovar esa molesta parte de escribir un libro fuera de la publicación de libros real. En internet, es posible copiar texto de una plataforma y pegarlo en otra sin problemas, compartir archivos de texto, construir vastas bases de datos de libros robados. Si quisieras diseñar un lugar específicamente para piratear y monetizar libros de manera rastrera, sería difícil hacerlo mejor que internet tal como ha existido durante mucho tiempo.

Ahora, la IA generativa ha hecho posible crear imágenes de portada, esquemas e incluso texto con solo hacer clic en un botón. La IA ha creado un mundo donde los utopistas tecnológicos sueñan abiertamente con eliminar la parte humana de escribir un libro — cualquier cantidad de arte o artesanía o incluso solo esfuerzo puro — y reemplazarla con corrientes de texto generadas por máquina; como si poner el trabajo de escribir fuera un juego para tontos; como si importara si lo que estás leyendo es o no un sinsentido solo para elitistas. El futuro es ahora, y está lleno de libros basura que nadie se molestó realmente en escribir y que ciertamente nadie quiere leer.

La parte más triste de todo esto, sin embargo, es que los libros basura en realidad no ganan tanto dinero. Incluso es posible perder dinero generando tu libro electrónico de baja calidad para venderlo en Kindle por 0.99$. La forma en que la gente gana dinero en estos días es enseñando a los estudiantes el proceso de hacer un libro basura. Es estafa y basura, y las personas que finalmente salen perdiendo son los lectores y escritores que aman los libros.

Hoy en día, el paisaje de la publicación de libros electrónicos basura está totalmente saturado de estafadores. Hay blogs que hablan sobre la industria, pero tienden a ser sitios sensacionalistas plagados de palabras clave de SEO y enlaces de afiliados que se citan entre ellos. Prácticamente cada parte del mundo de las estafas de autopublicación que se puede automatizar o monetizar se ha automatizado y monetizado. Según los blogs de la época, uno de los maestros más infames era un hombre que se hacía llamar Luca de Stefani, o Big Luca. La leyenda decía que tenía el récord mundial de ganar más dinero usando Kindle Publishing en un solo día. Aunque Luca no inventó esta fórmula. Lo aprendió del curso OG de estafa de autoedición K Money Mastery, ahora aparentemente extinto, donde sobresalió.

Para la estafa de la autoedición, las buenas reseñas son cruciales. Cuantas más reseñas de cinco estrellas tenga un libro, más probable es que el algoritmo de Amazon lo empuje hacia los lectores. Si principalmente estás publicando libros basura, no vas a obtener toneladas de reseñas de cinco estrellas de manera orgánica. El grupo de Facebook de Big Luca les dio a los estafadores un lugar para ofrecer intercambios de reseñas de cinco estrellas o vender reseñas de cinco estrellas por 0.99$ cada una. Según el algoritmo de Amazon, no había diferencia entre ese tipo de reseña y la que podría dejar un lector real. Los resultados fueron extremadamente lucrativos.

Cómo se hacen los libros basura

El caso de estudio de cómo se hacen los libros basura comienza con el curso ofrecido por los hermanos Mikkelsen en el dominio Publishing.com cuyo titular es «Donde la edición se encuentra con los beneficios. Ayudamos a personas sin experiencia empresarial ni tecnológica a crear y publicar libros que se venden». Su presentación de ventas dura dos horas y es un video de Christian en una habitación oscura, mostrando capturas de pantalla de cheques de regalías de sus estudiantes y repitiendo que ya es rico; no tiene que mostrar cómo ganar ese dinero. Christian ofrece enseñar a producir un libro sin necesidad de escribirlo, utilizando inteligencia artificial (IA) para generar el esquema del libro, ahorrando semanas de investigación. Aunque Amazon refuerza las regulaciones contra textos generados puramente por IA, los Mikkelsen anuncian su nuevo programa de IA, Publishing.ai, que promete escribir un manuscrito aún más rápido que un escritor fantasma. Bajo su modelo, los estudiantes tienen acceso a rastreadores de palabras clave y luego envían el esquema generado por IA a un escritor fantasma por una tarifa. Además, los Mikkelsen prometen enseñar a contratar narradores de audiolibros y a conseguir reseñas de cinco estrellas. Aunque nada de esto es ilegal, es éticamente cuestionable, según las normas de la industria editorial.

En última instancia, el timo explota cada faceta del proceso de creación y venta de libros, capitalizando los aspectos laboriosos y socavando el significado cultural de los libros como artefactos significativos y enriquecedores. El resultado es una proliferación de archivos digitales con forma de libro carentes de sustancia, perpetuando un ciclo de explotación y desilusión en el mundo literario.

Ello ilustra cómo la explotación de la inteligencia artificial y la ausencia de regulación han facilitado la propagación de libros de baja calidad, teniendo un impacto negativo tanto en los escritores como en los lectores.

La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

CANGURU: directrices éticas y de divulgación para el uso de inteligencia artificial generativa en la investigación académica

Cacciamani, Giovanni, Michael Eppler, Conner Ganjavi, Asli Pekcan, Brett Biedermann, Gary Collins, y Inderbir Gill. «Development of the ChatGPT and generative artificial intelligence natural large language models for accountable reporting and use (cangaru) guidelines», 27 de junio de 2023. https://doi.org/10.17605/OSF.IO/9Y5NW.

Ver guidelines

CANGARU es una iniciativa interdisciplinaria que busca establecer estándares éticos y de divulgación para el uso de inteligencia artificial generativa y modelos de lenguaje natural en la investigación académica. Su objetivo es promover el uso responsable de estas tecnologías mediante la colaboración con instituciones y desarrollar directrices coherentes y universales. Se enfoca en crear criterios para prácticas éticas y transparentes en el ámbito académico.

La iniciativa ChatGPT, Inteligencia Artificial Generativa y Modelos de Lenguaje Natural para el Reporte y Uso Responsable (CANGARU) con el objetivo de establecer un consenso interdisciplinario sobre el uso responsable, divulgación y guía para el reporte del uso de GAI/GPTs/LLM en el ámbito académico. Trabajando colaborativamente con individuos, organizaciones regulatorias académicas y editoriales, se mitigará de manera efectiva la posible confusión o guías conflictivas que podrían surgir cuando varios grupos trabajan independientemente en la misma tarea. A su vez, esto asegurará que cualquier recomendación sea coherente, completa y universalmente aplicable, promoviendo el uso responsable de esta poderosa tecnología.

El objetivo general de las directrices CANGARU es establecer prácticas recomendadas comúnmente compartidas y transdisciplinares para el uso de GAI/GPTs/LLM en el ámbito académico de la siguiente manera:

a. La Lista de Criterios ‘NO HACER’: Será una guía integral que tiene como objetivo asegurar el uso ético y adecuado de GAI/GPTs/LLM en la investigación académica. Cubrirá cada paso del proceso académico, desde (pero no limitado a) la generación de hipótesis de investigación, la conducción del estudio y el análisis de datos (incluida la codificación), la creación de imágenes, la interpretación de hallazgos y la redacción, revisión, refinamiento y edición del manuscrito. Esta lista servirá como un recurso valioso para los investigadores, proporcionando orientación sobre qué evitar a lo largo de las diferentes etapas del proceso de investigación. Al identificar y resaltar posibles obstáculos y preocupaciones éticas, la Lista de Criterios ‘NO HACER’ ayudará a los investigadores a navegar el uso de GAI/GPTs/LLM de manera responsable y con integridad.

b. La Lista de Criterios de Divulgación: Proporcionará orientación para que los investigadores divulguen de manera transparente su uso de GAI/GPTs/LLM en la investigación académica, mejorando la transparencia, la responsabilidad y permitiendo una mejor evaluación de los hallazgos de investigación. Se enfatiza la importancia de qué y cómo divulgar, fomentando la responsabilidad y abordando los posibles riesgos y limitaciones asociados con esta tecnología.

c. La Lista de Criterios de Reporte: Proporcionará una lista de verificación de recomendaciones para garantizar el reporte completo y transparente de GAI/GPTs/LLM cuando se utilicen como intervenciones en estudios científicos. Considerará todos los aspectos importantes que deben reportarse en el manuscrito científico para mejorar la transparencia, mejorar la reproducibilidad, estandarizar las prácticas de reporte, reducir la interpretación errónea, apoyar los procesos de revisión por pares y editoriales, y facilitar la síntesis de investigación y la traducción del conocimiento.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.

El oscuro mundo de los carteles de citación

The Chronicle of Higher Education. «Opinion | The Dark World of ‘Citation Cartels’», 6 de marzo de 2024. https://www.chronicle.com/article/the-dark-world-of-citation-cartels.


En el complejo panorama de la investigación contemporánea, el lema «publicar o perecer» ha evolucionado gradualmente hacia un mantra diferente: «Se citado o tu carrera se verá perjudicada». Las citas son la nueva moneda académica y las carreras ahora dependen firmemente de esta forma de reconocimiento académico. De hecho, la citación se ha vuelto tan importante que ha impulsado una nueva forma de engaño: redes clandestinas diseñadas para manipular citas.

Los investigadores, impulsados por el imperativo de asegurar impacto académico, recurren a la formación de anillos de citas: círculos colaborativos diseñados para aumentar artificialmente la visibilidad de su trabajo. Al hacerlo, comprometen la integridad del discurso académico y socavan los fundamentos de la búsqueda académica. La historia del moderno «cartel de citas» no es solo resultado de la presión de publicación. El surgimiento de las mega revistas también juega un papel, al igual que las revistas depredadoras y los esfuerzos institucionales por sobresalir en las clasificaciones académicas globales.

En la última década, el panorama de la investigación académica ha sido significativamente alterado por el gran número de académicos que participan en empresas científicas. El número de académicos que contribuyen a publicaciones indexadas en matemáticas se ha duplicado, por ejemplo. En respuesta a la creciente demanda de espacio en publicaciones científicas, una nueva generación de emprendedores editoriales ha aprovechado la oportunidad, y el resultado es el surgimiento de mega revistas que publican miles de artículos anualmente. Mathematics, una revista de acceso abierto producida por el Multidisciplinary Digital Publishing Institute, publicó más de 4.763 artículos en 2023, lo que representa el 9.3 por ciento de todas las publicaciones en el campo, según Web of Science. Tiene un factor de impacto de 2.4 y una medida de influencia de artículos de solo 0.37, pero, crucialmente, está indexada por Web of Science de Clarivate, Scopus de Elsevier y otros indexadores, lo que significa que sus citas cuentan hacia una variedad de métricas profesionales. (En comparación, Annals of Mathematics, publicada por la Universidad de Princeton, contenía 22 artículos el año pasado, y tiene un factor de impacto de 4.9 y una medida de influencia de artículos de 8.3.)

Las mega revistas prosperan en la era del acceso abierto, proporcionando una plataforma conveniente para investigadores ansiosos por ver su trabajo publicado y ampliamente leído. Sin barreras de pago, los artículos en esas revistas pueden compartirse (y citarse) fácilmente. La revista gana «cargos por procesamiento de artículos» (APCs) pagados por los autores de un artículo o sus instituciones, con tarifas que suelen rondar en las cuatro cifras bajas en dólares estadounidenses por artículo. Los anillos de citas, que han existido durante décadas, ahora explotan los procesos de revisión por pares rápidos y fáciles de las mega revistas para canalizar miles de referencias a sus colaboradores. El resultado es una distorsión de los índices de citas académicas y los puntajes de factor de impacto que permiten que la erudición mediocre parezca mucho más influyente de lo que es, por el precio correcto para la revista, por supuesto.

Una métrica de citas importante objetivo para los juegos de manipulación es la prestigiosa lista de «Highly Cited Researchers» de Clarivate. «De la población mundial de científicos y científicos sociales, los Investigadores Altamente Citados™ son 1 de cada 1.000», explica Clarivate. La inclusión en la lista ocurre primero a través de la actividad de citación: «Cada investigador seleccionado ha sido autor de múltiples artículos altamente citados™ que se clasifican en el 1% superior por citaciones para su(s) campo(s)». Esa lista luego se «refina utilizando análisis cualitativo y juicio experto». En general, el sello Highly Cited Researchers de Clarivate es reconocido por la comunidad investigadora como un marcador de influencia.

La lista de investigadores altamente citados también alimenta un indicador en el Ranking de Shanghái, una clasificación académica de universidades mundiales. En un intento por obtener visibilidad internacional, las instituciones no siempre se oponen a que sus miembros de la facultad encuentren atajos para el reconocimiento académico, incluso aquellos que involucran prácticas de citas dudosas. El atractivo de subir en las tablas de clasificación internacionales

Google Books está indexando libros basura generados por inteligencia artificial

Maiberg ·, Emanuel. «Google Books Is Indexing AI-Generated Garbage». 404 Media, 4 de abril de 2024. https://www.404media.co/google-books-is-indexing-ai-generated-garbage/.

Google Books está indexando libros generados por inteligencia artificial (IA) de baja calidad que aparecerán en los resultados de búsqueda, lo que podría afectar al visor de Ngram de Google, una herramienta importante utilizada por investigadores para rastrear el uso del lenguaje a lo largo de la historia.

Se encontraron libros generados por IA mediante la búsqueda de la frase «As of my last knowledge update» en Google Books. Algunos de estos libros son sobre ChatGPT, aprendizaje automático, inteligencia artificial y temas relacionados, pero la mayoría parecen ser generados por IA y no tratan sobre IA.

Estos libros generados por IA son similares a los encontrados en Amazon, y muchos de ellos están presentes en ambas plataformas. Una preocupación es la posible inclusión de estos textos generados por IA en el visor de Ngram de Google, lo que podría alterar significativamente los resultados.

Google afirmó que ninguno de los libros generados por IA identificados actualmente afecta los resultados del visor de Ngram. Sin embargo, no confirmaron si filtrarán estos libros en el futuro o si tienen una política para hacerlo.

El director de investigación del Instituto de Investigación en IA Distribuida (DAIR) señaló que esto podría crear un ciclo de retroalimentación, donde el contenido generado por IA se utiliza para entrenar nuevos modelos de IA.

La inclusión de libros generados por IA en Google Books plantea preocupaciones sobre la calidad de los resultados de búsqueda y la integridad de herramientas de investigación importantes como el visor de Ngram de Google.

Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos

Penabad-Camacho, Liana, Maria Morera, y María Amalia Penabad-Camacho. «Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos», 16 de marzo de 2023. https://repositorio.una.ac.cr/handle/11056/27431.

Este documento introduce el concepto de Inteligencia Artificial (IA) y su impacto en la ciencia, proponiendo una reestructuración de los métodos tradicionales de investigación y publicación. Destaca la importancia de la transparencia en el uso de la IA y su congruencia con los estándares de comunicación científica. El objetivo principal es proporcionar orientación para el reporte del uso de la IA en la publicación científica, dirigido a editores, revisores y autores.

Se incluyen definiciones clave, como la de «prompts» y «prompt net», así como diagramas para conceptualizar su uso. La guía se divide en tres partes: una dirigida a editores y equipos editoriales, otra a revisores y la tercera a autores, ofreciendo recomendaciones específicas para cada uno de estos roles en relación con el uso ético y transparente de la IA en el proceso de comunicación del conocimiento científico.

Se enfatiza que el objetivo final del uso de la IA debe ser el bien común y la mejora de la calidad de vida, destacando la importancia de mitigar sesgos y desinformación. Además, se reconoce que la IA es un fenómeno en constante evolución, por lo que se sugiere la necesidad de futuras actualizaciones de la guía y sus conceptos para adaptarse a los avances tecnológicos y científicos.