Archivo de la etiqueta: Plagio

El Impacto de la IA en la publicación de libros: ¿Una Amenaza o una oportunidad?

Esquire. «Is AI the Bitter End—or the Lucrative Future—of Book Publishing?», 9 de julio de 2024. https://www.esquire.com/entertainment/books/a61485201/books-ai-lawsuits/.

Mientras la ley lucha por ponerse al día con la tecnología, el futuro de los libros está en juego. ¿Están los escritores condenados por «el mayor robo en la historia creativa» o podría la IA ofrecer nuevas formas de ganarse la vida?

Cuando la autora R.O. Kwon se enteró de que su primera novela, The Incendiaries, formaba parte del conjunto de datos Books3 utilizados para entrenar modelos de IA generativa, se sintió violada. Ella y otros autores expresaron su indignación en las redes sociales contra las empresas tecnológicas que habían «monitoreado» internet para obtener datos sin el consentimiento ni compensación para los creadores. Los libros, que llevaron años de trabajo, fueron utilizados para enseñar a los modelos de IA a crear «nuevo» contenido.

Douglas Preston, un autor de best-sellers, describe esto como «el mayor robo en la historia creativa» y es uno de los demandantes en una denuncia colectiva presentada contra Microsoft y OpenAI. Los escritores alegan que estas empresas violaron la ley de derechos de autor al utilizar sus libros para entrenar modelos de IA. Las empresas tecnológicas argumentan que entrenar sus modelos con contenido protegido por derechos de autor es similar a que una persona lea libros para mejorar su escritura. La decisión podría depender de la definición de «uso justo» en la ley.

La industria editorial ya está cambiando debido a la IA generativa. Aunque algunas voces en la industria creen que la IA podría ofrecer nuevas oportunidades para los escritores, también existe el temor de que pueda desplazar el trabajo humano. Mary Rasenberger, CEO de Authors Guild, señala que la IA que puede reproducir contenido similar al que ingirió representa una amenaza existencial para la profesión de escritor y la industria editorial.

La encuesta más reciente de Authors Guild encontró que el ingreso medio de los autores en 2022 fue de solo 20.000$, lo que subraya la precariedad de la profesión. La plataforma Kindle Direct Publishing de Amazon ha permitido un auge en la autoedición, pero también ha facilitado la proliferación de libros falsos y de baja calidad. En respuesta a esto, Amazon ha impuesto un límite diario de tres libros para los autores en su plataforma.

La creación de contenido con IA es barata porque las empresas no están pagando por las fuentes de datos de alta calidad, como los libros. El punto de las demandas contra OpenAI y Microsoft es asegurar una compensación para el uso de los libros que ya fueron ingeridos y para futuras contribuciones. Algunos proponen un sistema de licencias inspirado en la industria de la música, pero su ejecución aún no está clara.

Empresas como Inkitt y Galatea están utilizando IA generativa para identificar contenido atractivo y publicarlo en capítulos que los lectores compran individualmente. Aunque estas innovaciones están cambiando la forma en que se crean y distribuyen los libros, también plantean serias preguntas sobre la sostenibilidad para los escritores y la integridad del proceso creativo.

En 2013, Ali Albazaz fundó Inkitt como una plataforma para compartir escritos entre amigos. Para 2019, la compañía lanzó Galatea, una aplicación que presenta la ficción más popular de Inkitt, habiendo acumulado más de 100,000 autores y un millón de usuarios. Albazaz y su equipo utilizaron una IA tradicional (no generativa) para analizar el comportamiento de los usuarios y identificar el contenido más atractivo, publicando luego esas novelas en Galatea en capítulos que los lectores compran individualmente. Jane Friedman, ex CEO de HarperCollins, se unió a la junta de la compañía en 2021.

Empresas de capital de riesgo, como Kleiner Perkins, NEA y Khosla Ventures, han invertido más de cien millones de dólares en la compañía que Albazaz describe como «el Disney del siglo XXI». Cada tres a cuatro semanas, la compañía tiene un nuevo éxito, definido por Albazaz como una novela que genera un millón de dólares en ventas. Galatea se centra actualmente en novelas de romance y fantasía, con planes de expandirse a otros géneros apoyados por Inkitt.

Con IA generativa, Galatea puede ofrecer versiones en audio de las historias existentes y permitir a los lectores personalizar las historias a su gusto. Esto incluye cambiar nombres de personajes o añadir tramas, similar a la fanfiction. Los autores originales reciben regalías por estas adaptaciones.

La plataforma ofrece a los autores la posibilidad de ganar dinero mediante suscripciones de los lectores en Inkitt, y regalías si sus libros llegan a Galatea. Los autores más exitosos han ganado cantidades significativas, como 36.000 dólares en tres meses y hasta 115.000 dólares en un mes.

Por otro lado, Sudowrite, fundada por James Yu y Amit Gupta en 2020, también utiliza IA generativa para ayudar a los escritores a crear y revisar sus obras. Sudowrite ha atraído a unos 15.000 usuarios de pago, principalmente novelistas. La empresa utiliza diversos modelos de IA, incluyendo GPT-3, y está desarrollando uno que se ajuste específicamente a la voz de cada escritor.

Las obras generadas por IA existen en una zona legal gris: no son susceptibles de derechos de autor, pero las obras asistidas por IA pueden serlo. Amazon requiere que los autores indiquen si sus libros son generados por IA, pero no si son asistidos por IA. La regulación de este ámbito está aún en desarrollo.

Las grandes editoriales están explorando el uso de la IA para mejorar la productividad y crear audiolibros traducidos, pero todavía no se interesan por utilizarla para escribir libros completos. Sin embargo, existe preocupación entre los escritores de que la proliferación de contenido generado por IA y la falta de compensación adecuada por el uso de su trabajo para entrenar modelos de IA puedan dificultarles aún más la vida.

La Asociación de Agentes Literarios de América sugiere que los autores incluyan cláusulas en sus contratos para proteger su trabajo del uso sin consentimiento en el entrenamiento de IA. Sin embargo, estas cláusulas no siempre son aceptadas por las editoriales.

El impacto de la IA generativa en el tipo de libros que se publican también es un tema de debate. La presión económica podría dificultar la inversión en obras más complejas y profundas, afectando no solo a los autores, sino también a los lectores y la cultura en general. La interpretación legal de «uso justo» y si estos modelos «transforman» el trabajo en el que se entrenan será crucial para el futuro de la IA en la literatura.

Hacia una edición responsable: conclusiones de una consulta mundial a las partes interesadas

Chiarelli, A., Cox, E., Johnson, R., Waltman, L., Kaltenbrunner, W., Brasil, A., Reyes Elizondo, A., & Pinfield, S. (2024). «Towards Responsible Publishing»: Findings from a global stakeholder consultation. Zenodo. https://doi.org/10.5281/zenodo.11243942

Este informe detalla los resultados de una consulta global con la comunidad investigadora sobre la propuesta de “Towards Responsible Publishing” (TRP) («Hacia una Publicación Responsable»). La consulta, realizada por Research Consulting y el Centro de Estudios de Ciencia y Tecnología de la Universidad de Leiden (CWTS), involucró a más de 11,600 participantes de todo el mundo entre noviembre de 2023 y mayo de 2024. Los resultados muestran un amplio apoyo a los principios del TRP, como la publicación de preprints, la revisión por pares abierta y las licencias abiertas. Además, se destaca la necesidad de colaboración global para cambiar los mecanismos de reconocimiento y recompensa en la investigación y redirigir el gasto hacia prácticas más responsables.

Las fabricas de artículos contamina la ciencia: ¿qué pueden hacer los bibliotecarios al respecto?»

Brundy, C., & Thornton, J. B. (2024). The paper mill crisis is a five-alarm fire for science: What can librarians do about it? Insights, 37(1). https://doi.org/10.1629/uksg.659



La crisis de las fábricas de artículos, que está contaminando la literatura académica con artículos falsos, ha llevado a un número récord de retracciones de artículos y continúa erosionando la confianza en la ciencia. Aunque los editores y otros interesados en la publicación académica se han movilizado para abordar esta grave amenaza a la integridad de la investigación y la publicación, la acción de la comunidad bibliotecaria ha sido insuficiente. Este artículo explora el impacto continuo de la crisis de las fábricas de artículos y sus causas. También revisa las medidas que se están tomando en todo el sector para abordarla. Esto incluye acciones emprendidas por editores, investigadores de integridad y organizaciones como Retraction Watch, NISO y STM. Basándose en la gravedad de la crisis y la respuesta actual, este artículo recomienda acciones que las bibliotecas pueden tomar para ayudar a abordar la crisis y limpiar el desorden que las fábricas de artículos han creado en la literatura académica. En un momento de creciente desconfianza y amenazas crecientes para la sociedad, es crucial que todos los interesados en la publicación académica, incluidos los bibliotecarios, ayuden a mantener la integridad de la publicación y restaurar la confianza en la ciencia.

Una cuarta parte de los ensayos clínicos podrían ser problemáticos o incluso totalmente inventados

Van Noorden, Richard. «Medicine Is Plagued by Untrustworthy Clinical Trials. How Many Studies Are Faked or Flawed?» Nature 619, n.o 7970 (18 de julio de 2023): 454-58. https://doi.org/10.1038/d41586-023-02299-w.

Las investigaciones sugieren que, en algunos campos, al menos una cuarta parte de los ensayos clínicos podrían ser problemáticos o incluso totalmente inventados, advierten algunos investigadores. Instan a un mayor escrutinio.

¿Cuántos estudios de ensayos clínicos publicados en revistas médicas son falsos o contienen errores fatales? En octubre de 2020, John Carlisle publicó una sorprendente estimación. El anestesista John Carlisle, conocido por detectar datos dudosos en ensayos médicos, revisó más de 500 estudios durante tres años y encontró que el 26% tenía problemas tan graves que no se podían confiar, lo que él llamó «ensayos zombis». Estos ensayos, que se asemejan a la investigación real pero son huecos, pueden pasar desapercibidos sin acceso a los datos individuales de los participantes.

Por ello, se sugiere que los editores de revistas revisen los datos de los participantes antes de publicar ensayos controlados aleatorios. La preocupación por la integridad de la investigación también se extiende a otras áreas médicas, como la salud de la mujer, la anestesiología y la COVID-19, donde se han encontrado numerosos ensayos sospechosos.

Los problemas con los ensayos falsificados o poco confiables plantean serias amenazas, ya que pueden influir en las decisiones médicas y distorsionar el conocimiento científico. Aunque se están realizando más estudios para evaluar la magnitud del problema, la detección y corrección de ensayos problemáticos sigue siendo un desafío importante para la comunidad científica.

Wiley cerró 19 revistas científicas a raíz de problemas con las llamadas «fábricas de artículos» con inteligencia artificial

Claburn, Thomas. «Wiley Shuts 19 Scholarly Journals amid AI Paper Mill Problem». Accedido 21 de mayo de 2024. https://www.theregister.com/2024/05/16/wiley_journals_ai/.

Wiley cerró 19 revistas científicas a raíz de problemas con «fábricas de artículos» con inteligencia artificial. Estas revistas pertenecían a su subsidiaria Hindawi, centro de un escándalo de publicación académica.

En diciembre de 2023 Wiley anunció que dejaría de utilizar la marca Hindawi, adquirida en 2021, tras su decisión en mayo de 2023 de cerrar cuatro de sus revistas «para mitigar la manipulación sistemática del proceso de publicación» Se descubrió que las revistas de Hindawi estaban publicando artículos provenientes de «fábricas de artículos» (Papel Mills), organizaciones que intentan manipular el proceso de publicación académica con fines financieros. En respuesta a esto, Wiley ha retiró más de 11.300 artículos de su cartera de Hindawi. La preocupación por la integridad de la investigación académica no se limita a las publicaciones de Wiley, ya que estudios sugieren que hasta una cuarta parte de los ensayos clínicos pueden ser problemáticos o completamente fabricados.

Según un preprint publicado en febrero, el volumen de artículos enviados a ArXiv aumentó considerablemente en las tres categorías principales entre 2019 y 2023, un período que coincide aproximadamente con la puesta a disposición del público de herramientas como ChatGPT. Los artículos de ciencias de la computación aumentaron un 200 por ciento durante estos cuatro años, seguidos por los artículos de física (45 por ciento) y matemáticas (22 por ciento).

Como se describe en un libro blanco de Wiley publicado el pasado diciembre, «Tackling publication manipulation at scale: Hindawi’s journey and lessons for academic publishing», las fábricas de artículos recurren a diversas prácticas contrarias a la ética, como el uso de inteligencia artificial en la fabricación de manuscritos y la manipulación de imágenes, así como la manipulación del proceso de revisión por pares.

La creciente disponibilidad y sofisticación de la inteligencia artificial generativa está facilitando estas prácticas. Wiley ha implementado una nueva tecnología de detección para identificar artículos con posibles usos indebidos de la inteligencia artificial generativa antes de su publicación. «El sector reconoce que las editoriales utilizan la IA para generar contenidos fraudulentos», explica el portavoz de Wiley. «Recientemente hemos introducido una nueva tecnología de cribado que ayuda a identificar artículos con un potencial mal uso de la IA generativa antes del punto de publicación».

Las editoriales académicas, sin embargo, parecen apoyar los beneficios de la ayuda de la IA a la redacción sin sus inconvenientes. Springer Nature, por ejemplo, lanzó el pasado mes de octubre «Curie», un asistente de escritura basado en IA para ayudar a los científicos cuya lengua materna no es el inglés. De ahí las peticiones de mejores herramientas para detectar los resultados generativos de la IA, una petición a la que han respondido los recientes esfuerzos por mejorar la marca de agua de los contenidos de IA, que según algunos investigadores no funcionará.

Aunque Wiley caracterizó el cierre de las 19 revistas como parte de su plan anunciado previamente para integrar las carteras de Hindawi y Wiley, y distinto del problema de las fábricas de artículos, este incidente destaca los desafíos en la integridad de la investigación académica frente a la proliferación de prácticas fraudulentas facilitadas por la inteligencia artificial.

Mientras tanto, el informe de ganancias del tercer trimestre fiscal de 2024 de Wiley, el editor indicó que se anticipa que los ingresos de su división de aprendizaje se sitúen en el extremo superior de las proyecciones, debido a «acuerdos de derechos de contenido del cuarto trimestre para el entrenamiento de modelos de IA».

El gobierno chino intensifica medidas contra el fraude académico


Steele, Evie. «Chinese Government Cracks Down on Academic Fraud.» Voice of America, March 11, 2024. https://flip.it/qVLrXn.

China está intensificando su lucha contra el fraude en la investigación académica tras revelaciones en enero de que editoriales habían retractado miles de trabajos de académicos chinos en los últimos años. Sin embargo, observadores señalan que abordar este problema será difícil debido a su amplia prevalencia.

Según la revista científica Nature, en 2023 se retractaron aproximadamente 14.000 artículos de revistas en inglés, tres cuartas partes de los cuales tenían coautores chinos. El Ministerio de Educación de China ha exigido a las universidades que presenten una lista completa de artículos académicos retractados en los últimos tres años para auditar el alcance del fraude.

Aunque los resultados de la revisión del Ministerio de Educación aún no se han publicado, académicos y estudiantes chinos afirman que el problema es generalizado. Parte del problema radica en la facilidad con la que se puede pagar a escritores fantasma para que realicen investigaciones y publiquen en revistas de baja calidad. Sun Fugui, exestudiante de posgrado en la Universidad de Ludong, comentó que tanto estudiantes como profesores utilizan estos servicios.

Otro problema es que las revistas científicas chinas de bajo nivel frecuentemente publican investigaciones fraudulentas sin verificar su calidad. Yang Ningyuan, exdirector de un instituto de investigación en la Universidad de Zhengzhou, mencionó que ha recibido numerosas ofertas para publicar artículos a cambio de dinero.

Analistas creen que la naturaleza política de la investigación en China es en parte responsable de los problemas de integridad académica. Yun Sun, del think tank Stimson Center, señaló que la transparencia y libertad en los intercambios académicos están fuertemente controladas por el estado en China, lo que dificulta la verificación de datos fabricados.

Perry Link, profesor en la Universidad de California, Riverside, comentó que el volumen de investigaciones fabricadas refleja la indiferencia de los funcionarios hacia la verdad. La intervención política en la investigación también desanima a los investigadores a producir trabajos de alta calidad.

Zhang Mingxin, un estudiante universitario en Beijing, mencionó que el fraude académico y la politización de los datos hacen que la investigación sea muy difícil. La estricta censura gubernamental complica la búsqueda de datos, especialmente en temas sensibles.

Yun Sun concluyó que las universidades chinas quedarán rezagadas respecto a otras universidades globales debido a sus problemas de integridad académica no resueltos. El Ministerio de Educación aún no ha presentado un plan para abordar estas preocupaciones.

Guía necesaria para el uso de la inteligencia artificial en la detección de conductas impropias en las presentaciones de artículos a revistas científicas

Hosseini, Mohammad, y David B Resnik. «Guidance Needed for Using Artificial Intelligence to Screen Journal Submissions for Misconduct». Research Ethics, 11 de mayo de 2024, 17470161241254052. https://doi.org/10.1177/17470161241254052.

Las revistas y editoriales están utilizando cada vez más la inteligencia artificial (IA) para examinar las presentaciones en busca de posibles conductas impropias, incluido el plagio y la manipulación de datos o imágenes.

Si bien el uso de la IA puede mejorar la integridad de los manuscritos publicados, también puede aumentar el riesgo de acusaciones falsas/no fundamentadas. Las ambigüedades relacionadas con las responsabilidades de las revistas y editoriales con respecto a la equidad y transparencia también plantean preocupaciones éticas.

En el presente artículo, se proporciona la siguiente guía:

    • Todos los casos de conducta impropia sospechosa identificados por herramientas de IA deben ser revisados cuidadosamente por humanos para verificar la precisión y garantizar la responsabilidad;
    • Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben utilizar solo herramientas bien probadas y confiables, permanecer vigilantes con respecto a formas de conducta impropia que no pueden ser detectadas por estas herramientas y mantenerse al tanto de los avances en tecnología;
    • Las revistas/editoriales deben informar a los autores sobre irregularidades identificadas por herramientas de IA y darles la oportunidad de responder antes de enviar acusaciones a sus instituciones de acuerdo con las pautas del Comité de Ética de Publicaciones;
    • Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben examinar todas las presentaciones relevantes y no solo presentaciones seleccionadas al azar/intencionalmente; y
    • Las revistas deben informar a los autores sobre su definición de conducta impropia, su uso de herramientas de IA para detectar conductas impropias y sus políticas y procedimientos para responder a casos sospechosos de conducta impropia.

    TikTok comenzará a etiquetar el contenido generado por IA para combatir la desinformación


    TikTok ha anunciado que comenzará a etiquetar contenido creado utilizando inteligencia artificial cuando se cargue desde fuera de su propia plataforma, como parte de su esfuerzo para combatir la desinformación.

    La compañía afirma que si bien la IA ofrece oportunidades creativas increíbles, puede confundir o engañar a los espectadores si no saben que el contenido fue generado por IA. Por lo tanto, la etiqueta ayudará a proporcionar claridad sobre el origen del contenido. TikTok ya etiqueta contenido generado por IA creado con efectos de IA de TikTok, y ha requerido a los creadores que etiqueten contenido realista generado por IA durante más de un año.

    Esta medida de TikTok forma parte de un esfuerzo más amplio en la industria tecnológica para proporcionar más salvaguardias para el uso de la IA. Meta anunció en febrero que estaba trabajando con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de inteligencia artificial. Los usuarios de Facebook e Instagram verían etiquetas en imágenes generadas por IA. Google también anunció el año pasado que las etiquetas de IA llegarían a YouTube y otras plataformas.

    Este impulso hacia el «marcado de agua digital» y la etiquetación del contenido generado por IA también fue parte de una orden ejecutiva que el presidente de Estados Unidos, Joe Biden, firmó en octubre.

    TikTok espera que esta medida ayude a fortalecer la confianza del usuario y a reducir la propagación de desinformación en su plataforma.

    Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


    «AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

    Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

    Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

    Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

    El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

    Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

    Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

    El crecimiento explosivo del fraude impulsado por la IA: Deepfakes

    Statista Daily Data. «Infografía: El explosivo crecimiento del fraude impulsado por la IA», 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

    La proliferación de videos, fotos y grabaciones de audio engañosas, generadas con sistemas de inteligencia artificial (IA), ha alcanzado proporciones alarmantes en diversas plataformas de internet.

    Desde imágenes de Donald Trump posando con votantes negros hasta el Papa luciendo una chaqueta estilo puffer, estos contenidos manipulados pueden hacer que parezca que figuras prominentes en la política o el entretenimiento expresen ideas o acciones que nunca han realizado.

    Además de su uso para crear contenido falso, esta tecnología también facilita la comisión de fraudes de identidad, ya sea mediante la fabricación de documentos falsificados o usurpando la identidad de personas a través de llamadas telefónicas. Entre 2022 y 2023, los casos de fraude vinculados a deepfakes se han disparado en numerosos países alrededor del mundo, como lo revela nuestro análisis basado en el informe anual más reciente del proveedor de verificación de identidad Sumsub.

    Entre los hallazgos clave del estudio se destacan:

    • Un aumento significativo de 10 veces en el número de deepfakes detectados globalmente en todas las industrias entre 2022 y 2023, con diferencias regionales notablemente marcadas.
    • España es el país más atacado por deepfakes, el pasaporte de los Emiratos Árabes Unidos es el documento más falsificado a nivel mundial, y América Latina es la región donde el fraude aumentó en todos los países.
    • Las tarjetas de identificación siguen siendo las más explotadas para el fraude de identidad, representando casi el 75% de todas las actividades fraudulentas relacionadas con documentos de identidad.
    • Los medios de comunicación en línea son la industria con el mayor aumento de fraude de identidad.

    Por ejemplo, en Filipinas, los intentos de fraude aumentaron en un 4.500% respecto al año anterior, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, es probable que los intentos de fraude mediante deepfakes se expandan a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, señala que «hemos observado cómo los deepfakes se han vuelto cada vez más convincentes en los últimos años, y esto solo continuará y se ramificará hacia nuevos tipos de fraudes, como se ha visto con los deepfakes de voz».

    Aunque la creación de deepfakes en sí misma no constituye un delito, muchos gobiernos están adoptando regulaciones más estrictas en el uso de la IA para prevenir daños a las partes involucradas. Además, alrededor de 400 expertos en IA y tecnología han suscrito una carta abierta el mes pasado, instando a los gobiernos de todo el mundo a tomar medidas enérgicas contra los deepfakes.

    El informe concluye con predicciones para el próximo año en cuanto a verificación de identidad, así como pautas para la prevención del fraude proporcionadas por expertos. Entre las predicciones se incluyen un énfasis en la verificación no documental, un aumento de las reglas más estrictas en los medios de comunicación en línea y un cambio en la posesión de datos de identidad hacia un almacenamiento local obligatorio.