Desbloqueo de datos del Pacto Verde: enfoques innovadores para la gobernanza y el intercambio de datos en Europa

Ponti, M., Maccani, G., Portela, M., Pierri, P. et al., Unlocking Green Deal data – Innovative approaches for data governance and sharing in Europe, Maccani, G.(editor) and Thabit Gonzalez, S.(editor), Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2760/0517622

El informe Unlocking Green Deal Data: Innovative Approaches for Data Governance and Sharing in Europe analiza enfoques innovadores para gestionar y compartir datos en apoyo a los objetivos del Pacto Verde Europeo. Basándose en el marco político y legal de la Estrategia Europea de Datos (2020) y en la creación de espacios comunes de datos europeos, el informe examina la gobernanza y el intercambio de datos relacionados con el Pacto Verde, enfocándose en nuevos instrumentos regulatorios, como la Ley de Gobernanza de Datos y la Ley de Datos.

Se analizan los incentivos y desincentivos actuales para el intercambio de datos, el papel de los intermediarios de datos y las organizaciones de altruismo de datos, así como prácticas de gobernanza relacionadas con los datos generados por los ciudadanos (CGD). Además, incluye perspectivas del sector privado y presenta recomendaciones para apoyar la revisión de la Directiva INSPIRE (2007), en el contexto del espacio común de datos del Pacto Verde Europeo, fomentando un ecosistema de datos más justo y sostenible.

La desaparición de la cultura: un informe sobre nuestro frágil patrimonio cultural

Vanishing Culture: A Report on Our Fragile Cultural Record, edited by Luca Messarra, Chris Freeland and Juliya Ziskina.

Texto completo

Los ataques informáticos, que han afectado a instituciones como el Internet Archive, la Biblioteca Británica y otras bibliotecas de Norteamérica, también amenazan la preservación de la cultura digital, interfiriendo con la infraestructura que la protege. El informe aboga por la necesidad de fortalecer el papel de las bibliotecas y archivos públicos, otorgándoles respaldo legal, cultural y financiero, para garantizar el acceso a nuestro legado cultural en el futuro.

En los últimos días de preparación del informe, el Internet Archive sufrió un ataque de denegación de servicio distribuido (DDoS) que dejó sus servicios fuera de línea durante cuatro días, recuperándose luego de manera provisional. Este incidente refleja una tendencia alarmante: los ciberataques contra bibliotecas e instituciones de memoria. Además del Internet Archive, otras bibliotecas como la Biblioteca Británica y la Biblioteca Pública de Seattle también han sido atacadas, y la Biblioteca Pública de Calgary tuvo que cerrar incluso sus sedes físicas debido a uno de estos incidentes.

Estas amenazas no solo interrumpen el acceso, sino que ponen en peligro los sistemas que garantizan la preservación de nuestro conocimiento. La pérdida de acceso a las colecciones digitales, aunque sea temporal, tiene graves implicaciones: interrumpe la investigación, frena el acceso público a la información y crea vacíos en la memoria pública. Un usuario en X señaló la ironía de este ataque, realizado en medio de un huracán, conflictos bélicos y elecciones en EE. UU.

Este ataque subraya la fragilidad de nuestro paisaje digital. Ante estas crecientes amenazas, se hace evidente la necesidad de investigar cómo proteger mejor las bibliotecas digitales y sus archivos culturales, cuya preservación es crucial en una era de cultura en constante desaparición.

El informe Vanishing Culture: A Report on Our Fragile Cultural Record analiza cómo los intereses corporativos y los cambios en la distribución de medios limitan el acceso público a su propio registro cultural. La proliferación de contenido digital a través de plataformas de streaming y licencias temporales, en lugar de la propiedad permanente, pone en riesgo que grabaciones, libros, programas de televisión y películas desaparezcan de las plataformas sin ser archivados. Esto implica que la expresión cultural queda a merced de los conglomerados mediáticos.

El informe está dividido en dos partes. La primera, “Preservación de Medios y la Construcción de la Memoria Pública,” explora el impacto de este cambio hacia el streaming y la pérdida de propiedad, destacando estudios sobre la pérdida digital y materiales preservados por el Internet Archive. Se incluye una revisión histórica sobre la pérdida cultural en cine y música, y se sugiere que los individuos tomen acción para ayudar a crear un ecosistema mediático accesible y duradero.

La segunda parte, “Narrativas de Preservación y Pérdida Cultural,” ofrece ensayos de académicos y defensores de la preservación, quienes destacan por qué es crucial preservar medios específicos, como las historias laborales de las mujeres (por medio de libros de cocina y redes sociales) y materiales educativos antiguos. Estas narrativas subrayan que solo a través de actos intencionados de preservación se podrán recordar estos elementos culturales.

En conjunto, el informe insta a reconocer la importancia de la preservación y el acceso para el bien público, y aboga por cambios necesarios para proteger nuestro patrimonio físico y digital.

Definición «oficial» de Inteligencia Artificial (IA) de código abierto

The open source ai definition 1.0. Open Source Initiative, 2024

Ver

Se presenta la primera definición oficial de inteligencia artificial de código abierto, conocida como Open Source AI Definition (OSAID), elaborada por la Open Source Initiative (OSI). Esta definición surge de años de colaboración con académicos e industriales y tiene como objetivo establecer un estándar claro que permita identificar si un modelo de IA es realmente de código abierto.

Una de las principales motivaciones para esta definición es alinear a los legisladores y desarrolladores de IA, especialmente en un contexto donde organismos como la Comisión Europea están considerando un reconocimiento especial para el código abierto. Según Stefano Maffulli, vicepresidente de la OSI, el objetivo es que, al haber consenso, se reduzcan las confusiones sobre lo que se considera realmente «código abierto».

Para que un modelo de IA se considere de código abierto bajo la OSAID, debe proporcionar suficiente información sobre su diseño, de manera que cualquier persona pueda recrearlo sustancialmente. Esto incluye detalles sobre los datos de entrenamiento, su origen y cómo se pueden obtener o licenciar. Maffulli enfatiza que un modelo de IA de código abierto debe permitir a los usuarios entender completamente su construcción y modificarlo libremente.

Sin embargo, la OSI no cuenta con mecanismos de cumplimiento para obligar a los desarrolladores a seguir la OSAID. Su intención es señalar aquellos modelos que se etiquetan como “código abierto” pero que no cumplen con la definición. La OSI espera que la comunidad de IA no reconozca modelos mal etiquetados, lo que podría llevar a correcciones en el uso del término.

A pesar de la participación de grandes empresas tecnológicas, como Meta, en la elaboración de la OSAID, muchas de estas han sido criticadas por no cumplir con sus criterios. Por ejemplo, Meta requiere licencias especiales para usar sus modelos Llama, lo que contradice la esencia de ser “código abierto”. La situación es similar con otras empresas, donde los modelos se presentan como abiertos, pero con restricciones significativas.

El artículo también destaca que un estudio reciente encontró que muchos modelos de “código abierto” son en realidad solo nominalmente abiertos, ya que mantienen en secreto datos de entrenamiento y requieren recursos computacionales que son inaccesibles para muchos desarrolladores. Esto sugiere que, en lugar de democratizar la IA, estos proyectos pueden consolidar el poder centralizado.

Además, hay voces críticas, como la de Meta, que argumentan que la OSAID no aborda adecuadamente las complejidades de los modelos de IA modernos. Meta defiende su enfoque cauteloso en cuanto a la divulgación de datos de entrenamiento, alegando que esto es necesario para evitar implementaciones dañinas.

El artículo también menciona que la OSAID no aborda cuestiones de derechos de autor y licencias de datos de entrenamiento, lo que podría limitar su efectividad. Maffulli reconoce que la definición necesitará revisiones y actualizaciones, y la OSI ha creado un comité para supervisar su aplicación y proponer enmiendas en el futuro.

En resumen, la OSAID representa un avance significativo en la clarificación de lo que constituye la inteligencia artificial de código abierto, pero aún enfrenta desafíos y críticas que deberán abordarse para que sea realmente efectiva y útil en la práctica.

Por qué es importante recordar que la IA no es humana

Millière, Raphaël, y Charles Rathkopf. «Why It’s Important to Remember That AI Isn’t Human.» Vox, 23 de noviembre de 2023. https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding.

Desde su lanzamiento, ChatGPT ha suscitado opiniones polarizadas en la comunidad científica. Algunos expertos consideran que representa un avance hacia una superinteligencia que podría transformar o incluso amenazar la civilización. Otros, sin embargo, lo ven como un desarrollo técnico que, aunque impresionante, no va más allá de la capacidad de completar textos de manera avanzada. Esta disparidad de opiniones refleja una falta de consenso sobre cómo entender realmente estas tecnologías.

Tradicionalmente, la competencia lingüística ha sido vista como un signo de una mente racional. Los modelos de lenguaje, al mostrar habilidades que superan incluso las de los humanos en algunos aspectos, han desafiado esta noción. Millière y Rathkopf sugieren que al interactuar con estos modelos, la impresión de que están “pensando” o “comprendiendo” puede ser engañosa. Esto plantea un dilema filosófico: ¿hemos perdido el vínculo entre el lenguaje y la mente, o han surgido nuevas formas de cognición?

El artículo también destaca cómo los humanos manejamos la ambigüedad en la conversación, algo que los modelos de lenguaje aún no pueden replicar completamente. Cuando interactuamos con un chatbot, nuestra mente intenta adivinar las intenciones del «hablante», pero esto puede llevarnos a errores si asumimos que el modelo tiene deseos o motivaciones humanas. Este aspecto revela la complejidad del lenguaje humano y la forma en que nuestros cerebros interpretan significados en contextos específicos.

Los autores advierten sobre los peligros de la antropomorfización, es decir, atribuir características humanas a las máquinas. Un ejemplo citado es el caso de LaMDA, donde un ingeniero tomó en serio la afirmación del modelo de que deseaba libertad. Esto ilustra cómo las expectativas erróneas sobre la naturaleza de los modelos de lenguaje pueden inducir a la confusión y a una comprensión incorrecta de sus capacidades. La antropomorfización puede llevar a malentendidos que obstaculizan un debate informativo sobre la ética y la regulación de la IA.

El antropocentrismo también se critica en el artículo, ya que implica que solo las capacidades humanas son dignas de reconocimiento. Este punto de vista puede limitar la comprensión de lo que los modelos de lenguaje pueden hacer. Por ejemplo, la habilidad de un modelo para resumir textos no debe ser descalificada como un simple truco, sino que debe ser considerada como un logro en su propia forma de procesamiento de información. Rechazar este enfoque puede llevar a un subestimación del potencial de la inteligencia artificial.

Millière y Rathkopf sugieren adoptar un enfoque de “dividir y conquistar”, similar al utilizado en la psicología comparativa. En lugar de clasificar a los modelos de lenguaje como simplemente «humanos» o «no humanos», se debe investigar cómo operan y cuáles son sus capacidades específicas. Este enfoque podría abrir nuevas vías para entender la inteligencia artificial y evitar las limitaciones de las comparaciones directas con la mente humana.

En última instancia, el artículo aboga por una comprensión más matizada de los modelos de lenguaje, reconociendo sus capacidades sin caer en la trampa de pensar que tienen una mente en el sentido humano. La investigación futura debería centrarse en desentrañar los mecanismos internos que permiten el funcionamiento de estos modelos, adoptando una perspectiva científica que no dependa de los estándares humanos. Este análisis no solo es importante para la regulación y la ética en torno a la IA, sino también para la forma en que interactuamos con estas tecnologías en nuestra vida cotidiana. La aceptación de que no existe un «hecho profundo» sobre si estos modelos tienen o no mente puede ayudarnos a utilizar mejor sus capacidades sin las confusiones que surgen de su similitud en la comunicación.

TikTok publicará libros físicos a través de su empresa editorial 8th Note Press.

«TikTok’s Innovative New Idea: Printing Books on Paper», A. O. L. 26 de octubre de 2024. https://www.aol.com/tiktoks-innovative-idea-printing-books-135910213.html.

TikTok, a plataforma conocida por su comunidad de amantes de los libros llamada «BookTok», está dando un paso innovador al incursionar en la publicación de libros físicos a través de su empresa editorial, 8th Note Press. Tras el éxito rotundo de BookTok, que ha impulsado notablemente las ventas de libros, ByteDance, la empresa matriz de TikTok, ha decidido colaborar con Zando, una editorial independiente, para lanzar una línea de novelas impresas a partir de 2025.

Esta nueva estrategia de publicación se centrará en géneros populares en TikTok, como el romance y la ficción juvenil. Jacob Bronstein, director editorial y de marketing de 8th Note Press, expresó su entusiasmo por la colaboración, destacando que permitirá ampliar su alcance y ofrecer libros en diversos formatos. Zando también enfatiza su compromiso de presentar voces diversas que resuenen con los lectores de las generaciones millennial y Z.

El fenómeno de BookTok ha catapultado a la fama tanto a autores noveles como consagrados, como es el caso de Colleen Hoover, cuya novela «It Ends with Us» experimentó un incremento del 650% en ventas después de volverse viral en TikTok. Ahora, TikTok busca anticiparse a las tendencias en línea para publicar libros en respuesta a los intereses de sus usuarios.

8th Note Press planea publicar entre 10 y 15 libros al año, reflejando las experiencias diversas de su audiencia juvenil. Autores emergentes, como Sanibel, están emocionados por esta nueva oportunidad y reconocen el carácter innovador de la editorial, que se encuentra en una etapa de crecimiento.

Preprints revisados por pares y el modelo Publish-Review-Curate (PRC)

Bourguet, D. ; Guillemaud, T. «Peer-reviewed preprints and the Publish-Review-Curate model | Plan S». Accedido 29 de octubre de 2024. https://www.coalition-s.org/blog/peer-reviewed-preprints-and-the-publish-review-curate-model/.

El modelo tradicional de publicación científica enfrenta críticas crecientes por ser lento, poco transparente y controlado por un número limitado de editores y revisores. Este modelo, en el que los artículos pueden tardar meses o años en ser evaluados y aceptados para su publicación, ha sido señalado como ineficiente y, en algunos casos, obsoleto. En este contexto, han surgido alternativas como los preprints revisados por pares y el modelo Publish-Review-Curate (PRC), que buscan hacer el proceso de publicación más accesible, abierto y rápido.

Entre las alternativas emergentes se encuentran los preprints revisados por pares, en los que los autores suben versiones preliminares de sus artículos a servidores públicos antes de ser revisados formalmente. Esto permite que sus resultados estén disponibles de inmediato, acelerando la difusión del conocimiento. En la modalidad de preprints revisados, servicios especializados llevan a cabo la revisión formal de estos documentos y publican las evaluaciones de manera abierta. Ejemplos de estos servicios incluyen Review Commons, PREreview y Peer Community In (PCI), los cuales permiten que los lectores accedan tanto al artículo como a los comentarios de expertos en el campo, proporcionando una perspectiva crítica adicional.

El modelo Publish-Review-Curate (PRC) agrega una fase de curación que va más allá de la revisión. A diferencia del modelo de preprints revisados, el modelo PRC organiza los artículos en colecciones seleccionadas, que se presentan en revistas o plataformas específicas. La curación actúa como un filtro adicional que resalta aquellos artículos que cumplen con ciertos estándares de calidad, dándoles una mayor visibilidad. Sin embargo, esta curación no implica necesariamente una validación formal, sino que funciona como una recomendación de lectura para quienes estén interesados en el tema. Un ejemplo de este enfoque es el de eLife, donde los artículos se publican primero como preprints y, tras la revisión, no se les asigna una decisión de “aceptación” o “rechazo” tradicional, sino que se publican junto a revisiones y evaluaciones editoriales cualitativas.

Estos modelos alternativos, aunque ofrecen transparencia y accesibilidad, también introducen ambigüedades en torno a los conceptos de revisión y curación. Por un lado, la revisión por pares no siempre equivale a una validación; muchas veces, los lectores asumen que un artículo revisado por pares ha sido validado científicamente, cuando en realidad no siempre es así. Las revisiones brindan críticas constructivas, pero no necesariamente una evaluación concluyente, lo cual puede confundir a lectores menos familiarizados con el proceso. Por otro lado, la curación tampoco implica validación. Aunque se asocia con la selección de artículos destacados, no necesariamente significa que estos hayan pasado por una evaluación exhaustiva, lo cual puede inducir a error si el lector asume que todos los artículos curados son de alta calidad.

Para abordar estas ambigüedades, Peer Community In (PCI) propone un enfoque de validación binaria en el que cada artículo revisado recibe una decisión clara de «aceptación» o «rechazo». Este enfoque permite ofrecer a los lectores una señal inequívoca sobre la calidad y relevancia del artículo, lo que reduce el riesgo de malinterpretaciones sobre su nivel de validación. Dentro de este marco, PCI sugiere dos variantes del modelo PRC: en el primero, la curación implica validación (Publish-Review-Curate=Validate); en el segundo, la validación ocurre antes de la curación (Publish-Review=>Validate-Curate), lo que da al artículo ya validado una visibilidad adicional.

Comparado con el sistema tradicional, el modelo PRC con validación binaria ofrece diversas ventajas: elimina los largos retrasos al hacer los preprints públicos de inmediato; promueve la transparencia al hacer accesibles las revisiones; fomenta la equidad mediante criterios de evaluación abiertos; y permite una mayor diversidad de evaluadores, introduciendo múltiples perspectivas y reduciendo la centralización del proceso en un pequeño grupo de editores.

En conclusión, el modelo Publish-Review-Curate, especialmente cuando incorpora una validación binaria, se presenta como una alternativa robusta y transparente al modelo de publicación científica tradicional. A medida que estos modelos se ajusten y perfeccionen, es probable que ganen terreno dentro del ecosistema de investigación, proporcionando una respuesta a las limitaciones del sistema tradicional y ofreciendo mayor accesibilidad, rapidez y transparencia en la publicación científica.

Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto

Research Transformation: Change in the Era of AI, Open and Impact. Digital Science, 2024

Texto completo

El informe Research Transformation: Change in the Era of AI, Open and Impact, publicado el 28 de octubre de 2024 en Digital Science, explora cómo la investigación se transforma, qué factores impulsan el cambio y cómo se ven afectados los roles en este ámbito. Digital Science encuestó y entrevistó en profundidad a la comunidad investigadora para analizar estos aspectos.

Los hallazgos destacan cinco puntos clave:

  1. La investigación abierta transforma el campo, aunque persisten barreras.
  2. Las métricas de investigación evolucionan hacia un enfoque inclusivo y de impacto integral.
  3. La IA ofrece un enorme potencial transformador, aunque la burocracia y las brechas de habilidades limitan su avance.
  4. La colaboración aumenta, aunque crecen las preocupaciones sobre financiamiento y seguridad.
  5. La gestión de riesgos y la seguridad exigen un cambio estratégico y cultural.

El estudio se basa en encuestas realizadas entre mayo y julio de 2024, en las que participaron 380 personas de 70 países, y en entrevistas en profundidad con 15 miembros de la comunidad académica durante el verano de 2024.

Temas clave:

1. La investigación abierta está transformando la investigación, pero sigue habiendo obstáculos

  • La investigación abierta se cita como el cambio más positivo de los últimos cinco años
  • La investigación abierta encabeza los cambios que la comunidad desearía ver en los próximos cinco años
  • Los retos de la investigación abierta son la falta de concienciación, financiación, apoyo, recursos e infraestructura.
  • Preocupación por la seguridad de los datos, la calidad de la investigación y la competitividad.

2. Las métricas de investigación están evolucionando para hacer hincapié en el impacto holístico y la inclusividad

  • Frustración con las métricas tradicionales, pero siguen teniendo peso
  • Llamamiento a una evaluación más holística del impacto y la calidad de la investigación
  • Un cambio limitado hacia un uso más responsable de las métricas tradicionales y la introducción de métricas alternativas
  • Los institutos abordan los problemas de la cultura académica, pero necesitan un mayor reconocimiento de las contribuciones no tradicionales

3. El potencial transformador de la IA es enorme, pero la burocracia y las carencias de cualificación amenazan el progreso

  • El entusiasmo por la IA se ve atenuado por las preocupaciones en torno a la ética, la seguridad y la integridad, así como por los prejuicios, las alucinaciones y el impacto de la IA en el pensamiento crítico.
  • Las tecnologías emergentes seguirán influyendo en las funciones durante los próximos cinco años
  • Se espera que las nuevas tecnologías impulsen la eficiencia en datos y análisis, y abran la investigación
  • Llamamiento para abordar las carencias de competencias en IA e introducir estrategias de gestión del cambio

4. La colaboración está en auge, pero aumenta la preocupación por la financiación y la seguridad

  • La tecnología interconectada y la investigación abierta favorecen una mayor conectividad global
  • La colaboración tiene múltiples beneficios, por ejemplo, puede aumentar las citas y mejorar la calidad de la investigación
  • Es fácil encontrar colaboradores, pero escasean los fondos para apoyar la colaboración
  • Crece la preocupación por la seguridad de la investigación y las colaboraciones «perjudiciales

5. La seguridad y la gestión de riesgos necesitan una revisión estratégica y cultural

  • Tendencia a «esperar y ver», en lugar de una gestión proactiva
  • Las amenazas a la seguridad ponen en peligro las colaboraciones internacionales en investigación
  • Las instituciones deben equilibrar el riesgo y la innovación, pero no están preparadas.
  • La gestión de riesgos entra en conflicto con otras prioridades

Alfabetizaciones Digitales Críticas: un recurso de acceso abierto diseñado para apoyar tanto a profesionales de la información como a educadores.

#DLFteach Toolkit Volume 4: Critical Digital Literacies” DLF’s Digital Library Pedagogy Group, 2024

Texto completo


Volume 1 #DLFteach Toolkit 1.0
#DLFteach Toolkit

Volume 2: Lesson Plans on Immersive Pedagogy#DLFteach Toolkit

Volume 3: Lesson Plans for Literacy and Competency Driven Digital Scholarship Instruction#DLFteach Toolkit

Volume 4: Critical Digital

Con un enfoque temático en las alfabetizaciones digitales críticas, este volumen ofrece planes de lecciones y materiales didácticos adaptables que ayudan a los estudiantes a desarrollar las habilidades necesarias para consumir y crear información en un entorno digital, así como el pensamiento crítico necesario para comprender y cuestionar los sistemas de información y sus estructuras de poder subyacentes. Destaca tanto los resultados basados en habilidades como el pensamiento contextual, revelando las desigualdades y sesgos estructurales de muchas herramientas digitales.

Los instructores que utilicen este toolkit aprenderán estrategias para promover la inclusión, la accesibilidad y la pedagogía digital en sus prácticas de enseñanza, ayudando a los estudiantes a interactuar de manera reflexiva con las tecnologías emergentes y a desarrollar estrategias para corregir las desigualdades de uso e impacto.

Cada lección incluye objetivos de aprendizaje, preparación y un esquema de la sesión. Materiales adicionales, como diapositivas, guías, evaluaciones y conjuntos de datos, están disponibles en el repositorio DLF OSF y enlazados desde cada lección.

Web of Science ha suspendido temporalmente la indexación de la revista eLife debido a su modelo de publicación innovador que incluye revisión por pares pública

Brainard, Jeffrey. «Web of Science Index Puts eLife ‘On Hold’ Because of Its Radical Publishing ModelScience, October 24, 2024. https://www.science.org/content/article/web-science-index-puts-elife-hold-because-its-radical-publishing-model.

Web of Science ha suspendido la inclusión de la revista eLife debido a su nuevo modelo de publicación, que se implementó en enero de 2023. Este modelo incluye la revisión por pares pública sin una decisión final sobre la aceptación o rechazo de los manuscritos, lo que entra en conflicto con los estándares de calidad de Web of Science. Esta decisión podría comprometer el factor de impacto (IF) de eLife, un indicador controvertido que mide la calidad de una revista en función del promedio de citas a sus artículos.

La dirección de eLife expresó su decepción por la decisión de Clarivate, la empresa matriz del Web of Science, al considerar que frena los esfuerzos por mejorar la publicación y la revisión por pares utilizando principios de ciencia abierta. A pesar de que Clarivate no ha señalado artículos de eLife como de baja calidad, ha indicado preocupaciones sobre la falta de una decisión editorial basada en la validación de la revisión por pares.

eLife, una revista sin fines de lucro centrada en las ciencias biológicas, busca desafiar la dominancia del IF como medida de calidad y ha implementado su nuevo modelo como un experimento para combatir las ineficiencias del sistema de publicación científica, como los largos retrasos y la falta de transparencia. Este modelo exige a los autores una tarifa de 2500$ por artículo y permite que las revisiones, sean positivas o negativas, se publiquen junto con el manuscrito para su lectura gratuita.

Desde su implementación, el modelo ha generado un debate sobre la viabilidad financiera de eLife y su capacidad para atraer a científicos. Aunque el total de envíos disminuyó en un 25% en comparación con el mismo período del año anterior, más del 90% de los autores eligieron el nuevo modelo de publicación. La revista prevé anunciar pronto un nuevo informe sobre sus tendencias de crecimiento, que parecen prometedoras este año.

Clarivate ha suspendido recientemente otras revistas, como Science of the Total Environment de Elsevier, Cureus, y Heliyon, y eliminó 11 títulos en su última actualización, incluidos Multimedia Tools and Applications y Environmental Science and Pollution Research de Springer Nature, citando también problemas de calidad.

Lo que los adolescentes piensan realmente sobre la IA

Hausenloy. J. Gulati, S. The 2024 Generation AI Survey.

La encuesta “Generation AI” realizada en 2024, en la que participaron 1,017 adolescentes estadounidenses de entre 13 y 18 años, proporciona una visión detallada sobre cómo perciben los jóvenes la inteligencia artificial (IA) y los riesgos asociados.

La encuesta Generation AI de 2024, realizada por el Center for Youth and AI, muestra que los adolescentes estadounidenses consideran la inteligencia artificial (IA) una influencia central en sus vidas actuales y futuras, con opiniones claras sobre sus riesgos y aplicaciones. Un 80% de los adolescentes encuestados ve importante que los legisladores aborden los riesgos de la IA, una preocupación que se posiciona por encima de problemas como la desigualdad social (78%) y el cambio climático (77%), aunque solo superada por el acceso a la atención médica (87%).

Entre los principales riesgos mencionados, el 57% de los adolescentes expresó preocupación por el avance de la IA, el 59% teme la desinformación generada por esta tecnología, y el 58% se inquieta por la proliferación de deepfakes. Asimismo, un 47% teme que una IA avanzada pueda escapar del control humano.

A pesar de estas inquietudes, los jóvenes se muestran generalmente abiertos al uso de la IA en la creación de obras artísticas, cinematográficas y musicales, con un 57% a favor y solo un 26% en contra, lo que refleja una baja preocupación por el impacto de la IA en la propiedad intelectual. Además, la IA influye en sus planes profesionales: el 65% considera la automatización por IA en sus decisiones de carrera, mostrando su conciencia sobre el impacto de esta tecnología en el mercado laboral.

En cuanto a las relaciones personales, los adolescentes muestran rechazo hacia las relaciones románticas entre humanos e IA, con un 68% en contra, aunque se muestran divididos respecto a la aceptación de amistades con IA (46% a favor y 44% en contra).

Las opiniones expresadas por los adolescentes revelan tanto entusiasmo como precaución frente a la IA, reflejando una generación consciente de las implicaciones de la tecnología en sus vidas.

Puntos clave:

  1. Preocupación por los riesgos de la IA: El 80% de los jóvenes considera importante que los legisladores aborden los riesgos de la IA, poniéndola solo por detrás del acceso y la asequibilidad de la atención médica (87%).
  2. Preocupación por la IA avanzada: El 57% está algo o muy preocupado por los riesgos de la IA avanzada, y el 45% cree que podría representar un riesgo de extinción para la humanidad.
  3. Desinformación y deepfakes: Un 59% está preocupado por la desinformación generada por IA, un 58% por los deepfakes, y un 51% por la vigilancia masiva a través de IA. El 47% teme que una IA avanzada escape del control humano.
  4. Uso de herramientas de IA: Aproximadamente la mitad de los encuestados usa herramientas como ChatGPT varias veces por semana o más, mientras que un 18% las usa unas pocas veces al mes y un 35% rara vez o nunca.
  5. IA en la planificación de carreras: Un 65% considera la automatización por IA al planificar sus carreras, mostrando conciencia sobre su impacto en el empleo.
  6. Apoyo a obras creativas generadas por IA: El 57% está a favor de obras artísticas generadas por IA, mientras que solo un 26% se opone, indicando baja preocupación por su impacto en la propiedad intelectual.
  7. Relaciones con IA: El 68% considera inaceptables las relaciones románticas entre humanos e IA, pero las opiniones están más divididas en cuanto a amistades, con un 46% a favor y un 44% en contra.