Entrevista a la poeta y profesora María Ángeles Pérez López. Planeta Biblioteca 23/10/2024

Entrevista a la poeta y profesora María Ángeles Pérez López.

Planeta Biblioteca 23/10/2024

ESCUCHAR EL PROGRAMA

Entrevista a la Poeta María Ángeles Pérez López María Ángeles Pérez López, destacada poeta, editora y profesora española, aborda temas recurrentes en su obra como la corporeidad y la experiencia femenina, destacando cómo estos han evolucionado a lo largo de su carrera. Además, reflexiona sobre la influencia de ciertos libros y poemas en su desarrollo poético, así como la evolución de su estilo hasta su más reciente obra, «Libro mediterráneo de los muertos», ganadora de importantes premios.

Los editores se unen a una coalición mundial para condenar el robo de la autoría por parte de las empresas tecnológicas para la alimentación de la IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP», 22 de octubre de 2024.

Fuente

El 22 de octubre de 2024, la Asociación de Editores de Estados Unidos (AAP) se unió a una coalición global formada por más de 10.000 creadores, incluidos autores, músicos, actores, artistas y fotógrafos, para denunciar el uso indebido de obras creativas e intelectuales por parte de grandes empresas tecnológicas para entrenar sus modelos de IA generativa. Esta práctica, según la coalición, implica la copia, ingestión y regeneración de obras como libros, periódicos, canciones y otras expresiones artísticas sin el consentimiento de sus creadores, lo que representa una violación de los principios fundamentales de derechos de autor.

Los modelos de IA generativa, que permiten a los usuarios acceder a herramientas avanzadas que pueden producir contenido nuevo basado en información previamente existente, se han vuelto muy populares en el ámbito de los consumidores. Sin embargo, según la coalición, estas tecnologías no podrían existir sin las obras originales de creadores humanos, cuyas producciones han sido utilizadas sin autorización en el desarrollo de estos sistemas. El uso indebido de dichas obras pone en peligro la propiedad intelectual de los creadores, quienes invierten tiempo, esfuerzo y recursos en generar contenido original.

La AAP, junto con otros socios de la coalición, ha hecho un llamado a los gobiernos y tribunales de todo el mundo para que refuercen los principios esenciales de los derechos de autor, argumentando que cualquier reproducción o creación de obras derivadas debe contar con el consentimiento explícito de los creadores. Estos derechos no solo protegen a los autores, sino que también garantizan la continuidad de las industrias creativas, que son esenciales para el desarrollo de la cultura y la educación.

Maria A. Pallante, presidenta y CEO de la AAP, destacó que los creadores trabajan al servicio del público global, buscando educar, informar e inspirar, mientras que las empresas tecnológicas están utilizando sus obras para generar ganancias sin regulación ni autorización. Pallante también enfatizó que las colaboraciones tecnológicas son valiosas para la industria editorial, pero deben basarse en acuerdos legales y respetuosos, no en la explotación sin control de obras ajenas.

Este es un momento crítico en el desarrollo de políticas sobre inteligencia artificial a nivel global, y los autores, junto con sus editores, exigen que se respeten los derechos de autor para proteger sus contribuciones y su trabajo. La coalición busca asegurar que las políticas de IA generativa tomen en cuenta los derechos de los creadores y establezcan mecanismos claros para la concesión de licencias y el respeto a las obras protegidas por derechos de autor.

El potencial de la IA generativa y la detección, la disciplina y la desconfianza

Dwyer, M. ; Laird, E. Up in the Air Educators Juggling the Potential of Generative AI with Detection, Discipline, and Distrust. e Center for Democracy & Technology (CDT), 2024

Texto completo

Desde finales del curso 2022-23, los educadores han tenido una experiencia distinta con la inteligencia artificial generativa (IA). Las escuelas han aprovechado para reorganizarse y adaptarse tras la rápida aparición de ChatGPT el año anterior. El Centro para la Democracia y la Tecnología (CDT) realizó una encuesta en noviembre y diciembre de 2023 a maestros de secundaria para entender cómo interactúan con esta tecnología y qué apoyo reciben.

En agosto de 2023, el Centro para la Democracia y la Tecnología (CDT) realizó una encuesta para examinar las experiencias y opiniones de maestros, estudiantes y padres sobre varios aspectos de la tecnología, incluida la IA generativa, durante el año escolar 2022-23. Luego, entre noviembre y diciembre de 2023, CDT patrocinó una encuesta dirigida a maestros para analizar cambios en el uso reportado de IA generativa y evaluar el apoyo y la orientación que los maestros están recibiendo por parte de sus escuelas o distritos en el año escolar 2023-24. Para ello, se llevaron a cabo entrevistas en línea a 460 maestros de 6.º a 12.º grado realizadas entre noviembre y diciembre de 2023.

El estudio reveló avances y desafíos:

  • Mayor familiaridad y formación: Aunque ha aumentado el uso de IA generativa y las políticas escolares, persisten riesgos. A muchos maestros les falta orientación sobre el uso responsable por parte de los estudiantes y cómo detectar trabajos generados por IA.
  • Dependencia de herramientas de detección de IA: Los maestros confían cada vez más en estas herramientas, a pesar de que son poco efectivas. Esto podría afectar negativamente a los estudiantes.
  • Aumento en la disciplina estudiantil: Más estudiantes están siendo castigados por el uso de IA, con un riesgo mayor para estudiantes marginados.
  • Desconfianza hacia los estudiantes: Los maestros, especialmente en escuelas que prohíben la IA, siguen siendo más desconfiados respecto a la integridad académica de los estudiantes, lo que también ha resultado en más sanciones disciplinarias.

Las escuelas han avanzado significativamente en la creación de políticas y en proporcionar orientación a los docentes sobre el uso de la IA generativa en un corto periodo. En el año escolar anterior, muchas escuelas aún estaban desorientadas y rezagadas en cuanto a la implementación de normativas sobre IA generativa, y muchos maestros informaban que sus instituciones no tenían políticas claras al respecto. Sin embargo, en el año escolar 2023-24, más docentes reportan que sus escuelas han adoptado políticas y procedimientos, además de ofrecer mayor capacitación y apoyo en relación con el uso de estas herramientas.

  • 80% de los docentes han recibido capacitación formal sobre políticas de uso de IA generativa, un aumento de 37 puntos porcentuales respecto al año pasado.
  • 85% de los maestros afirman que sus escuelas tienen una política que permite o prohíbe el uso de herramientas de IA generativa, como ChatGPT, para tareas escolares, y 71% de ellos indican que es la primera vez que se implementa dicha política en sus instituciones.
  • Las políticas que permiten el uso de IA generativa para tareas casi se han duplicado en comparación con el año anterior (del 31% al 60%).
  • Además, 72% de los maestros afirman que las escuelas han solicitado su opinión sobre las políticas de uso de IA generativa en el aula, un porcentaje superior al de otras tecnologías escolares.

Los maestros se están volviendo cada vez más dependientes de las herramientas de detección de contenido generativo de IA sancionadas por las escuelas, lo cual es problemático ya que investigaciones indican que estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos. Además, la mayoría de los docentes no han recibido orientación sobre cómo actuar si sospechan que un estudiante ha utilizado IA de manera inapropiada.

  • 68% de los maestros informan que utilizan regularmente una herramienta de detección de contenido de IA, lo que representa un aumento de 30 puntos porcentuales en comparación con el año pasado.
  • Solo 25% de los docentes se sienten muy efectivos a la hora de discernir si los trabajos fueron creados por IA o por los estudiantes mismos.
  • El uso de herramientas de detección sancionadas por las escuelas ha aumentado: 78% de los maestros informan que su escuela respalda alguna herramienta de este tipo, en comparación con el 43% del año pasado.

Esta situación genera preocupación, especialmente por el aumento en las sanciones disciplinarias hacia los estudiantes, que será tratado en la si

El aumento en el uso de la IA generativa ha generado un incremento en las sanciones disciplinarias hacia los estudiantes, en parte debido a la falta de capacitación docente y a la creciente dependencia de herramientas de detección de IA, que a menudo son ineficaces. Desde el año escolar pasado, las sanciones por el uso de IA generativa han aumentado un 16%, alcanzando al 64% de los estudiantes sancionados en el ciclo 2023-2024.

  • Herramientas de detección de IA: El uso regular de estas herramientas por los maestros está vinculado a un mayor número de sanciones. Un 72% de los maestros que las usan regularmente informan sobre estudiantes que han enfrentado consecuencias negativas.
  • Desigualdades en la disciplina: Estudiantes que dependen de dispositivos proporcionados por la escuela, así como aquellos de comunidades marginadas (negros, hispanos, rurales y de bajos ingresos), enfrentan mayor riesgo de sanciones.
  • Estudiantes con discapacidades: Los alumnos con planes IEP o 504 reportan un uso más frecuente de IA generativa, lo que, combinado con el mayor uso de herramientas de detección por parte de maestros de educación especial, aumenta el riesgo de acciones disciplinarias para estos estudiantes.

El aumento de estas sanciones plantea preocupaciones sobre las consecuencias educativas negativas, especialmente para poblaciones vulnerables.

Las humanidades digitales en la enseñanza de las literaturas hispánicas: aplicaciones prácticas

Martínez Cantón, Clara I., y Rocío Ortuño Casanova, eds. Las humanidades digitales en la enseñanza de las literaturas hispánicas: Aplicaciones prácticas. Peter Lang International Academic Publishers, 2024.

Texto completo

En este libro se aborda, mediante un recorrido sistemático y detallado, con ejemplos y ejercicios prácticos, diferentes metodologías digitales que nos llevan desde la búsqueda de textos en lengua española en repositorios, su almacenaje, su preparación para el análisis y su análisis con diferentes técnicas.


Integridad Científica e Inteligencia Artificial

CONFERENCIA: Integridad académica e Inteligencia Artificial
Martes 22 de octubre a las 17 h. de España. 9 h. Ciudad de México
con Julio Alonso Arévalo
III Seminario de Integridad Académica y Producción Científica



La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Los detectores de IA acusan falsamente a los alumnos de hacer trampas con graves consecuencias

«AI Detectors Falsely Accuse Students of Cheating—With Big Consequences». Bloomberg.com.18 de octubre de 2024. https://www.bloomberg.com/news/features/2024-10-18/do-ai-detectors-work-students-face-false-cheating-accusations.

Un estudio revela que alrededor de dos tercios de los profesores utilizan regularmente herramientas para detectar contenido generado por IA. Este uso extendido puede llevar a que incluso pequeñas tasas de error se traduzcan en un gran número de acusaciones falsas.

Desde el lanzamiento de ChatGPT hace casi dos años, las escuelas han implementado diversas herramientas de detección para identificar contenido escrito por IA. Los mejores detectores de redacciones con IA son muy precisos, pero no son infalibles. Businessweek probó dos de los principales servicios -GPTZero y Copyleaks- en una muestra aleatoria de 500 redacciones de solicitudes universitarias enviadas a la Universidad A&M de Texas en el verano de 2022, poco antes del lanzamiento de ChatGPT, garantizando así que no habían sido generadas por IA. Los ensayos se obtuvieron a través de una solicitud de registros públicos, lo que significa que no formaban parte de los conjuntos de datos con los que se entrenan las herramientas de IA. Businessweek descubrió que los servicios marcaban falsamente entre el 1% y el 2% de los ensayos como probablemente escritos por IA, y en algunos casos afirmaban tener una certeza cercana al 100%.

Incluso una tasa de error tan pequeña como puede acumularse rápidamente, dado el gran número de trabajos que los estudiantes realizan cada año, con consecuencias potencialmente devastadoras para los estudiantes que son falsamente marcados. Al igual que ocurre con las acusaciones más tradicionales de engaño y plagio, los estudiantes que utilizan IA para hacer sus deberes tienen que rehacer sus tareas y se enfrentan a suspensos y períodos de prueba.

Los más vulnerables a acusaciones erróneas son aquellos que escriben de manera más genérica, como estudiantes no nativos en inglés o aquellos con estilos de escritura más mecánicos. Moira Olmsted, una estudiante de 24 años, fue acusada de utilizar IA para un trabajo en línea en la Universidad Central Methodist, lo que le valió una calificación de cero. La acusación se basó en un detector de IA que había marcado su trabajo como posiblemente generado por inteligencia artificial, a pesar de su estilo de escritura, influenciado por su trastorno del espectro autista. Aunque logró que la calificación fuera cambiada, recibió una advertencia de que futuras detecciones similares serían tratadas como plagio.

Un estudio realizado en 2023 por investigadores de la Universidad de Stanford descubrió que los detectores de IA eran «casi perfectos» cuando comprobaban redacciones escritas por estudiantes de octavo curso nacidos en EE.UU., pero marcaban más de la mitad de las redacciones escritas por estudiantes no nativos de inglés como generadas por IA. Turnitin, una popular herramienta de detección de IA ha declarado que tiene una tasa de falsos positivos del 4% al analizar frases. Turnitin se negó a poner su servicio a disposición para realizar pruebas. En una entrada del blog 2023, la Universidad de Vanderbilt, una de las principales escuelas que desactivaron el servicio de detección de IA de Turnitin por motivos de precisión, señaló que, de lo contrario, cientos de trabajos de estudiantes habrían sido marcados incorrectamente durante el curso académico como escritos en parte por IA. Las empresas de detección de IA insisten en que sus servicios no deben tratarse como juez, jurado y verdugo, sino como un dato para ayudar a informar y orientar a los profesores.

Businessweek también descubrió que los servicios de detección de IA a veces pueden ser engañados por herramientas automatizadas diseñadas para hacer pasar la escritura de IA por humana. Esto podría dar lugar a una carrera armamentística que enfrentara a una tecnología contra otra, dañando la confianza entre educadores y estudiantes con escasos beneficios educativos.

OpenAI ha anunciado recientemente que no lanzará una herramienta para detectar escritos generados por IA, en parte debido a preocupaciones sobre su impacto negativo en ciertos grupos, incluidos los estudiantes que hablan inglés como segunda lengua. Aunque algunas instituciones están reconsiderando el uso de detectores de IA, muchos colegios todavía confían en ellos. Startups de detección de IA han atraído inversiones significativas desde 2019, lo que refleja el aumento del uso de estas tecnologías. Sin embargo, la ansiedad y paranoia en el aula persisten, ya que los estudiantes dedican tiempo a defender la integridad de su trabajo y temen el uso de herramientas de asistencia de escritura comunes.

A pesar de que algunas empresas de detección de IA afirman tener tasas de error bajas, la presión sobre los estudiantes para evitar ser acusados de hacer trampa ha llevado a algunos a modificar sus trabajos, lo que, en muchos casos, ha empeorado su calidad. La situación ha provocado que algunos estudiantes eliminen herramientas como Grammarly de sus dispositivos por miedo a ser marcados como autores de contenido generado por IA. Bloomberg descubrió que utilizar Grammarly para «mejorar» una redacción o «hacer que suene académica» convertirá un trabajo que había pasado de estar escrito al 100% por humanos a estar escrito al 100% por IA.

Educadores y estudiantes consideran que el sistema actual es insostenible, dada la tensión que crea y el hecho de que la IA está aquí para quedarse. Algunos profesores prefieren confiar en su intuición y mantener un diálogo abierto con los estudiantes en lugar de depender de herramientas de detección.

Adopción y barreras en la puesta en común de datos abiertos entre comunidades de investigación física

Holst, Faye. «IOP Publishing Study Reveals Varied Adoption and Barriers in Open Data Sharing among Physical Research Communities». IOP Publishing, 21 de octubre de 2024. https://ioppublishing.org/news/iop-publishing-study-reveals-varied-adoption-and-barriers-in-open-data-sharing-among-physical-research-communities-copy/.

Un estudio realizado por IOP Publishing (IOPP) ha puesto de manifiesto las diferencias en la adopción de la compartición de datos abiertos en las comunidades de investigación en ciencias físicas y las diversas barreras que enfrentan.

El acceso a los datos permite la replicación de la investigación y fortalece la confianza en los resultados. Los principios FAIR se introdujeron en 2016 para estandarizar los metadatos, asignar identificadores persistentes y proporcionar licencias de uso claras, asegurando que los datos de investigación sean fácilmente localizables, accesibles, combinables y reutilizables con la debida atribución.

Desde 2022, IOPP exige a todos los autores que incluyan una declaración de disponibilidad de datos en sus artículos, especificando si y cómo se pueden acceder a los datos que respaldan su investigación. Esta política se amplió en 2023, exigiendo a los autores que no puedan o no deseen compartir sus datos públicamente que expliquen las razones.

El análisis incluyó más de 30,000 artículos de investigación, cuyos hallazgos fueron publicados en el documento de IOPP titulado “Bringing researchers on board: Navigating the barriers to sharing data publicly”.

Hallazgos clave:

  1. Científicos ambientales:
    • Más del 80% comparte sus datos de investigación abiertamente.
    • Casi el 60% sigue los principios de Findability, Accessibility, Interoperability, and Reusability (FAIR).
    • Mayor barrera: restricciones legales relacionadas con la propiedad de datos de terceros.
  2. Físicos:
    • Más del 70% comparte datos de investigación abiertamente.
    • Solo el 18% adhiere a los principios FAIR.
    • Mayor barrera: los formatos de datos son considerados inaccesibles, incluso si están disponibles.
  3. Ingenieros:
    • Solo el 55% comparte sus datos abiertamente.
    • Menos del 8% sigue los principios FAIR.
    • Mayor barrera: falta de un repositorio conocido para enviar datos.
  4. Científicos de materiales:
    • Más del 70% comparte sus datos abiertamente.
    • Solo cerca del 5% sigue los principios FAIR.
    • Mayor barrera: datos confidenciales o sensibles.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Actitudes, hábitos y habilidades de información de los adolescentes

A survey of teen information attitudes, habits and skills. News Literacy in America (2024)

Texto completo

Full Report

Los adolescentes estadounidenses pasan horas cada día desplazándose por plataformas de redes sociales, sumergiéndose en un flujo a menudo confuso de entretenimiento, anuncios, noticias, rumores y teorías de conspiración. Los jóvenes necesitan el conocimiento, las habilidades y los hábitos mentales para evaluar la credibilidad y autenticidad de las noticias y la información que encuentran mientras navegan por este paisaje complejo. De lo contrario, permanecerán en desventaja cívica y personal a lo largo de sus vidas.

Para aprender sobre los comportamientos y mentalidades informativas de los adolescentes, evaluar el estado de la educación en alfabetización informativa e identificar formas de garantizar que los jóvenes se conviertan en pensadores críticos bien informados, el Proyecto de Alfabetización Informativa contrató a SSRS, una firma de investigación de mercado y ciencias sociales de servicio completo, para llevar a cabo una encuesta en línea representativa a nivel nacional, basada en probabilidad, con 1,110 adolescentes de entre 13 y 18 años en mayo de 2024.

Esta investigación tiene como objetivo informar a educadores y responsables de políticas mientras consideran cómo integrar mejor la alfabetización informativa en las escuelas, y ayudar a periodistas e investigadores a comprender mejor las necesidades de los jóvenes en esta área. Este informe actúa como una visión general integral de cómo los adolescentes piensan sobre, experimentan y se relacionan con el paisaje informativo actual.

Cuestiones clave:

Los adolescentes desean que se incluya la educación en alfabetización mediática en su formación, pero la mayoría no la está recibiendo.
Una abrumadora mayoría de adolescentes (94%) afirma que las escuelas deberían estar obligadas a enseñar alfabetización mediática. El 57% apoya firmemente esta idea, afirmando que las escuelas “definitivamente” deberían tener tal requisito, mientras que otro 36% ofrece cierto apoyo, indicando que debería haber un requisito en algunos casos. A pesar del amplio apoyo entre los adolescentes, se encontró poca evidencia de que las escuelas ya estén proporcionando instrucción en alfabetización mediática. Solo el 39% de los adolescentes reporta haber recibido alguna instrucción sobre alfabetización mediática en al menos una clase durante el año escolar 2023-24.

Los adolescentes luchan por distinguir entre diferentes tipos de información.
La mitad de los adolescentes puede identificar un artículo de contenido patrocinado como un anuncio, el 52% puede reconocer un artículo con “comentario” en el titular como una opinión y el 59% puede identificar que los resultados de búsqueda de Google bajo la etiqueta “patrocinado” indican publicidad pagada. Sin embargo, menos de 2 de cada 10 adolescentes (18%) respondió correctamente a las tres preguntas que les pedían distinguir entre diferentes tipos de información. Los resultados no mostraron diferencias significativas entre los grupos de edad, lo que significa que los adolescentes mayores no son generalmente mejores en demostrar esta habilidad fundamental de alfabetización noticiosa que los adolescentes más jóvenes.

Casi la mitad de los adolescentes piensan que la prensa hace más daño a la democracia que la protege.
Poco más de la mitad de los adolescentes (55%) afirma que los periodistas hacen más para proteger la democracia, mientras que el 45% sostiene que los periodistas hacen más daño a la democracia. Dos grupos destacan como particularmente propensos a decir que los periodistas protegen la democracia: los adolescentes que buscan activamente noticias para mantenerse informados (68%) y aquellos con alta confianza en los medios de comunicación (82%).

Acerca de dos tercios de los adolescentes no están preocupados por el fuerte declive en el número de organizaciones de noticias en las últimas décadas.
El 67% de los adolescentes afirma estar poco o nada preocupado por el fuerte declive en el número de organizaciones de noticias en EE. UU. en los últimos 20 años. Entre los adolescentes que no siguen realmente las noticias, el 78% dice estar poco o nada preocupado por este declive. Asimismo, el 74% de aquellos con baja confianza en los medios de comunicación dice lo mismo.

Muchos adolescentes confían al menos algo en los medios de comunicación, pero perciben altos niveles de sesgo en las noticias.
La mayoría de los adolescentes (65%) dio respuestas al menos algo confiadas a las tres preguntas de la encuesta que constituyen nuestro índice de confianza en los medios de comunicación, sin embargo, solo el 8% respondió a las tres preguntas con respuestas confiadas. Los adolescentes que dicen haber tenido al menos alguna instrucción en alfabetización mediática en al menos una clase son especialmente propensos a tener al menos algo de confianza en los medios de comunicación (73% con confianza media o alta). Las dos preguntas que recibieron las respuestas más desconfiadas de los adolescentes fueron sobre el sesgo en los medios de comunicación. Casi 7 de cada 10 adolescentes (69%) creen que las organizaciones de noticias añaden intencionadamente sesgo a la cobertura para avanzar en una perspectiva específica, y 8 de cada 10 dicen que la información que producen las organizaciones de noticias es más sesgada o al menos igual que la de otros creadores de contenido en línea.

La mayoría de los adolescentes en redes sociales se encuentran con teorías de conspiración y están inclinados a creer en alguna de ellas.
Ocho de cada 10 adolescentes en redes sociales afirman que ven publicaciones que difunden o promueven teorías de conspiración, pero la frecuencia de su exposición varía. El 20% de los adolescentes que usan redes sociales reportan ver estas publicaciones en sus feeds diariamente, el 31% semanalmente y el 29% menos de una vez a la semana. Muchas de las teorías de conspiración que los adolescentes reportan ver van más allá de supersticiones inofensivas e incluyen narrativas como la creencia de que la Tierra es plana, que las elecciones de 2020 fueron manipuladas o robadas, y que las vacunas contra COVID-19 son peligrosas. Aunque los adolescentes en redes sociales no están necesariamente inclinados a creer en cada teoría de conspiración que encuentran, una abrumadora mayoría de quienes reportan haber visto una teoría de conspiración en redes sociales (81%) dice estar inclinada a creer en una o más de ellas.

Pocos adolescentes son usuarios regulares de tecnologías de inteligencia artificial generativa y muchos son escépticos sobre la información que producen.
Menos de una cuarta parte de los adolescentes (23%) dice usar chatbots de IA generativa, como ChatGPT, Gemini o Copilot, una vez a la semana o más. Aún menos adolescentes (9%) reportan usar generadores de imágenes de IA, como DALL-E, Midjourney, DreamStudio o Gemini, una vez a la semana o más. Estos hallazgos desafían la noción de que las herramientas de IA ya han revolucionado la forma en que los jóvenes abordan el trabajo escolar. Al preguntar si confían en que los chatbots de IA generativa produzcan información precisa y justa, muchos adolescentes mostraron escepticismo. Solo el 36% de los adolescentes reporta tener al menos una cantidad razonable de confianza en estas herramientas para generar información precisa, mientras que la mitad de los adolescentes reporta tener poca o ninguna confianza en la precisión y justicia de estas herramientas de IA.

Mientras que pocos adolescentes tienden a buscar noticias, aquellos que lo hacen son más propensos a tener otros hábitos de noticias saludables.
En cuanto a los hábitos de noticias, solo el 15% de los adolescentes dice buscar activamente noticias para mantenerse informado. La mayoría de los adolescentes dice que se mantienen al tanto de las noticias sin realmente intentarlo (50%) o que no se mantienen al tanto de las noticias (36%). Ser un buscador activo de noticias está asociado con otras prácticas saludables de alfabetización mediática. Los adolescentes que buscan activamente noticias y utilizan redes sociales son especialmente propensos a seguir a más periodistas y organizaciones de noticias, y frecuentemente dan “me gusta”, comparten y publican sobre temas o eventos en las noticias. Aquellos buscadores activos de noticias que dan “me gusta”, comparten o publican sobre noticias en redes sociales también son más propensos a decir que siempre verifican el contenido antes de hacerlo. Por último, ser un buscador activo de noticias está asociado con participar en una o más actividades cívicas, como referirse a fuentes creíbles al compartir una opinión y comunicarse con un periodista o medio de comunicación para ofrecer retroalimentación sobre una historia.

El número de artículos indexados ha aumentado un 47% mientras que el número de científicos no ha crecido

Mark A. Hanson, Pablo Gómez Barreiro, Paolo Crosetto, Dan Brockington; The strain on scientific publishing. Quantitative Science Studies 2024; doi: https://doi.org/10.1162/qss_a_00327

Se analiza el creciente volumen de publicaciones científicas, un fenómeno que ha generado una sobrecarga en la comunidad científica. Desde 2016, el número de artículos indexados ha aumentado aproximadamente un 47%, mientras que el número de científicos no ha crecido a la misma velocidad, lo que ha incrementado significativamente la carga de trabajo por investigador.



La publicación académica enfrenta un problema: el número de artículos revisados por pares ha crecido exponencialmente en los últimos años, mientras que el número de investigadores capacitados para evaluarlos no ha aumentado al mismo ritmo. Esto ha generado dificultades para encontrar revisores cualificados y ha sobrecargado a los científicos con la cantidad de artículos publicados. Parte de este crecimiento se debe a iniciativas inclusivas que fomentan la participación de investigadores de regiones como el Sur Global. Si bien estas iniciativas son positivas, el crecimiento excesivo amenaza con comprometer la rigurosidad científica.

Los autores presentan cinco métricas basadas en datos que muestran el crecimiento de las editoriales, los tiempos de procesamiento y las conductas de citación. Observan que algunas editoriales han impulsado este crecimiento mediante la publicación de «números especiales» con tiempos de revisión más cortos, lo que responde a la presión de «publicar o perecer» a la que se enfrentan los investigadores para obtener financiamiento. Además, han notado una inflación de los factores de impacto de las revistas, lo cual distorsiona las señales de calidad científica. Los autores concluyen que este crecimiento exponencial no es sostenible.

Algunos hallazgos importantes incluyen:

Inflación del factor de impacto: Se ha observado una inflación en el factor de impacto, particularmente en las revistas de MDPI y Hindawi, debido a una alta tasa de autocitación y citación entre revistas del mismo editor. MDPI muestra una tasa de autocitación significativamente mayor que otras editoriales, lo que ha contribuido al aumento de su factor de impacto.

Contribución desigual de las editoriales al crecimiento: Entre 2016 y 2022, MDPI, Elsevier, Frontiers, Springer y Wiley han sido responsables de más del 70% del aumento en la cantidad de artículos publicados. Mientras Elsevier y Springer distribuyen sus publicaciones a través de un gran número de revistas, MDPI y Frontiers concentran el aumento en un número más pequeño de revistas, resultando en una mayor cantidad de artículos por revista.

Aumento en el uso de «special issues»: Editoriales como Hindawi, Frontiers y MDPI han incrementado drásticamente la proporción de artículos publicados a través de «special issues» desde 2016. Este modelo ha generado preocupación por la posibilidad de que se priorice la cantidad sobre la calidad, ya que los artículos en estas ediciones suelen ser revisados por editores invitados, en lugar del cuerpo editorial regular.

Disminución en los tiempos de procesamiento: MDPI, Frontiers y Hindawi han reducido significativamente los tiempos de procesamiento de artículos, con MDPI registrando tiempos mucho menores en comparación con otros editores (37 días en promedio). Además, estos editores han mostrado una homogeneización en los tiempos de revisión, lo que podría indicar una revisión menos rigurosa.

Tasas de rechazo dependientes del editor: Los datos sugieren que las tasas de rechazo varían significativamente según el editor, sin una correlación clara con el crecimiento en el número de artículos o el tamaño de las revistas. En particular, MDPI ha mostrado una disminución en sus tasas de rechazo a medida que ha aumentado el uso de «special issues».