Integridad Científica e Inteligencia Artificial

CONFERENCIA: Integridad académica e Inteligencia Artificial
Martes 22 de octubre a las 17 h. de España. 9 h. Ciudad de México
con Julio Alonso Arévalo
III Seminario de Integridad Académica y Producción Científica



La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Los detectores de IA acusan falsamente a los alumnos de hacer trampas con graves consecuencias

«AI Detectors Falsely Accuse Students of Cheating—With Big Consequences». Bloomberg.com.18 de octubre de 2024. https://www.bloomberg.com/news/features/2024-10-18/do-ai-detectors-work-students-face-false-cheating-accusations.

Un estudio revela que alrededor de dos tercios de los profesores utilizan regularmente herramientas para detectar contenido generado por IA. Este uso extendido puede llevar a que incluso pequeñas tasas de error se traduzcan en un gran número de acusaciones falsas.

Desde el lanzamiento de ChatGPT hace casi dos años, las escuelas han implementado diversas herramientas de detección para identificar contenido escrito por IA. Los mejores detectores de redacciones con IA son muy precisos, pero no son infalibles. Businessweek probó dos de los principales servicios -GPTZero y Copyleaks- en una muestra aleatoria de 500 redacciones de solicitudes universitarias enviadas a la Universidad A&M de Texas en el verano de 2022, poco antes del lanzamiento de ChatGPT, garantizando así que no habían sido generadas por IA. Los ensayos se obtuvieron a través de una solicitud de registros públicos, lo que significa que no formaban parte de los conjuntos de datos con los que se entrenan las herramientas de IA. Businessweek descubrió que los servicios marcaban falsamente entre el 1% y el 2% de los ensayos como probablemente escritos por IA, y en algunos casos afirmaban tener una certeza cercana al 100%.

Incluso una tasa de error tan pequeña como puede acumularse rápidamente, dado el gran número de trabajos que los estudiantes realizan cada año, con consecuencias potencialmente devastadoras para los estudiantes que son falsamente marcados. Al igual que ocurre con las acusaciones más tradicionales de engaño y plagio, los estudiantes que utilizan IA para hacer sus deberes tienen que rehacer sus tareas y se enfrentan a suspensos y períodos de prueba.

Los más vulnerables a acusaciones erróneas son aquellos que escriben de manera más genérica, como estudiantes no nativos en inglés o aquellos con estilos de escritura más mecánicos. Moira Olmsted, una estudiante de 24 años, fue acusada de utilizar IA para un trabajo en línea en la Universidad Central Methodist, lo que le valió una calificación de cero. La acusación se basó en un detector de IA que había marcado su trabajo como posiblemente generado por inteligencia artificial, a pesar de su estilo de escritura, influenciado por su trastorno del espectro autista. Aunque logró que la calificación fuera cambiada, recibió una advertencia de que futuras detecciones similares serían tratadas como plagio.

Un estudio realizado en 2023 por investigadores de la Universidad de Stanford descubrió que los detectores de IA eran «casi perfectos» cuando comprobaban redacciones escritas por estudiantes de octavo curso nacidos en EE.UU., pero marcaban más de la mitad de las redacciones escritas por estudiantes no nativos de inglés como generadas por IA. Turnitin, una popular herramienta de detección de IA ha declarado que tiene una tasa de falsos positivos del 4% al analizar frases. Turnitin se negó a poner su servicio a disposición para realizar pruebas. En una entrada del blog 2023, la Universidad de Vanderbilt, una de las principales escuelas que desactivaron el servicio de detección de IA de Turnitin por motivos de precisión, señaló que, de lo contrario, cientos de trabajos de estudiantes habrían sido marcados incorrectamente durante el curso académico como escritos en parte por IA. Las empresas de detección de IA insisten en que sus servicios no deben tratarse como juez, jurado y verdugo, sino como un dato para ayudar a informar y orientar a los profesores.

Businessweek también descubrió que los servicios de detección de IA a veces pueden ser engañados por herramientas automatizadas diseñadas para hacer pasar la escritura de IA por humana. Esto podría dar lugar a una carrera armamentística que enfrentara a una tecnología contra otra, dañando la confianza entre educadores y estudiantes con escasos beneficios educativos.

OpenAI ha anunciado recientemente que no lanzará una herramienta para detectar escritos generados por IA, en parte debido a preocupaciones sobre su impacto negativo en ciertos grupos, incluidos los estudiantes que hablan inglés como segunda lengua. Aunque algunas instituciones están reconsiderando el uso de detectores de IA, muchos colegios todavía confían en ellos. Startups de detección de IA han atraído inversiones significativas desde 2019, lo que refleja el aumento del uso de estas tecnologías. Sin embargo, la ansiedad y paranoia en el aula persisten, ya que los estudiantes dedican tiempo a defender la integridad de su trabajo y temen el uso de herramientas de asistencia de escritura comunes.

A pesar de que algunas empresas de detección de IA afirman tener tasas de error bajas, la presión sobre los estudiantes para evitar ser acusados de hacer trampa ha llevado a algunos a modificar sus trabajos, lo que, en muchos casos, ha empeorado su calidad. La situación ha provocado que algunos estudiantes eliminen herramientas como Grammarly de sus dispositivos por miedo a ser marcados como autores de contenido generado por IA. Bloomberg descubrió que utilizar Grammarly para «mejorar» una redacción o «hacer que suene académica» convertirá un trabajo que había pasado de estar escrito al 100% por humanos a estar escrito al 100% por IA.

Educadores y estudiantes consideran que el sistema actual es insostenible, dada la tensión que crea y el hecho de que la IA está aquí para quedarse. Algunos profesores prefieren confiar en su intuición y mantener un diálogo abierto con los estudiantes en lugar de depender de herramientas de detección.

Adopción y barreras en la puesta en común de datos abiertos entre comunidades de investigación física

Holst, Faye. «IOP Publishing Study Reveals Varied Adoption and Barriers in Open Data Sharing among Physical Research Communities». IOP Publishing, 21 de octubre de 2024. https://ioppublishing.org/news/iop-publishing-study-reveals-varied-adoption-and-barriers-in-open-data-sharing-among-physical-research-communities-copy/.

Un estudio realizado por IOP Publishing (IOPP) ha puesto de manifiesto las diferencias en la adopción de la compartición de datos abiertos en las comunidades de investigación en ciencias físicas y las diversas barreras que enfrentan.

El acceso a los datos permite la replicación de la investigación y fortalece la confianza en los resultados. Los principios FAIR se introdujeron en 2016 para estandarizar los metadatos, asignar identificadores persistentes y proporcionar licencias de uso claras, asegurando que los datos de investigación sean fácilmente localizables, accesibles, combinables y reutilizables con la debida atribución.

Desde 2022, IOPP exige a todos los autores que incluyan una declaración de disponibilidad de datos en sus artículos, especificando si y cómo se pueden acceder a los datos que respaldan su investigación. Esta política se amplió en 2023, exigiendo a los autores que no puedan o no deseen compartir sus datos públicamente que expliquen las razones.

El análisis incluyó más de 30,000 artículos de investigación, cuyos hallazgos fueron publicados en el documento de IOPP titulado “Bringing researchers on board: Navigating the barriers to sharing data publicly”.

Hallazgos clave:

  1. Científicos ambientales:
    • Más del 80% comparte sus datos de investigación abiertamente.
    • Casi el 60% sigue los principios de Findability, Accessibility, Interoperability, and Reusability (FAIR).
    • Mayor barrera: restricciones legales relacionadas con la propiedad de datos de terceros.
  2. Físicos:
    • Más del 70% comparte datos de investigación abiertamente.
    • Solo el 18% adhiere a los principios FAIR.
    • Mayor barrera: los formatos de datos son considerados inaccesibles, incluso si están disponibles.
  3. Ingenieros:
    • Solo el 55% comparte sus datos abiertamente.
    • Menos del 8% sigue los principios FAIR.
    • Mayor barrera: falta de un repositorio conocido para enviar datos.
  4. Científicos de materiales:
    • Más del 70% comparte sus datos abiertamente.
    • Solo cerca del 5% sigue los principios FAIR.
    • Mayor barrera: datos confidenciales o sensibles.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Actitudes, hábitos y habilidades de información de los adolescentes

A survey of teen information attitudes, habits and skills. News Literacy in America (2024)

Texto completo

Full Report

Los adolescentes estadounidenses pasan horas cada día desplazándose por plataformas de redes sociales, sumergiéndose en un flujo a menudo confuso de entretenimiento, anuncios, noticias, rumores y teorías de conspiración. Los jóvenes necesitan el conocimiento, las habilidades y los hábitos mentales para evaluar la credibilidad y autenticidad de las noticias y la información que encuentran mientras navegan por este paisaje complejo. De lo contrario, permanecerán en desventaja cívica y personal a lo largo de sus vidas.

Para aprender sobre los comportamientos y mentalidades informativas de los adolescentes, evaluar el estado de la educación en alfabetización informativa e identificar formas de garantizar que los jóvenes se conviertan en pensadores críticos bien informados, el Proyecto de Alfabetización Informativa contrató a SSRS, una firma de investigación de mercado y ciencias sociales de servicio completo, para llevar a cabo una encuesta en línea representativa a nivel nacional, basada en probabilidad, con 1,110 adolescentes de entre 13 y 18 años en mayo de 2024.

Esta investigación tiene como objetivo informar a educadores y responsables de políticas mientras consideran cómo integrar mejor la alfabetización informativa en las escuelas, y ayudar a periodistas e investigadores a comprender mejor las necesidades de los jóvenes en esta área. Este informe actúa como una visión general integral de cómo los adolescentes piensan sobre, experimentan y se relacionan con el paisaje informativo actual.

Cuestiones clave:

Los adolescentes desean que se incluya la educación en alfabetización mediática en su formación, pero la mayoría no la está recibiendo.
Una abrumadora mayoría de adolescentes (94%) afirma que las escuelas deberían estar obligadas a enseñar alfabetización mediática. El 57% apoya firmemente esta idea, afirmando que las escuelas “definitivamente” deberían tener tal requisito, mientras que otro 36% ofrece cierto apoyo, indicando que debería haber un requisito en algunos casos. A pesar del amplio apoyo entre los adolescentes, se encontró poca evidencia de que las escuelas ya estén proporcionando instrucción en alfabetización mediática. Solo el 39% de los adolescentes reporta haber recibido alguna instrucción sobre alfabetización mediática en al menos una clase durante el año escolar 2023-24.

Los adolescentes luchan por distinguir entre diferentes tipos de información.
La mitad de los adolescentes puede identificar un artículo de contenido patrocinado como un anuncio, el 52% puede reconocer un artículo con “comentario” en el titular como una opinión y el 59% puede identificar que los resultados de búsqueda de Google bajo la etiqueta “patrocinado” indican publicidad pagada. Sin embargo, menos de 2 de cada 10 adolescentes (18%) respondió correctamente a las tres preguntas que les pedían distinguir entre diferentes tipos de información. Los resultados no mostraron diferencias significativas entre los grupos de edad, lo que significa que los adolescentes mayores no son generalmente mejores en demostrar esta habilidad fundamental de alfabetización noticiosa que los adolescentes más jóvenes.

Casi la mitad de los adolescentes piensan que la prensa hace más daño a la democracia que la protege.
Poco más de la mitad de los adolescentes (55%) afirma que los periodistas hacen más para proteger la democracia, mientras que el 45% sostiene que los periodistas hacen más daño a la democracia. Dos grupos destacan como particularmente propensos a decir que los periodistas protegen la democracia: los adolescentes que buscan activamente noticias para mantenerse informados (68%) y aquellos con alta confianza en los medios de comunicación (82%).

Acerca de dos tercios de los adolescentes no están preocupados por el fuerte declive en el número de organizaciones de noticias en las últimas décadas.
El 67% de los adolescentes afirma estar poco o nada preocupado por el fuerte declive en el número de organizaciones de noticias en EE. UU. en los últimos 20 años. Entre los adolescentes que no siguen realmente las noticias, el 78% dice estar poco o nada preocupado por este declive. Asimismo, el 74% de aquellos con baja confianza en los medios de comunicación dice lo mismo.

Muchos adolescentes confían al menos algo en los medios de comunicación, pero perciben altos niveles de sesgo en las noticias.
La mayoría de los adolescentes (65%) dio respuestas al menos algo confiadas a las tres preguntas de la encuesta que constituyen nuestro índice de confianza en los medios de comunicación, sin embargo, solo el 8% respondió a las tres preguntas con respuestas confiadas. Los adolescentes que dicen haber tenido al menos alguna instrucción en alfabetización mediática en al menos una clase son especialmente propensos a tener al menos algo de confianza en los medios de comunicación (73% con confianza media o alta). Las dos preguntas que recibieron las respuestas más desconfiadas de los adolescentes fueron sobre el sesgo en los medios de comunicación. Casi 7 de cada 10 adolescentes (69%) creen que las organizaciones de noticias añaden intencionadamente sesgo a la cobertura para avanzar en una perspectiva específica, y 8 de cada 10 dicen que la información que producen las organizaciones de noticias es más sesgada o al menos igual que la de otros creadores de contenido en línea.

La mayoría de los adolescentes en redes sociales se encuentran con teorías de conspiración y están inclinados a creer en alguna de ellas.
Ocho de cada 10 adolescentes en redes sociales afirman que ven publicaciones que difunden o promueven teorías de conspiración, pero la frecuencia de su exposición varía. El 20% de los adolescentes que usan redes sociales reportan ver estas publicaciones en sus feeds diariamente, el 31% semanalmente y el 29% menos de una vez a la semana. Muchas de las teorías de conspiración que los adolescentes reportan ver van más allá de supersticiones inofensivas e incluyen narrativas como la creencia de que la Tierra es plana, que las elecciones de 2020 fueron manipuladas o robadas, y que las vacunas contra COVID-19 son peligrosas. Aunque los adolescentes en redes sociales no están necesariamente inclinados a creer en cada teoría de conspiración que encuentran, una abrumadora mayoría de quienes reportan haber visto una teoría de conspiración en redes sociales (81%) dice estar inclinada a creer en una o más de ellas.

Pocos adolescentes son usuarios regulares de tecnologías de inteligencia artificial generativa y muchos son escépticos sobre la información que producen.
Menos de una cuarta parte de los adolescentes (23%) dice usar chatbots de IA generativa, como ChatGPT, Gemini o Copilot, una vez a la semana o más. Aún menos adolescentes (9%) reportan usar generadores de imágenes de IA, como DALL-E, Midjourney, DreamStudio o Gemini, una vez a la semana o más. Estos hallazgos desafían la noción de que las herramientas de IA ya han revolucionado la forma en que los jóvenes abordan el trabajo escolar. Al preguntar si confían en que los chatbots de IA generativa produzcan información precisa y justa, muchos adolescentes mostraron escepticismo. Solo el 36% de los adolescentes reporta tener al menos una cantidad razonable de confianza en estas herramientas para generar información precisa, mientras que la mitad de los adolescentes reporta tener poca o ninguna confianza en la precisión y justicia de estas herramientas de IA.

Mientras que pocos adolescentes tienden a buscar noticias, aquellos que lo hacen son más propensos a tener otros hábitos de noticias saludables.
En cuanto a los hábitos de noticias, solo el 15% de los adolescentes dice buscar activamente noticias para mantenerse informado. La mayoría de los adolescentes dice que se mantienen al tanto de las noticias sin realmente intentarlo (50%) o que no se mantienen al tanto de las noticias (36%). Ser un buscador activo de noticias está asociado con otras prácticas saludables de alfabetización mediática. Los adolescentes que buscan activamente noticias y utilizan redes sociales son especialmente propensos a seguir a más periodistas y organizaciones de noticias, y frecuentemente dan “me gusta”, comparten y publican sobre temas o eventos en las noticias. Aquellos buscadores activos de noticias que dan “me gusta”, comparten o publican sobre noticias en redes sociales también son más propensos a decir que siempre verifican el contenido antes de hacerlo. Por último, ser un buscador activo de noticias está asociado con participar en una o más actividades cívicas, como referirse a fuentes creíbles al compartir una opinión y comunicarse con un periodista o medio de comunicación para ofrecer retroalimentación sobre una historia.

El número de artículos indexados ha aumentado un 47% mientras que el número de científicos no ha crecido

Mark A. Hanson, Pablo Gómez Barreiro, Paolo Crosetto, Dan Brockington; The strain on scientific publishing. Quantitative Science Studies 2024; doi: https://doi.org/10.1162/qss_a_00327

Se analiza el creciente volumen de publicaciones científicas, un fenómeno que ha generado una sobrecarga en la comunidad científica. Desde 2016, el número de artículos indexados ha aumentado aproximadamente un 47%, mientras que el número de científicos no ha crecido a la misma velocidad, lo que ha incrementado significativamente la carga de trabajo por investigador.



La publicación académica enfrenta un problema: el número de artículos revisados por pares ha crecido exponencialmente en los últimos años, mientras que el número de investigadores capacitados para evaluarlos no ha aumentado al mismo ritmo. Esto ha generado dificultades para encontrar revisores cualificados y ha sobrecargado a los científicos con la cantidad de artículos publicados. Parte de este crecimiento se debe a iniciativas inclusivas que fomentan la participación de investigadores de regiones como el Sur Global. Si bien estas iniciativas son positivas, el crecimiento excesivo amenaza con comprometer la rigurosidad científica.

Los autores presentan cinco métricas basadas en datos que muestran el crecimiento de las editoriales, los tiempos de procesamiento y las conductas de citación. Observan que algunas editoriales han impulsado este crecimiento mediante la publicación de «números especiales» con tiempos de revisión más cortos, lo que responde a la presión de «publicar o perecer» a la que se enfrentan los investigadores para obtener financiamiento. Además, han notado una inflación de los factores de impacto de las revistas, lo cual distorsiona las señales de calidad científica. Los autores concluyen que este crecimiento exponencial no es sostenible.

Algunos hallazgos importantes incluyen:

Inflación del factor de impacto: Se ha observado una inflación en el factor de impacto, particularmente en las revistas de MDPI y Hindawi, debido a una alta tasa de autocitación y citación entre revistas del mismo editor. MDPI muestra una tasa de autocitación significativamente mayor que otras editoriales, lo que ha contribuido al aumento de su factor de impacto.

Contribución desigual de las editoriales al crecimiento: Entre 2016 y 2022, MDPI, Elsevier, Frontiers, Springer y Wiley han sido responsables de más del 70% del aumento en la cantidad de artículos publicados. Mientras Elsevier y Springer distribuyen sus publicaciones a través de un gran número de revistas, MDPI y Frontiers concentran el aumento en un número más pequeño de revistas, resultando en una mayor cantidad de artículos por revista.

Aumento en el uso de «special issues»: Editoriales como Hindawi, Frontiers y MDPI han incrementado drásticamente la proporción de artículos publicados a través de «special issues» desde 2016. Este modelo ha generado preocupación por la posibilidad de que se priorice la cantidad sobre la calidad, ya que los artículos en estas ediciones suelen ser revisados por editores invitados, en lugar del cuerpo editorial regular.

Disminución en los tiempos de procesamiento: MDPI, Frontiers y Hindawi han reducido significativamente los tiempos de procesamiento de artículos, con MDPI registrando tiempos mucho menores en comparación con otros editores (37 días en promedio). Además, estos editores han mostrado una homogeneización en los tiempos de revisión, lo que podría indicar una revisión menos rigurosa.

Tasas de rechazo dependientes del editor: Los datos sugieren que las tasas de rechazo varían significativamente según el editor, sin una correlación clara con el crecimiento en el número de artículos o el tamaño de las revistas. En particular, MDPI ha mostrado una disminución en sus tasas de rechazo a medida que ha aumentado el uso de «special issues».

Leer en voz alta

Siempre ando con un libro en las manos. Ya sea
uno viejo y gastado del siglo XIX
con láminas y pauta final para ubicarlas
en el texto, ya sea otro nuevo e intrépido
que recibí ayer mismo y huele todavía
a tinta fresca y joven, ya sea un libro antiguo
que viajó por el tiempo hasta esa estantería
de mi cada vez más poblada biblioteca…
El vicio de leer suele ser solitario,
pero puede, también, compartirse. Los griegos
de la época de Sócrates leían en voz alta.
Lo mismo hacía Nietzsche. A mí me gusta mucho
leer en compañía y en voz alta los grandes
libros de nuestra tribu, esa tribu perversa,
racista y miserable que disfruta creyéndose
superior (y lo es). De ese modo, recuerdo
haber leído Drácula, Melmoth y Frankenstein,
el Poema del Cid, Beowulf, los Nibelungos,
la Divina Comedia, los Psalmos, la Canción
de Rolando, La isla del tesoro y la Ilíada,
tal y como los griegos leían hace siglos,
alto y claro, lanzando las palabras al aire,
porque la voz añade temblor de biografía
personal y caduca a tanta eternidad,
al vértigo solemne de tanta permanencia.

Leer en voz alta – Luis Alberto de Cuenca.

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Penguin Random House prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA.



Battersby, Matilda. «Penguin Random House Underscores Copyright Protection in AI Rebuff.» The Bookseller, October 18, 2024. https://www.thebookseller.com/news/penguin-random-house-underscores-copyright-protection-in-ai-rebuff.

Penguin Random House (PRH), el mayor editor comercial del mundo, ha modificado el texto en sus páginas de derechos de autor para proteger la propiedad intelectual de sus autores frente al uso no autorizado de sus obras para entrenar modelos de inteligencia artificial (IA). El nuevo texto, que se aplicará globalmente en todas las nuevas publicaciones y reimpresiones, prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA. Esto responde a casos de infracción de derechos de autor en los EE.UU., donde se han utilizado libros pirateados para entrenar IA sin autorización.

El CEO de PRH UK, Tom Weldon, afirmó que la empresa «defenderá vigorosamente» los derechos de propiedad intelectual de sus autores, mientras que elogiaron la actualización de PRH desde la Sociedad de Autores y otras organizaciones. Sin embargo, pidieron que también se modifiquen los contratos de los autores para asegurar que su consentimiento sea requerido antes de utilizar IA en la creación o producción de sus obras.

Expertos legales indicaron que el verdadero riesgo está en el entrenamiento de los modelos de IA, y no tanto en los resultados que estos generan. La industria editorial busca establecer mejores prácticas en medio de un panorama de IA en rápida evolución, donde el uso no autorizado de contenido afecta los ingresos de autores y editores.