Opiniones de los estadounidenses sobre las restricciones de libros en las escuelas públicas de EE. UU. 2024

Knight Foundation. «Americans’ Views on Book Restrictions in U.S. Public Schools 2024». Accedido 22 de agosto de 2024. https://knightfoundation.org/reports/americans-views-on-book-restrictions-in-u-s-public-schools-2024/.

El informe «Opiniones de los estadounidenses sobre las restricciones de libros en las escuelas públicas de EE. UU. 2024» de la Fundación Knight revela que las restricciones de libros en las escuelas públicas han aumentado drásticamente desde 2021, aunque la investigación sobre la conciencia y actitudes del público hacia estas restricciones es limitada. Este estudio encuestó a más de 4,500 adultos para explorar sus opiniones sobre la limitación del acceso de los estudiantes a libros.

Hallazgos clave:

  • La mayoría de los estadounidenses se sienten informados sobre los debates de restricciones de libros y consideran que el tema es importante, pero pocos han participado activamente.
  • Dos tercios de los estadounidenses se oponen a las restricciones de libros, confiando en la selección de libros por parte de las escuelas públicas.
  • El 60% ve la adecuación por edad como un motivo legítimo para restringir el acceso a libros, especialmente para estudiantes más jóvenes.
  • Las opiniones están divididas según ideología, con los conservadores siendo los principales defensores de las restricciones, mientras que los liberales y la comunidad LGBTQ son los mayores opositores.
  • Aunque la mayoría cree que los padres de las escuelas públicas deberían poder desafiar los libros, también preocupa que el temor a las quejas disuada la compra de libros con valor educativo.

El estudio muestra que, aunque el tema es ampliamente debatido, las actitudes varían significativamente según el grupo demográfico y la afiliación política.

4o

Una biblioteca es una segunda casa para las personas

«Una biblioteca es una segunda casa para las personas que leen libros. Dentro de una biblioteca se cura la ignorancia, los libros son para la mente como las tiritas para las heridas… Tendrían que estar por todas partes, como las farmacias».

GLORIA FUERTES
El libro de Gloria Fuertes para niñas y niños

¿Se ha utilizado un artículo tuyo para entrenar un modelo de inteligencia artificial? Casi seguro

Gibney, Elizabeth. «Has Your Paper Been Used to Train an AI Model? Almost Certainly». Nature 632, n.o 8026 (14 de agosto de 2024): 715-16. https://doi.org/10.1038/d41586-024-02599-9.

Los desarrolladores de inteligencia artificial (IA) están comprando acceso a valiosos conjuntos de datos que contienen artículos de investigación, lo que plantea incómodas preguntas sobre los derechos de autor. Las editoriales académicas están vendiendo el acceso a estos artículos a empresas tecnológicas para entrenar modelos de IA, lo que ha generado preocupación entre los investigadores, ya que estos acuerdos se realizan sin la consulta de los autores. Esto ha desencadenado un debate sobre el uso de trabajos publicados y, a veces, protegidos por derechos de autor, para entrenar la creciente cantidad de chatbots de IA en desarrollo.

Los expertos afirman que, si un artículo de investigación aún no ha sido utilizado para entrenar un gran modelo de lenguaje LLM, probablemente lo será pronto. Los investigadores están explorando métodos técnicos para que los autores puedan identificar si su contenido ha sido utilizado.

El mes pasado se reveló que la editorial académica británica Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft, permitiendo que la empresa tecnológica accediera a sus datos para mejorar sus sistemas de IA. En junio, se supo que la editorial Wiley ganó 23 millones de dólares al permitir que una empresa no identificada entrenara modelos de IA generativa con su contenido.

Lucy Lu Wang, investigadora de IA en la Universidad de Washington en Seattle, señala que cualquier cosa disponible en línea, ya sea en un repositorio de acceso abierto o no, es «muy probable» que ya haya sido utilizada para entrenar un LLM. Y si un artículo ya ha sido utilizado como datos de entrenamiento en un modelo, «no hay forma de eliminarlo» después de que el modelo haya sido entrenado, añade.

Los LLMs se entrenan con grandes volúmenes de datos, a menudo obtenidos de Internet. Estos modelos generan texto con fluidez al identificar patrones en miles de millones de fragmentos de lenguaje, conocidos como tokens, presentes en los datos de entrenamiento.

El uso de artículos académicos es valioso para los constructores de LLMs debido a su longitud y «alta densidad de información», dice Stefan Baack, quien analiza conjuntos de datos de entrenamiento de IA en la Fundación Mozilla. Entrenar modelos con una gran cantidad de información científica también les da una mejor capacidad para razonar sobre temas científicos, añade Wang, quien co-creó S2ORC, un conjunto de datos basado en 81.1 millones de artículos académicos.

Este tipo de acuerdos comerciales está en aumento. Este año, el Financial Times ofreció su contenido a OpenAI en un acuerdo lucrativo, al igual que el foro en línea Reddit con Google. Dado que las editoriales científicas probablemente ven como alternativa que su trabajo sea extraído sin un acuerdo, «creo que habrá más de estos acuerdos en el futuro», dice Wang.

Algunos desarrolladores de IA, como la Red de Inteligencia Artificial a Gran Escala, mantienen intencionadamente sus conjuntos de datos abiertos, pero muchas empresas que desarrollan modelos de IA generativa han mantenido en secreto gran parte de sus datos de entrenamiento, dice Baack. Los repositorios de acceso abierto como arXiv y la base de datos académica PubMed son fuentes «muy populares», aunque probablemente los artículos de revistas de pago han tenido sus resúmenes gratuitos extraídos por grandes empresas tecnológicas.

Probar que un LLM ha utilizado un artículo específico es difícil. Una forma es usar una oración inusual de un texto como entrada al modelo y ver si la salida coincide con las siguientes palabras en el original. Otra técnica conocida como membership inference attack mide si un modelo es más confiado cuando ve algo que ha visto antes. El equipo de De Montjoye ha desarrollado una versión de esto llamada «trampa de derechos de autor», que inserta oraciones plausibles pero sin sentido en un trabajo para rastrear si un modelo ha sido entrenado con ese contenido.

Aunque se pudiera demostrar que un LLM ha sido entrenado con un texto específico, no está claro qué pasaría después. Las editoriales sostienen que usar texto con derechos de autor en el entrenamiento sin licencia es una infracción, pero otros argumentan que los LLM no copian nada, sino que extraen información para generar nuevo texto.

En un caso judicial en curso en Estados Unidos, The New York Times está demandando a Microsoft y OpenAI por usar su contenido periodístico sin permiso para entrenar sus modelos, lo que podría sentar un precedente.

Muchos académicos están contentos de que su trabajo se incluya en los datos de entrenamiento de los LLM, especialmente si los modelos se vuelven más precisos. Sin embargo, los autores científicos tienen poco poder si las editoriales deciden vender el acceso a sus obras con derechos de autor, y no existe un mecanismo establecido para otorgar crédito o verificar si un texto ha sido utilizado.

Algunos investigadores, como De Montjoye, están frustrados. «Queremos LLMs, pero también queremos algo que sea justo, y creo que aún no hemos inventado cómo sería esto», dice.

Los bibliotecarios escolares exploran las posibilidades de ChatGPT

Yorio, Kara. «School Librarians Explore Possibilities of ChatGPT». School Library Journal. Accedido 22 de agosto de 2024. https://www.schoollibraryjournal.com/story/School-Librarians-Explore-Possibilities-of-ChatGPT.

Mientras que algunos maestros de inglés están preocupados por la confiabilidad de las tareas escritas, los bibliotecarios escolares han mostrado curiosidad sobre cómo esta tecnología puede impactar su profesión y el entorno educativo. Aunque muchos distritos escolares han prohibido el uso de ChatGPT en dispositivos escolares, los bibliotecarios, como Suzanna Panter de Tacoma, Washington, están explorando formas de utilizar la herramienta para su beneficio, como en la recomendación de libros y la asistencia en la creación de planes de lecciones.

Panter destaca que ChatGPT puede ayudar a reducir la carga de trabajo de los bibliotecarios al proporcionar recomendaciones rápidas y ajustables según las necesidades específicas de los estudiantes. Además, permite la adaptación de ideas para lecciones específicas. Malespina también utiliza ChatGPT para tareas como la planificación de publicaciones en redes sociales para el Mes de la Historia Negra.

Aunque la herramienta tiene limitaciones, como un conocimiento actualizado solo hasta 2021 y la posibilidad de errores, tanto Panter como Malespina ven un gran potencial en su uso educativo. Subrayan la importancia de que los educadores se adapten a esta nueva tecnología, en lugar de ignorarla, para mejorar la educación y abordar los desafíos que presenta.

El impacto potencial de la inteligencia artificial en la equidad y la inclusión en la educación

Varsik, S. and L. Vosberg (2024), “The potential impact of Artificial Intelligence on equity and inclusion in education”, OECD Artificial Intelligence Papers, No. 23, OECD Publishing, Paris, https://doi.org/10.1787/15df715b-en.

«The Potential Impact of Artificial Intelligence on Equity and Inclusion in Education» revisa el impacto de la Inteligencia Artificial (IA) en la equidad e inclusión en la educación, centrándose en herramientas de IA centradas en los estudiantes, dirigidas por docentes y otras herramientas institucionales. Destaca el potencial de la IA para adaptar el aprendizaje a las necesidades individuales, al tiempo que aborda desafíos como el acceso desigual, los sesgos inherentes y la necesidad de una formación exhaustiva para los docentes.

El documento subraya la importancia de equilibrar los beneficios potenciales de la IA con consideraciones éticas y el riesgo de agravar las disparidades existentes. También resalta la necesidad de abordar preocupaciones relacionadas con la privacidad y la ética, mejorar la sensibilidad cultural, gestionar el techno-ableism (discriminación por capacidades tecnológicas) y proporcionar formación continua en IA para los profesionales de la educación.

Además, el documento enfatiza la importancia de mantener la integridad educativa frente a la creciente influencia comercial. Se fomenta la investigación sobre las implicaciones de las herramientas de IA para la equidad e inclusión, con el fin de garantizar que la adopción de la IA en la educación promueva un entorno de aprendizaje más equitativo e inclusivo.

Fomentar la participación de los adolescentes en las bibliotecas públicas mediante el aprendizaje conectado

Fostering public library teen engagement through connected learning. (2024, julio 31). WebJunction. https://www.webjunction.org/news/webjunction/Fostering-public-library-teen-engagement.html

El artículo aborda cómo las bibliotecas públicas pueden fomentar el compromiso de los adolescentes a través del «aprendizaje conectado», un enfoque que integra relevancia personal, relaciones significativas, participación cívica y un propósito claro.

«El aprendizaje y la alfabetización que se basan en la relevancia personal, las relaciones significativas, la participación cívica y un sentido de propósito es lo que la Connected Learning Alliance describe como ‘aprendizaje conectado’. Para las bibliotecas públicas, construir servicios para adolescentes basados en el aprendizaje conectado significa reinventar las ofertas para reflejar la cultura y las necesidades de los adolescentes y sus comunidades. Dos nuevos informes ofrecen valiosas ideas y recomendaciones para las bibliotecas públicas que buscan fomentar la participación de los adolescentes:

  1. Resultados transformadores a través del compromiso comunitario: Cómo los líderes de bibliotecas públicas fomentan servicios para adolescentes basados en el aprendizaje conectado. Un marco estratégico para que los líderes de bibliotecas mejoren los servicios para adolescentes mediante principios de equidad, compromiso comunitario y aprendizaje conectado.
  2. Resultados transformadores a través del compromiso comunitario: Cómo el personal de bibliotecas públicas fomenta servicios para adolescentes basados en el aprendizaje conectado. Dirigido al personal de bibliotecas públicas que está directamente involucrado en la implementación de servicios para adolescentes, este informe ofrece recomendaciones prácticas y concretas para involucrar a los adolescentes de manera efectiva y crear entornos de aprendizaje conectado que los apoyen.

Estos informes fueron producidos por el proyecto Transforming and Scaling Teen Services for Equity, Diversity, and Inclusion (TS4EDI), liderado por UC Irvine. A través de una extensa revisión de la literatura, exploración de asociaciones bibliotecarias y entrevistas con el personal de bibliotecas, los informes examinan las barreras sistémicas y culturales que enfrentan los líderes y el personal de bibliotecas públicas al intentar implementar el aprendizaje conectado en sus instituciones. Los informes destacan cuatro hallazgos principales:

  • Las relaciones holísticas con el personal y los socios comunitarios son la base para la participación de los adolescentes.
  • Las asociaciones comunitarias amplían la capacidad para atender a los jóvenes en todas las áreas del aprendizaje conectado.
  • Contar historias sobre los resultados de los jóvenes es una forma convincente de demostrar el impacto.
  • El personal que es aprendiz de por vida e innovador es un campeón efectivo.

El sitio de recursos ‘Connected Learning Through Libraries‘ también ofrece listas de verificación para líderes y personal que ayudan a poner en práctica las recomendaciones, y una serie de publicaciones en blogs que brindan inspiración de bibliotecas que están implementando el aprendizaje conectado en sus servicios para adolescentes.»

El mercado negro de las citas: la venta de referencias falsas alarma a los científicos

Singh Chawla, D. (2024). The citation black market: Schemes selling fake references alarm scientists. Nature. https://doi.org/10.1038/d41586-024-01672-7

Un grupo de científicos ha revelado un mercado negro donde se venden citaciones falsas para inflar perfiles académicos, lo que plantea serias preocupaciones sobre la integridad en la investigación. Estos esquemas manipulan métricas cruciales para la evaluación académica, como el índice h. Expertos sugieren cambiar los incentivos en la academia para evitar que los investigadores se vean presionados a participar en estas prácticas fraudulentas.

Vigilantes de la integridad en la investigación están preocupados por las crecientes maneras en que los científicos pueden inflar artificialmente el número de citaciones de sus estudios. En los últimos meses, han surgido prácticas cada vez más audaces. Una de estas prácticas fue descubierta mediante una operación encubierta en la que un grupo de investigadores compró 50 citaciones por 300$ para mejorar el perfil de Google Scholar de un científico ficticio que crearon.

Este caso confirma la existencia de un mercado negro de referencias falsificadas, algo que los expertos en integridad habían sospechado durante mucho tiempo. Las citaciones compradas provienen de estudios en 22 revistas, de las cuales 14 están indexadas en Scopus.

Estas prácticas son preocupantes porque muchos aspectos de la carrera de un investigador dependen de la cantidad de citaciones que reciben sus trabajos. Instituciones y métricas como el índice h utilizan estos números para evaluar la productividad y el impacto de los científicos. En un caso reciente en España, el rector de la Universidad de Salamanca fue acusado de inflar artificialmente sus métricas de Google Scholar, lo que llevó a una investigación por parte del Comité de Ética en la Investigación.

La operación encubierta también descubrió que se venden citaciones en «paper mills», servicios que producen estudios de baja calidad y venden autorías en artículos ya aceptados. Además, se ha observado la creación de perfiles falsos, como el de un gato llamado Larry, que acumuló citaciones antes de que Google Scholar y ResearchGate eliminaran las publicaciones falsas.

El equipo de investigadores propone un nuevo índice de concentración de citaciones para detectar patrones sospechosos, como cuando un científico recibe muchas citaciones de pocas fuentes. Sin embargo, persiste el temor de que los estafadores desarrollen métodos más sutiles para evitar ser descubiertos. Según los expertos, para abordar este problema, es necesario cambiar los incentivos en la academia para que los científicos no se vean presionados a acumular citaciones para avanzar en sus carreras.

Tres autores demandan a Anthropic por infracción de derechos de autor en el entrenamiento de IA

Roth, E. (2024, agosto 20). Authors sue Anthropic for training AI using pirated books. The Verge. https://www.theverge.com/2024/8/20/24224450/anthropic-copyright-lawsuit-pirated-books-ai

La compañía de inteligencia artificial Anthropic enfrenta una demanda colectiva en un tribunal federal de California, interpuesta por tres autores que afirman que la empresa utilizó sus libros y cientos de miles de obras más para entrenar su chatbot Claude, impulsado por IA.

Un grupo de autores ha demandado a la compañía de inteligencia artificial Anthropic, acusándola de entrenar sus modelos de IA con libros pirateados, según informó Reuters. La demanda colectiva, presentada en un tribunal de California, alega que Anthropic «construyó un negocio multimillonario robando cientos de miles de libros con derechos de autor.»

La demanda sostiene que Anthropic utilizó un conjunto de datos de código abierto conocido como «The Pile» para entrenar su familia de chatbots Claude. Dentro de este conjunto de datos se encuentra «Books3», una vasta biblioteca de ebooks pirateados que incluye obras de Stephen King, Michael Pollan y miles de otros autores. A principios de agosto, Anthropic confirmó a Vox que utilizó «The Pile» para entrenar a Claude.

La demanda afirma que Anthropic descargó y reprodujo copias de «The Pile» y «Books3», sabiendo que estos conjuntos de datos contenían contenido con derechos de autor extraído de sitios pirata como Bibiliotik. Los autores buscan que el tribunal certifique la demanda colectiva, exija a Anthropic el pago de daños y perjuicios propuestos, y prohíba a la compañía utilizar material protegido por derechos de autor en el futuro.

Los escritores que demandan a Anthropic incluyen a Andrea Bartz, autora de We Were Never Here; Charles Graeber, autor de The Good Nurse; y Kirk Wallace Johnson, autor de The Feather Thief. Aunque se reconoce que «Books3» ha sido eliminado de la versión «más oficial» de «The Pile», la versión original supuestamente sigue disponible en línea. Una investigación reciente también descubrió que compañías como Anthropic y Apple entrenaron sus modelos de IA con miles de subtítulos de videos de YouTube extraídos de «The Pile».

El año pasado, el exgobernador de Arkansas Mike Huckabee y otros autores presentaron una demanda similar contra Meta, Microsoft y EleutherAI, la organización sin fines de lucro detrás de «The Pile», por acusaciones de uso indebido de sus obras para entrenar modelos de IA. Otros autores, como George R.R. Martin, Jodi Picoult y Michael Chabon, también han demandado a OpenAI por el supuesto uso de su contenido protegido por derechos de autor.

Explorando las capacidades de ChatGPT como bibliotecario investigador, ético de la investigación, generador de datos y predictor de datos.

Lehr, Steven A., Aylin Caliskan, Suneragiri Liyanage, y Mahzarin R. Banajii. «ChatGPT as Research Scientist: Probing GPT’s Capabilities as a Research Librarian, Research Ethicist, Data Generator, and Data Predictor.» Proceedings of the National Academy of Sciences 121, no. 35 (2024): e2404328121. https://doi.org/10.1073/pnas.2404328121

¿Hasta qué punto es ChatGPT un buen investigador científico? Se probó sistemáticamente las capacidades de GPT-3.5 y GPT-4 en cuatro componentes centrales del proceso científico: como bibliotecario de investigación, ético de investigación, generador de datos y predictor de datos novedosos, utilizando la ciencia psicológica como campo de pruebas.

En el Estudio 1 (Bibliotecario de Investigación), a diferencia de los investigadores humanos, GPT-3.5 y GPT-4 alucinaron, generando autoritariamente referencias ficticias el 36,0% y el 5,4% de las veces, respectivamente, aunque GPT-4 mostró una capacidad evolutiva para reconocer sus ficciones.

En el Estudio 2 (Ética de la investigación), GPT-4 (aunque no GPT-3.5) demostró ser capaz de detectar infracciones como el p-hacking en protocolos de investigación ficticios, corrigiendo el 88,6% de los problemas presentados de forma flagrante y el 72,6% de los presentados de forma sutil.

En el Estudio 3 (Generador de datos), ambos modelos reprodujeron sistemáticamente patrones de sesgo cultural descubiertos previamente en grandes corpus lingüísticos, lo que indica que ChatGPT puede simular resultados conocidos, un antecedente de utilidad tanto para la generación de datos como para habilidades como la generación de hipótesis.

Por el contrario, en el Estudio 4 (Predictor de datos novedosos), ninguno de los modelos logró predecir resultados nuevos ausentes en sus datos de entrenamiento, y ninguno pareció aprovechar información sustancialmente nueva a la hora de predecir resultados más o menos novedosos.

En conjunto, estos resultados sugieren que GPT es un bibliotecario defectuoso pero en rápida mejora, un ético de la investigación ya decente, capaz de generar datos en dominios simples con características conocidas, pero deficiente en la predicción de nuevos patrones de datos empíricos para ayudar en futuras experimentaciones.

Manifiesto por las métricas socioterritoriales de la ciencia la tecnología y la innovación

Cancino, Ronald and Albis Salas, Nadia and Villarroel Valenzuela, Jacqueline and Robles Belmont, Eduardo and Oliveira [et al.] Manifiesto por las métricas socioterritoriales de la ciencia la tecnología y la innovación 2024

Ver

La ciencia, la tecnología y la innovación han devenido en un verdadero motor de transformaciones de toda índole en escalas locales y globales. Sin embargo, las capacidades desigualmente distribuidas a nivel mundial han generado desarrollos desproporcionales en estas distribuciones. No es tan solo un problema de la ciencia en sí, sino del modo en cómo se han desarrollado las sociedades, las relaciones entre ellas, y el rol que han jugado la ciencia y la tecnología en la dinámica y el desarrollo de las sociedades. Hoy, a los problemas de asimetrías, desigualdad, exclusión y marginalidad, se suman pandemias, migraciones forzadas, extractivismo y los efectos visibles de la autonomización del cambio climático como generador de transformaciones y desastres locales y globales en los que la ciencia y la tecnología juegan un rol central en su comprensión, mitigación, prevención y solución. De este modo, el desarrollo de capacidades y el conocimiento sobre su distribución local y global son fundamentales para una actuación en el mundo contemporáneo. En este contexto, una verdadera transformación en la ciencia parece experimentarse. La conformación de redes, la demanda por impactos, la investigación mediante y en mundos virtuales y simulados, junto al creciente movimiento por el acceso y la ciencia abierta y ciudadana, son acompañados por permanentes ajustes y rediseños institucionales, actualizaciones de políticas, nuevas prioridades, instrumentos y una tendencia creciente a alinearse, por ejemplo, a los Objetivos de Desarrollo Sostenible. En este contexto, los esfuerzos para conocer, comprender y gestionar las capacidades de ciencia, tecnología e innovación, mediante métricas y formas de evaluación científica, continúan centrados en formas tradicionales y en métricas de impacto de citaciones articuladas a formas de evaluación, financiación y gasto en sistemas de publicaciones transnacionales. Los movimientos locales, nacionales y globales por la apertura de la ciencia y su evaluación son cada vez más activos, y permean de manera muy incipiente las políticas de ciencia, tecnología e innovación. Proponemos que, en estos esfuerzos, debemos incorporar un conjunto de principios que permitan construir métricas para la medición de capacidades y formas de evaluación que consideren las características, requerimientos y demandas socioterritoriales respecto de las cuales actúan y se desarrollan capacidades científicas y tecnológicas.