Aumento del 200 % en la censura de libros en escuelas públicas de EE.UU

«Banned in the USA: Beyond the Shelves». 2024. PEN America. 1 de noviembre de 2024. https://pen.org/report/beyond-the-shelves/.


Durante el año escolar 2023-2024 se registró un número récord de censura de libros en escuelas públicas de EE. UU., con más de 10,000 instancias de prohibición que afectaron a más de 4,000 títulos únicos. Este año, un mayor porcentaje de libros fue retirado por completo de las bibliotecas escolares. Florida e Iowa lideraron las prohibiciones, con más de 4.500 y 3.600 casos respectivamente.

PEN America, la organización que defiende la libertad de expresión, reportó que las prohibiciones de libros en escuelas públicas de EE. UU. han alcanzado niveles alarmantes durante el año escolar 2023-2024. Con un total de 10.046 instancias de censura en todo el país, el número representa un incremento del 200 % respecto al ciclo anterior.

Desde que comenzó la crisis de censura en 2021, se han contabilizado casi 16.000 casos de prohibición de libros en distritos escolares. Este fenómeno, impulsado principalmente por individuos y grupos con puntos de vista conservadores extremos, afecta especialmente a obras que exploran temas como raza, sexualidad e identidad de género, así como temas de salud mental y experiencias difíciles que los jóvenes enfrentan en la realidad.

El informe de PEN America, Banned in the USA: Beyond the Shelves, resalta que el 43 % de los libros prohibidos durante el último año fueron retirados por completo del acceso escolar, sin posibilidad de revisión ni acceso con restricciones. Esto supone un aumento notable respecto a años anteriores, cuando solo el 27 % de los libros censurados se eliminaban completamente. Los estados de Florida e Iowa se posicionan como líderes en estas prohibiciones, con 4.500 y 3.600 libros censurados respectivamente debido a leyes estatales que limitan el acceso a ciertos contenidos en las escuelas. Juntos, ambos estados representan más de 8.200 instancias de censura.

Entre los libros más censurados están títulos reconocidos como Nineteen Minutes de Jodi Picoult, una novela que aborda temas como la violencia escolar y que fue censurada en al menos 50 distritos escolares. Otros títulos frecuentemente prohibidos incluyen Looking for Alaska de John Green, The Perks of Being a Wallflower de Stephen Chbosky, Sold de Patricia McCormick y Thirteen Reasons Why de Jay Asher. Autores como Ellen Hopkins, Sarah J. Maas y Stephen King también han visto múltiples de sus obras censuradas; por ejemplo, 74 títulos de Stephen King y 22 de Maas fueron prohibidos en diferentes distritos escolares.

Jodi Picoult expresó su preocupación por esta censura, argumentando que su libro Nineteen Minutes, lejos de ser dañino, ha ayudado a muchos jóvenes a comprender sus sentimientos y desafíos. La autora señaló que la censura está privando a los estudiantes de herramientas esenciales para enfrentar un mundo cada vez más complejo y dividido. Las prohibiciones, dijo, «no están ayudando a los niños, sino que los están perjudicando».

Además de las prohibiciones directas, PEN America identifica una creciente «censura suave» en el sistema educativo. Esto incluye la cancelación de visitas de autores, la suspensión de ferias de libros y el cierre temporal de bibliotecas escolares para revisar sus colecciones. Este tipo de censura es más difícil de rastrear, ya que los libros son eliminados discretamente o los maestros y bibliotecarios se ven intimidados para evitar ciertos títulos. Esta situación ha creado un ambiente de autocensura en el que muchos educadores evitan introducir contenidos controvertidos, limitando así las oportunidades de los estudiantes para desarrollar habilidades de pensamiento crítico, empatía y comprensión cultural.

PEN America ha estado documentando el aumento de la censura en la educación pública de EE. UU. desde 2021 y continúa denunciando cómo estas restricciones afectan el derecho de los jóvenes a leer y aprender sin barreras. Según el informe, en el ciclo 2023-2024, 4,231 títulos únicos fueron censurados, impactando a 2,662 autores, 195 ilustradores y 31 traductores. Las prohibiciones han tenido un impacto desproporcionado en títulos que incluyen personajes LGBTQ+, personajes de color y temas relacionados con la sexualidad, lo cual refleja un sesgo en las políticas de censura.

Este aumento en las prohibiciones y en la censura general en las escuelas de EE. UU. es un síntoma de una creciente batalla cultural en torno al contenido educativo y el derecho de los estudiantes a acceder a una amplia variedad de perspectivas. Según PEN America, este ambiente restrictivo amenaza con limitar la capacidad de las próximas generaciones para entender y enfrentar los desafíos de la sociedad moderna.

Creative Commons lanza la Coalición TAROCH para el Acceso Abierto al Patrimonio Cultural

«Open Heritage Archives». 2024 Creative Commons. Accedido 2 de noviembre de 2024. https://creativecommons.org/category/open-culture/open-heritage/.

Creative Commons ha lanzado la Coalición TAROCH (Towards a Recommendation on Open Cultural Heritage) para fomentar el acceso abierto al patrimonio cultural. El objetivo principal de TAROCH es que los Estados miembros de la UNESCO adopten una recomendación para promover soluciones abiertas que permitan el acceso equitativo al patrimonio cultural, en línea con la misión de la UNESCO de promover el diálogo intercultural y el intercambio cultural.

La coalición, apoyada por el Fondo Arcadia y liderada por Creative Commons, reúne a una comunidad global de organizaciones dedicadas al patrimonio cultural y comprometidas con el acceso abierto. TAROCH se ha propuesto lograr, para mayo de 2026, una Declaración sobre el Acceso Abierto al Patrimonio Cultural, la cual podrá ser firmada por organizaciones de la sociedad civil, y una estrategia de incidencia para fomentar el reconocimiento del acceso abierto en el ámbito cultural.

Las instituciones interesadas en unirse a TAROCH pueden hacerlo a través de un formulario de solicitud, comprometiéndose con la misión de la coalición.

La IA generativa y la publicación científica. ¿Una tercera transformación?

Bergstrom, Tracy, y Dylan Ruediger. «A Third Transformation? Generative AI and Scholarly Publishing.» Ithaka S+R, 30 de octubre de 2024. https://sr.ithaka.org/publications/a-third-transformation/.

El informe A Third Transformation? Generative AI and Scholarly Publishing, publicado por Ithaka S+R y escrito por Tracy Bergstrom y Dylan Ruediger, examina el impacto potencial de la inteligencia artificial generativa en la industria de publicaciones académicas. A raíz de un informe anterior sobre la «segunda transformación digital» de la publicación académica, el nuevo informe explora cómo la IA generativa podría ser una «tercera transformación», cambiando la manera en que se realiza y comunica la investigación académica.

En 2023, aproximadamente el 1% de la literatura académica ya mostraba signos de haber sido creada parcialmente con IA generativa. Grandes editoriales han lanzado herramientas de búsqueda y descubrimiento potenciadas por IA, y también experimentan con su uso en procesos internos. El informe se basa en entrevistas con 12 líderes del sector, quienes ven la IA como una herramienta que mejorará la eficiencia en la redacción, revisión, edición y descubrimiento, acelerando así la investigación y la publicación académica.

El informe describe dos posibles futuros. En el primero, la IA generativa mejora la eficiencia sin cambiar fundamentalmente la industria. En el segundo, más transformador, la IA podría reconfigurar profundamente el sector, generando cambios que superen los de las transformaciones digitales previas. Aunque estos escenarios no se excluyen mutuamente, el informe sugiere que algunos aspectos de la publicación académica podrían experimentar cambios incrementales, mientras que otros serían profundamente alterados.

Contexto estratégico La publicación académica enfrenta oportunidades y desafíos debido a la IA generativa. Esta tecnología ofrece nuevas posibilidades, pero también genera incertidumbres y enfoques diversos entre las organizaciones.

Transición hacia la provisión de servicios El sector está evolucionando de un modelo centrado en la edición hacia uno basado en plataformas y servicios. La IA generativa acelera esta tendencia, promoviendo la integración de herramientas de descubrimiento, interpretación y escritura. Las plataformas ahora pueden ofrecer servicios completos para autores, investigadores y editores, como el asistente de Digital Science y el de Web of Science, que permiten búsqueda y resumen avanzados. También existen herramientas de IA como Paperpal y Writefull que mejoran la calidad de la escritura académica. La combinación de estas capacidades podría transformar a las editoriales en proveedores de infraestructura de investigación integral.

Revisión por pares La revisión por pares es un área clave donde la IA generativa puede ayudar a reducir la carga de trabajo al identificar revisores y revisar aspectos básicos de los manuscritos. Sin embargo, su implementación conlleva riesgos debido a posibles inexactitudes de la IA y la pérdida de la revisión experta y humana. Las editoriales exploran límites seguros para que la IA participe sin reemplazar la revisión humana. Además, deben abordarse preocupaciones de confidencialidad y de seguridad para su adopción.

Competencia y consolidación La IA generativa impacta la consolidación en el sector editorial. Las grandes editoriales están experimentando con la concesión de licencias de contenido para su uso en LLM comerciales, pero esto plantea riesgos estratégicos como la disminución de suscripciones. Las herramientas avanzadas de búsqueda, como Scopus AI, están cambiando la interacción de los investigadores con el contenido. La apertura del acceso también crea competencia con empresas tecnológicas que podrían reemplazar a las editoriales como principal fuente de contenido académico.

Desafíos éticos y de atribución El uso de IA generativa en la creación y edición plantea preguntas éticas sobre la atribución, reproducción y transparencia en la investigación. Varias editoriales han implementado políticas para limitar el uso de IA en la autoría y edición de contenidos, enfatizando la importancia de roles humanos en la investigación. La comunidad científica debe establecer normas claras para el uso de la IA en el proceso académico.

Futuro de la publicación académica La implementación de IA generativa podría reducir la dependencia de la interpretación humana en el proceso de publicación y fomentar una producción orientada a la legibilidad por máquinas, afectando así el propósito comunicativo de la publicación académica.

Bien Público Global de Confianza

La idea de que la investigación sea considerada un bien público global de confianza se ha visto desafiada en la última década por el fraude, la mala conducta y actividades maliciosas. La inteligencia artificial generativa ha intensificado las conversaciones sobre cómo mantener la confianza en la publicación académica. A pesar de los riesgos que plantea, muchos expertos ven en ella una oportunidad para hacer la publicación científica más accesible y útil como bien público.

Se considera que la inteligencia artificial generativa nivela el terreno de juego para autores y lectores. Los investigadores no angloparlantes están utilizando esta tecnología para mejorar la calidad de su escritura académica, lo que ha impactado negativamente a los proveedores de servicios de corrección de textos. Esto se percibe como un avance hacia la equidad y el acceso a revistas en inglés, facilitando la comunicación científica.

Además, hay interés en la posibilidad de automatizar la traducción, lo que permitiría que todo el registro académico sea accesible para hablantes de varios idiomas, ampliando así el mercado global de publicaciones.

Cálculo del Impacto

La segunda transformación digital ha establecido nuevos estándares, como los índices de citas, que podrían verse profundamente alterados por la inteligencia artificial generativa. Si los investigadores empiezan a utilizarla como un método intermedio para acceder al registro académico, esto podría afectar cómo se evalúa el impacto de la investigación.

Se identificó una necesidad urgente de desarrollar métricas que complementen los métricas COUNTER, las cuales son esenciales para las bibliotecas y las editoriales en relación con el valor de sus colecciones. Se plantearon dos desafíos principales:

  1. Limitaciones de las métricas tradicionales: Estas solo cuentan el compromiso con elementos que tienen un Identificador Único de Recurso (URI). La IA generativa promueve la creación de contenido personalizado, que es efímero y no deja un registro formal, lo que dificulta su conteo en las métricas tradicionales.
  2. Falta de medición del compromiso: Las métricas COUNTER no evalúan el nivel de compromiso con un recurso específico. Aunque permiten diferenciar entre investigaciones y solicitudes, no miden el compromiso prolongado. Con la inteligencia artificial generativa, será posible realizar múltiples consultas adaptativas a un mismo recurso, lo que sugiere la necesidad de desarrollar métricas que capturen la profundidad del compromiso de los investigadores con los recursos individuales.

Nuevas Oportunidades para la Infraestructura Compartida

Esta sección explora oportunidades para crear nuevas categorías de infraestructura compartida en el contexto del desarrollo de la inteligencia artificial generativa y su impacto en la publicación académica. A medida que la transformación digital avanza, es crucial establecer estándares y estructuras que aseguren la organización y mantenimiento del registro académico.

Eje del Registro Académico

El «eje del registro académico» se refiere a la necesidad de una infraestructura que vincule de manera persistente componentes atomizados de investigación, como preprints y conjuntos de datos. La llegada de modelos de lenguaje (LLMs) complica la citación y comprensión de la información, pues frecuentemente generan salidas que son difíciles de rastrear hasta su contexto original. A pesar de los beneficios de la automatización en la documentación de datos, existe el riesgo de que la publicación se vuelva más centrada en los datos, disminuyendo el valor de los editores.

Recomendaciones

  1. Colaboración y Estandarización: Se sugiere que las organizaciones de publicación colaboren en la creación de metadatos estandarizados que faciliten la citabilidad y transparencia de los contenidos generados por inteligencia artificial.
  2. Consenso en la Comunidad de Investigación: Las comunidades de investigación deben establecer acuerdos sobre cómo citar contenidos generados por IA y su valor histórico, priorizando la preservación.

Integridad de la Investigación

La falta de confiabilidad en el contenido subyacente a los LLMs plantea preocupaciones sobre la integridad del registro académico. A pesar de la disponibilidad de datos de alta calidad, los LLMs cometen errores y carecen de transparencia, lo que dificulta la confianza en los resultados de la investigación.

Se propone la necesidad de nuevos estándares que aseguren la consistencia y transparencia en el uso de herramientas de IA generativa. Además, las bibliotecas de investigación deben desempeñar un papel activo en garantizar la verificabilidad de la comunicación académica.

La tecnología de IA generativa también presenta desafíos para la detección de fraudes académicos, ya que puede facilitar la creación de contenido fraudulento. Sin embargo, también se sugiere que estas herramientas pueden fortalecer los metadatos y mejorar la calidad de los manuscritos.

Recomendaciones

  1. Fortalecimiento de la Calidad del Contenido: Las editoriales deben abogar por contenido de alta calidad y colaborar con proveedores de tecnología para establecer marcadores de confianza.
  2. Colaboración Interdisciplinaria: Se recomienda fomentar discusiones entre todos los actores del ciclo de investigación para garantizar la integridad de la investigación científica.

Generando Significado

El registro académico permite a diversas comunidades generar nuevo conocimiento. Sin embargo, con la llegada de LLMs, surge la pregunta sobre cómo afectará esto a la producción futura de investigación. Aunque la IA generativa democratiza el acceso a la información, también plantea interrogantes sobre el papel del investigador humano en la creación narrativa.

Las herramientas de IA generativa podrían transformar cómo se realiza la investigación, permitiendo la automatización de ideas y experimentos, lo que podría llevar a una transición hacia la investigación liderada por máquinas.

Recomendaciones

  1. Desarrollo de un Vocabulario Común: Se sugiere establecer un vocabulario común sobre el uso de trabajos generados por IA para facilitar la comprensión de los investigadores.
  2. Evolución de las Métricas de Impacto: Se recomienda financiar un estudio para investigar cómo deben evolucionar las métricas COUNTER para adaptarse a las nuevas realidades.

Modelos de Negocio Nuevos

La rápida innovación en el espacio de IA generativa requiere que las organizaciones de publicación adapten sus modelos de negocio. La falta de un entendimiento común sobre las oportunidades y riesgos de la IA generativa entre autores y editoriales ha generado la necesidad de un diálogo abierto.

Se observa que servicios como la corrección de textos y la traducción ya están experimentando disrupciones debido a la IA generativa, lo que plantea retos para las editoriales más pequeñas.

Recomendaciones

  1. Construcción de Comprensión Compartida: Las partes interesadas deben trabajar juntas para construir una comprensión compartida sobre el valor y los riesgos de la IA generativa en la comunicación académica.
  2. Servicios de Traducción de Calidad: Se recomienda que los servicios de traducción on-demand integrados en herramientas de IA generativa sean cuidadosamente evaluados para su uso en contextos académicos, considerando también los modelos de descuento para países no anglófonos.

Desbloqueo de datos del Pacto Verde: enfoques innovadores para la gobernanza y el intercambio de datos en Europa

Ponti, M., Maccani, G., Portela, M., Pierri, P. et al., Unlocking Green Deal data – Innovative approaches for data governance and sharing in Europe, Maccani, G.(editor) and Thabit Gonzalez, S.(editor), Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2760/0517622

El informe Unlocking Green Deal Data: Innovative Approaches for Data Governance and Sharing in Europe analiza enfoques innovadores para gestionar y compartir datos en apoyo a los objetivos del Pacto Verde Europeo. Basándose en el marco político y legal de la Estrategia Europea de Datos (2020) y en la creación de espacios comunes de datos europeos, el informe examina la gobernanza y el intercambio de datos relacionados con el Pacto Verde, enfocándose en nuevos instrumentos regulatorios, como la Ley de Gobernanza de Datos y la Ley de Datos.

Se analizan los incentivos y desincentivos actuales para el intercambio de datos, el papel de los intermediarios de datos y las organizaciones de altruismo de datos, así como prácticas de gobernanza relacionadas con los datos generados por los ciudadanos (CGD). Además, incluye perspectivas del sector privado y presenta recomendaciones para apoyar la revisión de la Directiva INSPIRE (2007), en el contexto del espacio común de datos del Pacto Verde Europeo, fomentando un ecosistema de datos más justo y sostenible.

La desaparición de la cultura: un informe sobre nuestro frágil patrimonio cultural

Vanishing Culture: A Report on Our Fragile Cultural Record, edited by Luca Messarra, Chris Freeland and Juliya Ziskina.

Texto completo

Los ataques informáticos, que han afectado a instituciones como el Internet Archive, la Biblioteca Británica y otras bibliotecas de Norteamérica, también amenazan la preservación de la cultura digital, interfiriendo con la infraestructura que la protege. El informe aboga por la necesidad de fortalecer el papel de las bibliotecas y archivos públicos, otorgándoles respaldo legal, cultural y financiero, para garantizar el acceso a nuestro legado cultural en el futuro.

En los últimos días de preparación del informe, el Internet Archive sufrió un ataque de denegación de servicio distribuido (DDoS) que dejó sus servicios fuera de línea durante cuatro días, recuperándose luego de manera provisional. Este incidente refleja una tendencia alarmante: los ciberataques contra bibliotecas e instituciones de memoria. Además del Internet Archive, otras bibliotecas como la Biblioteca Británica y la Biblioteca Pública de Seattle también han sido atacadas, y la Biblioteca Pública de Calgary tuvo que cerrar incluso sus sedes físicas debido a uno de estos incidentes.

Estas amenazas no solo interrumpen el acceso, sino que ponen en peligro los sistemas que garantizan la preservación de nuestro conocimiento. La pérdida de acceso a las colecciones digitales, aunque sea temporal, tiene graves implicaciones: interrumpe la investigación, frena el acceso público a la información y crea vacíos en la memoria pública. Un usuario en X señaló la ironía de este ataque, realizado en medio de un huracán, conflictos bélicos y elecciones en EE. UU.

Este ataque subraya la fragilidad de nuestro paisaje digital. Ante estas crecientes amenazas, se hace evidente la necesidad de investigar cómo proteger mejor las bibliotecas digitales y sus archivos culturales, cuya preservación es crucial en una era de cultura en constante desaparición.

El informe Vanishing Culture: A Report on Our Fragile Cultural Record analiza cómo los intereses corporativos y los cambios en la distribución de medios limitan el acceso público a su propio registro cultural. La proliferación de contenido digital a través de plataformas de streaming y licencias temporales, en lugar de la propiedad permanente, pone en riesgo que grabaciones, libros, programas de televisión y películas desaparezcan de las plataformas sin ser archivados. Esto implica que la expresión cultural queda a merced de los conglomerados mediáticos.

El informe está dividido en dos partes. La primera, “Preservación de Medios y la Construcción de la Memoria Pública,” explora el impacto de este cambio hacia el streaming y la pérdida de propiedad, destacando estudios sobre la pérdida digital y materiales preservados por el Internet Archive. Se incluye una revisión histórica sobre la pérdida cultural en cine y música, y se sugiere que los individuos tomen acción para ayudar a crear un ecosistema mediático accesible y duradero.

La segunda parte, “Narrativas de Preservación y Pérdida Cultural,” ofrece ensayos de académicos y defensores de la preservación, quienes destacan por qué es crucial preservar medios específicos, como las historias laborales de las mujeres (por medio de libros de cocina y redes sociales) y materiales educativos antiguos. Estas narrativas subrayan que solo a través de actos intencionados de preservación se podrán recordar estos elementos culturales.

En conjunto, el informe insta a reconocer la importancia de la preservación y el acceso para el bien público, y aboga por cambios necesarios para proteger nuestro patrimonio físico y digital.

Definición «oficial» de Inteligencia Artificial (IA) de código abierto

The open source ai definition 1.0. Open Source Initiative, 2024

Ver

Se presenta la primera definición oficial de inteligencia artificial de código abierto, conocida como Open Source AI Definition (OSAID), elaborada por la Open Source Initiative (OSI). Esta definición surge de años de colaboración con académicos e industriales y tiene como objetivo establecer un estándar claro que permita identificar si un modelo de IA es realmente de código abierto.

Una de las principales motivaciones para esta definición es alinear a los legisladores y desarrolladores de IA, especialmente en un contexto donde organismos como la Comisión Europea están considerando un reconocimiento especial para el código abierto. Según Stefano Maffulli, vicepresidente de la OSI, el objetivo es que, al haber consenso, se reduzcan las confusiones sobre lo que se considera realmente «código abierto».

Para que un modelo de IA se considere de código abierto bajo la OSAID, debe proporcionar suficiente información sobre su diseño, de manera que cualquier persona pueda recrearlo sustancialmente. Esto incluye detalles sobre los datos de entrenamiento, su origen y cómo se pueden obtener o licenciar. Maffulli enfatiza que un modelo de IA de código abierto debe permitir a los usuarios entender completamente su construcción y modificarlo libremente.

Sin embargo, la OSI no cuenta con mecanismos de cumplimiento para obligar a los desarrolladores a seguir la OSAID. Su intención es señalar aquellos modelos que se etiquetan como “código abierto” pero que no cumplen con la definición. La OSI espera que la comunidad de IA no reconozca modelos mal etiquetados, lo que podría llevar a correcciones en el uso del término.

A pesar de la participación de grandes empresas tecnológicas, como Meta, en la elaboración de la OSAID, muchas de estas han sido criticadas por no cumplir con sus criterios. Por ejemplo, Meta requiere licencias especiales para usar sus modelos Llama, lo que contradice la esencia de ser “código abierto”. La situación es similar con otras empresas, donde los modelos se presentan como abiertos, pero con restricciones significativas.

El artículo también destaca que un estudio reciente encontró que muchos modelos de “código abierto” son en realidad solo nominalmente abiertos, ya que mantienen en secreto datos de entrenamiento y requieren recursos computacionales que son inaccesibles para muchos desarrolladores. Esto sugiere que, en lugar de democratizar la IA, estos proyectos pueden consolidar el poder centralizado.

Además, hay voces críticas, como la de Meta, que argumentan que la OSAID no aborda adecuadamente las complejidades de los modelos de IA modernos. Meta defiende su enfoque cauteloso en cuanto a la divulgación de datos de entrenamiento, alegando que esto es necesario para evitar implementaciones dañinas.

El artículo también menciona que la OSAID no aborda cuestiones de derechos de autor y licencias de datos de entrenamiento, lo que podría limitar su efectividad. Maffulli reconoce que la definición necesitará revisiones y actualizaciones, y la OSI ha creado un comité para supervisar su aplicación y proponer enmiendas en el futuro.

En resumen, la OSAID representa un avance significativo en la clarificación de lo que constituye la inteligencia artificial de código abierto, pero aún enfrenta desafíos y críticas que deberán abordarse para que sea realmente efectiva y útil en la práctica.

Por qué es importante recordar que la IA no es humana

Millière, Raphaël, y Charles Rathkopf. «Why It’s Important to Remember That AI Isn’t Human.» Vox, 23 de noviembre de 2023. https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding.

Desde su lanzamiento, ChatGPT ha suscitado opiniones polarizadas en la comunidad científica. Algunos expertos consideran que representa un avance hacia una superinteligencia que podría transformar o incluso amenazar la civilización. Otros, sin embargo, lo ven como un desarrollo técnico que, aunque impresionante, no va más allá de la capacidad de completar textos de manera avanzada. Esta disparidad de opiniones refleja una falta de consenso sobre cómo entender realmente estas tecnologías.

Tradicionalmente, la competencia lingüística ha sido vista como un signo de una mente racional. Los modelos de lenguaje, al mostrar habilidades que superan incluso las de los humanos en algunos aspectos, han desafiado esta noción. Millière y Rathkopf sugieren que al interactuar con estos modelos, la impresión de que están “pensando” o “comprendiendo” puede ser engañosa. Esto plantea un dilema filosófico: ¿hemos perdido el vínculo entre el lenguaje y la mente, o han surgido nuevas formas de cognición?

El artículo también destaca cómo los humanos manejamos la ambigüedad en la conversación, algo que los modelos de lenguaje aún no pueden replicar completamente. Cuando interactuamos con un chatbot, nuestra mente intenta adivinar las intenciones del «hablante», pero esto puede llevarnos a errores si asumimos que el modelo tiene deseos o motivaciones humanas. Este aspecto revela la complejidad del lenguaje humano y la forma en que nuestros cerebros interpretan significados en contextos específicos.

Los autores advierten sobre los peligros de la antropomorfización, es decir, atribuir características humanas a las máquinas. Un ejemplo citado es el caso de LaMDA, donde un ingeniero tomó en serio la afirmación del modelo de que deseaba libertad. Esto ilustra cómo las expectativas erróneas sobre la naturaleza de los modelos de lenguaje pueden inducir a la confusión y a una comprensión incorrecta de sus capacidades. La antropomorfización puede llevar a malentendidos que obstaculizan un debate informativo sobre la ética y la regulación de la IA.

El antropocentrismo también se critica en el artículo, ya que implica que solo las capacidades humanas son dignas de reconocimiento. Este punto de vista puede limitar la comprensión de lo que los modelos de lenguaje pueden hacer. Por ejemplo, la habilidad de un modelo para resumir textos no debe ser descalificada como un simple truco, sino que debe ser considerada como un logro en su propia forma de procesamiento de información. Rechazar este enfoque puede llevar a un subestimación del potencial de la inteligencia artificial.

Millière y Rathkopf sugieren adoptar un enfoque de “dividir y conquistar”, similar al utilizado en la psicología comparativa. En lugar de clasificar a los modelos de lenguaje como simplemente «humanos» o «no humanos», se debe investigar cómo operan y cuáles son sus capacidades específicas. Este enfoque podría abrir nuevas vías para entender la inteligencia artificial y evitar las limitaciones de las comparaciones directas con la mente humana.

En última instancia, el artículo aboga por una comprensión más matizada de los modelos de lenguaje, reconociendo sus capacidades sin caer en la trampa de pensar que tienen una mente en el sentido humano. La investigación futura debería centrarse en desentrañar los mecanismos internos que permiten el funcionamiento de estos modelos, adoptando una perspectiva científica que no dependa de los estándares humanos. Este análisis no solo es importante para la regulación y la ética en torno a la IA, sino también para la forma en que interactuamos con estas tecnologías en nuestra vida cotidiana. La aceptación de que no existe un «hecho profundo» sobre si estos modelos tienen o no mente puede ayudarnos a utilizar mejor sus capacidades sin las confusiones que surgen de su similitud en la comunicación.

TikTok publicará libros físicos a través de su empresa editorial 8th Note Press.

«TikTok’s Innovative New Idea: Printing Books on Paper», A. O. L. 26 de octubre de 2024. https://www.aol.com/tiktoks-innovative-idea-printing-books-135910213.html.

TikTok, a plataforma conocida por su comunidad de amantes de los libros llamada «BookTok», está dando un paso innovador al incursionar en la publicación de libros físicos a través de su empresa editorial, 8th Note Press. Tras el éxito rotundo de BookTok, que ha impulsado notablemente las ventas de libros, ByteDance, la empresa matriz de TikTok, ha decidido colaborar con Zando, una editorial independiente, para lanzar una línea de novelas impresas a partir de 2025.

Esta nueva estrategia de publicación se centrará en géneros populares en TikTok, como el romance y la ficción juvenil. Jacob Bronstein, director editorial y de marketing de 8th Note Press, expresó su entusiasmo por la colaboración, destacando que permitirá ampliar su alcance y ofrecer libros en diversos formatos. Zando también enfatiza su compromiso de presentar voces diversas que resuenen con los lectores de las generaciones millennial y Z.

El fenómeno de BookTok ha catapultado a la fama tanto a autores noveles como consagrados, como es el caso de Colleen Hoover, cuya novela «It Ends with Us» experimentó un incremento del 650% en ventas después de volverse viral en TikTok. Ahora, TikTok busca anticiparse a las tendencias en línea para publicar libros en respuesta a los intereses de sus usuarios.

8th Note Press planea publicar entre 10 y 15 libros al año, reflejando las experiencias diversas de su audiencia juvenil. Autores emergentes, como Sanibel, están emocionados por esta nueva oportunidad y reconocen el carácter innovador de la editorial, que se encuentra en una etapa de crecimiento.

Preprints revisados por pares y el modelo Publish-Review-Curate (PRC)

Bourguet, D. ; Guillemaud, T. «Peer-reviewed preprints and the Publish-Review-Curate model | Plan S». Accedido 29 de octubre de 2024. https://www.coalition-s.org/blog/peer-reviewed-preprints-and-the-publish-review-curate-model/.

El modelo tradicional de publicación científica enfrenta críticas crecientes por ser lento, poco transparente y controlado por un número limitado de editores y revisores. Este modelo, en el que los artículos pueden tardar meses o años en ser evaluados y aceptados para su publicación, ha sido señalado como ineficiente y, en algunos casos, obsoleto. En este contexto, han surgido alternativas como los preprints revisados por pares y el modelo Publish-Review-Curate (PRC), que buscan hacer el proceso de publicación más accesible, abierto y rápido.

Entre las alternativas emergentes se encuentran los preprints revisados por pares, en los que los autores suben versiones preliminares de sus artículos a servidores públicos antes de ser revisados formalmente. Esto permite que sus resultados estén disponibles de inmediato, acelerando la difusión del conocimiento. En la modalidad de preprints revisados, servicios especializados llevan a cabo la revisión formal de estos documentos y publican las evaluaciones de manera abierta. Ejemplos de estos servicios incluyen Review Commons, PREreview y Peer Community In (PCI), los cuales permiten que los lectores accedan tanto al artículo como a los comentarios de expertos en el campo, proporcionando una perspectiva crítica adicional.

El modelo Publish-Review-Curate (PRC) agrega una fase de curación que va más allá de la revisión. A diferencia del modelo de preprints revisados, el modelo PRC organiza los artículos en colecciones seleccionadas, que se presentan en revistas o plataformas específicas. La curación actúa como un filtro adicional que resalta aquellos artículos que cumplen con ciertos estándares de calidad, dándoles una mayor visibilidad. Sin embargo, esta curación no implica necesariamente una validación formal, sino que funciona como una recomendación de lectura para quienes estén interesados en el tema. Un ejemplo de este enfoque es el de eLife, donde los artículos se publican primero como preprints y, tras la revisión, no se les asigna una decisión de “aceptación” o “rechazo” tradicional, sino que se publican junto a revisiones y evaluaciones editoriales cualitativas.

Estos modelos alternativos, aunque ofrecen transparencia y accesibilidad, también introducen ambigüedades en torno a los conceptos de revisión y curación. Por un lado, la revisión por pares no siempre equivale a una validación; muchas veces, los lectores asumen que un artículo revisado por pares ha sido validado científicamente, cuando en realidad no siempre es así. Las revisiones brindan críticas constructivas, pero no necesariamente una evaluación concluyente, lo cual puede confundir a lectores menos familiarizados con el proceso. Por otro lado, la curación tampoco implica validación. Aunque se asocia con la selección de artículos destacados, no necesariamente significa que estos hayan pasado por una evaluación exhaustiva, lo cual puede inducir a error si el lector asume que todos los artículos curados son de alta calidad.

Para abordar estas ambigüedades, Peer Community In (PCI) propone un enfoque de validación binaria en el que cada artículo revisado recibe una decisión clara de «aceptación» o «rechazo». Este enfoque permite ofrecer a los lectores una señal inequívoca sobre la calidad y relevancia del artículo, lo que reduce el riesgo de malinterpretaciones sobre su nivel de validación. Dentro de este marco, PCI sugiere dos variantes del modelo PRC: en el primero, la curación implica validación (Publish-Review-Curate=Validate); en el segundo, la validación ocurre antes de la curación (Publish-Review=>Validate-Curate), lo que da al artículo ya validado una visibilidad adicional.

Comparado con el sistema tradicional, el modelo PRC con validación binaria ofrece diversas ventajas: elimina los largos retrasos al hacer los preprints públicos de inmediato; promueve la transparencia al hacer accesibles las revisiones; fomenta la equidad mediante criterios de evaluación abiertos; y permite una mayor diversidad de evaluadores, introduciendo múltiples perspectivas y reduciendo la centralización del proceso en un pequeño grupo de editores.

En conclusión, el modelo Publish-Review-Curate, especialmente cuando incorpora una validación binaria, se presenta como una alternativa robusta y transparente al modelo de publicación científica tradicional. A medida que estos modelos se ajusten y perfeccionen, es probable que ganen terreno dentro del ecosistema de investigación, proporcionando una respuesta a las limitaciones del sistema tradicional y ofreciendo mayor accesibilidad, rapidez y transparencia en la publicación científica.

Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto

Research Transformation: Change in the Era of AI, Open and Impact. Digital Science, 2024

Texto completo

El informe Research Transformation: Change in the Era of AI, Open and Impact, publicado el 28 de octubre de 2024 en Digital Science, explora cómo la investigación se transforma, qué factores impulsan el cambio y cómo se ven afectados los roles en este ámbito. Digital Science encuestó y entrevistó en profundidad a la comunidad investigadora para analizar estos aspectos.

Los hallazgos destacan cinco puntos clave:

  1. La investigación abierta transforma el campo, aunque persisten barreras.
  2. Las métricas de investigación evolucionan hacia un enfoque inclusivo y de impacto integral.
  3. La IA ofrece un enorme potencial transformador, aunque la burocracia y las brechas de habilidades limitan su avance.
  4. La colaboración aumenta, aunque crecen las preocupaciones sobre financiamiento y seguridad.
  5. La gestión de riesgos y la seguridad exigen un cambio estratégico y cultural.

El estudio se basa en encuestas realizadas entre mayo y julio de 2024, en las que participaron 380 personas de 70 países, y en entrevistas en profundidad con 15 miembros de la comunidad académica durante el verano de 2024.

Temas clave:

1. La investigación abierta está transformando la investigación, pero sigue habiendo obstáculos

  • La investigación abierta se cita como el cambio más positivo de los últimos cinco años
  • La investigación abierta encabeza los cambios que la comunidad desearía ver en los próximos cinco años
  • Los retos de la investigación abierta son la falta de concienciación, financiación, apoyo, recursos e infraestructura.
  • Preocupación por la seguridad de los datos, la calidad de la investigación y la competitividad.

2. Las métricas de investigación están evolucionando para hacer hincapié en el impacto holístico y la inclusividad

  • Frustración con las métricas tradicionales, pero siguen teniendo peso
  • Llamamiento a una evaluación más holística del impacto y la calidad de la investigación
  • Un cambio limitado hacia un uso más responsable de las métricas tradicionales y la introducción de métricas alternativas
  • Los institutos abordan los problemas de la cultura académica, pero necesitan un mayor reconocimiento de las contribuciones no tradicionales

3. El potencial transformador de la IA es enorme, pero la burocracia y las carencias de cualificación amenazan el progreso

  • El entusiasmo por la IA se ve atenuado por las preocupaciones en torno a la ética, la seguridad y la integridad, así como por los prejuicios, las alucinaciones y el impacto de la IA en el pensamiento crítico.
  • Las tecnologías emergentes seguirán influyendo en las funciones durante los próximos cinco años
  • Se espera que las nuevas tecnologías impulsen la eficiencia en datos y análisis, y abran la investigación
  • Llamamiento para abordar las carencias de competencias en IA e introducir estrategias de gestión del cambio

4. La colaboración está en auge, pero aumenta la preocupación por la financiación y la seguridad

  • La tecnología interconectada y la investigación abierta favorecen una mayor conectividad global
  • La colaboración tiene múltiples beneficios, por ejemplo, puede aumentar las citas y mejorar la calidad de la investigación
  • Es fácil encontrar colaboradores, pero escasean los fondos para apoyar la colaboración
  • Crece la preocupación por la seguridad de la investigación y las colaboraciones «perjudiciales

5. La seguridad y la gestión de riesgos necesitan una revisión estratégica y cultural

  • Tendencia a «esperar y ver», en lugar de una gestión proactiva
  • Las amenazas a la seguridad ponen en peligro las colaboraciones internacionales en investigación
  • Las instituciones deben equilibrar el riesgo y la innovación, pero no están preparadas.
  • La gestión de riesgos entra en conflicto con otras prioridades