MusicLM es un modelo que genera música de alta fidelidad a partir de descripciones textuales como «una relajante melodía de violín acompañada de un riff de guitarra distorsionado». MusicLM plantea el proceso de generación de música condicional como una tarea de modelado jerárquico secuencia a secuencia, y genera música a 24 kHz que se mantiene constante durante varios minutos.
La revolución de la IA: En 2022, ChatGPT, DALL-E 2 y otras IA avanzadas capaces de generar texto o imágenes impresionantes en respuesta a comandos de usuario ganaron popularidad. Sin embargo, no fueron las primeras IA generativas ni los únicos ejemplos de lo que las redes neuronales pueden hacer.
¿Qué hay de nuevo? La novedad es MusicLM, un generador de música basado en IA presentado por Google en enero de 2023. Esta tecnología representa uno de los ejemplos más impresionantes, ya que puede generar clips de hasta 5 minutos de duración basados en descripciones de texto, logrando que la música suene más parecida a algo que podría grabar un humano que otros generadores de IA.
MusicLM supera a los sistemas anteriores tanto en calidad de audio como en adherencia a la descripción textual. Además, demostramos que MusicLM puede condicionarse tanto al texto como a una melodía, ya que puede transformar melodías silbadas y tarareadas según el estilo descrito en un pie de texto.
¿Cómo funciona? Google entrenó MusicLM con más de 280.000 horas de música proveniente de MuLan, un modelo entrenado para vincular la música con descripciones escritas en lenguaje natural. Luego, crearon MusicCaps, un conjunto de datos públicamente accesible con más de 5.500 clips de música para evaluar el generador de música de IA.
En comparación con otros generadores de música basados en texto, como Mubert y Riffusion, Google enfrentó a MusicLM a través de varias métricas cuantitativas para evaluar la calidad auditiva y la adherencia a una descripción de texto. Según un documento compartido por Google en el servidor de preimpresión arXiv, MusicLM superó a las otras IA en todos los aspectos evaluados.
Mirando hacia el futuro: Aunque MusicLM puede producir audio que suena más cercano a la música escrita por humanos, aún no puede replicar estructuras de canciones tradicionales y la calidad vocal es deficiente. Google destaca la necesidad de trabajos futuros para abordar estos problemas y mejorar la calidad general del audio. Además, aproximadamente el 1% de la producción de MusicLM se puede emparejar aproximadamente con el audio en sus datos de entrenamiento, un problema que debe abordarse antes de su lanzamiento público.
«Nadie sabe cómo será el futuro, pero sí sabemos cómo no será. Sabemos que no será muchos niños sentados en escritorios con lápiz y papel, escribiendo todo el día»
Seymour Papert, profesor de educación en el MIT y cofundador de su influyente Media Lab y Artificial Intelligence Lab.
Han pasado más de 50 años desde que Seymour Papert empezó a desafiar nuestras creencias sobre cómo debían ser las escuelas. Su visión era que los niños aprendieran construyendo cosas que les apasionaran. Así nació la pedagogía construccionista. Como suele ocurrir, las ideas de Papert se consideraron disruptivas en su momento e indignaron a los diseñadores de planes de estudios tradicionales. Y aunque hoy en día son ampliamente aceptadas e incluso celebradas, aún nos queda mucho camino por recorrer para ponerlas en práctica. Lamentablemente, seguimos «jugueteando mientras Roma arde», como sugería el título de su último libro inacabado.
Papert estaba fascinado por los engranajes. Como más tarde se dio cuenta, esto le ayudó mucho a comprender y apreciar las matemáticas en la escuela. «Un Montessori moderno podría proponer, si se convence por mi historia, crear un conjunto de engranajes para niños. Así, cada niño podría tener la experiencia que yo tuve», escribió en 1980 en su primer libro sobre educación, «Mindstorms: Children, Computers, and Powerful Ideas». «Pero esperar esto sería perder la esencia de la historia. Me enamoré de los engranajes. (…) Algo muy personal sucedió, y no se puede asumir que se repetiría para otros niños exactamente de la misma manera».
En cambio, propuso que las computadoras podrían convertirse en los engranajes para que todos se enamoraran. Son lo suficientemente flexibles para que cada niño pueda crear lo que realmente le interesa. Y esto es lo que lo inspiró a crear el lenguaje de programación Logo. Era mucho más que una plataforma de codificación: ¡podía controlar una tortuga robótica con un bolígrafo! Los niños podían escribir código para hacer que la tortuga se moviera y dibujara diferentes formas. En otras palabras, podían convertir lo que estaban trabajando en algo real.
Papert luego trabajó con LEGO para experimentar más, y más tarde el fabricante de juguetes nombró a sus kits educativos robóticos Mindstorms en reconocimiento a su influyente libro. Avancemos un par de décadas, y uno de los estudiantes de Papert y luego asociado en el MIT, Mitch Resnick, creó Scratch, un lenguaje de programación basado en bloques para niños que cuenta con casi 60 millones de usuarios hoy. En 2015, Micro:bit nació en la misma línea: el microcontrolador con sensores y un lenguaje de programación basado en bloques fácil de usar se puede utilizar de un millón de maneras para interactuar con objetos del mundo real.
Estas invenciones de tecnología educativa sirven al mismo propósito: ayudar a los niños a aprender construyendo sobre lo que les interesa, en lugar de estandarizar el proceso de aprendizaje y hacer que todos se enfoquen en lo mismo. Los niños pueden trabajar hacia un objetivo en el que creen, en lugar de estudiar solo porque alguien lo dijo.
El advenimiento del aprendizaje activo Papert fue más que un investigador ingenuo enamorado de la nueva tecnología y obsesionado con las computadoras. Sus ideas sobre la educación se basaron en un sólido fondo teórico. Al principio de su carrera, estudió el desarrollo cognitivo de los niños en la Universidad de Ginebra con el renombrado filósofo y psicólogo suizo Jean Piaget, y esta colaboración condujo finalmente a los fundamentos de la pedagogía construccionista.
Piaget es venerado por generaciones de maestros inspirados por la creencia de que los niños no son recipientes vacíos para llenar de conocimiento (como lo sostiene la teoría pedagógica tradicional), sino constructores activos del conocimiento —pequeños científicos que constantemente crean y prueban sus propias teorías sobre el mundo», escribió Papert sobre su mentor. «A medida que la tecnología digital brinda a los niños una mayor autonomía para explorar mundos más grandes, las ideas que él pioneriza se vuelven más urgentemente relevantes para padres y educadores».
Desde la construcción de ideas hasta la creación de cosas. Ambos creían que los niños deberían desempeñar un papel activo en el proceso de aprendizaje. Como explicó Piaget, «los niños tienen una comprensión real solo de aquello que inventan ellos mismos, y cada vez que intentamos enseñarles algo demasiado rápido, les impedimos reinventarlo por sí mismos». En otras palabras, adquieren conocimiento interactuando con el mundo y construyendo estructuras de conocimiento basadas en sus propias experiencias.
Papert llevó las ideas de Piaget sobre la pedagogía constructivista un paso más allá al afirmar que los niños deberían construir algo para que puedan comprender mejor lo que queremos enseñarles. Su pedagogía construccionista sugiere que el aprendizaje debe ser un proceso creativo sin límites que dé como resultado un proyecto terminado que se pueda compartir con otros. Aunque era consciente de las limitaciones de Logo y la tortuga, Papert imaginó crear herramientas que permitieran a los niños aprender de manera más natural, como cuando alguien aprende francés viviendo en Francia en lugar de aprender el idioma en la escuela.
No enseñar matemáticas y arte por separado «Lo peor del currículo escolar es la fragmentación del conocimiento en pequeños fragmentos», argumentó Papert, antes de que Ken Robinson popularizara esta idea en sus charlas de TED vistas por cientos de millones. «Se supone que esto facilita el aprendizaje, pero a menudo termina privando al conocimiento de un significado personal y haciéndolo aburrido.
Pregúntele a algunos niños: la razón por la que a la mayoría no le gusta la escuela no es que el trabajo sea demasiado difícil, sino que es aburrido en extremo». Sus experimentos escolares revelaron que a los niños no les importaba trabajar duro en absoluto si el plan de estudios era atractivo. «Aprender es esencialmente difícil; sucede mejor cuando uno está profundamente comprometido en actividades difíciles y desafiantes. La comunidad de diseñadores de juegos ha entendido (para su gran beneficio) que esto no es motivo de preocupación.
De hecho, los niños prefieren cosas que son difíciles, siempre y cuando también sean interesantes. Papert reimaginó el aprendizaje como un proceso más orgánico: «los niños que aprenden a programar están aprendiendo ideas importantes sobre el movimiento, sobre la retroalimentación, están aprendiendo principios de diseño de ingeniería, sobre todo, están aprendiendo que el conocimiento es una cosa unificada, que el conocimiento científico y formal y matemático no es algo separado de su pasión por los juguetes, de las cosas que hicieron desde que eran niños pequeños».
Dar más libertad para explorar Es importante dejar volar la imaginación de los niños para que puedan experimentar las matemáticas como un matemático explorando nuevas ideas. Papert creía que deberíamos combinar la libertad que disfrutan los estudiantes en una clase de arte con la informática para incluir matemáticas e ingeniería.
Veía el aprendizaje como un proceso natural que a menudo se estropea por la coerción. En cambio, las escuelas deberían ser un lugar donde los niños tengan «permiso para pensar, soñar, mirar, obtener una nueva idea y probarla y abandonarla o persistir, tiempo para hablar, ver el trabajo de otras personas» y discutir las reacciones de los demás.
La educación debería involucrar a todos Papert, apodado ‘el inventor de todo lo bueno en educación’, estaba decidido a compartir sus descubrimientos de la manera más amplia posible. «Pocos académicos de la estatura de Papert han pasado tanto tiempo como él trabajando en escuelas reales. Se deleitaba en las teorías, ingenio y juego de los niños. Trabajar o programar con ellos fue la causa de muchas reuniones perdidas», recuerda uno de sus colegas. Puede haber comenzado experimentando con Logo y la tortuga mecánica en el MIT, pero luego los llevó a estudiantes que fueron dejados atrás por la sociedad.
Para muchos de nosotros, Seymour cambió fundamentalmente la forma en que pensamos sobre el aprendizaje, la forma en que pensamos sobre los niños y la forma en que pensamos sobre la tecnología, dice Mick Resnick, quien lidera el grupo de investigación Lifelong Kindergarten del Media Lab. Hoy en día, tenemos una gran cantidad de herramientas de tecnología educativa disponibles para integrar el construccionismo en el aula del siglo XXI. De hecho, nunca hemos estado tan cerca de hacer realidad las ideas de Papert. Solo una palabra de advertencia: el propósito de invertir en tecnología nueva y brillante debería ir más allá de mejorar los antiguos modelos de aprendizaje e introducir algo nuevo que beneficie a los niños y maestros, y a la sociedad en su conjunto.
Adetayo, A.J. (2023), «Artificial intelligence chatbots in academic libraries: the rise of ChatGPT«, Library Hi Tech News, Vol. 40 No. 3, pp. 18-21. https://doi.org/10.1108/LHTN-01-2023-0007
El estudio examina el surgimiento de los chatbots de inteligencia artificial en bibliotecas universitarias, centrándose específicamente en el desarrollo de ChatGPT. La investigación tiene como objetivo explorar las aplicaciones potenciales de esta tecnología en el ámbito académico, al tiempo que identifica los riesgos asociados. Para llevar a cabo esta evaluación, se realizó una revisión de la literatura utilizando fuentes de Google Scholar y revistas indexadas en la base de datos Scopus.
Los resultados del estudio indican que ChatGPT tiene el potencial de ser una herramienta útil para servicios técnicos y de lectores en bibliotecas universitarias. Puede ayudar en tareas como responder a consultas de referencia básicas, facilitar la navegación en el sitio web de la biblioteca y colaborar en investigaciones, catalogación, clasificación y desarrollo de colecciones. Sin embargo, el estudio también destaca preocupaciones importantes, como la posibilidad de respuestas inexactas a consultas, el riesgo de mal uso, la comprensión limitada, restricciones en la entrada de información y una dependencia excesiva de la tecnología.
Como conclusión, se sugiere que ChatGPT se utilice como una tecnología complementaria en lugar de un reemplazo para los bibliotecarios humanos en entornos académicos. Este artículo se presenta como uno de los primeros en abordar específicamente el potencial y los desafíos asociados con el uso de ChatGPT en bibliotecas universitarias
La inteligencia artificial generativa, que utiliza el aprendizaje automático para crear contenido en respuesta a indicaciones, ha suscitado preocupaciones sobre la deshonestidad académica en la educación. Aunque los temores de un fraude generalizado se han avivado, la investigación indica que el uso real con fines académicos deshonestos podría ser inferior a la percepción de los profesores. A pesar de esto, hay una creciente desconfianza entre los profesores, lo que lleva a acciones disciplinarias, afectando desproporcionadamente a ciertos grupos de estudiantes.
La inteligencia artificial generativa (Generative AI), que utiliza el aprendizaje automático para producir nuevo contenido (por ejemplo, texto o imágenes) en respuesta a indicaciones del usuario, se ha infiltrado en el sistema educativo y ha cambiado fundamentalmente las relaciones entre profesores y estudiantes.
En todo el país, los educadores han expresado niveles elevados de ansiedad sobre el uso de herramientas de Generative AI, como ChatGPT, por parte de los estudiantes para hacer trampa en tareas, exámenes y ensayos, además de temores de que los estudiantes pierdan habilidades críticas de pensamiento. Al respecto, un profesor incluso lo describió como algo que «ha infectado [el sistema educativo] como un escarabajo de la muerte, ahuecando estructuras sólidas desde adentro hasta su inminente colapso». En respuesta a estos temores, distritos escolares como Nueva York y Los Ángeles impusieron rápidamente prohibiciones para su uso tanto por parte de educadores como de estudiantes. Las escuelas recurrieron a herramientas como detectores de Generative AI para intentar restaurar el control y la confianza de los educadores; sin embargo, los esfuerzos de detección han sido insuficientes tanto en su implementación como en su eficacia.
Investigaciones del CDT confirman la disminución de la confianza…
Un hallazgo significativo a través de encuestas a profesores, padres y estudiantes es que la percepción de los profesores sobre el uso generalizado de Generative AI para hacer trampa parece ser en gran medida infundada. El 40% de los profesores que dicen que sus estudiantes han usado Generative AI para la escuela piensan que sus estudiantes lo han utilizado para escribir y enviar un ensayo. Pero solo el 19% de los estudiantes que informan haber usado Generative AI dicen que lo han utilizado para escribir y enviar un ensayo, un hallazgo respaldado por otras investigaciones de encuestas.
A pesar de la realidad de que una gran mayoría de estudiantes no utiliza Generative AI con fines académicos deshonestos, los profesores han desarrollado una mayor desconfianza en el trabajo de los estudiantes, quizás debido a la cobertura generalizada y aterradora de casos de trampa. El 62% de los profesores estuvo de acuerdo con la afirmación de que «[la] Generative AI me ha hecho más desconfiado sobre si el trabajo de mis estudiantes es realmente de ellos». Y esta desconfianza está afectando a ciertos grupos de estudiantes, que son disciplinados de manera desproporcionada por usar o ser acusados de usar Generative AI; los profesores de títulos I y los profesores de educación especial con licencia informan tasas más altas de acciones disciplinarias por el uso de Generative AI entre sus estudiantes.
Estos niveles elevados de desconfianza entre los profesores y las acciones disciplinarias subsiguientes han llevado a la frustración entre estudiantes y padres acerca de acusaciones erróneas de hacer trampa, lo que puede causar una brecha aún mayor entre profesores y estudiantes. Esta erosión de la confianza es potencialmente perjudicial para las comunidades escolares donde las relaciones sólidas entre educadores y estudiantes son imperativas para proporcionar un entorno de aprendizaje seguro y de calidad.
…Y herramientas de detección y capacitación insuficientes
Las herramientas diseñadas para detectar cuándo se usó Generative AI para producir contenido son actualmente las únicas soluciones tecnológicas disponibles para ayudar a los profesores a combatir la trampa basada en Generative AI; sin embargo, no resuelven los problemas de confianza existentes. En primer lugar, las políticas escolares sobre el uso de herramientas de detección de contenido son irregulares: solo el 17% de los profesores dicen que su escuela proporciona una herramienta de detección de contenido como parte de su plataforma tecnológica más amplia, y el 26% dice que su escuela recomienda su uso, pero deja a elección del educador elegir una e implementarla. Sin una guía sólida sobre el uso e implementación de las herramientas de detección de contenido, los profesores parecen dudar en utilizarlas como mecanismo de defensa contra la trampa. Solo el 38% de los profesores informan que usan una herramienta de detección de contenido de Generative AI con regularidad, y solo el 18% de los profesores están muy de acuerdo en que estas herramientas «son una forma precisa y efectiva de determinar si un estudiante está usando contenido generado por IA». La falta de confianza de los profesores está justificada, ya que, al menos en este momento, estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos.
Además del uso de herramientas de detección, la confianza de los profesores en su propia eficacia para detectar la escritura creada por AI es baja: el 22% dice que son muy efectivos y el 43% dice que son algo efectivas. Esto es particularmente preocupante dado que la mayoría de los profesores no han recibido orientación sobre cómo detectar la trampa. Solo el 23% de los profesores que han recibido capacitación sobre las políticas y procedimientos de sus escuelas con respecto a Generative AI han recibido orientación sobre cómo detectar el uso de ChatGPT (u otra herramienta de Generative AI) cuando los estudiantes envían tareas escolares.
¿Cómo deberían abordar las escuelas la disminución de la confianza de los profesores?
Dadas nuestras investigaciones y lo que sabemos sobre las herramientas de detección de contenido de Generative AI, no son la respuesta, al menos por ahora. Estas herramientas sufren de problemas de precisión y pueden flagelar desproporcionadamente a los hablantes no nativos. En cambio, las escuelas deben:
Ofrecer capacitación a los profesores sobre cómo evaluar el trabajo de los estudiantes a la luz de la Generative AI: para ayudar a los profesores a sentir que tienen más control sobre la integridad académica en el aula, las escuelas deben capacitarlos adecuadamente para lidiar con la nueva realidad de la Generative AI. Esto implica proporcionarles capacitación sobre las limitaciones de los detectores y cómo responder si sospechan razonablemente que un estudiante está haciendo trampa.
Elaborar e implementar políticas claras sobre los usos permitidos y prohibidos: nuestras encuestas de este verano muestran que las escuelas no proporcionan orientación sobre lo que se define como «uso indebido» de la Generative AI, con un 37% de los profesores que informan que su escuela no tiene una política o no están seguros de si hay una política sobre Generative AI. Es imperativo que tanto los profesores como los estudiantes conozcan esto, para que todos estén en la misma página sobre el uso responsable de la Generative AI.
Alentar a los profesores a modificar las tareas para minimizar la efectividad de la Generative AI: comprender en qué no son buenas los sistemas de Generative AI puede ayudar a los profesores a diseñar tareas en las que el uso de Generative AI no sea útil para los estudiantes. Por ejemplo, los sistemas de Generative AI a menudo son ineficaces para proporcionar fuentes precisas para sus afirmaciones. Requerir que los estudiantes proporcionen citas para cualquier afirmación que hagan probablemente obligará a los estudiantes a ir mucho más allá de una respuesta generada.
Mintlify – Meet the modern standard for public facing documentation. Beautiful out of the box, easy to maintain, and optimized for user engagement. https://mintlify.com/
Snyk – It is trained on security-specific data, and is all curated by top security researchers to give you all the power of AI without any of the drawbacks. https://snyk.io/
Anyword – Get more conversions and sales with Anyword. Anyword’s powerful predictive analytics tell you what works before you go live. https://anyword.com/
Rytr – A better, faster way to write profile bios, Facebook ads and landing page copies. https://rytr.me/
Bearly AI – Drop in research papers, pdfs, articles, word docs and more to get a thorough summary of the content.https://bearly.ai/
Afforai – Afforai is an AI chatbot that searches, summarizes, and translates info from multiple sources to produce trustworthy research. https://afforai.com/
Quickchat AI – No-code platform that leverages Large Language Models such as OpenAI’s GPT to craft customizable AI Assistants tailored to your business. https://www.quickchat.ai/
Agent4.ai – Lets you create custom voice experiences for callers to your business or mobile phone. https://agent4.ai/
Log Analyzer Pro GPT – Log Analyzer Pro GPT, specializes in analyzing systems, applications, web servers, and database logs, particularly for finance and healthcare industries. https://loganalyzergpt.com/
Al final de cada año, las bibliotecas públicas de todo el país elaboran listas de los libros más prestados por los lectores. En 2023, las memorias impactantes y las novelas adaptadas a miniseries de televisión fueron populares en todo el país. La Biblioteca Pública de Nueva York, la más grande del país, informó que «Lessons in Chemistry» de Bonnie Garmus fue su libro más prestado. La novela, ambientada en la década de 1960, narra la historia de una química despedida debido a su género que luego presenta un popular programa de cocina. La adaptación televisiva en Apple TV+ contribuyó a su popularidad.
Si bien las adaptaciones cinematográficas a menudo impulsan la popularidad de los libros, las preferencias variaron entre diferentes bibliotecas. En Topeka, Kansas, los misterios y thrillers de autores como C.J. Box, John Grisham y David Baldacci fueron más populares que «Lessons in Chemistry».
El seguimiento de los libros más prestados varía entre las bibliotecas de EE. UU., y no hay una lista unificada de organizaciones como la Asociación de Bibliotecas de Estados Unidos. Las bibliotecas categorizan sus listas en ficción, no ficción, jóvenes adultos, libros para niños y varios formatos, incluyendo libros físicos, audiolibros y libros electrónicos.
En 2023, el libro electrónico más prestado nacionalmente en la aplicación Libby fue «Spare» de Prince Harry, duque de Sussex, que también encabezó la lista de libros electrónicos en la Biblioteca Pública de Indianápolis. La popularidad de los libros electrónicos está aumentando significativamente en comparación con las copias físicas.
Deb Lambert, de la biblioteca de Indianápolis, señaló el sorprendente cambio hacia los préstamos electrónicos, destacando la popularidad de las revistas electrónicas. Por ejemplo, la revista electrónica de The New Yorker superó incluso a libros populares como «Spare» y «Lessons in Chemistry». Los libros electrónicos y las revistas presentan desafíos en la asignación de presupuestos para las bibliotecas, pero los bibliotecarios expresan entusiasmo por nuevas formas de facilitar la lectura, enfatizando que la lectura es para todos, independientemente del género o formato.
Donahue, D. J., J. S. Olin, y G. Harbottle. 2002. «Determination of the Radiocarbon Age of Parchment of the Vinland Map». Radiocarbon 44 (1): 45-52. https://doi.org/10.1017/S0033822200064651.
Vinland es el nombre que los vikingos dieron a una región que exploraron en América del Norte alrededor del año 1000 d.C. Se cree que Vinland podría haber abarcado áreas como partes de lo que ahora son Canadá, Groenlandia y posiblemente la región noreste de los Estados Unidos.
Es casi comúnmente aceptado que Cristóbal Colón no fue el primer europeo en poner pie en suelo americano. Parece ser que medio milenio antes de que su expedición llegara con éxito a La Española, un grupo de exploradores nórdicos, motivados por sus éxitos en Islandia y Groenlandia, llegó a las costas orientales de lo que hoy conocemos como Canadá y parte de Estados Unidos. En las islas de Labrador y Terranova, establecieron la primera colonia en un territorio que consideraban inexplorado.
El Mapa Vinland, que muestra la «isla de Vinland, descubierta por Bjarni y Leif en compañía» en el noroeste del océano Atlántico, es un documento conservado en la Biblioteca Beinecke de Libros Raros y Manuscritos de la Universidad de Yale. Si es auténtico, sería la primera representación cartográfica conocida de América del Norte y podría afectar la historia que vincula a Colón con el conocimiento de Vinland.
Este mapa medieval, que se cree que data del siglo XV, representa una versión de América del Norte con inscripciones en latín que mencionan Vinland. Sin embargo, la autenticidad del mapa ha sido cuestionada y debatida. Algunos expertos sostienen que es una falsificación, mientras que otros argumentan que podría ser una representación auténtica de los conocimientos geográficos vikingos.
En el mundo de la exploración vikinga, Vinland se destaca como un enigma geográfico que ha fascinado a historiadores, arqueólogos y entusiastas durante décadas. Este lugar, mencionado en las sagas islandesas como la Saga de Erik el Rojo y la Saga de los Groenlandeses, representa la incursión vikinga en América del Norte alrededor del año 1000 d.C. Aunque la existencia de Vinland es ampliamente aceptada, la ubicación exacta de este enclave sigue siendo objeto de debate.
Las sagas islandesas, relatos escritos en la Edad Media, son fuentes fundamentales para entender la exploración vikinga. Según estas narrativas, Leif Erikson lideró la expedición que descubrió Vinland. Las sagas describen la geografía de la región, mencionando bosques, ríos y la presencia de «uvas salvajes», que sugieren la posibilidad de que Vinland se extendiera por lo que hoy conocemos como Canadá y la costa noreste de los Estados Unidos.
Skelton, Marston y Painter (Skelton et al. 1965, 1995) argumentaron firmemente la autenticidad del mapa, asociándolo con el Concilio de Basilea (A.D. 1431-1449), es decir, medio siglo antes del viaje de Colón. Sin embargo, ha persistido un riguroso cuestionamiento académico sobre la autenticidad del mapa
La principal controversia que rodea a Vinland es la falta de evidencia arqueológica concluyente. Aunque se han identificado posibles sitios vikingos en América del Norte, como L’Anse aux Meadows en Terranova, Canadá, la identificación precisa de Vinland sigue siendo esquiva. Algunos historiadores sugieren que Vinland podría haber abarcado áreas más extensas, posiblemente llegando hasta la costa este de los Estados Unidos.
Algunos investigadores sostienen que el Mapa de Vinland es una falsificación debido a varias razones, incluida la presencia de anacronismos y detalles geográficos que no coinciden con el conocimiento de la época. Otros argumentan que podría ser una representación auténtica de los conocimientos geográficos vikingos.
Una investigación llevada a cabo por un equipo de científicos utilizado el Acelerador de Espectrometría de Masa de la National Science Foundation y la Universidad de Arizona intentó datar mediante radiocarbono el pergamino del famoso «Mapa Vinland». A lo largo de siete años, los científicos realizaron cortes y pruebas secuenciales en muestras del pergamino, utilizando el acelerador de espectrometría de masa de Arizona.. Según la información recogida en la revista Radiocarbon, el pergamino data del año 1434, con un margen de error de más o menos 11 años, y casi con certeza, al 95 por ciento de confianza, se sitúa entre los años 1411 y 1468.
Aunque la autenticidad del Mapa Vinland ha generado décadas de debates científicos, la datación del pergamino proporciona una perspectiva valiosa que desafía las afirmaciones de falsificación y enfatiza la importancia de la precisión en la datación del carbono-14 para cuestiones de autenticidad histórica.
El informe delinea el papel y las prioridades de las bibliotecas públicas de Victoria en el apoyo a la salud y el bienestar comunitarios. Explica por qué y cómo las bibliotecas pueden contribuir a mejores resultados de salud y bienestar, describe lo que las bibliotecas ya están haciendo en este sentido y ofrece ideas e iniciativas ambiciosas para el futuro. Además de analizar el panorama general, el marco establece cómo las bibliotecas contribuirán a los Objetivos de Desarrollo Sostenible de las Naciones Unidas, y cómo seguiremos el rastro y evaluaremos nuestras actividades e impacto en salud y bienestar. También incluye una hoja de ruta con proyectos clave de salud y bienestar para bibliotecas públicas individuales en toda Victoria. Este marco es un recurso para líderes y miembros del equipo de bibliotecas, socios, gobierno y la comunidad. Es una herramienta para ayudar a comprender por qué las bibliotecas tienen un papel que desempeñar en la salud y el bienestar, y para guiar la toma de decisiones y la acción en toda la red de bibliotecas públicas de Victoria. Esperamos que lo encuentre útil e inspirador.
La inteligencia artificial (IA) ha dominado el ámbito tecnológico en 2023, y esto se refleja en las listas de «palabra del año» de Oxford, Cambridge y Merriam-Webster. Las palabras relacionadas con la IA resaltadas por estas instituciones ya existen, pero han sido apropiadas con nuevos significados.
En el caso de Cambridge, la palabra es «alucinar», que se refiere a la tendencia de los modelos generativos de IA, como ChatGPT, a inventar información en lugar de admitir que no saben algo. El problema es que estos sistemas no tienen conciencia de lo que no saben, ya que en realidad no saben nada.
Merriam-Webster eligió «auténtico» como su palabra del año, destacando la creciente confusión entre lo «real» y lo «falso» en un mundo afectado por la IA, deepfakes y otros temas relacionados.
Oxford, por otro lado, seleccionó «prompt» como su palabra del año. Se destaca que el término ha ganado una nueva connotación relacionada con el lado humano de la generación de IA. «Prompt» ahora se utiliza como verbo cuando se le indica a un sistema de IA que genere algo basado en una entrada específica.
El artículo reflexiona sobre la aceptación de palabras relacionadas con la IA en el léxico general y destaca la rapidez con la que la tecnología avanza. Aunque términos más avanzados como «espacio latente» aún no han entrado en uso común, se espera que el léxico continúe evolucionando a medida que la tecnología avanza.
Borgman, C. L., & Brand, A. (2023). The Future of Data in Research Publishing: From Nice to Have to Need to Have?Harvard Data Science Review. https://doi.org/10.1162/99608f92.b73aae77
Más de dos décadas después de que J.K. Rowling introdujera al mundo a un universo de criaturas mágicas, bosques prohibidos y un mago adolescente, Harry Potter está encontrando una renovada relevancia en un ámbito muy diferente de la literatura: la investigación en inteligencia artificial (IA). Un número creciente de investigadores está utilizando los libros de Harry Potter, superventas, para experimentar con la tecnología generativa de inteligencia artificial, citando la influencia perdurable de la serie en la cultura popular y la amplia gama de datos lingüísticos y juegos de palabras complejos en sus páginas. Revisar una lista de estudios y papers académicos que hacen referencia a Harry Potter ofrece una instantánea de la investigación en inteligencia artificial de vanguardia y algunas de las preguntas más difíciles que enfrenta la tecnología.
En quizás el ejemplo más destacado recientemente, Harry, Hermione y Ron son los protagonistas de un artículo titulado «¿Quién es Harry Potter?» que arroja luz sobre una nueva técnica que ayuda a los modelos de lenguaje grandes a olvidar selectivamente información. Es una tarea de alto riesgo para la industria: los modelos de lenguaje grandes, que alimentan a los chatbots de IA, se construyen con vastas cantidades de datos en línea, incluido material con derechos de autor y otro contenido problemático. Esto ha llevado a demandas y escrutinio público para algunas empresas de IA. Los autores del artículo, los investigadores de Microsoft Mark Russinovich y Ronen Eldan, afirmaron haber demostrado que los modelos de IA pueden ser modificados o editados para eliminar cualquier conocimiento de la existencia de los libros de Harry Potter, incluyendo personajes e historias, sin sacrificar las capacidades de toma de decisiones y análisis del sistema de IA en general. El dúo eligió los libros debido a su familiaridad universal. «Creíamos que sería más fácil para las personas en la comunidad de investigación evaluar el modelo resultante de nuestra técnica y confirmar por sí mismos que el contenido realmente se ha ‘desaprendido'», dijo Russinovich, director de tecnología de Microsoft Azure. «Casi cualquier persona puede idear preguntas para el modelo que indaguen si ‘sabe’ de los libros. Incluso personas que no los hayan leído serían conscientes de elementos de la trama y personajes».
En otro estudio, investigadores de la Universidad de Washington en Seattle, la Universidad de California en Berkeley y el Instituto Allen de IA desarrollaron un nuevo modelo de lenguaje llamado Silo que puede eliminar datos para reducir riesgos legales. Sin embargo, el rendimiento del modelo disminuyó significativamente si solo se entrenaba con texto de bajo riesgo, como libros sin derechos de autor o documentos gubernamentales, según un artículo publicado a principios de este año.
Para profundizar, los investigadores utilizaron libros de Harry Potter para ver si fragmentos individuales de texto influyen en el rendimiento de un sistema de IA. Crearon dos almacenes de datos, o colecciones de sitios web y documentos. El primero incluía todos los libros publicados excepto el primer libro de Harry Potter; otro incluía todos los libros de la serie menos el segundo, y así sucesivamente. «Cuando se eliminan los libros de Harry Potter del almacén de datos, la perplejidad empeora», dijeron los investigadores, refiriéndose a la medida de precisión de los modelos de IA.
Incluso cuando no es central para la investigación, Harry Potter también es una referencia literaria favorita para los investigadores. Un estudio, por ejemplo, utilizó las obras de Rowling para poner a prueba la inteligencia de sistemas de IA como los que dieron origen al chatbot ChatGPT, un tema que ha generado mucha controversia en debates recientes. Terrence Sejnowski, director del laboratorio de neurobiología computacional en el Instituto de Estudios Biológicos Salk, argumentó en el artículo que los chatbots simplemente reflejan la inteligencia y los sesgos de sus usuarios, como el Espejo de Oesed en el primer libro de Harry Potter, que refleja los deseos de una persona. «Harry Potter es popular entre los investigadores más jóvenes», dijo Wehbe. «Lo habrían leído cuando eran niños o adolescentes, pensando en ellos al elegir un corpus de texto escrito o hablado».