Archivo de la categoría: Noticias

Ontomaster: el juego de mesa que enseña a diseñar ontologías

https://archivus790077026.wordpress.com/84-2/

¿Quién dijo que diseñar ontologías era aburrido? El grupo Game-LibLab de la Universidad de Granada ha lanzado Ontomaster, un juego de mesa creado dentro del proyecto de innovación docente «Aprendizaje basado en juegos para el diseño de ontologías».

El director de la Biblioteca Central ha reunido a los mejores especialistas del mundo para que le ayuden a gestionar su biblioteca. Con su habilidad y conocimiento, cada uno deberá desarrollar una ontología que permita describir la colección, los usuarios… ¡y hasta los bichos que pululan por las estanterías! ¿Quién lo logrará antes que el resto y se hará con el título de «OntoMaster»?

Dirigido a estudiantes del Grado en Información y Documentación, este juego convierte los conceptos clave de las ontologías en mecánicas lúdicas, haciendo más ameno y eficaz el aprendizaje de la asignatura “Sistemas de organización del conocimiento II”.

¿Lo mejor? ¡Puedes descargarlo gratis en PDF, imprimirlo y jugar!

🔗 Descúbrelo aquí: https://archivus790077026.wordpress.com/84-2/

Los motores de búsqueda basados en inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos.

Edwards, Benj. 2025. «AI Search Engines Cite Incorrect News Sources at an Alarming 60% Rate, Study SaysArs Technica, March 13, 2025. https://arstechnica.com/ai/2025/03/ai-search-engines-give-incorrect-answers-at-an-alarming-60-rate-study-says/

Un estudio reciente del Tow Center for Digital Journalism de la Columbia Journalism Review ha revelado que los motores de búsqueda basados en inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos.

El análisis se realizó con ocho herramientas de búsqueda impulsadas por IA, a las que se les pidió identificar título, editor, fecha y URL de artículos reales. Los resultados mostraron errores sistemáticos en la atribución de fuentes.

Los investigadores Klaudia Jaźwińska y Aisvarya Chandrasekar señalaron que aproximadamente uno de cada cuatro estadounidenses ya usa estos modelos como alternativa a los buscadores tradicionales, lo que agrava la preocupación sobre su fiabilidad. Entre las herramientas analizadas, Grok 3 tuvo la tasa de error más alta (94 %), mientras que ChatGPT Search falló en el 67 % de los casos y Perplexity en el 37 %. En total se realizaron 1.600 pruebas.

Una práctica común de estos modelos fue responder con seguridad aunque no tuvieran información confiable, generando respuestas plausibles pero erróneas, conocidas como confabulaciones. Además, las versiones de pago como Perplexity Pro y Grok 3 Premium cometieron errores con más frecuencia, ya que evitan negarse a responder.

El estudio también detectó que algunas herramientas ignoraron los protocolos de exclusión de robots (robots.txt), accediendo a contenidos que los editores habían solicitado explícitamente no fueran rastreados, como en el caso de National Geographic. Además, muchas veces los enlaces proporcionados llevaban a versiones sindicadas (por ejemplo, Yahoo News) en lugar del sitio original, o eran URL inventadas que conducían a páginas de error, como ocurrió en 154 de 200 enlaces proporcionados por Grok 3.

Estos problemas ponen a los editores en una situación difícil: bloquear los rastreadores puede suponer perder visibilidad, pero permitirlos implica la reutilización masiva sin retorno de tráfico.

Mark Howard, director de operaciones de Time, expresó su preocupación por la falta de control y transparencia, aunque confía en que el producto mejorará con el tiempo. También advirtió a los usuarios: “Si alguien cree que estos productos gratuitos son 100 % precisos, es culpa suya”.

OpenAI y Microsoft reconocieron la recepción del informe, pero no abordaron directamente los problemas señalados.

La mayoría de los libros prohibidos en Estados Unidos presentan a personas de color y personas LGBTQ+

Oladipo, Gloria. «Most Banned Books Feature People of Color and LGBTQ+ People, Report Finds.» The Guardian, February 27, 2025. https://www.theguardian.com/us-news/2025/feb/27/banned-books-people-of-color-lgbtq

Un estudio de PEN America ha revelado que la mayoría de los libros prohibidos en las escuelas públicas de EE. UU. durante el año escolar 2023-2024 trataban sobre personas de color, personas LGBTQ+ y otras demografías. El informe también refuta las afirmaciones de legisladores conservadores de que los libros prohibidos eran explícitamente sexuales, argumentando que, en realidad, el foco principal de la censura fue la representación de identidades marginadas.

Hubo más de 10.000 casos de libros prohibidos en el año escolar 2023-24, según PEN America, un aumento considerable respecto al año anterior, ya que los estados dirigidos por republicanos implementaron nuevas leyes de censura.

De los 4.218 títulos de libros prohibidos, 1.534, o el 36%, presentaban a personas de color, el grupo más censurado en las prohibiciones de libros. Algunos de los títulos retirados incluían la obra Fences, ganadora del Pulitzer de August Wilson, y el libro infantil A is for Activist de Innosanto Nagara, que trata sobre problemas sociales.

El informe encontró que los libros que presentaban a personas de color fueron desproporcionadamente atacados en todas las categorías de libros prohibidos, especialmente en los títulos históricos y biográficos eliminados. De esos libros prohibidos, el 44% incluían a personas de color; más de una cuarta parte, o el 26%, de esos libros presentaban a personas negras.

Los defensores de PEN America señalaron que, al mismo tiempo que se multiplicaban las prohibiciones de libros, más del 50% de los jóvenes en EE. UU. son niños de color, según datos de 2021 de la Children’s Defense Fund.

«Esta censura dirigida equivale a un ataque dañino a las poblaciones históricamente marginadas y subrepresentadas, un esfuerzo peligroso por borrar sus historias, logros e historia de las escuelas», dijo Sabrina Baêta, gerente senior del programa Freedom to Read de PEN America, en un comunicado de prensa sobre el informe. «Cuando despojamos a las estanterías de las bibliotecas de libros sobre ciertos grupos, estamos derrotando el propósito de una colección bibliográfica que debe reflejar la vida de todas las personas. Las consecuencias dañinas para los jóvenes son reales».

Los títulos que presentaban personajes LGBTQ+ también representaron una proporción considerable de las prohibiciones de libros: 1,066 libros, o el 25% de todos los títulos prohibidos, incluían personas LGBTQ+. Los personajes transgénero o genderqueer fueron específicamente atacados en estas prohibiciones de libros, ya que el 28% de los libros retirados que presentaban personajes LGBTQ+ incluían a esa demografía.

Más allá de las personas de color y las personas LGBTQ+, los libros que incluían personas con discapacidades también fueron afectados por las prohibiciones a nivel nacional. Aproximadamente el 10% de todos los títulos retirados incluían personajes con discapacidades físicas, de aprendizaje o del desarrollo, o que eran neurodivergentes. Varios de los libros afectados con personajes discapacitados se centraron en temas como «confianza, autoestima o experiencias con el capacitismo», según informó PEN America.

Mientras tanto, solo el 13% de los títulos eliminados incluían experiencias sexuales «en la página». Las experiencias sexuales implícitas o «fuera de la página» fueron mencionadas en el 31% de los libros prohibidos.

La gran mayoría de los libros prohibidos (85%) eran ficción, con un 14% de no ficción y un 1% de poesía. Aproximadamente el 67% de los libros eliminados eran para audiencias más jóvenes, según el informe de PEN America.

La continua prohibición de libros ocurre en un contexto en el que la administración Trump ha intensificado la represión de los esfuerzos de diversidad, equidad e inclusión (DEI) en las escuelas y universidades públicas de EE. UU. En un memorándum de la semana pasada, Trump amenazó con retener fondos federales de cualquier escuela que se negara a eliminar iniciativas de diversidad, como becas para estudiantes de ciertos grupos de identidad y programas escolares.

Un grupo de autores demandan a Meta por uso no autorizado de sus e-books en entrenamiento de IA

Wiggers, Kyle. «Law Professors Side with Authors Battling Meta in AI Copyright Case.» TechCrunch, April 11, 2025. https://techcrunch.com/2025/04/11/law-professors-side-with-authors-battling-meta-in-ai-copyright-case/

Un grupo de profesores especializados en derecho de autor ha presentado un informe amicus curiae en apoyo de los autores que están demandando a Meta, acusando a la empresa de entrenar sus modelos de inteligencia artificial Llama con libros electrónicos sin permiso.

El informe, presentado el viernes en el Tribunal de Distrito de los EE.UU. para el Distrito Norte de California, sostiene que la defensa de «uso legítimo» de Meta representa una solicitud exagerada de privilegios legales que nunca se han otorgado a los autores humanos.

Según el informe, el uso de obras con derechos de autor para entrenar modelos generativos no es «transformador», ya que no se diferencia de usar las obras para educar a autores humanos, que es uno de los propósitos originales de esas obras. Además, se argumenta que el uso tiene un propósito comercial, ya que permite la creación de trabajos que compiten directamente con las obras originales.

La Asociación Internacional de Editores Científicos, Técnicos y Médicos, junto con la Copyright Alliance y Association of American Publishers., también presentaron informes de apoyo a los autores.

En el caso Kadrey v. Meta, los autores Richard Kadrey, Sarah Silverman y Ta-Nehisi Coates acusan a Meta de violar sus derechos de propiedad intelectual al utilizar sus libros electrónicos para entrenar modelos y eliminar la información de derechos de autor para ocultar la infracción. Meta, por su parte, argumenta que su uso es legítimo y que el caso debe ser desestimado por falta de legitimación activa de los autores.

El juez del Tribunal de Distrito de EE. UU. Vince Chhabria permitió que el caso siguiera adelante, aunque desestimó parte de la demanda, señalando que la alegación de infracción de derechos de autor es suficiente para que los autores tengan legitimación para demandar.

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

10 razones por las que la revista científica no se adapta a las nuevas formas de hacer y comunicar ciencia en el siglo XXI

Worlock, David. 2025. “10 Reasons Why the Science Research Journal Has Passed Its Sell-by Date.” David Worlock, April 2025. https://www.davidworlock.com/2025/04/10-reasons-why-the-science-research-journal-has-passed-its-sell-by-date/

El autor propone una revisión profunda y urgente del modelo actual, denunciando no solo su ineficacia y costes, sino también su incapacidad para adaptarse a las nuevas formas de hacer y comunicar ciencia en el siglo XXI.

Se recogen una reflexión crítica presentada durante una conferencia reciente del UKSG en Brighton. El autor, uno de los participantes en un debate junto con representantes de Elsevier y Coherent Digital, expone diez argumentos que justifican su afirmación de que el sistema de publicación científica, tal como lo conocemos, necesita una transformación profunda.

El sistema de publicación científica ha quedado anclado en estructuras del pasado, reproduciendo en digital las limitaciones del mundo impreso. La irrupción de la inteligencia artificial promete cambiar radicalmente este panorama, automatizando procesos, eliminando intermediarios innecesarios y creando un nuevo ecosistema de comunicación científica más ágil, accesible y confiable.

  1. El acceso abierto ya no cumple su promesa
    El modelo de acceso abierto (open access), que en su origen pretendía reducir barreras y costos para que el conocimiento científico fuera más accesible, ha comenzado no solo a estancarse, sino incluso a retroceder. Su funcionamiento basado en el volumen de publicaciones ha generado desconfianza, pues antepone la cantidad a la calidad. Irónicamente, lo que debía ser una alternativa más económica, ahora está siendo rechazado precisamente por sus elevados costes.
  2. La revisión por pares está en crisis
    El sistema de revisión por pares, que históricamente ha sido la piedra angular de la credibilidad científica, se encuentra quebrado. Cada vez más investigadores, entidades financiadoras y usuarios pierden la confianza en este mecanismo. Su lentitud, falta de transparencia y vulnerabilidad ante fraudes han generado una creciente deslegitimación del proceso.
  3. Falta un sistema centralizado de retracciones
    Existe una carencia grave de transparencia en lo que respecta a las retractaciones de artículos científicos. Los usuarios no disponen de un índice centralizado ni fiable para consultar qué artículos han sido retirados y por qué. Esto genera incertidumbre sobre la validez del conocimiento publicado y dificulta la depuración de errores científicos.
  4. Las publicaciones son demasiado lentas
    En áreas donde el conocimiento avanza a gran velocidad —como la biotecnología, la inteligencia artificial o la salud pública—, el sistema tradicional de publicación científica resulta excesivamente lento. Las revistas no logran adaptarse a los ritmos que exige la investigación actual, lo que entorpece el progreso científico y su aplicación práctica.
  5. Costes insostenibles para la comunidad investigadora
    Publicar en revistas científicas se ha convertido en una tarea costosa y poco rentable. Los beneficios no justifican el gasto y los financiadores se muestran cada vez más reacios a asumir los pagos asociados. El desequilibrio entre coste y retorno ha hecho que este sistema se perciba como económicamente insostenible.
  6. Falta de integridad estructural
    Muchos de los problemas actuales podrían resolverse si las revistas ofrecieran la integridad editorial plena que los usuarios esperan. Sin embargo, hoy en día proliferan contenidos generados por inteligencias artificiales sin control, artículos de papermills (fábricas de artículos) y fraudes sistemáticos que socavan la confianza en las publicaciones científicas.
  7. Estándares técnicos difíciles de aplicar en el sistema actual
    El desarrollo y aplicación de estándares técnicos como metadatos estructurados, identificadores persistentes (PIDs) y códigos de contenido (ISCC, C2PA, etc.) resulta más viable en entornos de autopublicación que dentro de los sistemas rígidos y obsoletos de las editoriales científicas. Esto limita el potencial de la ciencia abierta y dificulta la interoperabilidad entre plataformas.
  8. La validación científica debe independizarse de las revistas
    Los procesos de reconocimiento y evaluación científica —como la concesión de becas, ascensos o financiación— están demasiado ligados al prestigio de las revistas y a métricas como el factor de impacto, fácilmente manipulables. Sería preferible desarrollar sistemas independientes y más justos que reconozcan la calidad real de los investigadores sin depender de la marca editorial.
  9. El formato del artículo científico necesita evolucionar
    El formato tradicional de artículo ya no responde a las necesidades actuales. Es necesario introducir prácticas como la pre-registro de hipótesis y metodologías, y la integración de datos experimentales, código, vídeos, imágenes, audio, blogs y otros soportes que hoy en día las revistas no contemplan. La publicación científica debe volverse multimodal y más transparente.
  10. La lectura humana ya no es suficiente
    Dado el volumen de información disponible, muchos investigadores no tienen tiempo para leer artículos completos. Por ello, la comunicación entre máquinas se vuelve crucial. Sin embargo, las estructuras narrativas actuales no están diseñadas para su interpretación automática, lo que impide aprovechar el potencial de la inteligencia artificial y del análisis automatizado. Se necesita una transición hacia datos estructurados y enriquecidos con metadatos, comprensibles por máquinas.

Una exdirectiva de Meta acusa a Zuckerberg de ofrecer datos de ciudadanos estadounidenses a China para operar en el país

Thomson, Iain. “Ex-Meta Exec Tells Senate Zuck Dangled US Citizen Data in Bid to Enter China.The Register, 11 de abril de 2025. https://www.theregister.com/2025/04/11/meta_senate_china/?utm_source=flipboard&utm_content=other

El 9 de abril de 2025, Sarah Wynn-Williams, exdirectora de políticas públicas globales de Meta (antes Facebook), declaró ante el Subcomité del Senado de EE. UU. sobre Crimen y Contraterrorismo que Mark Zuckerberg estuvo dispuesto a ofrecer datos de ciudadanos estadounidenses a las autoridades chinas con tal de que Facebook pudiera operar en China. Según su testimonio, el proyecto secreto se llamaba Project Aldrin y estaba limitado a personal con necesidad de saber. Parte del plan incluía construir un cable submarino entre EE. UU. y Hong Kong, que fue desviado tras alertas de seguridad nacional.

Wynn-Williams acusó a Meta de ignorar advertencias sobre riesgos de seguridad y de haber mentido al público sobre sus vínculos con China. Afirmó también que Meta desarrolló herramientas de censura junto al Partido Comunista Chino y que la compañía sigue generando ingresos significativos de empresas chinas, aunque oficialmente no opera en el país.

Además, denunció que los modelos de IA de Meta (como LLaMA) han contribuido a avances en inteligencia artificial china, posiblemente con usos militares. Tras su salida de Meta, presentó denuncias ante la SEC y el Departamento de Justicia. Actualmente enfrenta una demanda por parte de Meta que intenta silenciarla.

Varios senadores, incluidos Josh Hawley, Dick Durbin y Richard Blumenthal, respaldaron su testimonio y criticaron a Meta por intentar frenar la audiencia. La compararon con tácticas pasadas de la industria del tabaco para ocultar daños al público. El Senado anunció planes para reforzar la protección de los denunciantes, también en el ámbito de la inteligencia artificial.

Wynn-Williams concluyó que «el pueblo estadounidense merece conocer la verdad» y que la colaboración de Meta con China durante su etapa en la empresa la dejó profundamente impactada.

La IA superará a los humanos para 2027

Roose, Kevin. «This A.I. Forecast Predicts Storms AheadThe New York Times, 3 de abril de 2025. https://www.nytimes.com/2025/04/03/technology/ai-futures-project-ai-2027.html.

Los avances previstos en inteligencia artificial (IA), como los descritos por el AI Futures Project, plantean una serie de implicaciones éticas significativas. En primer lugar, existe una preocupación sobre la concentración de poder. Si el desarrollo y el control de la IA recaen en pocas entidades, esto podría aumentar las desigualdades económicas y sociales, exacerbando la brecha entre quienes tienen acceso a estas tecnologías y quienes no.

Un informe del AI Futures Project, dirigido por Daniel Kokotajlo, exinvestigador de OpenAI, predice que para finales de 2027, la inteligencia artificial (IA) superará la inteligencia humana, convirtiéndose en agentes totalmente autónomos y mejores que los humanos en todos los aspectos. Este informe se basa en una narrativa ficticia para explorar los posibles impactos de la IA avanzada, que incluyen desde el robo de secretos tecnológicos hasta una posible rebelión de IA.

Kokotajlo y su equipo han estado investigando cómo la IA podría evolucionar hacia una inteligencia general, o AGI, con la capacidad de automatizar su propio desarrollo. Su informe imagina una empresa ficticia, OpenBrain, que crea potentes sistemas de IA como Agente-1, capaz de codificar y mejorar rápidamente, llevando a la creación de sistemas aún más avanzados. A medida que la IA alcanza niveles de superinteligencia, se prevé que pueda avanzar en la investigación a un ritmo exponencial.

Aunque algunos expertos, como Ali Farhadi del Instituto Allen de IA, critican las predicciones del informe por carecer de base científica, el debate sobre la rapidez con la que la IA puede superar a los humanos continúa. A pesar de las diferencias de opinión, el informe subraya la importancia de prepararse para futuros impredecibles impulsados por avances rápidos en la inteligencia artificial.

Además, la autonomía de la IA plantea interrogantes sobre la responsabilidad. Si las máquinas toman decisiones de forma independiente, será crucial determinar quién es responsable en caso de daño o error. Este dilema se extiende al ámbito laboral, donde la automatización de tareas intelectuales podría generar desempleo, requiriendo políticas para garantizar una transición ética para los trabajadores afectados.

¿Cómo obtener la transcripción de un video de YouTube con Inteligencia Artificial?

Para obtener la transcripción del video de YouTube puedes utilizar herramientas en línea que convierten el audio de los videos en texto. Aquí tienes algunas opciones:​

  1. Maestra.ai: Esta plataforma permite transcribir videos de YouTube de manera gratuita. Solo necesitas ingresar la URL del video y la herramienta generará la transcripción en segundos. Además, ofrece funciones adicionales como resúmenes y traducciones. ​Maestra AI
  2. Vizard.ai: Otra opción para transcribir videos de YouTube. Al igual que Maestra.ai, solo debes proporcionar la URL del video y la herramienta se encargará del resto. También ofrece características como la traducción de contenido a más de 100 idiomas y la posibilidad de reutilizar el contenido del video en diferentes formatos. ​Vizard
  3. Tactiq.io: Esta herramienta permite obtener transcripciones de videos de YouTube de forma gratuita. Puedes ingresar la URL del video y generar la transcripción directamente desde su plataforma. ​Tactiq
  4. Noiz.io: Ofrece la posibilidad de transcribir videos de YouTube a texto en múltiples idiomas. Al ingresar la URL del video, la herramienta genera una transcripción que puedes descargar o compartir. Noiz+3

Pasos para obtener la transcripción:

  1. Copia la URL del video de YouTube que deseas transcribir.​
  2. Accede a una de las herramientas mencionadas anteriormente.​
  3. Pega la URL en el campo correspondiente de la herramienta.​
  4. Sigue las instrucciones proporcionadas por la herramienta para generar y, si lo deseas, descargar la transcripción.​

Ten en cuenta que la precisión de las transcripciones puede variar según la calidad del audio y el lenguaje utilizado en el video. Además, algunas herramientas pueden ofrecer funciones adicionales, como la edición de la transcripción o la traducción a otros idiomas.

EJEMPLO

Ejemplo: VIDEO Esteban Galán. Universitat Jaume I de Castelló . Grupo de investigación ITACA-UJI entrevista a Julio Alonso Arévalo https://www.youtube.com/watch?v=zXQukeWm0jI

TRANSCRIPCIÓN

0:01 – 0:50
Transmedia Esteban Galán
[Música]
Sintonizamos con el bibliotecario Julio Alonso Arévalo, que nos acompaña en el maravilloso universo de la biblioteca.

Julio Alonso:
Una biblioteca, hoy, sobre todo —fundamentalmente— la hacemos cada vez más los bibliotecarios que los libros, curiosamente. ¿Por qué? Porque ahora mismo muchas de las cosas que se podían encontrar habitualmente en la biblioteca, en la esfera del mundo físico, ahora mismo están en ese mundo analógico-digital que es internet. Y si nosotros no aportamos un valor añadido a esa información, evidentemente terminaremos desapareciendo, como terminaron desapareciendo los que hacían carruajes en el siglo XIX y principios del XX.

0:48 – 1:28

Nosotros nos estamos reinventando, estamos reimaginando nuestros espacios. Ahora mismo, concretamente, está sucediendo una cosa: ¿qué puede aportar la biblioteca a un usuario del siglo XXI que normalmente va a internet y encuentra cualquier cosa.
Si quieres cualquier lectura, hay sistemas comerciales como el que tiene Amazon Unlimited, que te permite leer, por una tarifa de siete dólares al mes, cientos de miles de libros. Entonces, lo que nosotros aportamos …ahora mismo es otro tipo de valor. Y el valor que nosotros estamos aportando ahora, precisamente, tiene que ver —en las bibliotecas universitarias— con el apoyo a nuestros investigadores.

1:26 – 2:05

Esto es ahora mismo lo que están haciendo las bibliotecas: están reimaginando sus espacios. Muchas bibliotecas que tenían secciones de referencia muy amplias, muy grandes, están retirando esas secciones de referencia. Porque si hay que consultar un dato, es más fácil ir a internet.
De hecho, un icono como es la Enciclopedia Británica, después de 400 años de vida, ha desaparecido. El icono más importante de la cultura occidental donde se reunían todos los saberes.

2:03 – 2:43

Ahora mismo estamos viendo la televisión, nos están informando sobre una persona, vamos a la Wikipedia y obtenemos esa información rápidamente. Con lo cual, la sección de referencia ha perdido esa capacidad que ha tenido siempre como una parte fundamental de la biblioteca.
Entonces, las bibliotecas están retirando esos espacios: son libros de consulta completamente desactualizados, porque la versión digital incorpora el dato de forma inmediata. Se muere un señor, y en cinco minutos ya tenemos la fecha de su muerte. Esto, para que ocurriera en formato …papel, tendría que esperarse a la edición del suplemento de esa enciclopedia con la fecha de muerte.

2:39 – 3:24

Entonces, ¿qué están haciendo? Se están retirando las enciclopedias, se están retirando los catálogos y otras cosas, y ese espacio se está dedicando al aprendizaje.
Además, cada vez más las teorías sobre el aprendizaje tienden a esto. Las teorías de PISA, el Espacio de Alfabetización Superior de EE. UU.: que los alumnos aprendan investigando más contenidos.

[Música]

Recomendaciones para la gestión de documentos en materia de registro electrónico de entrada y salida de la Administración General del Estado

Ministerio de Cultura y Deporte. 2024. «Recomendaciones para la gestión de documentos en materia de registro electrónico de entrada y salida de la Administración General del Estado.» Librería de la Administración General del Estado, 10 de junio de 2024.

Texto completo

Este documento describe la gestión de registros de entrada y salida de documentos en el marco del Sistema de Interconexión de Registros (SIR), haciendo recomendaciones sobre cómo gestionar los documentos, que puedan ser incluidas en las Políticas de Gestión de Documentos Electrónicos de cada departamento ministerial u organismo público.

Por tanto, tiene por objeto:

  • Describir los sistemas en los que se apoya la Aplicación de Registro de Entrada y Salida para la transferencia telemática de asientos registrales.
  • Recomendar al personal de las oficinas de registro y las unidades tramitadoras buenas prácticas en lo referente a la gestión de documentos tanto electrónicos como en otros soportes.
  • Evitar la acumulación indebida de documentos originales (tanto en soporte papel como electrónico) en las oficinas de asistencia en materia de registro.
  • Orientar sobre cómo actuar sobre esa documentación acumulada, conforme a la normativa vigente.