Natalia Palencia ha logrado una integración notable entre su pasión por la música y su interés en la salud a través de la musicoterapia. Su trayectoria incluye intervenciones en diversos campos, como hospitales, educación especial y geriatría, donde ha observado notables mejoras en pacientes con autismo y Alzheimer. Uno de los aspectos que destaca en su enfoque terapéutico es la neuroplasticidad, que facilita el cambio y la adaptación en el cerebro, y la comunicación no verbal, una herramienta esencial para establecer vínculos profundos con los pacientes. Además, aplica el esquema de fases de Mateos para adaptar sus tratamientos a las necesidades individuales de cada paciente, lo que permite personalizar las terapias. Natalia también ve un gran potencial para la musicoterapia en áreas como los cuidados paliativos y la rehabilitación de adicciones, ampliando las posibilidades de su impacto terapéutico.
Carlyn Zwarenstein describe cómo la administración de Trump está eliminando datos cruciales relacionados con la salud y la ciencia, lo que ha motivado a científicos y bibliotecarios digitales a salvar esta información. Entre las medidas tomadas están la eliminación de términos de investigación y la suspensión de publicaciones de la CDC. Diversos grupos están archivando estos datos para preservarlos ante posibles cambios y pérdidas, destacando el esfuerzo por proteger la integridad de la información pública en un contexto de censura y reescritura histórica.
Las decisiones de la administración Trump han afectado gravemente el acceso a la información científica y de salud, bloqueando sitios web y censurando términos clave en investigaciones federales. Ante esta situación, científicos y expertos en datos se han movilizado para salvar esta información esencial antes de que se pierda permanentemente, utilizando herramientas como el Internet Archive para preservar los datos y evitar su eliminación.
Mientras tanto, muchas comunicaciones públicas también se han suspendido. Por primera vez en sesenta años, la agencia federal de salud, los Centros para el Control y la Prevención de Enfermedades (CDC), ha dejado de publicar sus propios informes, incluido el Informe Semanal de Morbilidad y Mortalidad (MMWR). Esto se suma a una orden de censura sobre las comunicaciones que impide a sus científicos compartir con el público cualquier descubrimiento nuevo, desde nuevos conocimientos sobre el tratamiento del cáncer hasta el potencial de nuevas pandemias como el ébola.
Además, ordena que se elimine una lista de términos específicos de cualquier manuscrito de investigación de los CDC que se esté enviando, que ya esté siendo considerado o que ya esté en prensa en cualquier revista científica o médica, y que se pause o retracte la publicación hasta que se eliminen los términos del trabajo. Los términos en cuestión son: Género, transgénero, persona embarazada, personas embarazadas, LGBT, transexual, no binario, no binario, asignado masculino al nacer, asignado femenino al nacer, biológicamente masculino, biológicamente femenino.
Una búsqueda rápida realizada por Salon en PubMed, la base de datos de publicaciones académicas biomédicas y de salud, así como disciplinas relacionadas como ciencias de la vida y ciencias químicas, administrada por los Institutos Nacionales de Salud, muestra que actualmente contiene 145.340 páginas de resultados (1.453.391 publicaciones individuales) que incluyen el término “género” y publicaciones con el término “transexual”, con artículos que datan desde 1903.
Dado que los artículos sobre ciencias médicas informan detalles demográficos, excluir artículos que informan sobre estas cuestiones o usan este lenguaje significaría no publicar nuevos y emocionantes descubrimientos sobre el tratamiento del cáncer o, digamos, información vital sobre la transmisión del H5N1 entre los agricultores estadounidenses o el brote de tuberculosis de larga data en el área de Kansas City. Las implicaciones exactas de las órdenes del presidente Trump no están del todo claras, por lo que es difícil decir exactamente qué podría no publicarse como resultado de ellas, pero también es probable que haya autocensura preventiva. El lunes, algunas de las páginas ya habían sido restauradas, según el New York Times, lo que subraya el estado impredecible de cierta información federal.
En el medio, una orden general de censura sobre las comunicaciones prohíbe a cualquier científico de los CDC presentar cualquier conocimiento científico nuevo al público. A medida que los sitios y páginas web de salud financiados por el gobierno federal desaparecen en tiempo real de Internet, comienza la carrera para preservar conjuntos de datos vitales e información que antes era pública.
Charles Gaba, analista de datos de políticas de atención médica y desarrollador web, ha creado enlaces en su sitio web a cada copia reflejada de las páginas web públicas de los CDC tal como aparecen en Internet Archive, una organización no partidista y sin fines de lucro con casi 30 años de antigüedad dedicada a preservar Internet de la censura y la pérdida de datos.
Por ejemplo, el Archivo EOT tiene registros de que la Universidad del Norte de Texas solicitó una URL usaid.gov en una fecha particular y recibió un mensaje de error 404 u otra indicación de que el contenido ya no estaba disponible. La Agencia de los Estados Unidos para el Desarrollo Internacional, USAID, recibió una orden de suspensión de trabajos el mes pasado, y el lunes se informó que se había ordenado a los empleados que se quedaran en casa y que Trump planea fusionar USAID con Estados Unidos. Departamento de Estado, reduciendo su fuerza laboral y presupuesto en el proceso. Una búsqueda en Salon de usaid.gov el mismo día dio como resultado un mensaje de error “no se puede encontrar el servidor”.
Phillips sugiere que los periodistas, investigadores, grupos comunitarios o ciudadanos independientes deberían tratar de proteger el contenido que es importante para ellos descargando copias de información o conjuntos de datos importantes.
El artículo analiza cómo Elon Musk utiliza Twitter de manera estratégica para controlar la narrativa y manipular la opinión pública, aplicando tácticas similares a las de Donald Trump en la guerra de la información. Se destacan cuatro tácticas clave que Musk emplea:
Enmarcado preventivo: Musk utiliza Twitter para enmarcar los temas a su favor antes de que lo hagan otros. Un ejemplo es el caso de los «Twitter Files», que presentó como un escándalo de censura del gobierno a favor de Joe Biden, aunque en realidad no tenía pruebas de tal acto. Este enmarcado, aunque infundado, crea la narrativa de que los medios de comunicación ocultan una gran verdad, mientras él desacredita a los medios tradicionales.
Desviación: Musk distrae la atención de temas importantes para centrarla en información falsa o engañosa. Un caso fue cuando desvió la atención de un artículo negativo de The Wall Street Journal sobre su empresa, The Boring Company, atacando a Apple con acusaciones falsas sobre su publicidad y su relación con Twitter.
Desviación de ataques: Musk utiliza Twitter para desviar los ataques hacia él, redirigiendo la conversación hacia sus críticos, políticos demócratas o progresistas. Un ejemplo reciente fue cuando insinuó que sus predecesores en Twitter podrían haber facilitado actividades ilegales, mientras él mismo había debilitado el equipo encargado de la seguridad infantil.
Globo sonda: Musk utiliza su cuenta para lanzar ideas y probar la respuesta pública. Algunas propuestas, como la reintegración de Trump en Twitter, se concretan, mientras que otras parecen ser provocaciones para generar controversia, como su sugerencia de convertir la sede de Twitter en un refugio para personas sin hogar.
Estas tácticas, que combinan desinformación, distracción y manipulación de la narrativa, sirven para proteger la imagen de Musk, desviar la atención de sus fracasos y consolidar su poder en la plataforma.
El concepto de WEIRD bias (sesgo WEIRD) pone de manifiesto un problema en el desarrollo y uso de la inteligencia artificial, especialmente en sistemas como GPT. Este sesgo se refiere a la tendencia de los modelos de IA a reflejar los valores, perspectivas y supuestos culturales de las sociedades occidentales, educadas, industrializadas, ricas y democráticas, los cuales, a menudo, son los entornos predominantes en los que se desarrolla la tecnología y se generan los datos que alimentan estos sistemas.
El término fue acuñado por el investigador Joe Henrich para señalar que las investigaciones psicológicas y cognitivas, que suelen ser las bases de la programación y el entrenamiento de la IA, tienden a basarse en muestras de personas de estas sociedades WEIRD. De este modo, la IA resulta sesgada hacia las normas y formas de pensar de estas culturas, lo que limita su capacidad para comprender o integrar perspectivas diversas de otras partes del mundo, donde los valores y experiencias pueden ser muy diferentes.
El problema radica en que, aunque en las sociedades modernas se valore la idea de la inteligencia individual, los humanos, de manera colectiva, somos mucho más inteligentes. La inteligencia grupal, que se forma a partir de la combinación de distintos puntos de vista y enfoques, permite tomar decisiones más precisas y creativas. Sin embargo, esta inteligencia colectiva depende de la diversidad cognitiva, es decir, de la interacción de diferentes perspectivas que se complementan entre sí. Si esta diversidad se ve reducida, por ejemplo, al entrenar una IA únicamente con datos provenientes de sociedades WEIRD, la capacidad para tomar decisiones informadas y adaptadas a la realidad de diferentes culturas y contextos podría verse gravemente afectada.
El paralelismo con la biología se hace evidente cuando se recurre a la hipótesis Gaia, que sugiere que la Tierra y sus sistemas biológicos funcionan como un único ente autorregulado. Esta hipótesis destaca que los ecosistemas más diversos son los más resilientes ante cambios inesperados. Del mismo modo, una sociedad diversa desde el punto de vista cultural y cognitivo puede ser más adaptable e innovadora. En contraste, las sociedades homogéneas, como las que Michelle Gelfand describe como “sociedades cerradas” o tight societies, que tienden a imponer normas estrictas y homogéneas, corren el riesgo de perder su capacidad para innovar y adaptarse, lo que afecta su progreso.
Este sesgo WEIRD no solo influye en la IA, sino también en las decisiones políticas, económicas y sociales, ya que puede limitar la capacidad de comprender y abordar de manera efectiva los problemas de sociedades con diferentes valores, creencias y estructuras. Las decisiones tomadas desde un marco cultural limitado pueden no ser las más adecuadas o eficientes para abordar los desafíos globales.
Por lo tanto, el desafío radica en desarrollar tecnologías de IA más inclusivas, que incorporen una mayor diversidad cultural y cognitiva. Esto no solo permitirá que la IA sea más justa y precisa, sino que también podría contribuir a un mundo más innovador y adaptado a la pluralidad de perspectivas existentes.
El informe de JISC aborda el estado actual de los datos abiertos sobre la gestión de la investigación en el Reino Unido. El informe subraya el potencial de los datos abiertos para aumentar la eficiencia, reducir la carga administrativa y mejorar las posibilidades de innovación en la investigación en el Reino Unido.
El nuevo informe de Jisc resalta el potencial de los datos abiertos para transformar la gestión de la investigación y mejorar la eficiencia en el sector. El documento enfatiza cómo el uso de datos abiertos puede reducir la burocracia, disminuir la carga administrativa y fomentar la innovación en la investigación en el Reino Unido.
El grupo de trabajo identificó la necesidad de encontrar enfoques comunes para integrar el ecosistema de información de la investigación. El informe destaca la gran oportunidad que representaría otorgar una licencia abierta a los datos sobre la gestión de la investigación y hacerlos disponibles a través de esquemas de publicación, especialmente en el caso de los datos de las organizaciones del sector público. Este cambio podría desbloquear grandes cantidades de datos públicos relevantes para la gestión de la investigación, haciéndolos fácilmente accesibles y encontrables mediante enfoques políticos existentes y como parte del proceso administrativo de su recolección y gestión.
Principales hallazgos incluyen:
Establecer un paso fundamental hacia la eficiencia compartida y enfoques simplificados para la gestión de la investigación en el Reino Unido, reduciendo la burocracia, eliminando la complejidad innecesaria y la deuda técnica, y reduciendo los costos.
Esfuerzos colaborativos coordinados por Jisc, BRRIN, que incluyen representación de todas las naciones del Reino Unido, con el objetivo de mejorar el ecosistema de gestión de la investigación mediante soluciones eficientes, sostenibles y con baja burocracia.
La importancia de una auditoría de datos abiertos que podría revelar más valor, destacando oportunidades significativas para aprovechar los datos abiertos en la gestión de la investigación.
La sugerencia de adoptar estándares comunes de datos para apoyar APIs que permitan un sistema más integrado y fluido.
La oportunidad de utilizar la infraestructura y políticas de datos abiertos existentes en el sector público, lo que ofrece oportunidades inmediatas de mejora.
Los bibliotecarios están enfrentando un problema creciente en las bibliotecas públicas de EE. UU. con respecto a los libros de baja calidad generados por inteligencia artificial (IA). Estos libros están siendo incluidos en los catálogos digitales de bibliotecas públicas, lo que obliga a los bibliotecarios a revisar una gran cantidad de material para identificar qué libros son generados por IA y cuáles son escritos por humanos.
Las plataformas Hoopla y OverDrive, que gestionan los libros electrónicos en muchas bibliotecas, están facilitando la inclusión de estos títulos, sin que los bibliotecarios tengan un control efectivo sobre la selección. Aunque Hoopla ofrece un catálogo muy amplio, esto también significa que los bibliotecarios deben lidiar con contenido de baja calidad, incluyendo libros escritos o generados por IA con poca o ninguna supervisión. Este tipo de contenido es conocido como «slop» o «basura de IA», y se ha convertido en un problema debido a la falta de curaduría en las plataformas. Algunos de estos libros, aunque no presentan información peligrosa, están mal escritos y tienen una presentación pobre.
Los bibliotecarios expresan su preocupación por la cantidad creciente de contenido de IA en sus catálogos, ya que los usuarios pueden no ser conscientes de que están leyendo material generado por IA. Además, esto genera un gasto innecesario para las bibliotecas, que deben pagar por libros de baja calidad. Los bibliotecarios piden mayor transparencia y control en el proceso de selección de los libros, y sugieren que los libros generados por IA deben estar claramente identificados en los catálogos para que los usuarios sepan que no fueron escritos por autores humanos.
Desde su lanzamiento en noviembre de 2022, ChatGPT ha sido utilizado por investigadores para mejorar la redacción académica, revisar literatura científica y escribir código para analizar datos. Aunque algunos creen que el chatbot aumenta la productividad, otros temen que esté facilitando el plagio, introduciendo imprecisiones en los artículos y consumiendo grandes cantidades de energía.
Un estudio de la editorial Wiley, realizado entre marzo y abril de 2024, reveló que el 81% de los investigadores han usado ChatGPT, lo que lo convierte en la herramienta de IA más popular entre los académicos. La mayoría de los encuestados considera que, en los próximos cinco años, será crucial que los investigadores desarrollen habilidades en IA.
Se estima que al menos 60.000 artículos académicos publicados en 2023 fueron escritos con la ayuda de un modelo de lenguaje grande (LLM).
El 10% de los artículos en biomedicina y el 17,5% en informática en 2024 tuvieron sus resúmenes redactados con asistencia de IA.
Se estima que entre el 6,5% y el 16,9% de las revisiones por pares en conferencias de IA en 2023 y 2024 fueron generadas sustancialmente por LLM.
ChatGPT ha demostrado ser útil para superar barreras lingüísticas, ayudando especialmente a investigadores que no tienen el inglés como lengua materna. Sin embargo, se reconoce que tiene limitaciones, especialmente en tareas complejas como revisiones bibliográficas, ya que puede generar información errónea o inventada. Además, la privacidad es una preocupación, ya que los datos introducidos en la IA podrían ser utilizados para entrenar nuevos modelos.
A pesar de estos desafíos, algunos investigadores están explorando la posibilidad de que ChatGPT y otros modelos de IA puedan ir más allá de ser simples asistentes virtuales, convirtiéndose en «científicos» capaces de diseñar proyectos de investigación. Algunos estudios preliminares, como un proyecto reciente en el que los modelos de IA colaboraron para diseñar nanocuerpos contra el coronavirus, han mostrado resultados prometedores.
Una encuesta de la editorial Wiley realizada a casi 5.000 investigadores en más de 70 países sugiere que el uso de herramientas de inteligencia artificial (IA) para redactar manuscritos, solicitudes de subvenciones y realizar revisiones por pares será ampliamente aceptado en los próximos dos años.
La mayoría de los encuestados considera que la IA será clave en la investigación y publicación científica, con más de la mitad opinando que ya supera a los humanos en tareas como revisar grandes volúmenes de literatura, resumir hallazgos, detectar errores en la escritura, verificar plagios y organizar citas. Se espera que en los próximos dos años la IA se vuelva común en 34 de 43 casos de uso analizados.
Sin embargo, el uso real de la IA aún es limitado. Solo el 45% de los primeros 1.043 encuestados ha empleado IA en su trabajo, principalmente para traducción, corrección y edición de textos. Aunque el 81% ha usado ChatGPT de OpenAI, solo un tercio conoce otras herramientas como Gemini de Google o Copilot de Microsoft. El uso varía según el país y la disciplina, siendo más frecuente en China y Alemania, así como en investigadores de informática y medicina.
El estudio destaca barreras globales para la adopción de la IA, como la falta de directrices claras y formación, citadas por más del 60% de los investigadores. Además, un 70% considera que las editoriales deben establecer normas sobre el uso aceptable de la IA en la investigación académica.
Un estudio sobre 43 posibles casos de uso de la IA en la investigación científica revela tendencias clave:
Alto interés en la IA: La mayoría de los investigadores desean usar IA en 39 de los 43 casos analizados, lo que indica que su adopción limitada hasta ahora no se debe a falta de interés.
Reconocimiento de la capacidad de la IA: En 23 casos, los investigadores ya creen que la IA supera a los humanos, mostrando confianza en la tecnología y su potencial actual.
Rápida aceptación esperada: Se prevé que en dos años, 34 de los 43 casos de uso sean ampliamente aceptados, lo que sugiere una aceleración en la adopción de la IA en la investigación.
Incluso los adoptantes tardíos se preparan: Aunque algunos investigadores son más cautelosos, la mayoría espera que en poco tiempo la IA se convierta en una herramienta esencial en su trabajo.
En cuanto a en el interés de los investigadores respecto a los uso y en la comparación entre el rendimiento de la IA y el humano. Los hallazgos clave incluyen:
Promoción y difusión del artículo: Aunque la IA supera a los humanos en varias tareas de post-publicación, los investigadores muestran menor interés en estas aplicaciones, salvo en aquellas que mejoran la accesibilidad de sus trabajos.
Determinación del tema de investigación: Los investigadores están dispuestos a usar IA para revisar grandes volúmenes de información, pero no confían en su capacidad para anticipar nuevas tendencias en sus campos.
Realización de la investigación: Aunque esta fase genera menos interés, la IA es vista como útil para gestionar grandes cantidades de datos.
Preparación para la publicación: Es una de las áreas donde la IA tiene mayor aceptación, especialmente en la autoevaluación y asistencia en la redacción de manuscritos.
Revisión por pares: La mayoría de los investigadores prefieren que los humanos sigan desempeñando el papel principal en este proceso, destacando la importancia del juicio humano.
Casos actuales de uso de la IA en investigación
Redacción y preparación de manuscritos: 72% de los investigadores están interesados, y 62% consideran que la IA supera a los humanos en tareas como detección de errores, asistencia en escritura, verificación de plagio y generación automática de citas.
Manejo de grandes volúmenes de información: 67% de interés y 60% ven a la IA como superior en revisión de estudios, monitoreo de publicaciones y procesamiento de datos.
Accesibilidad y difusión de la investigación: 65% de interés y 58% consideran que la IA es útil en resúmenes en lenguaje sencillo y gestión del conocimiento.
Oportunidades en desarrollo
Generación de predicciones y recomendaciones: 64% de interés, pero 56% creen que los humanos aún lideran. Aplica a identificación de tendencias y selección de referencias.
Automatización de tareas administrativas: 58% de interés y 57% consideran que los humanos siguen siendo clave en gestiones como búsqueda de financiación.
Futuras aplicaciones de la IA en investigación
Mejora de métodos de investigación y colaboración: 54% de interés en identificación de colaboradores y optimización de experimentos.
Generación automatizada de contenido: 53% de interés en crear contenido multimedia y educativo basado en investigaciones.
Revisión por pares asistida por IA: 56% de interés en herramientas para estandarizar comentarios y agilizar el proceso.
El papel de las editoriales científicas en el uso de la IA
70% de los investigadores quieren que los editores establezcan guías claras sobre el uso de IA en publicaciones.
69% desean que ayuden a evitar errores y sesgos.
Más de la mitad buscan mejores prácticas para un uso seguro y responsable de la IA.
El libro Media and Information Literacy: A Practical Guidebook for Trainers de DW Akademie promueve la libertad de expresión y el acceso a la información, un derecho que, según Ute Schaeffer, jefa de Desarrollo de Medios en DW Akademie, solo se puede realizar cuando las personas pueden comunicarse libremente tanto en línea como fuera de línea. El manual contiene pautas que introducen a los estudiantes en los conceptos esenciales de la alfabetización mediática e informacional (MIL), acompañadas de hojas de trabajo diseñadas para ayudarles a ejecutar con éxito los ejercicios del libro. El objetivo es proporcionar a los educadores herramientas prácticas, como ejercicios, dinámicas y ayudas de enseñanza, para enseñar MIL.
La MIL busca aumentar el acceso a los medios y la participación en la creación de contenidos. Para DW Akademie, esto puede generar nuevas visiones sobre el acceso, la estructura y el control de los medios, desarrollando sociedades donde las personas sean tratadas como ciudadanos y no como sujetos. Las nuevas tecnologías de los medios permiten que las personas analicen y creen textos en una variedad de medios, pero las habilidades necesarias deben ser aprendidas y actualizadas constantemente, lo que implica un proceso de aprendizaje continuo.
El material está dirigido principalmente a formadores que trabajan con jóvenes, proporcionando lecciones sobre cómo funcionan los medios tradicionales (como periódicos, radio y televisión), cómo se convierte la información en noticia y cómo evaluar si la información en los medios es confiable. Además, se incluyen prácticas sobre cómo contar historias a través de redes sociales, la fotografía periodística y el uso de videos y vlogs. Las lecciones tienen un enfoque participativo, donde los estudiantes aprenden a través de ejercicios prácticos, discusiones y juegos en lugar de conferencias.
El recurso Information Literacy Concepts: An Open Educational Resource comienza con una introducción que aborda el concepto fundamental de la alfabetización informacional, explicando qué significa y por qué es crucial en el mundo actual.
En el primer capítulo, se aborda cómo funcionan las bibliotecas, proporcionando una visión general de su papel en la gestión y acceso a la información. El segundo capítulo se centra en la credibilidad de la información, especialmente en un contexto donde las noticias falsas son un desafío común. Aquí se ofrece orientación sobre cómo evaluar la información que se encuentra durante la investigación.
El tercer capítulo ofrece un panorama de los diferentes tipos de información y cuándo suelen aparecer en las publicaciones, ayudando a los usuarios a entender las distintas fuentes disponibles. En el cuarto capítulo, se explora el paisaje informacional, destacando las herramientas clave como motores de búsqueda, bases de datos de bibliotecas, la clasificación de la Biblioteca del Congreso y las herramientas de descubrimiento que facilitan la búsqueda de información relevante.
El quinto capítulo trata sobre el proceso de investigación, desde cómo elegir un tema adecuado hasta cómo identificar palabras clave y recuperar la información necesaria de manera eficaz. Finalmente, el sexto capítulo aborda el uso ético de la información, enfatizando la importancia de la integridad académica, evitando el plagio y reconociendo la investigación como un diálogo académico continuo.
El recurso finaliza con un glosario que explica términos clave para una mejor comprensión del tema tratado.
El contenido del recurso Information Literacy Concepts: An Open Educational Resource se estructura de la siguiente manera:
Introducción: ¿Qué es la alfabetización informacional?
Capítulo 1: Cómo funcionan las bibliotecas.
Capítulo 2: ¿Qué es creíble hoy en día? Noticias falsas y la evaluación de la información durante la investigación.
Capítulo 3: El panorama de la información: una visión general de los tipos de información y su aparición en la publicación.
Capítulo 4: Navegando por el paisaje informacional: Motores de búsqueda, bases de datos de bibliotecas, clasificación de la Biblioteca del Congreso y herramientas de descubrimiento.
Capítulo 5: El proceso de investigación: elegir un tema, identificar palabras clave y recuperar la información necesaria.
Capítulo 6: El uso ético de la información: sobre la integridad académica, evitar el plagio y la investigación como una conversación.