Archivo de la etiqueta: Informes

Jisc presenta una herramienta estratégica para impulsar la transformación digital en bibliotecas universitarias

Taking Digital Transformation Forward in Your Organisation Jisc. Accedido el 9 de octubre de 2025. https://www.jisc.ac.uk/taking-digital-transformation-forward-in-your-organisation

Jisc ha lanzado una nueva herramienta estratégica llamada “Digital Transformation Library Lens”, diseñada para fortalecer el papel de las bibliotecas académicas en la transformación digital de la educación superior.

Desarrollada en colaboración con líderes bibliotecarios y organizaciones como SCONUL, RLUK y CILIP, esta herramienta ofrece una perspectiva centrada en las bibliotecas dentro del marco general de transformación digital de Jisc para universidades.

El “library lens” muestra cómo los servicios de bibliotecas y archivos contribuyen al cambio institucional en seis áreas clave:

  1. Cultura digital organizacional,
  2. Creación e innovación del conocimiento,
  3. Desarrollo del conocimiento,
  4. Gestión y uso del conocimiento,
  5. Intercambio y alianzas,
  6. Infraestructura digital y física.

Aunque las bibliotecas universitarias han sido pioneras en innovación digital —liderando ámbitos como las colecciones digitales, la comunicación científica y las competencias digitales de los estudiantes—, muchas sienten que su papel no se reconoce plenamente en los procesos institucionales de transformación digital.

La nueva herramienta busca visibilizar y potenciar su impacto mediante un enfoque estructurado y basado en evidencias, con ejemplos prácticos sobre cómo las bibliotecas pueden contribuir a:

  • Desarrollar estrategias de IA y bienestar digital,
  • Mejorar la infraestructura de investigación y las políticas de acceso abierto,
  • Cocrear entornos digitales inclusivos y espacios de aprendizaje,
  • Apoyar la toma de decisiones basada en datos y analíticas.

El “library lens” se acompaña de materiales de apoyo como un modelo de madurez digital, plantillas de planes de acción y herramientas para la implicación de actores clave.

Jisc invita a las universidades a incorporar esta herramienta en su planificación estratégica y está colaborando con siete bibliotecas universitarias piloto, cuyos resultados se publicarán en 2026. Además, anima a los líderes universitarios y directores de bibliotecas a unirse al grupo de trabajo y explorar los recursos del Digital Transformation Toolkit.

Cómo los padres gestionan el tiempo frente a pantallas de sus hijos

Pew Research Center. How Teens and Parents Approach Screen Time. Pew Research, 2025

El estudio de Pew Research analiza las actitudes y comportamientos respecto al uso de pantallas entre adolescentes (13 a 17 años) y sus padres en Estados Unidos. Para ello, encuestaron a 1 453 adolescentes y sus padres entre el 26 de septiembre y el 23 de octubre de 2023, usando muestras ponderadas para ser representativas por edad, género, etnia e ingresos.

Desde YouTube hasta smartphones y tablets, la tecnología forma parte de la vida de los niños. Los chatbots de IA también forman parte de esta dinámica. Si bien los padres se esfuerzan por gestionar el tiempo de pantalla, el 42 % afirma que podría hacerlo mejor.

Los resultados muestran que la mayoría de los padres están preocupados por el impacto del tiempo de pantalla en la salud física, mental y social de sus hijos. Sin embargo, también reconocen los beneficios educativos y de entretenimiento que ofrecen las tecnologías digitales.

Uno de los hallazgos principales es que el 66 % de los padres afirman establecer límites claros sobre el tiempo que sus hijos pueden dedicar a pantallas, especialmente a videojuegos y redes sociales. No obstante, existe una notable variabilidad según la edad de los niños: los padres de adolescentes son menos estrictos que los de niños pequeños. Además, un 54 % de los padres confiesa que sus hijos superan ocasionalmente esos límites, lo que refleja la dificultad de mantener el control constante en un entorno tecnológico cada vez más ubicuo.

El informe también destaca el papel de los dispositivos móviles: el 80 % de los niños mayores de 10 años posee o utiliza habitualmente un teléfono inteligente. Muchos padres se muestran ambivalentes ante ello: por un lado, valoran la posibilidad de mantenerse en contacto; por otro, les preocupa la exposición a contenidos inapropiados y la dependencia digital. En respuesta, algunos adoptan medidas como el control parental, la supervisión de redes sociales o la limitación del acceso nocturno a los dispositivos.

En cuanto a la percepción general, el 72 % de los padres considera que la tecnología digital es una herramienta esencial para el aprendizaje, pero el 61 % teme que esté afectando negativamente la atención y las habilidades sociales de los niños. La mayoría coincide en que enseñar un uso equilibrado y responsable es tan importante como establecer límites temporales.

Impulso europeo a los datos abiertos y su continuidad en el programa Digital Europe

European Health and Digital Executive Agency; European Commission (2025). Public open data: CEF Telecom projects at a glance. Publications Office of the European Union. ISBN 978-92-95239-44-9.

Texto completo

Se ofrece una visión general de los proyectos de datos públicos abiertos financiados en el marco del programa CEF Telecom (2014-2020) y los sectores o ámbitos en los que se desarrolló cada proyecto, mostrando algunos proyectos y su impacto. Además, esta ficha informativa tiene por objeto describir cómo el programa Europa Digital tomó el relevo y apoya los espacios comunes europeos de datos. Los datos públicos abiertos son un servicio que facilita y armoniza el acceso a conjuntos de datos creados y gestionados por organismos públicos de toda la UE. El objetivo general es la mejora de las infraestructuras de servicios digitales y el desarrollo de productos y servicios de información basados en la reutilización y la combinación de datos en poder de actores públicos y comerciales de toda la UE. Los datos públicos son toda la información que los organismos públicos producen, recopilan o pagan. Esta información es importante para su reutilización en nuevos productos y servicios. Al abrir los datos públicos, se promovió la participación de los ciudadanos y los expertos en la vida política y social.

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.

La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones

Cruz Argudo, Francisco; García Varea, Ismael; Martínez Carrascal, Juan A.; Ruiz Martínez, Antonio; Ruiz Martínez, Pedro M.; Sánchez Campos, Alberto; Turró Ribalta, Carlos. La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones. Crue, marzo de 2024. https://www.crue.org/wp-content/uploads/2024/03/Crue-Digitalizacion_IA-Generativa.pdf

El documento analiza el papel de la inteligencia artificial generativa (IAG) en el ámbito de la educación universitaria, identificando las oportunidades que ofrece, los desafíos que impone y proponiendo recomendaciones para su integración responsable. Se define la IAG como una evolución de la IA tradicional que puede generar contenido nuevo (texto, imágenes, vídeos, etc.) a partir de descripciones en lenguaje natural, y se plantea su uso para personalizar el aprendizaje, generar materiales educativos y liberar al profesorado de tareas repetitivas.

Entre las oportunidades, el texto destaca que la IAG permite ampliar el acceso a la educación superior, adaptar el aprendizaje a las necesidades individuales, proporcionar apoyo en tiempo real mediante chatbots o tutorías automáticas, y mejorar la eficiencia docente al automatizar tareas administrativas y de creación de contenido.

Sin embargo, la implementación conlleva múltiples desafíos: la resistencia al cambio del profesorado y del personal administrativo; la necesidad de adaptar metodologías de enseñanza; la revisión de los resultados formativos; la redefinición de evaluación académica; la capacitación técnica; los posibles usos indebidos; los costes de implementación; y la dependencia excesiva de la tecnología.

En el plano ético, se abordan cuestiones de privacidad y protección de datos (incluido el cumplimiento del RGPD), integridad académica y propiedad intelectual, transparencia y sesgos en los algoritmos, desigualdades en el acceso a la tecnología, y el impacto medioambiental del uso intensivo de estos sistemas.

Finalmente, el documento concluye con una serie de recomendaciones: establecer principios éticos comunes entre universidades; definir competencias de IA para estudiantes y profesorado; promover el debate interno institucional; planificar la incorporación gradual de la IAG con atención a costos, equidad y privacidad; fomentar comunidades docentes para compartir buenas prácticas; y monitorear continuamente los efectos del uso de la IAG en la docencia.

Plan de acción Horizont 2025: Fomentar las habilidades y la alfabetización digital para la enseñanza con IA generativa

Robert, Jenay. 2025. “2025 Horizon Action Plan: Building Skills and Literacy for Teaching with GenAI.” EDUCAUSE Library, September 29, 2025. https://library.educause.edu/resources/2025/9/2025-educause-horizon-action-plan-building-skills-and-literacy-for-teaching-with-genai

El documento parte de la idea de que la inteligencia artificial generativa (GenAI) ya está transformando profundamente la educación superior. Frente a ese impacto, los autores reclaman que las instituciones educativas no respondan pasivamente, sino que tomen un rol activo en diseñar el futuro que quieran ver. Con ese propósito, se conformó un panel global de expertos que proyectó escenarios futuros ideales para la integración de GenAI en la educación, y a partir de ellos se elaboró este “plan de acción” con pasos concretos para alcanzarlos.

El informe propone que el desarrollo de competencias y alfabetización digital para enseñar con GenAI debe estructurarse de manera intencional. Entre los ámbitos de intervención que se destacan están: formación docente específica en herramientas de IA, gobernanza institucional del uso de IA, prácticas pedagógicas emergentes, fortalecimiento de la alfabetización digital crítica, interoperabilidad con sistemas educativos existentes y medidas de ciberseguridad.

  • Herramientas de IA para la enseñanza y el aprendizaje
  • Formación del profesorado en IA generativa
  • Gobernanza de la IA
  • Fortalecimiento de la ciberseguridad
  • Innovación en las prácticas docentes
  • Alfabetización digital crítica

Se enfatiza que no hay un único camino válido: el plan sugiere múltiples “rutas” o estrategias escalables según la capacidad de cada institución. Las recomendaciones también insisten en la colaboración entre partes interesadas —docentes, equipos de TI, responsables institucionales—, así como en la necesidad de pilotajes, iteraciones y evaluación continua para ajustar las iniciativas de integración de GenAI.

Asimismo, el plan reconoce desafíos: la desigualdad de acceso tecnológico, la brecha de competencias entre profesorado, las preocupaciones éticas (sesgos, plagio, transparencia), la protección de datos y la gobernanza institucional. Estas cuestiones demandan marcos claros, políticas y soporte organizacional para que el uso de GenAI sea seguro, equitativo y pedagógicamente significativo.

Kit de herramientas de IA para bibliotecas universitarias y de investigación

Association of Research Libraries and Coalition for Networked Information. ARL/CNI Futurescape Libraries AI Toolkit Can Help You Thrive in the AI Landscape.” ARL News, September 22, 2025.

Texto completo

Futurescape Libraries AI Toolkit busca preparar a las bibliotecas para un futuro en el que la inteligencia artificial será cada vez más determinante. Su valor no radica en predecir lo que ocurrirá, sino en estimular la capacidad de anticipación, la adaptación y la innovación institucional. Con ello, se pretende que las bibliotecas se conviertan en agentes activos del cambio, en lugar de limitarse a responder a las transformaciones una vez que estas ya se han producido.

El objetivo principal es que las bibliotecas de investigación dejen de adoptar un papel reactivo ante los desarrollos en IA y pasen a uno estratégico y de liderazgo, anticipando desafíos y transformaciones.

El toolkit incorpora los ARL/CNI AI Scenarios, junto con prioridades definidas y refinadas durante el foro “Strategic Implications” celebrado en diciembre de 2024. La estructura modular permite que equipos de liderato, personal bibliotecario y otros agentes externos exploren posibilidades futuras, prueben sus estrategias actuales, identifiquen oportunidades y vulnerabilidades, y preparen a la organización para cambios a largo plazo.

La herramienta se organiza en cinco módulos diseñados de manera flexible para que cada institución pueda adaptarlos según sus necesidades, recursos y nivel de preparación. El primero, Thinking About the Future, promueve una mentalidad abierta hacia el futuro y fomenta la reflexión inicial sobre la IA. El segundo, Surfacing Opportunities and Concerns, introduce conceptos de prospectiva como los impulsores de cambio, las señales y el escaneo del entorno, ayudando a identificar tendencias y tensiones externas que impactan a las bibliotecas. El tercer módulo, Scenario-Based Development and Evaluation of Options, invita a utilizar los escenarios de ARL/CNI como base para analizar la viabilidad de distintas estrategias, simulando cómo podrían funcionar bajo diferentes futuros posibles.

El cuarto módulo, Exploration of Strategic Options, ofrece herramientas para priorizar las estrategias, evaluar su impacto y decidir cuáles tienen más potencial de implementación a corto o medio plazo. Finalmente, el quinto módulo, From Workshop to Practice, se centra en traducir lo aprendido en los talleres en prácticas institucionales sostenidas, incorporando rutinas de vigilancia tecnológica, sistemas de alerta temprana y una cultura organizativa que mantenga la reflexión sobre el futuro como parte habitual de la gestión bibliotecaria. Además de estos módulos, se incluye una guía para facilitadores que orienta sobre cómo organizar talleres y adaptar las dinámicas a cada contexto.

De que manera los bibliotecarios escolares en Escocia abordan los problemas de la desinformación y la información errónea

Chartered Institute of Library and Information Professionals in Scotland (CILIPS). Tackling Misinformation and Disinformation for Scottish School Librarians Project Report. Liderado por Bruce Ryan, Edinburgh Napier University. CILIPS Research Fund, 2025

Texto completo

Los bibliotecarios escolares en Escocia ya realizan un esfuerzo significativo para abordar la desinformación, su capacidad para hacerlo de manera eficaz se ve seriamente limitada por carencias estructurales y de reconocimiento institucional. El informe insiste en que, para que puedan desempeñar plenamente su papel, es imprescindible darles apoyo sostenido, recursos adecuados, oportunidades de formación y un marco de colaboración estable con el resto de la comunidad educativa.

El estudio, realizado durante la primera mitad de 2025, examina las prácticas actuales, las barreras que encuentran los profesionales y las recomendaciones que podrían mejorar su labor en un contexto donde no existe una legislación específica que regule las bibliotecas escolares. Esta ausencia de normativa hace que la relevancia del bibliotecario dependa en gran medida de las decisiones de cada centro educativo, del apoyo del profesorado y del liderazgo institucional.

En cuanto a las prácticas que ya se llevan a cabo, los bibliotecarios intervienen tanto de forma directa, respondiendo a consultas puntuales sobre desinformación, como indirectamente, mediante clases, charlas y actividades de alfabetización informacional. Sin embargo, el informe señala que las peticiones explícitas de ayuda sobre desinformación no son frecuentes, y cuando aparecen provienen sobre todo de los estudiantes. Este hecho refuerza la idea de que, aunque existe un problema real de exposición a información falsa, todavía falta consolidar un marco educativo que reconozca y potencie el papel de los bibliotecarios como agentes clave en la formación crítica de los alumnos.

Las barreras identificadas se relacionan principalmente con la falta de tiempo, presupuesto y recursos, factores que impiden llevar a cabo de forma sistemática programas de educación en desinformación. A ello se suma la insuficiencia de apoyo por parte del liderazgo escolar y de los profesores, lo cual limita la integración de estas prácticas en el currículo oficial. En muchos casos, además, las propias instalaciones físicas de las bibliotecas escolares no son adecuadas para desempeñar las funciones de enseñanza, consulta y reflexión necesarias en este ámbito.

El informe destaca también el deseo de los bibliotecarios de recibir formación especializada que les permita actualizar sus competencias frente a la desinformación y la información errónea. Esta formación debería estar disponible tanto para bibliotecarios como para asistentes de biblioteca, y sería más efectiva si estuviera integrada dentro de los programas de desarrollo profesional docente. Asimismo, se plantea la necesidad de fortalecer la colaboración entre bibliotecarios y profesores, desde la etapa de formación inicial de estos últimos, de manera que la educación en torno a la desinformación no dependa de iniciativas aisladas sino que forme parte de la enseñanza sistemática.

Las recomendaciones apuntan a que se reconozca oficialmente que los estudiantes enfrentan problemas de desinformación y que los bibliotecarios poseen competencias valiosas para afrontarlos. Para ello es necesario otorgarles tiempo, presupuesto y un lugar claro en el marco educativo. Además, se sugiere mejorar las oportunidades de colaboración con los docentes, integrando a los bibliotecarios en las revisiones curriculares, y ampliar la oferta de formación continua en alfabetización mediática e informacional. También se subraya la importancia de mejorar las instalaciones físicas de las bibliotecas, con el fin de que puedan cumplir su función pedagógica y social de manera más efectiva.

El impacto de la tecnología y las redes sociales en el cerebro adolescente: riesgos, beneficios y recomendaciones

CBC News. “Teen Brains, Technology, and Social Media: Can They Impact Cognitive Skills?CBC, fecha de publicación, 2025. https://www.cbc.ca/news/canada/teen-brains-technology-aids-1.7604341

El artículo plantea la cuestión de si la exposición intensa de los adolescentes a la tecnología —incluyendo redes sociales, inteligencia artificial, aplicaciones educativas, dispositivos digitales— puede tener efectos tanto beneficiosos como perjudiciales en el desarrollo cognitivo. Se presentan preocupaciones entre educadores, psicólogos y padres en cuanto a la dependencia que los jóvenes podrían desarrollar con herramientas tecnológicas: por ejemplo, el uso constante de ayudas digitales puede afectar su capacidad de concentración, memoria de trabajo o fijación en tareas que requieren atención prolongada.

Por otro lado, se discuten aspectos positivos: la tecnología permite acceso rápido a información, debe facilitar la colaboración, interdisciplinariedad, creatividad, y el aprendizaje personalizado. Algunas herramientas, incluidas aplicaciones educativas o de IA, pueden ayudar a reforzar habilidades cognitivas específicas, como el reconocimiento visual, la resolución de problemas o incluso ciertas funciones ejecutivas —cuando se usan con criterio y estructura—.

El artículo también explora cómo el contexto educativo, el tipo de usos tecnológicos y los límites (horarios, supervisión, tipos de contenido) influyen en los efectos observados: no toda exposición es igual. Se menciona que los efectos negativos tienden a aparecer cuando hay un uso desregulado, multitarea excesiva, interrupciones constantes (notificaciones, mensajes) o cuando la tecnología sustituye completamente formas tradicionales de aprendizaje o interacción humana. Además, se integran testimonios de educadores que ven cambios en la capacidad de atención de sus estudiantes, dificultades para mantener la concentración sin distracciones digitales, o una tendencia a “saltar” rápidamente entre tareas.

Una parte importante del artículo está dedicada a recomendaciones para equilibrar estos riesgos con los beneficios: fomentar hábitos saludables de uso tecnológico, establecer tiempos sin pantallas, promover pausas, diseñar entornos de aprendizaje que reduzcan las distracciones digitales, entrenar tanto a alumnos como a docentes para que sean conscientes de cómo usar la tecnología de forma óptima, y no simplemente incorporar más dispositivos sin una estrategia crítica. También se sugiere investigación continua, análisis de datos longitudinales para ver efectos a largo plazo, comparación entre diferentes tipos de tecnología, y seguimiento de casos donde se hayan aplicado intervenciones educativas para mitigar efectos adversos.

Cómo ven los estadounidenses el impacto de la inteligencia artificial en la sociedad

Kennedy, Brian; Eileen Yam; Emma Kikuchi; Isabelle Pula; Javier Fuentes. How Americans View AI and Its Impact on People and Society. Pew Research Center, 17 septiembre 2025. https://www.pewresearch.org/science/2025/09/17/how-americans-view-ai-and-its-impact-on-people-and-society/

El informe del Pew Research Center, basado en una encuesta nacional realizada a más de cinco mil adultos en junio de 2025, ofrece una radiografía de cómo los estadounidenses perciben el impacto de la inteligencia artificial en la sociedad. Casi la totalidad de los encuestados afirma haber oído hablar de la IA, lo que revela el nivel de penetración del concepto en la cultura general. Sin embargo, ese conocimiento no se traduce necesariamente en entusiasmo: predominan las reservas, las dudas y una sensación de inquietud ante la velocidad de los cambios tecnológicos.

La mayoría de los participantes señalan que se siente más preocupados que esperanzados respecto a la expansión de la IA en la vida cotidiana. Concretamente, la mitad de los encuestados declara experimentar más ansiedad que ilusión frente a estos avances, mientras que solo una pequeña minoría expresa una actitud mayoritariamente optimista. Esta percepción se refleja en el balance entre riesgos y beneficios: más del 50 % cree que los riesgos sociales asociados al desarrollo de la IA son elevados, frente a apenas una cuarta parte que considera igual de significativos los beneficios.

En el ámbito de las capacidades humanas, los encuestados tienden a pensar que la IA puede deteriorar más que potenciar habilidades esenciales. Muchos temen que la creatividad individual, la capacidad de pensamiento crítico y las relaciones interpersonales puedan verse mermadas en un contexto donde las máquinas asumen un papel cada vez más protagónico. Aunque existe un sector que reconoce que la IA puede aportar ventajas en la resolución de problemas complejos, el pesimismo sigue siendo mayoritario.

Donde sí se observa una mayor aceptación es en los usos más técnicos y analíticos de la IA. La ciudadanía se muestra más abierta a su incorporación en campos como la predicción meteorológica, la detección de fraudes financieros o la investigación médica. Sin embargo, rechaza con contundencia la idea de que la inteligencia artificial sustituya a las personas en esferas íntimas y de carácter moral o emocional, como el acompañamiento religioso, la terapia psicológica o la búsqueda de pareja. La distinción entre lo “técnico” y lo “humano” resulta clave: los estadounidenses parecen dispuestos a confiar en los algoritmos cuando se trata de cálculos y datos, pero no cuando se trata de valores, creencias o vínculos afectivos.

Otro hallazgo relevante del estudio es la preocupación por la transparencia en la producción de contenidos. Una gran mayoría considera imprescindible que exista un mecanismo claro para diferenciar el material generado por humanos del producido por sistemas de IA. No obstante, al mismo tiempo, muchos reconocen sentirse incapaces de identificar esa diferencia por sí mismos, lo que genera un clima de desconfianza e incertidumbre. La demanda de regulación y control externo aparece aquí con fuerza, como una forma de proteger tanto la integridad de la información como la autonomía de los individuos frente a una tecnología que, en gran medida, aún se percibe como opaca.

En conjunto, los resultados muestran una ciudadanía dividida entre la aceptación pragmática de la IA en campos de utilidad pública y la resistencia a su penetración en aspectos más personales y sociales. Estados Unidos se encuentra, por tanto, en una fase de negociación cultural: la inteligencia artificial ya forma parte del día a día, pero todavía despierta más temores que entusiasmos. Entre el escepticismo, la cautela y la esperanza, los estadounidenses reclaman garantías de seguridad, transparencia y regulación antes de conceder a la IA un papel más central en la vida social.

Datos clave:

  • Conocimiento generalizado: 95 % de los adultos en EE. UU. ha oído hablar de la inteligencia artificial.
  • Preocupación vs entusiasmo: 50 % se siente más preocupado que ilusionado por la IA; solo 10 % está más entusiasmado; 38 % tiene sentimientos mixtos.
  • Riesgos vs beneficios sociales: 57 % percibe altos riesgos sociales; apenas 25 % percibe altos beneficios.
  • Deseo de control: ~60 % quiere más control sobre cómo la IA afecta sus vidas; solo 17 % está conforme con el control actual.
  • Creatividad: 53 % cree que la IA empeorará la capacidad de pensar creativamente; 16 % piensa que la mejorará.
  • Relaciones humanas: 50 % cree que la IA empeorará la capacidad de formar relaciones significativas; solo 5 % dice que la mejorará.
  • Resolución de problemas: 38 % cree que la IA lo empeorará; 29 % que lo mejorará.
  • Toma de decisiones difíciles: 40 % opina que la IA empeorará esta capacidad; 19 % que la mejorará.Transparencia en contenidos: 76 % cree que es muy importante distinguir entre contenido humano y generado por IA; 53 % no confía en poder hacerlo.
  • Aceptación de roles técnicos: mayoría apoya IA en pronósticos meteorológicos (74 %), detección de fraudes financieros (70 %), control de ayudas gubernamentales (70 %) y desarrollo de medicamentos (66 %).
  • Rechazo en roles íntimos/morales: 73 % rechaza que la IA aconseje sobre fe; 66 % rechaza que evalúe compatibilidad romántica.
  • Edad: jóvenes menores de 30 años son más propensos a pensar que la IA empeorará la creatividad (61 %) y las relaciones (58 %), más que los mayores.
  • Educación: 73 % considera importante que la población entienda qué es la IA; la cifra sube entre personas con estudios universitarios.