Estado del uso de la IA generativa en Canadá 2025

Gruzd, Anatoliy, Philip Mai, and Anthony Clements Haines. The State of Generative AI Use in Canada 2025: Exploring Public Attitudes and Adoption Trends. Social Media Lab, Toronto Metropolitan University, April 8, 2025. https://socialmedialab.ca/2025/04/08/new-report-the-state-of-generative-ai-use-in-canada-2025-exploring-public-attitudes-and-adoption-trends/

El informe The State of Generative AI Use in Canada 2025 analiza el uso y la percepción pública de la inteligencia artificial generativa (IAg) en Canadá. Basado en una encuesta representativa a 1.500 adultos realizada entre el 19 de febrero y el 1 de marzo de 2025, el estudio revela una rápida adopción de tecnologías que generan texto, imágenes, audio y video. Sin embargo, esta adopción convive con importantes preocupaciones éticas, sociales y laborales entre la población.

Uno de los hallazgos más relevantes es que el 66% de los canadienses ha probado alguna herramienta de IAg, aunque solo un 30% las usa con frecuencia, ya sea por ocio, trabajo o estudios. El ocio es la principal vía de entrada, especialmente entre personas mayores, mientras que los más jóvenes lideran el uso académico y profesional. Este uso generalizado contrasta con una baja autopercepción de conocimiento técnico: solo el 38% se siente capacitado para usar estas herramientas eficazmente o seguir el ritmo de su evolución. Además, en una prueba de siete preguntas sobre IAg, el promedio de respuestas correctas fue de apenas 2,5, y más de la mitad (51%) admite no entender cómo las empresas gestionan sus datos personales.

El impacto de la IAg en los medios de comunicación es otro foco del informe. Una mayoría de los encuestados cree que los medios ya utilizan IA para tareas como la edición (57%), traducción (56%) y análisis de datos (51%), e incluso el 43% piensa que se están redactando artículos completos con IA. La aceptación de contenidos generados por inteligencia artificial varía según el tema: los canadienses se sienten más cómodos cuando se trata de temas de estilo de vida o entretenimiento, pero muestran recelo frente a noticias políticas, de crimen o asuntos internacionales.

Las implicaciones políticas generan especial preocupación. El 67% de los encuestados teme que la IAg pueda influir en los resultados de las elecciones, y el 59% afirma que ya no confía plenamente en las noticias políticas en línea debido al posible uso de IA para manipular la información. A pesar de esto, una parte considerable de la población —particularmente votantes de derecha (34%)— está más dispuesta a utilizar chatbots para informarse sobre procesos electorales, en comparación con votantes de izquierda (23%).

En cuanto a la percepción general del impacto de la IAg, los canadienses están divididos: un 39% cree que su efecto es positivo, un 34% lo ve como negativo y un 27% se mantiene neutral. Sin embargo, existe un amplio consenso sobre los riesgos asociados. El 72% está preocupado por la seguridad y la privacidad, el 68% por la fiabilidad de la información, el 68% por la posible pérdida de empleos, y otro 68% por las consecuencias en la educación superior. En este contexto, el llamado a una regulación firme es claro: el 78% considera que las empresas deben ser responsables legalmente por los daños que sus herramientas de IA puedan causar, el 77% apoya regulaciones sobre las capacidades actuales de estas tecnologías, y el 76% pide anticiparse y legislar también sobre sus desarrollos futuros.

El informe concluye con una serie de recomendaciones para diferentes sectores. A nivel de política pública, se propone establecer estándares transparentes para la gestión de datos y requerir evaluaciones de riesgo en los despliegues de IAg con alto impacto. En el ámbito educativo, se sugiere incorporar la alfabetización en IA generativa desde los niveles escolares hasta los universitarios, con el fin de fortalecer el pensamiento crítico y las habilidades técnicas. Finalmente, para la industria, se plantea desarrollar prácticas claras de divulgación que permitan a los usuarios identificar cuándo y cómo se ha utilizado IA en la creación de contenidos, fomentando así la confianza y la rendición de cuentas.

Hallazgos clave:

  1. Adopción, pero principalmente ocasional: Dos tercios de los canadienses (66%) han probado una herramienta de IA generativa, pero solo alrededor del 30% las utiliza de manera regular, ya sea a diario o semanalmente, para ocio, trabajo o estudio. El ocio sigue siendo la vía principal de acceso, especialmente entre los adultos mayores, mientras que los jóvenes lideran su uso para estudios y trabajo.
  2. Brecha de conocimiento y habilidades: Solo el 38% de los canadienses se siente seguro al usar la IA generativa de manera efectiva o para mantenerse al día con los desarrollos tecnológicos. En una prueba de siete preguntas, los encuestados respondieron correctamente un promedio de 2,5 preguntas. Además, el 51% admite tener poco o ningún entendimiento sobre cómo las empresas de IA gestionan sus datos.
  3. La IA en las salas de redacción: Una mayoría de los canadienses cree que los medios de comunicación ya utilizan IA generativa para tareas como edición (57%), traducción (56%) y análisis de datos (51%). El 43% cree que la IA escribe artículos completos. La aceptación del contenido generado por IA es mayor en temas de estilo de vida y entretenimiento, y más baja en política, crimen y asuntos internacionales.
  4. Ansiedad electoral: El 67% de los canadienses teme que la IA generativa pueda influir en los resultados de las elecciones, y el 59% asegura que ya no confía completamente en las noticias políticas en línea debido a la posible manipulación por parte de la IA. Más de la mitad (54%) no está dispuesta a usar chatbots para obtener información electoral, aunque la apertura es mayor entre los canadienses de tendencia política derecha (34%) que entre los de izquierda (23%).
  5. Perspectiva mixta, fuerte demanda de supervisión: Los canadienses están divididos sobre el impacto neto de la IA generativa en la sociedad (39% positivo, 34% negativo, 27% neutral), pero coinciden en sus principales preocupaciones: seguridad y privacidad (72%), fiabilidad de la información (68%), desplazamiento laboral (68%) y efectos en la educación superior (68%). La gran mayoría apoya la regulación: el 78% desea que las empresas sean responsables de los daños causados por las herramientas de IA, con un 77% que apoya la creación de reglas para las capacidades actuales de la IA y un 76% para las futuras.