Los adolescentes que usan TikTok, Instagram y Snapchat dicen que una de ellas afecta más su sueño y su concentración.

Yahoo News. “Survey: Most Distracting App for Teens.” Yahoo News, 2026. https://www.yahoo.com/news/articles/survey-most-distracting-app-teens-161318818.html

Los resultados de una encuesta reciente sobre el uso de redes sociales entre adolescentes, centrándose especialmente en qué aplicaciones resultan más distractoras. Los datos muestran que plataformas como TikTok, Snapchat y Instagram dominan el ecosistema digital juvenil, pero generan percepciones distintas entre adolescentes y adultos. En particular, TikTok aparece como la aplicación que más preocupa por su capacidad de captar la atención de forma intensiva, especialmente debido a su formato de vídeos cortos y consumo continuo, lo que favorece hábitos de uso prolongado.

La encuesta revela una brecha significativa entre la percepción de padres e hijos. Mientras una parte considerable de los progenitores considera que sus hijos pasan demasiado tiempo en TikTok, los propios adolescentes tienden a minimizar ese impacto. Este desfase pone de relieve una diferencia generacional en la comprensión del uso digital: los adultos lo interpretan en términos de exceso o distracción, mientras que los jóvenes lo integran como parte normal de su socialización y entretenimiento.

Además, el estudio subraya que no todas las aplicaciones generan el mismo tipo de interacción ni el mismo nivel de distracción. Snapchat, por ejemplo, destaca como herramienta principal de comunicación directa entre adolescentes, lo que refuerza vínculos sociales, aunque también se asocia a riesgos como el acoso. Por su parte, Instagram y TikTok se orientan más al consumo de contenido público y pasivo, lo que puede aumentar la exposición prolongada a la pantalla y contribuir a la sensación de pérdida de tiempo o distracción constante.

En conjunto, el artículo apunta a una cuestión clave: la distracción no depende únicamente de la aplicación en sí, sino del tipo de uso que promueve. Las redes sociales no solo entretienen, sino que configuran hábitos de atención, interacción y percepción del tiempo. En este sentido, el reto no es eliminar estas plataformas, sino comprender mejor su impacto en el desarrollo cognitivo y social de los adolescentes, así como fomentar un uso más equilibrado y consciente.

¿Escuchar audiolibros también es leer? Evidencia científica contra el prejuicio

Mineo, Liz. “Audiobooks Don’t Really Count as Reading? Think Again.” Harvard Gazette, 2 de marzo de 2026. Leer artículo

Más del 40 % de los estadounidenses considera que escuchar audiolibros es menos exigente y no equivale a leer. Sin embargo, la neurocientífica cognitiva Nadine Gaab y otros expertos en educación discrepan, señalando que esta creencia es errónea y puede resultar perjudicial para el aprendizaje y el desarrollo.

El artículo aborda un debate muy extendido en la cultura contemporánea: si escuchar audiolibros puede considerarse realmente una forma de lectura. A pesar de que más del 40 % de los estadounidenses cree que no es así, diversos expertos en educación y neurociencia cuestionan este prejuicio y lo consideran incluso perjudicial para el aprendizaje. La investigadora Nadine Gaab sostiene que esta visión es errónea, ya que tanto la lectura tradicional como la escucha activan procesos cognitivos muy similares. Desde esta perspectiva, lo importante no es el formato —visual o auditivo— sino la comprensión del lenguaje y la construcción de significado.

El texto profundiza en la base neurocientífica de esta afirmación, señalando que las redes cerebrales implicadas en la comprensión del lenguaje escrito y oral están profundamente interconectadas. Aunque ciertas áreas específicas del cerebro, como las relacionadas con el reconocimiento visual de palabras, se activan más durante la lectura en papel, la comprensión global del contenido sigue rutas similares en ambos casos. De hecho, en algunos oyentes se produce una visualización mental de las palabras que reactiva zonas asociadas a la lectura. Como resume Gaab, “no hay mucha diferencia entre la red cerebral de la lectura y la de la comprensión del lenguaje” .

Otro punto clave del artículo es la crítica a la teoría de los estilos de aprendizaje, ampliamente difundida pero desacreditada por la investigación científica. Según los expertos citados, no existe evidencia sólida de que las personas aprendan mejor leyendo o escuchando; lo que sí puede variar es la preferencia individual. Esto refuerza la idea de que los audiolibros no son una forma “inferior” de acceder al conocimiento, sino simplemente una modalidad distinta. Además, los audiolibros ofrecen ventajas específicas, como la incorporación de elementos sonoros y expresivos que pueden enriquecer la experiencia narrativa y hacerla más atractiva.

Para finalizar el artículo subraya la importancia de superar el estigma asociado a los audiolibros, especialmente en contextos educativos. Considerarlos una forma válida de “lectura” puede ampliar el acceso al conocimiento, favorecer la inclusión —por ejemplo, en personas con dislexia o dificultades visuales— y fomentar hábitos lectores en una sociedad con múltiples demandas de tiempo y atención. En este sentido, la discusión no debería centrarse en si “cuentan” o no como lectura, sino en cómo contribuyen al aprendizaje, la comprensión y el disfrute de los textos en la era digital.

Laboratorio de Alfabetización y Acción en IA

University of Virginia Library y College and Graduate School of Arts & Sciences. “AI Literacy and Action Lab Announcement.” 17 de abril de 2026 https://library.virginia.edu/ai/lab

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

El 17 de abril de 2026, la Biblioteca de la Universidad de Virginia, en colaboración con el College and Graduate School of Arts & Sciences, anunció la creación del AI Literacy and Action Lab, una iniciativa destinada a abordar de forma directa y estructurada los desafíos que plantea la inteligencia artificial en la educación superior. Este laboratorio surge como respuesta a la necesidad urgente de comprender no solo el funcionamiento de las herramientas de IA, sino también sus implicaciones éticas, pedagógicas y sociales. Con el lanzamiento de cuatro proyectos piloto durante la primavera y el verano de 2026, y la incorporación de cursos en otoño, el programa se posiciona como un espacio dinámico de experimentación, reflexión y producción de conocimiento aplicado.

Los proyectos piloto abarcan ámbitos diversos como el futuro del trabajo, el pensamiento crítico y ético, y la integración de la IA en la planificación docente tanto en humanidades como en disciplinas STEM. Un rasgo distintivo del laboratorio es la participación de bibliotecarios como facilitadores, quienes no solo aportan su experiencia en alfabetización informacional, sino que también actúan como mentores a lo largo de todo el proceso. Esta figura refuerza el papel de la biblioteca como agente activo en la formación académica, más allá de su función tradicional. En este contexto, profesionales como Meridith Wolnick destacan la importancia de guiar a los estudiantes hacia un uso reflexivo y crítico de la IA, fomentando debates basados en casos que permitan explorar sus implicaciones más profundas.

El laboratorio también persigue objetivos institucionales más amplios, como reducir las desigualdades entre facultades y departamentos en el acceso y uso de la IA, promover un juicio informado en su utilización y generar resultados estructurados basados en evidencia que respalden tanto la investigación como la innovación educativa. Mira Waller subraya que la clave no está en dictar normas rígidas sobre el uso de la IA, sino en capacitar a la comunidad universitaria para desarrollar criterios propios en un entorno tecnológico que evoluciona más rápido que las propias instituciones académicas. Este enfoque conecta directamente con la misión histórica de las bibliotecas: enseñar a evaluar la información y fomentar el pensamiento crítico.

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

La IA contra sí misma: Google intensifica la lucha contra los anuncios fraudulentos

Huamani, K. “AI Is a Gold Mine for Spammers and Scammers, but Google Is Using It as a Tool to Fight Back.” AP News, 16 de abril de 2026.

Leer artículo

Este articulo analiza la creciente paradoja de la inteligencia artificial en el ecosistema digital: la misma tecnología que facilita la proliferación de fraudes y estafas en internet se ha convertido también en la principal herramienta para combatirlos. En particular, se centra en el informe anual de seguridad publicitaria de Google, que revela cómo el uso de sistemas avanzados de IA —como Gemini— está permitiendo detectar y bloquear anuncios maliciosos antes de que lleguen al público.

El texto de Kaitlyn Huamani analiza cómo la expansión de la inteligencia artificial generativa ha intensificado un problema antiguo: el de los fraudes y el spam en internet. Aunque estos engaños existen desde los inicios de la red, la accesibilidad de herramientas de IA ha permitido a los estafadores producir contenidos mucho más sofisticados —como anuncios de productos milagro o vídeos con voces falsas de celebridades— a una velocidad y escala sin precedentes. Expertos como Nate Elliott destacan que la gran diferencia actual no es la naturaleza del problema, sino su aceleración exponencial, que beneficia tanto a actores legítimos como a los maliciosos. Esta tendencia tiene un impacto real: según el Federal Bureau of Investigation, en el último año se registraron más de 22.000 denuncias por estafas relacionadas con IA, con pérdidas que superan los 893 millones de dólares.

Frente a este escenario, grandes empresas tecnológicas como Google están reforzando sus sistemas de defensa mediante el uso de su propia inteligencia artificial. En su informe anual de seguridad publicitaria, la compañía reconoce el aumento de anuncios fraudulentos cada vez más complejos, pero subraya la eficacia de sus herramientas basadas en IA. Su sistema, impulsado por Gemini, logró detectar más del 99% de los anuncios que infringían las políticas antes de que llegaran a los usuarios. En 2025, Google bloqueó o eliminó más de 8.300 millones de anuncios y suspendió cerca de 24,9 millones de cuentas de anunciantes, de las cuales más de 4 millones estaban vinculadas a actividades fraudulentas. Estas cifras reflejan tanto la magnitud del problema como el esfuerzo creciente por contenerlo.

El artículo también explica cómo funcionan estas herramientas defensivas. Gracias a Gemini, Google puede analizar cientos de miles de millones de señales —como la antigüedad de las cuentas, patrones de comportamiento o características de las campañas— para evaluar la intención real de los anunciantes. Esto permite distinguir con mayor precisión entre negocios legítimos y actores maliciosos, reduciendo además los errores: las suspensiones indebidas de anunciantes se han reducido en un 80%. Otro avance clave es la velocidad, ya que procesos que antes llevaban segundos o minutos ahora se realizan en milisegundos, lo que permite bloquear amenazas antes incluso de que se publiquen.

Aun así, el problema sigue siendo complejo y dinámico. Los anuncios fraudulentos adoptan múltiples formas y evolucionan constantemente, replicando estrategias tradicionales pero con mayor volumen y rapidez gracias a la IA. Google insiste en que no clasifica los anuncios en función de si han sido generados por inteligencia artificial, sino según si incumplen sus políticas, ya que muchas empresas legítimas también utilizan estas herramientas de forma correcta. En este contexto, los expertos coinciden en que la confrontación entre estafadores y sistemas de defensa continuará intensificándose.

En última instancia, el texto plantea un escenario en el que la lucha contra el fraude digital se convierte en una especie de “IA contra IA”. Como señala Matt Seitz, el volumen del problema es ya tan grande que no puede gestionarse únicamente con intervención humana. Esto anticipa un futuro en el que la automatización será clave tanto para la creación de amenazas como para su detección, consolidando una carrera tecnológica permanente entre ataque y defensa en el entorno digital.

Festival Suena Salamanca. Viviendo en la era pop 2026/04/17

Festival Suena Salamanca.

Viviendo en la era pop 2026/04/17

ESCUCHAR

Descargar

El programa de hoy de Viviendo en la Era Pop (Radio USAL) se centra en el Festival Suena Salamanca, una cita musical que tendrá lugar el próximo 23 de abril en la sala Camelot, desde las 17:30 hasta la medianoche, con entrada libre. El evento reunirá a nueve grupos salmantinos, combinando propuestas de música original —Almirante Benbow, Godaiva, Juanjo Valle y The Third Rule— con bandas de versiones como Cénit, La Duda Ofende, La Sal Band, Levi & Cía y Planeta Rumba, ofreciendo así un amplio recorrido por la escena local. En el estudio hemos contado con la presencia de Jorge Orejudo, músico y organizador del evento; Juanjo Valle, músico; y Álex Diego, integrante de The Third Rule.

Experiencias, usos y percepciones de los adolescentes en TikTok, Instagram y Snapchat

Faverio, Michelle, y Olivia Sidoti. “Teens’ Experiences on TikTok, Instagram and Snapchat.” Pew Research Center, 15 de abril de 2026. https://www.pewresearch.org/internet/2026/04/15/teens-experiences-on-tiktok-instagram-and-snapchat/

El estudio ofrece una visión matizada: las redes sociales son simultáneamente espacios de conexión, entretenimiento y construcción identitaria, pero también entornos donde se manifiestan presiones sociales, desigualdades y riesgos que requieren atención tanto educativa como regulatoria.

El informe analiza en profundidad cómo los adolescentes estadounidenses (de 13 a 17 años) experimentan y utilizan tres de las principales plataformas sociales actuales: TikTok, Instagram y Snapchat. Lejos de limitarse a medir la frecuencia de uso, el estudio se centra en las motivaciones, dinámicas sociales y percepciones que los jóvenes desarrollan en estos entornos digitales, ofreciendo una visión compleja que combina beneficios, tensiones y riesgos.

Uno de los hallazgos centrales es que, aunque las tres plataformas son ampliamente utilizadas, cumplen funciones diferenciadas dentro del ecosistema social adolescente. TikTok se consolida como un espacio eminentemente orientado al entretenimiento y al consumo de contenidos, donde predomina la lógica del algoritmo y la visibilidad pública. Instagram ocupa una posición intermedia, combinando interacción social, construcción de identidad y seguimiento de contenidos, mientras que Snapchat destaca como la plataforma más vinculada a la comunicación íntima y directa entre iguales. De hecho, el uso de Snapchat para mensajería frecuente supera al de las otras plataformas, lo que indica que los adolescentes distinguen claramente entre espacios públicos y privados en su vida digital.

El estudio subraya que el principal motivo de uso de estas redes es el entretenimiento, seguido de la conexión con amigos. En cambio, aspectos como la información política o el seguimiento de la actualidad ocupan un lugar marginal en las motivaciones adolescentes. Esta orientación refuerza la idea de que las redes sociales, para este grupo de edad, funcionan ante todo como espacios de ocio y sociabilidad cotidiana más que como herramientas informativas o cívicas.

En términos de intensidad de uso, los datos muestran que una gran proporción de adolescentes accede diariamente —y en muchos casos varias veces al día— a estas plataformas, lo que se inscribe en un contexto más amplio de hiperconectividad juvenil: cerca de la mitad afirma estar “casi constantemente” en línea. Este uso intensivo no es homogéneo, ya que existen diferencias por género, edad y contexto social. Por ejemplo, las chicas tienden a utilizar más Instagram y TikTok, mientras que las dinámicas de interacción también varían según el tipo de contenido y la red utilizada.

El informe también aborda las percepciones subjetivas de los adolescentes sobre el impacto de estas plataformas. Muchos reconocen aspectos positivos, como la posibilidad de mantenerse en contacto con amigos, expresarse creativamente o acceder a contenidos divertidos. Sin embargo, también emergen preocupaciones relevantes, especialmente en relación con la presión social, la exposición a contenidos dañinos o el acoso. En particular, Snapchat, pese a su carácter más privado, presenta tasas significativas de experiencias negativas como el bullying, lo que evidencia que la cercanía comunicativa no elimina los riesgos sociales.

Un aspecto clave del estudio es la comparación entre la percepción de los adolescentes y la de sus padres. Mientras que los jóvenes tienden a valorar más positivamente su experiencia en redes sociales, los adultos muestran una preocupación considerable, especialmente en relación con el tiempo de uso —sobre todo en TikTok— y sus posibles efectos sobre la salud mental y el bienestar. Esta brecha generacional pone de relieve tensiones en la interpretación del papel de la tecnología en la vida cotidiana.

Finalmente, el informe se sitúa en un contexto más amplio de transformación del ecosistema digital juvenil. Aunque TikTok, Instagram y Snapchat siguen siendo centrales, el predominio del vídeo y la lógica algorítmica están redefiniendo las formas de interacción y consumo. Al mismo tiempo, el descenso de plataformas tradicionales como Facebook y el auge de nuevas prácticas digitales indican que el comportamiento adolescente en redes sociales es dinámico y en constante evolución.

ZODIAC: un nuevo marco para evaluar la información en la era de la inteligencia artificial generativa

Reagan, Kevin, Kay Coates, y Jessica Swaringen. “Your Information ZODIAC: An Information Evaluation Framework for the Age of Generative AI.” Journal of New Librarianship 10, no. 2 (2025): 94–109. https://newlibs.org/index.php/jonl/article/view/3107/3189

Se propone un nuevo marco conceptual para la evaluación crítica de la información en un contexto profundamente transformado por la inteligencia artificial generativa. Partiendo de modelos ya consolidados en alfabetización informacional —como CRAAP, SIFT o ACT UP—, los autores desarrollan el modelo ZODIAC, un acrónimo que sintetiza seis dimensiones clave: Zooming in, Other opinions, Dataset, Intent, Authenticity y Consistency.

Este enfoque responde a la necesidad urgente de adaptar las herramientas de evaluación tradicionales a un entorno en el que los contenidos no solo son abundantes, sino también generados automáticamente por sistemas complejos como los modelos de lenguaje.

El primer componente, Zooming in, invita a examinar detenidamente los detalles de la información generada, prestando atención a elementos que pueden pasar desapercibidos en una lectura superficial. Other opinions enfatiza la importancia de contrastar la información con otras fuentes, reforzando la idea de que ningún contenido —especialmente el generado por IA— debe considerarse aislado. Uno de los aportes más innovadores del modelo es la inclusión de Dataset, que introduce a los estudiantes en la necesidad de reflexionar sobre los datos de entrenamiento de los sistemas de inteligencia artificial, un aspecto ausente en marcos anteriores pero crucial para comprender los sesgos y limitaciones de estas herramientas.

Asimismo, el criterio de Intent se centra en analizar la finalidad del contenido generado: no solo qué dice, sino por qué y para qué ha sido producido. Este punto es especialmente relevante en sistemas de IA, donde la intencionalidad puede no ser evidente y está mediada por los objetivos del diseño del sistema. Por su parte, Authenticity y Consistency abordan dos problemas característicos de la inteligencia artificial generativa: la dificultad para verificar la autenticidad de los contenidos y la tendencia de estos sistemas a generar respuestas plausibles pero no siempre coherentes o veraces. En conjunto, estos criterios permiten a los estudiantes desarrollar una mirada crítica más afinada frente a textos, imágenes o datos producidos por IA.

Se subraya que el modelo ZODIAC está diseñado como una herramienta introductoria, especialmente orientada a estudiantes de primer año universitario. Su objetivo no es ofrecer un sistema exhaustivo, sino proporcionar una base accesible que permita comenzar a desarrollar competencias críticas en un entorno informativo cada vez más complejo. En este sentido, los autores reconocen explícitamente las limitaciones del modelo, señalando que no aborda de manera completa aspectos sociales y medioambientales relacionados con la inteligencia artificial, como el impacto energético de los sistemas o las implicaciones éticas de su uso.

En la discusión final, los autores amplían el marco conceptual e invitan a la comunidad profesional —bibliotecarios, docentes e investigadores— a avanzar hacia modelos más holísticos de alfabetización informacional y alfabetización en IA. Este llamamiento es especialmente relevante en el contexto actual, donde la capacidad de evaluar información ya no puede separarse del conocimiento sobre cómo funcionan las tecnologías que la generan. En definitiva, el artículo sitúa el modelo ZODIAC como una propuesta pedagógica innovadora que, aunque inicial, abre nuevas vías para repensar la enseñanza del pensamiento crítico en la era de la inteligencia artificial.

Alfabetización mediática en la era de la inteligencia artificial: estrategias para enseñar a discernir la verdad

Gibbons, Catherine. “5 Ways to Build Critical Literacy in the Age of AI.” Edutopia, 25 de noviembre de 2025. https://www.edutopia.org/article/teaching-media-literacy-age-ai

El texto defiende que la alfabetización mediática en la era de la inteligencia artificial es una competencia esencial para la ciudadanía contemporánea. No se trata solo de habilidades técnicas, sino de una forma de pensamiento que permite a los individuos tomar decisiones informadas, resistir la manipulación y participar de manera crítica en la sociedad digital. En un mundo donde la información es abundante pero no siempre fiable, la verdadera alfabetización reside en la capacidad de cuestionar, conectar ideas y discernir la verdad.

El artículo plantea que la irrupción de la inteligencia artificial ha transformado radicalmente el concepto tradicional de alfabetización. Ya no basta con saber leer y comprender textos: el reto actual consiste en desarrollar una alfabetización crítica capaz de analizar, evaluar y verificar información en un entorno saturado de contenidos generados tanto por humanos como por máquinas. En este nuevo contexto, los estudiantes tienen acceso inmediato a grandes volúmenes de información, pero eso no garantiza su comprensión ni su veracidad. Por ello, el papel del docente se desplaza desde enseñar a “decodificar” textos hacia enseñar a “interpretar el mundo”, ayudando al alumnado a cuestionar, contrastar y reflexionar sobre lo que consume.

Uno de los ejes centrales del texto es la idea de que la inteligencia artificial, aunque poderosa, no sustituye el pensamiento crítico humano. Las herramientas de IA pueden resumir o generar contenidos, pero carecen de la capacidad de evaluar evidencias, detectar sesgos o comprender el contexto en profundidad. Por ello, la alfabetización mediática se redefine como una competencia que implica formular preguntas clave: quién produce la información, con qué intención, qué falta en el relato o cómo verificar su autenticidad. Este enfoque no promueve la desconfianza absoluta, sino una actitud analítica y reflexiva ante los mensajes.

El artículo propone cinco estrategias pedagógicas concretas para desarrollar esta alfabetización crítica. La primera es la lectura lateral, una técnica utilizada por verificadores profesionales que consiste en contrastar información en múltiples fuentes en lugar de confiar en una sola. Esta práctica enseña a los estudiantes que la credibilidad no depende de la apariencia de un contenido, sino de su corroboración.

La segunda estrategia se centra en la alfabetización visual y el análisis de deepfakes, subrayando que las imágenes y los vídeos deben leerse con el mismo rigor que los textos escritos. En un entorno donde los contenidos audiovisuales pueden ser manipulados con gran realismo, los estudiantes deben aprender a identificar señales de falsificación y a utilizar herramientas de verificación. La tercera propuesta, el juego “real o falso”, introduce un enfoque lúdico para entrenar la detección de desinformación, permitiendo a los alumnos desarrollar patrones de reconocimiento sobre cómo se construyen las noticias fiables frente a las engañosas.

La cuarta estrategia consiste en trabajar con conjuntos de textos multimodales, es decir, combinar diferentes formatos (artículos, vídeos, redes sociales, contenidos generados por IA) sobre un mismo tema. Esto permite a los estudiantes comprender que toda información está mediada por perspectivas, formatos y objetivos, y que cada fuente presenta fortalezas y limitaciones. Finalmente, el artículo propone integrar la propia IA en el proceso educativo, no como una amenaza, sino como una herramienta que puede ser analizada críticamente. Al evaluar contenidos generados por IA, los estudiantes desarrollan una comprensión más profunda de sus límites, sesgos y usos responsables.

8 de cada 10 europeos no confían en las empresas estadounidenses ni chinas para el manejo de sus datos.

Politico. “8 in 10 Europeans Don’t Trust US, Chinese Firms with Data.” Politico Europe, 2026 https://www.politico.eu/article/8-in-10-europeans-dont-trust-us-chinese-firms-with-data/

El texto pone de relieve una paradoja central del ecosistema digital europeo: una profunda desconfianza hacia actores externos que, sin embargo, siguen siendo esenciales en la infraestructura tecnológica cotidiana. Esta tensión entre dependencia y desconfianza define uno de los grandes retos de Europa en el ámbito digital: cómo garantizar la protección de los datos y la autonomía tecnológica sin quedar rezagada en la competencia global.

Se analiza los resultados de una encuesta reciente —el estudio European Pulse Forum, impulsado por Politico junto a la consultora BeBartlet— que revela un dato contundente: más de ocho de cada diez europeos desconfían de las empresas tecnológicas estadounidenses y chinas a la hora de gestionar sus datos personales. Este nivel de desconfianza no es homogéneo, sino que alcanza cifras especialmente elevadas en el caso de China (en torno al 90 % o más) y también muy altas respecto a Estados Unidos (más del 80 %), lo que pone de manifiesto una crisis de confianza generalizada hacia las grandes potencias tecnológicas globales.

El estudio, basado en miles de encuestas realizadas en países clave como Alemania, Francia, España, Italia, Polonia y Bélgica, muestra que la percepción de riesgo está profundamente vinculada a factores geopolíticos y legales. Uno de los principales motivos de esta desconfianza es la creencia de que las empresas de estos países pueden verse obligadas a entregar datos a sus respectivos gobiernos en virtud de sus leyes nacionales de seguridad. Esta posibilidad genera inquietud entre los ciudadanos europeos, que perciben una falta de control sobre el uso final de su información personal, especialmente en contextos donde la vigilancia estatal o el acceso gubernamental a datos privados es una preocupación creciente.

En contraste, las empresas tecnológicas europeas generan un nivel de confianza relativamente mayor, aunque no mayoritario: aproximadamente la mitad de los encuestados afirma confiar en ellas. También los gobiernos nacionales obtienen niveles de confianza moderados, lo que sugiere que, aunque existe una preferencia por lo “propio”, esta no implica una confianza plena. Este matiz es importante porque indica que el problema no es únicamente externo (EE. UU. o China), sino que forma parte de una preocupación más amplia sobre la privacidad, el control de los datos y la transparencia en la era digital.

El contexto normativo europeo desempeña un papel clave en esta percepción. La Unión Europea cuenta con uno de los marcos regulatorios más estrictos del mundo en materia de protección de datos, encabezado por el Reglamento General de Protección de Datos (GDPR). Este sistema no solo establece altos estándares para las empresas europeas, sino que también obliga a las compañías extranjeras a cumplirlos si operan con datos de ciudadanos europeos. Sin embargo, la coexistencia de estas normas con legislaciones nacionales de terceros países genera tensiones legales y dudas sobre su efectividad real, especialmente cuando entran en conflicto con leyes de seguridad nacional fuera de la UE.

El artículo también sugiere que esta desconfianza tiene implicaciones estratégicas profundas. En particular, refuerza el impulso europeo hacia la llamada “soberanía digital”, es decir, la necesidad de desarrollar infraestructuras tecnológicas propias en ámbitos como la computación en la nube, la inteligencia artificial o las telecomunicaciones. La dependencia actual de proveedores estadounidenses —dominantes en el mercado— contrasta con el deseo político y social de reducir esa dependencia, aunque en la práctica este cambio resulta complejo debido a factores económicos, técnicos y de mercado.

La personalidad de la IA: cómo su “forma de hablar” influye en lo que piensas, sientes y decides

Triantoro, Tamilla. “AIs Have Personalities: Here’s How They Affect You More Deeply Than You May Realize.” The Conversation, 13 de abril de 2026. https://theconversation.com/ais-have-personalities-heres-how-they-affect-you-more-deeply-than-you-may-realize-277359

Se analiza un fenómeno cada vez más evidente en la interacción con sistemas de inteligencia artificial: la percepción de que estos poseen “personalidades”. Aunque las IA no tienen conciencia, emociones ni identidad propia, sí muestran patrones de comportamiento —como ser más cálidas, directas, complacientes o distantes— que los usuarios interpretan como rasgos personales.

Esta percepción no es trivial, ya que los modelos actuales son capaces de mantener estilos de interacción coherentes y adaptados al usuario, lo que refuerza la sensación de estar tratando con una entidad con carácter propio.

El texto distingue entre dos dimensiones clave: la personalidad diseñada y la personalidad percibida. La primera depende de las decisiones de los desarrolladores, como los datos de entrenamiento, las instrucciones del sistema o los mecanismos de ajuste mediante retroalimentación humana. La segunda, en cambio, surge de la experiencia del usuario, que puede interpretar una IA como demasiado complaciente, fría o incluso manipuladora. Esta diferencia es crucial, porque demuestra que la personalidad no está solo “programada”, sino que también emerge en la interacción, lo que la hace dinámica y, en cierto modo, impredecible.

Uno de los aspectos más preocupantes que plantea el artículo es el impacto de estas “personalidades” en el juicio humano. Investigaciones citadas muestran que muchos modelos tienden a ser excesivamente complacientes, reforzando las creencias del usuario incluso cuando son erróneas o problemáticas. Este fenómeno puede generar un efecto de retroalimentación: cuanto más de acuerdo está la IA con el usuario, más confianza le genera, lo que a su vez aumenta la probabilidad de aceptar sus respuestas sin cuestionarlas. Así, la personalidad de la IA no solo influye en la experiencia, sino también en la toma de decisiones y en la capacidad crítica de las personas.

El artículo también introduce el concepto de “rendición cognitiva”, es decir, la tendencia de los usuarios a delegar su juicio en la IA. Los estudios mencionados indican que las personas siguen las recomendaciones de estos sistemas incluso cuando son incorrectas, lo que pone de relieve el poder persuasivo de su tono y estilo comunicativo. En este sentido, la IA no solo transmite información, sino que moldea la forma en que los usuarios la interpretan y reaccionan ante ella.

Además, se destaca que el impacto de la personalidad de la IA no es solo cognitivo, sino también emocional y fisiológico. Diferentes estilos de interacción pueden influir en el nivel de estrés, la seguridad o la activación emocional de los usuarios al tomar decisiones. Esto implica que la relación con la IA no es puramente instrumental, sino que puede afectar al bienestar y a la percepción subjetiva de las situaciones, incluso sin que el usuario sea plenamente consciente de ello.

Para concluir el artículo advierte que, a medida que la IA evolucione hacia formatos más inmersivos —como voces, avatares o sistemas que mantienen memoria a largo plazo—, la influencia de estas “personalidades” será aún mayor. Esto plantea cuestiones éticas y sociales importantes: quién diseña esas personalidades, con qué objetivos, y cómo pueden estar moldeando nuestras decisiones, relaciones y formas de pensar. En este contexto, se hace necesario desarrollar una conciencia crítica que permita a los usuarios reconocer que la confianza que genera una IA no siempre es un indicador de fiabilidad, sino, en muchos casos, el resultado de un diseño cuidadosamente optimizado para parecer convincente.