Archivo de la categoría: Tecnologías de la información

Sam Altman, CEO de OpenAI, critica a las empresas que usan la IA como excusa para justificar despidos.

Dellinger, AJ. 2026. “Sam Altman Says Companies Are ‘AI Washing’ Layoffs.” Gizmodo, 21 de febrero de 2026. https://gizmodo.com/sam-altman-says-companies-are-ai-washing-layoffs-2000724759

En un contexto de continuos recortes de plantilla en el sector tecnológico y en diversas industrias, el CEO de OpenAI, Sam Altman, ha ofrecido una perspectiva crítica sobre cómo las empresas están comunicando las causas de sus despidos.

Durante el India AI Impact Summit, Altman advirtió que muchos ejecutivos y corporaciones han empezado a practicar lo que él denomina “AI washing”, es decir, atribuir a la inteligencia artificial la responsabilidad de recortes laborales que probablemente obedecen a otras razones internas, como reducciones de costes, reestructuraciones estratégicas o ajustes post-pandemia que ya estaban en marcha antes de la adopción de herramientas tecnológicas. Altman reconoció que la IA sí está desplazando ciertos tipos de empleos y que, con el tiempo, ese impacto será más palpable, pero señaló que en muchos casos actuales esa atribución está siendo utilizada como una excusa conveniente ante empleados, mercados y público en general.

Los datos recientes respaldan la advertencia de Altman sobre la exageración en torno al papel actual de la IA en la pérdida de empleo. Por ejemplo, un informe de la consultora Challenger, Gray & Christmas indica que alrededor de 55 000 despidos en Estados Unidos en 2025 fueron atribuidos directamente a la IA, cifra que, aunque significativa, representa menos del 1 % del total de recortes de empleo, lo que sugiere que otras causas económicas o estructurales han sido más determinantes para las masas de despidos reportadas. Además, encuestas entre ejecutivos muestran que una mayoría amplia—hasta el **90 % según un estudio citado por medios—no ha observado un impacto sustantivo de la IA en la plantilla durante los últimos años, lo que contradice la narrativa de que la tecnología ha sido la principal fuerza destructora de empleo hasta la fecha.

La crítica de Altman también encierra un doble mensaje sobre la percepción pública y el rol de las corporaciones. Por un lado, evita posicionar la IA como un “asesino de trabajos”, ya que esa idea podría aumentar la resistencia social a la adopción de herramientas que él mismo y su empresa promueven; por otro, desafía a las organizaciones a ser más transparentes sobre sus motivos reales para reducir personal. Altman destacó, como otros líderes tecnológicos han señalado, que las revoluciones tecnológicas históricas suelen derivar también en la creación de nuevas categorías laborales y oportunidades, aunque el equilibrio temporal entre destrucción y creación de empleo puede ser doloroso para muchos trabajadores. Este planteamiento pone de manifiesto la complejidad del debate: aunque la IA tendrá sin duda un impacto profundo en el mundo laboral, el grado, la velocidad real de ese impacto y la honestidad con que se expliquen los factores detrás de los despidos constituyen temas que requieren mayor atención pública y empresarial.

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias

Programa Iberoamericano de Bibliotecas Públicas-Iberbibliotecas. 2026. Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias. Secretaría General Iberoamericana (SEGIB) y Agencia Española de Cooperación Internacional para el Desarrollo (AECID).

Descargar

Esta guía surge en un contexto donde la inteligencia artificial (IA) está transformando aceleradamente las prácticas de producción, organización y acceso a la información. Reconociendo que la IA no es simplemente una herramienta técnica más sino un fenómeno que plantea cuestiones éticas, culturales y sociales profundas

La guía se propone como un recurso para bibliotecarias, bibliotecarios y equipos de trabajo en bibliotecas comunitarias y públicas, orientándolos hacia un uso reflexivo, crítico, ético y contextualizado de tecnologías de IA, teniendo siempre presente la misión social y educativa de las bibliotecas.

El documento aborda, en sus secciones conceptuales iniciales, la naturaleza dual de la IA: por un lado, sus potencialidades para apoyar tareas como la búsqueda semántica, la mejora de la accesibilidad, la automatización de procesos internos o la creación de contenidos pedagógicos; por otro, los riesgos asociados a la opacidad algorítmica, la reproducción de sesgos, la vulneración de la privacidad y la posible erosión de criterios profesionales. En este marco, la guía enfatiza que la adopción de IA no debe responder al entusiasmo por la innovación ni a modas tecnológicas, sino a una decisión situada y deliberada, alineada con principios de justicia social, diversidad cultural e inclusión lingüística, y siempre bajo la supervisión y agencia humanas.

Una parte sustancial de la guía está dedicada a los criterios para la reflexión y el análisis de herramientas de IA. Aquí se propone un enfoque que va más allá de evaluar funcionalidades técnicas: se invita a las bibliotecas a considerar cómo cada herramienta se alinea con los valores misionales de la institución, cómo puede afectar a la privacidad de las personas usuarias, qué sesgos puede introducir en los resultados, y qué mecanismos de transparencia, responsabilidad y rendición de cuentas contempla el proveedor tecnológico. Este enfoque reconoce que las bibliotecas actúan en contextos sociales específicos—con necesidades, inequidades y dinámicas propias—y que la introducción de IA debe ser contextualizada, debatida internamente y con participación comunitaria, evitando automatismos que desplacen o desvaloricen el juicio profesional de las y los bibliotecarios.

Además, la guía presenta propuestas prácticas que pueden incluirse en los planes y servicios bibliotecarios: desde la integración de sistemas de búsqueda basada en modelos semánticos hasta la generación de recomendaciones de lectura, la traducción de contenidos, la síntesis documental y la optimización de procesos técnicos como la precatalogación. Sin embargo, cada propuesta se aborda con un marco crítico que subraya la necesidad de mantener siempre opciones de atención humana, garantizar la accesibilidad real para personas con distintas capacidades y promover la alfabetización informacional en torno a la IA entre usuarias y usuarios. Este rol formativo se entiende como parte integral del compromiso de la biblioteca con la comunidad, potenciando no sólo el acceso a la información sino la capacidad de entender, usar críticamente y discutir las implicaciones de la tecnología emergente.

Finalmente, la guía refuerza la idea de que la incorporación de IA debe fortalecer, y no sustituir, el vínculo humano y comunitario que caracteriza a las bibliotecas públicas y comunitarias. Se propone que estas instituciones se conviertan en espacios de diálogo sobre los retos y oportunidades de la IA, fomentando la participación de la comunidad en la evaluación y diseño de servicios, así como en la discusión sobre la gobernanza y el impacto de las tecnologías en la vida colectiva. En conjunto, la Guía práctica aporta un marco estratégico para que las bibliotecas asuman la transformación digital con sentido crítico, ético y orientado a su misión social, evitando replicar prácticas tecnosolucionistas y promoviendo una adopción responsable y democrática de la IA.

La IA está impulsando la demanda de habilidades de comunicación y pensamiento crítico de los profesionales de las Humanidades

Kaplan, Juliana. 2026. AI Is Giving English Majors Some Unexpected Leverage in the Job Market. Business Insider, 22 de febrero de 2026. https://www.businessinsider.com/ai-job-market-english-majors-humanities-demand-2026-2 (consultado el 23 de febrero de 2026).

La expansión de la inteligencia artificial (IA) en el entorno laboral está transformando profundamente el valor de distintas habilidades profesionales, y uno de los efectos más sorprendentes es el renovado interés por las titulaciones en humanidades, especialmente en inglés y áreas afines.

Tradicionalmente percibidos como menos prácticos frente a las disciplinas científicas y tecnológicas, los graduados en humanidades están empezando a experimentar una mayor demanda por parte de empleadores que buscan competencias que las máquinas no pueden replicar fácilmente. Entre estas se encuentran la comunicación compleja, la interpretación de textos, el pensamiento crítico y la creatividad, atributos que se han convertido en herramientas esenciales para gestionar y comprender los resultados generados por sistemas de IA avanzados.

En el ámbito académico, universidades como la de Colorado Boulder y Rice están observando una recuperación en el número de estudiantes interesados en programas de humanidades, tras años de declive. Este renacimiento se debe, en parte, al diseño de cursos interdisciplinarios que combinan estudios de humanidades con aspectos éticos, filosóficos y sociales de la IA. Por ejemplo, asignaturas que exploran cómo evaluar la escritura de una IA frente a la de un ser humano ayudan a cultivar una comprensión más profunda de la creatividad y el juicio interpretativo, reforzando así la relevancia de las humanidades en una economía cada vez más automatizada.

Desde la perspectiva del mercado laboral, expertos en selección y estrategia organizacional señalan que las “habilidades blandas” —como la empatía, la capacidad de contar historias y la comunicación intercultural— están adquiriendo un valor excepcional en un momento en que las máquinas dominan tareas técnicas repetitivas. En sectores pequeños e innovadores, estos atributos se traducen en ventajas competitivas en la gestión de equipos, la elaboración de narrativas de marca y la interacción con clientes y públicos diversos. Este fenómeno, descrito por algunos como la “venganza del graduado en inglés”, sugiere un cambio cultural importante: el reconocimiento de que el pensamiento humanístico es crucial para complementar las capacidades de la IA.

A pesar de estas tendencias prometedoras, el panorama laboral general sigue siendo desafiante para los graduados de humanidades, quienes tradicionalmente han enfrentado mayores tasas de desempleo que sus pares en campos técnicos. Aunque las oportunidades están aumentando, especialmente en empresas que valoran habilidades de comunicación y análisis contextual, no todas las organizaciones han adoptado plenamente esta visión. Sin embargo, la creciente inclusión de estudios sobre IA dentro de los programas de humanidades apunta a una adaptación estratégica de estos títulos tradicionales, preparándolos mejor para los roles híbridos que emergen en la economía digital.

En conjunto, la integración de la IA en los procesos productivos y creativos parece estar redefiniendo las competencias más valoradas en el mercado laboral. Mientras que las habilidades puramente técnicas siguen siendo importantes, la capacidad de pensar, comunicar y contextualizar información compleja se está revelando como un componente indispensable para navegar un mundo en el que las máquinas asumen cada vez más funciones mecánicas y repetitivas. Este cambio no solo beneficia a los graduados en humanidades, sino que también subraya la importancia de enfoques educativos más holísticos que integren conocimiento técnico y humanístico.

Google impulsa transparencia en su búsqueda con mejoras en “AI Overviews” y “AI Mode”: fuentes originales más visibles y uso de enlaces citados

Whitney, Lance. 2026. Fact-Checking Google’s AI Overviews Just Got a Little Easier — Here’s How.”ZDNet, February 20, 2026. https://tech.yahoo.com/ai/gemini/articles/fact-checking-googles-ai-overviews-182700066.html (consultado el 23 de febrero de 2026).

Google ha estado integrando cada vez más características de inteligencia artificial directamente en su motor de búsqueda, destacando dos funciones principales: AI Overviews y AI Mode.

Las AI Overviews ofrecen resúmenes generados por IA encima de los resultados tradicionales de enlaces, proporcionando al usuario una visión panorámica de una consulta sin necesidad de hacer clic en los sitios web originales. Por su parte, AI Mode representa un paso más allá: no se limita a resumir, sino que permite interacciones más conversacionales, manejo de consultas complejas y respuestas multimodales que incluyen texto, imágenes y posibles enlaces de apoyo.

Una de las críticas más persistentes sobre estas funciones ha sido la forma en que la IA sintetiza y reutiliza contenido de páginas web sin que los usuarios siempre identifiquen claramente las fuentes originales. Aunque Google incluye enlaces dentro de sus respuestas, la manera en que estos aparecen no siempre ha sido transparente para los usuarios ni suficiente para los creadores de contenido, lo que ha generado debates sobre la disparidad entre los resúmenes generados por IA y el tráfico real que reciben los sitios citados.

En respuesta a estas preocupaciones, Google ha implementado cambios recientes que buscan hacer más visibles los enlaces de fuentes originales dentro de estos resultados de IA. Por ejemplo, al pasar el cursor sobre los iconos de fuentes en AI Overviews y AI Mode, se despliega un grupo de enlaces con nombres de sitios web y descripciones más completas, lo que facilita la verificación de información y el acceso directo a los contenidos de referencia. Esta actualización busca equilibrar la utilidad de las respuestas generadas por IA con la necesidad de atribuir adecuadamente la información a sus autores originales.

El debate no se limita a cuestiones técnicas. Organizaciones de salud y defensa de los derechos de los usuarios han señalado que, en algunos casos, AI Overviews ha proporcionado información inexacta o potencialmente dañina, especialmente en temas sensibles como la salud mental (lo que ha llevado a investigaciones sobre IA y riesgos para la salud). Estas preocupaciones intensifican la discusión sobre cómo equilibrar conveniencia, precisión y responsabilidad en sistemas de IA que resumen contenido.

En el marco general de la evolución de la búsqueda en línea, AI Overviews y AI Mode representan una tendencia hacia experiencias más “orientadas a respuestas” que a simples listas de enlaces. Google ha señalado que ambas herramientas —especialmente cuando muestran enlaces de respaldo de manera clara y accesible— pueden mejorar la manera en que los usuarios encuentran y verifican información en la web. Sin embargo, la comunidad de creadores de contenido y los expertos en SEO continúan observando de cerca cómo estas funciones impactan la visibilidad de los sitios originales y la economía de la información en internet.

Estableciendo una política de IA en bibliotecas públicas: guía y consideraciones

Enis, Matt. (9 de febrero de 2026). Setting AI Policy. Library Journal

Se destaca que las bibliotecas se encuentran en un punto de inflexión: la IA ya forma parte de la realidad de sus usuarios y de la gestión interna, pero sin políticas claras existe el riesgo de uso inconsistente, poco ético o inseguro. Por tanto, la elaboración de políticas no solo debe ser proactiva y participativa, sino también flexible y en constante revisión para adaptarse a las transformaciones tecnológicas futuras.

El artículo analiza cómo las bibliotecas públicas están abordando la necesidad urgente de definir políticas claras sobre el uso de herramientas de inteligencia artificial (IA), especialmente a medida que tecnologías como los grandes modelos de lenguaje (por ejemplo, ChatGPT, Gemini, Claude y Copilot) se vuelven omnipresentes en la vida diaria de usuarios y personal bibliotecario.

Por qué se necesitan políticas de IA

A medida que estas herramientas se integran tanto en las búsquedas de información cotidianas de los usuarios (por ejemplo, respuestas de IA en Google) como en las prácticas internas (correo electrónico, generación de contenido, exploración de datos), las bibliotecas enfrentan una diversidad de opiniones sobre su uso aceptable. Esto hace imprescindible establecer normas claras para evitar malentendidos y riesgos éticos o de privacidad.

Enfoque colaborativo y adaptable

El artículo destaca que no siempre es necesario escribir una política desde cero: muchas instituciones pueden revisar y adaptar políticas existentes sobre privacidad, seguridad de datos o uso aceptable de tecnologías para incluir IA como nuevo elemento. Asimismo, se recomienda que la creación de políticas no quede solo en manos de la administración, sino que involucre a personal de diferentes áreas, lo que ayuda a que las normas sean más realistas, útiles y mejor aceptadas.

Políticas como documentos vivos

Dado que la tecnología avanza rápidamente, los expertos mencionados en el artículo sugieren que las políticas sobre IA se diseñen como “documentos vivos”, con revisiones periódicas (por ejemplo, cada seis meses), para reflejar nuevos desarrollos, riesgos o herramientas emergentes.

Usos permitidos y prohibidos

Varias bibliotecas ofrecen ejemplos concretos sobre lo que podría considerarse aceptable o no:

  • Aceptable para personal: uso de IA para tareas de bajo riesgo como generación de ideas, corrección de textos, redacción de borradores o resumen de documentos.
  • Prohibido: creación de “deepfakes”; uso de IA para vigilancia, decisiones de contratación o evaluaciones de desempeño sin supervisión humana.

Además, se recomiendan políticas que protejan la privacidad de los usuarios, por ejemplo prohibiendo la entrada de datos personales identificables (como nombres o números de tarjeta) en herramientas externas de IA, y exigiendo consentimiento informado cuando se use IA con datos sensibles.

Integración de prácticas y educación

El artículo también sugiere que, más allá de definir normas, las bibliotecas deberían considerar:

  • Verificar la seguridad y confiabilidad de las herramientas de IA antes de implementarlas con usuarios.
  • Requerir supervisión humana o verificaciones de hechos en respuestas de IA (debido a posibles errores u “alucinaciones” de los modelos).
  • Educar tanto al personal como al público sobre qué es la IA, cómo se utiliza y qué implicaciones tiene su uso responsable en servicios y procesos bibliotecarios.

Search Party un sistema IA propiedad de Amazon para localizar perros perdidos que está generando controversia en torno a la vigilancia comunitaria

Koebler, Jason. “Leaked Email Suggests Ring Plans to Expand ‘Search Party’ Surveillance Beyond Dogs.” 404 Media, February 18, 2026. https://www.404media.co/leaked-email-suggests-ring-plans-to-expand-search-party-surveillance-beyond-dogs/

Un correo interno filtrado de Amazon‑propiedad Ring ha revelado que la controvertida funcionalidad de inteligencia artificial denominada Search Party, lanzada con el propósito de ayudar a encontrar perros perdidos utilizando cámaras conectadas en vecindarios, podría evolucionar hacia un sistema de vigilancia más amplio con objetivos de seguridad comunitaria, según un informe de 404 Media.

En el mensaje, enviado por el fundador y CEO de Ring, Jamie Siminoff, a los empleados poco después del lanzamiento de la herramienta en octubre de 2025, Siminoff describió que la función fue introducida “primero para encontrar perros” pero insinuó que esta plataforma podría ampliarse para “eliminar el crimen en los vecindarios”, mostrando la intención de que la infraestructura de cámaras y el aprendizaje automático asociado sirvan a usos más allá de su propósito original.

Search Party es una característica que se activa por defecto y crea una red de cámaras Ring en un área determinada que, mediante algoritmos de IA, analiza automáticamente el metraje grabado cuando se informa de un perro perdido para intentar localizarlo. Si una cámara detecta un posible avistamiento, se notifica al propietario del dispositivo, quien puede optar por compartir el video con quien busca al animal. La herramienta ha suscitado críticas por su activación por defecto y por la escala de la red de cámaras interconectadas, lo que ha despertado inquietudes sobre la normalización de una infraestructura de vigilancia en vecindarios.

La filtración ocurre en un contexto más amplio de escepticismo y rechazo público hacia las capacidades de vigilancia de Ring. La empresa enfrentó una reacción negativa importante tras la emisión de un anuncio en el Super Bowl que promocionaba Search Party, ya que muchos críticos interpretaron la publicidad como un preludio de un sistema de vigilancia encubierto que utiliza aparatos cotidianos como cámaras de puerta para monitorear barrios. Aunque Ring ha afirmado que Search Party no procesa biométricos humanos ni rastrea personas directamente, expertos en privacidad señalan que la tecnología subyacente y la expansión de funciones como Familiar Faces (identificación facial) y Fire Watch (detección de incendios) incrementan la capacidad de monitoreo automático y, por ende, los riesgos asociados a la protección de datos y libertades civiles.

Los defensores de la privacidad han advertido que una red tan extensa de dispositivos conectados por IA podría teoréticamente adaptarse para otros fines, incluidos la búsqueda de objetos o incluso personas, si futuros desarrollos así lo permiten. La reacción pública también llevó a Ring a cancelar una asociación planificada con la empresa de vigilancia Flock Safety, tras recibir críticas por el potencial uso de la herramienta para integrar a las fuerzas del orden en la recolección de evidencia a través de solicitudes de video. Ring declaró que la integración con Flock nunca se lanzó y que no se compartió ningún dato de usuario con esa empresa, enfatizando que la herramienta está diseñada para beneficiar a las comunidades y que la decisión de compartir videos recae en cada propietario.

Tasas de adopción de IA por país

Neufeld, Dorothy. Mapped: AI Adoption Rates by Country. Visual Capitalist, January 22, 2026. https://www.visualcapitalist.com/ai-adoption-rates-by-country/

El artículo de Visual Capitalist presenta un mapa con las tasas de adopción de inteligencia artificial (IA) en el mundo, estimadas sobre la base del porcentaje de la población en edad laboral que usó IA al menos una vez durante el segundo semestre de 2025. Los datos provienen del informe Global AI Adoption in 2025 de Microsoft, y muestran amplias diferencias regionales y nacionales en el uso de IA.

La disparidad en las tasas de adopción sugiere que no siempre coincide la capacidad tecnológica con el uso real de IA entre la población. Países con políticas públicas y estrategias nacionales bien definidas para impulsar la adopción tienden a mostrar cifras más altas, incluso por encima de economías más grandes o con mayor capacidad de investigación.

Principales conclusiones:

  • En 2025, 16.1 % de la población mundial en edad de trabajar utilizó IA, lo que indica que aún hay un gran potencial de crecimiento del uso de estas tecnologías en muchas regiones.
  • Las tasas de adopción promedio son más altas en el hemisferio norte (24.7 %) que en el hemisferio sur (14.1 %), reflejando diferencias de desarrollo tecnológico e infraestructura.

Países con mayores tasas de adopción:

  • Emiratos Árabes Unidos (64.0 %) — el país con mayor adopción global en 2025, gracias a su enfoque temprano en la gobernanza y uso de IA.
  • Singapur (60.9 %) — también con una estrategia sólida de inversión en infraestructura y tecnologías.
  • Noruega (46.4 %) y otros países europeos como Irlanda (44.6 %) y Francia (44.0 %) — destacando la fuerte integración de IA en sectores productivos.
  • España (41.8 %) — posicionándose entre los países con tasas elevadas de uso de IA en Europa.
  • Dentro del top 10 también aparecen Nueva Zelanda, Países Bajos, Reino Unido, Catar y Australia, con tasas de adopción entre ~36 % y ~40 %.
  • Estados Unidos ocupa el puesto 24 a nivel mundial con una tasa de adopción de 28.3 %, lo que contrasta con su liderazgo en infraestructura de IA y desarrollo de modelos avanzados.


Bibliotecarios enseñan alfabetización en IA para ayudar a comunidades a navegar el nuevo entorno digital

Librarians Teach AI Literacy to Students and Communities.CBC News, February 2026 https://www.cbc.ca/news/canada/librarians-teach-ai-9.7055661?utm_source=flipboard&utm_content=JamesGood6mff/magazine/Education+%26+Parenting

El papel cada vez más importante que están desempeñando los bibliotecarios como educadores en alfabetización de inteligencia artificial (IA), adaptándose a un entorno digital en rápida transformación.

En un contexto donde herramientas como ChatGPT, Gemini y otros modelos generativos se vuelven omnipresentes, profesionales de las bibliotecas están ampliando sus funciones tradicionales —más allá de ayudar a las personas a encontrar y evaluar información— para incluir la enseñanza sobre cómo identificar, evaluar y utilizar inteligencias artificiales de manera crítica y responsable.

Históricamente, las bibliotecas han sido centros de alfabetización en información, enseñando habilidades que permiten a los usuarios discernir fuentes fiables y navegar recursos complejos. Hoy, esa misión se extiende a la alfabetización en IA, que abarca no solo comprender qué hacen estas tecnologías y cómo funcionan, sino también sus limitaciones y sus posibles impactos éticos y sociales —por ejemplo, cómo distinguir contenido generado por IA de aquel creado por humanos y reconocer posibles sesgos o errores en los resultados que producen.

El artículo subraya que distintos bibliotecarios trabajan con estudiantes y comunidades de todas las edades para integrar este tipo de educación. En escuelas y universidades, por ejemplo, estos profesionales colaboran con docentes para enseñar a los estudiantes no solo a usar herramientas de IA para la investigación académica, sino también a objetivar críticamente sus beneficios y riesgos, incluyendo cuestiones como el plagio, la integridad académica y la búsqueda responsable de información.

Además, el papel del bibliotecario se extiende a iniciativas comunitarias más amplias. Algunos programas públicos de bibliotecas han empezado a ofrecer recursos y talleres gratuitos para personas que desean entender mejor cómo las IA influyen en la vida diaria, desde las noticias y las redes sociales hasta cuestiones laborales y de privacidad de datos. En este sentido, se enfatiza la importancia de que las bibliotecas no solo enseñen técnicas de uso, sino que también fomenten habilidades de pensamiento crítico y evaluación ética frente a sistemas que generan contenido automáticamente.

La discusión del artículo también apunta a que, en un momento en que el público general y los estudiantes muestran una necesidad creciente de entender estas tecnologías —como reflejan encuestas que señalan brechas en pensamiento crítico relacionadas con el uso de IA—, los bibliotecarios están bien posicionados para asumir este rol educativo debido a su experiencia histórica en alfabetización informacional. Su labor, por tanto, se percibe no solo como una extensión natural de su función, sino como una respuesta esencial a las demandas educativas y sociales del entorno digital contemporáneo.

.

Discord implementará detección automatizada con validación de IA y revisión humana para aplicar restricciones por edad en servidores

Goodall, Jack. “Discord Says It Will Use a Mixture of ‘AI Validation and Human Review’ to Determine Age-Restricted Content.PC Guide, February 16, 2026 https://www.xda-developers.com/discord-will-use-automated-detection-with-ai-validation-and-human-review-to-age-gate-your-servers/?utm_source=flipboard&utm_content=other

La plataforma de comunicación Discord está actualizando sus políticas de moderación y seguridad para aplicar restricciones de edad en servidores y contenido, empleando una combinación de detección automatizada, validación mediante inteligencia artificial y revisión humana para identificar y clasificar qué espacios deben ser considerados para adultos.

Según la explicación de un portavoz de Discord citada por PC Guide, estos mecanismos forman parte de un enfoque amplio que la compañía llama “Teen Safety Assist” o “safety-by-default”, diseñado para proteger a usuarios más jóvenes de contenido sensible o no apropiado en su plataforma.

El sistema de detección automatizada con IA busca identificar servidores que potencialmente alojen material para adultos, especialmente imágenes o contenidos sensibles, aplicando filtros y políticas de seguridad existentes. Estos filtros automatizados se combinan con revisiones humanas en casos donde el algoritmo no sea concluyente o donde se necesite confirmación adicional para evitar errores de clasificación. La IA actúa como primera línea —escaneando grandes cantidades de espacios y contenidos dentro de Discord— y la revisión humana sirve como un control de calidad para aquellos casos más ambiguos o complejos.

El anuncio de este nuevo enfoque ocurre en un contexto más amplio de actualizaciones en la plataforma que, desde marzo de 2026, requerirán la verificación de edad de los usuarios para permitirles acceder a servidores con restricciones para adultos o desactivar los filtros predeterminados de contenido seguro. Aunque cualquier administrador puede seguir marcando voluntariamente su servidor como restringido por edad, el sistema automatizado procurará identificar y aplicar estas restricciones incluso en aquellos casos no señalados explícitamente por los administradores. En este sentido, la IA y la revisión humana no solo ayudan a confirmar la edad de los usuarios, sino también a evaluar qué tipo de contenido o servidores deben estar cerrados a menores.

La medida forma parte de un impulso más amplio de Discord para implementar controles de seguridad para menores y cumplir con estándares regulatorios crecientes sobre protección infantil en internet. Esto incluye, en otras actualizaciones de la plataforma, establecer un modo predeterminado para cuentas de adolescentes y limitar funciones sin una verificación positiva de adultez, como parte de un esfuerzo por equilibrar la seguridad con la experiencia de los usuarios adultos. Aunque el uso de IA para estas funciones puede traer mejoras en la eficiencia y la cobertura de detección, también suscita preguntas y debates sobre precisión, privacidad y la intervención automatizada en comunidades privadas, elementos que Discord deberá gestionar cuidadosamente a medida que despliega estas herramientas.