Archivo de la categoría: Tecnologías de la información

Google impulsa transparencia en su búsqueda con mejoras en “AI Overviews” y “AI Mode”: fuentes originales más visibles y uso de enlaces citados

Whitney, Lance. 2026. Fact-Checking Google’s AI Overviews Just Got a Little Easier — Here’s How.”ZDNet, February 20, 2026. https://tech.yahoo.com/ai/gemini/articles/fact-checking-googles-ai-overviews-182700066.html (consultado el 23 de febrero de 2026).

Google ha estado integrando cada vez más características de inteligencia artificial directamente en su motor de búsqueda, destacando dos funciones principales: AI Overviews y AI Mode.

Las AI Overviews ofrecen resúmenes generados por IA encima de los resultados tradicionales de enlaces, proporcionando al usuario una visión panorámica de una consulta sin necesidad de hacer clic en los sitios web originales. Por su parte, AI Mode representa un paso más allá: no se limita a resumir, sino que permite interacciones más conversacionales, manejo de consultas complejas y respuestas multimodales que incluyen texto, imágenes y posibles enlaces de apoyo.

Una de las críticas más persistentes sobre estas funciones ha sido la forma en que la IA sintetiza y reutiliza contenido de páginas web sin que los usuarios siempre identifiquen claramente las fuentes originales. Aunque Google incluye enlaces dentro de sus respuestas, la manera en que estos aparecen no siempre ha sido transparente para los usuarios ni suficiente para los creadores de contenido, lo que ha generado debates sobre la disparidad entre los resúmenes generados por IA y el tráfico real que reciben los sitios citados.

En respuesta a estas preocupaciones, Google ha implementado cambios recientes que buscan hacer más visibles los enlaces de fuentes originales dentro de estos resultados de IA. Por ejemplo, al pasar el cursor sobre los iconos de fuentes en AI Overviews y AI Mode, se despliega un grupo de enlaces con nombres de sitios web y descripciones más completas, lo que facilita la verificación de información y el acceso directo a los contenidos de referencia. Esta actualización busca equilibrar la utilidad de las respuestas generadas por IA con la necesidad de atribuir adecuadamente la información a sus autores originales.

El debate no se limita a cuestiones técnicas. Organizaciones de salud y defensa de los derechos de los usuarios han señalado que, en algunos casos, AI Overviews ha proporcionado información inexacta o potencialmente dañina, especialmente en temas sensibles como la salud mental (lo que ha llevado a investigaciones sobre IA y riesgos para la salud). Estas preocupaciones intensifican la discusión sobre cómo equilibrar conveniencia, precisión y responsabilidad en sistemas de IA que resumen contenido.

En el marco general de la evolución de la búsqueda en línea, AI Overviews y AI Mode representan una tendencia hacia experiencias más “orientadas a respuestas” que a simples listas de enlaces. Google ha señalado que ambas herramientas —especialmente cuando muestran enlaces de respaldo de manera clara y accesible— pueden mejorar la manera en que los usuarios encuentran y verifican información en la web. Sin embargo, la comunidad de creadores de contenido y los expertos en SEO continúan observando de cerca cómo estas funciones impactan la visibilidad de los sitios originales y la economía de la información en internet.

Estableciendo una política de IA en bibliotecas públicas: guía y consideraciones

Enis, Matt. (9 de febrero de 2026). Setting AI Policy. Library Journal

Se destaca que las bibliotecas se encuentran en un punto de inflexión: la IA ya forma parte de la realidad de sus usuarios y de la gestión interna, pero sin políticas claras existe el riesgo de uso inconsistente, poco ético o inseguro. Por tanto, la elaboración de políticas no solo debe ser proactiva y participativa, sino también flexible y en constante revisión para adaptarse a las transformaciones tecnológicas futuras.

El artículo analiza cómo las bibliotecas públicas están abordando la necesidad urgente de definir políticas claras sobre el uso de herramientas de inteligencia artificial (IA), especialmente a medida que tecnologías como los grandes modelos de lenguaje (por ejemplo, ChatGPT, Gemini, Claude y Copilot) se vuelven omnipresentes en la vida diaria de usuarios y personal bibliotecario.

Por qué se necesitan políticas de IA

A medida que estas herramientas se integran tanto en las búsquedas de información cotidianas de los usuarios (por ejemplo, respuestas de IA en Google) como en las prácticas internas (correo electrónico, generación de contenido, exploración de datos), las bibliotecas enfrentan una diversidad de opiniones sobre su uso aceptable. Esto hace imprescindible establecer normas claras para evitar malentendidos y riesgos éticos o de privacidad.

Enfoque colaborativo y adaptable

El artículo destaca que no siempre es necesario escribir una política desde cero: muchas instituciones pueden revisar y adaptar políticas existentes sobre privacidad, seguridad de datos o uso aceptable de tecnologías para incluir IA como nuevo elemento. Asimismo, se recomienda que la creación de políticas no quede solo en manos de la administración, sino que involucre a personal de diferentes áreas, lo que ayuda a que las normas sean más realistas, útiles y mejor aceptadas.

Políticas como documentos vivos

Dado que la tecnología avanza rápidamente, los expertos mencionados en el artículo sugieren que las políticas sobre IA se diseñen como “documentos vivos”, con revisiones periódicas (por ejemplo, cada seis meses), para reflejar nuevos desarrollos, riesgos o herramientas emergentes.

Usos permitidos y prohibidos

Varias bibliotecas ofrecen ejemplos concretos sobre lo que podría considerarse aceptable o no:

  • Aceptable para personal: uso de IA para tareas de bajo riesgo como generación de ideas, corrección de textos, redacción de borradores o resumen de documentos.
  • Prohibido: creación de “deepfakes”; uso de IA para vigilancia, decisiones de contratación o evaluaciones de desempeño sin supervisión humana.

Además, se recomiendan políticas que protejan la privacidad de los usuarios, por ejemplo prohibiendo la entrada de datos personales identificables (como nombres o números de tarjeta) en herramientas externas de IA, y exigiendo consentimiento informado cuando se use IA con datos sensibles.

Integración de prácticas y educación

El artículo también sugiere que, más allá de definir normas, las bibliotecas deberían considerar:

  • Verificar la seguridad y confiabilidad de las herramientas de IA antes de implementarlas con usuarios.
  • Requerir supervisión humana o verificaciones de hechos en respuestas de IA (debido a posibles errores u “alucinaciones” de los modelos).
  • Educar tanto al personal como al público sobre qué es la IA, cómo se utiliza y qué implicaciones tiene su uso responsable en servicios y procesos bibliotecarios.

Search Party un sistema IA propiedad de Amazon para localizar perros perdidos que está generando controversia en torno a la vigilancia comunitaria

Koebler, Jason. “Leaked Email Suggests Ring Plans to Expand ‘Search Party’ Surveillance Beyond Dogs.” 404 Media, February 18, 2026. https://www.404media.co/leaked-email-suggests-ring-plans-to-expand-search-party-surveillance-beyond-dogs/

Un correo interno filtrado de Amazon‑propiedad Ring ha revelado que la controvertida funcionalidad de inteligencia artificial denominada Search Party, lanzada con el propósito de ayudar a encontrar perros perdidos utilizando cámaras conectadas en vecindarios, podría evolucionar hacia un sistema de vigilancia más amplio con objetivos de seguridad comunitaria, según un informe de 404 Media.

En el mensaje, enviado por el fundador y CEO de Ring, Jamie Siminoff, a los empleados poco después del lanzamiento de la herramienta en octubre de 2025, Siminoff describió que la función fue introducida “primero para encontrar perros” pero insinuó que esta plataforma podría ampliarse para “eliminar el crimen en los vecindarios”, mostrando la intención de que la infraestructura de cámaras y el aprendizaje automático asociado sirvan a usos más allá de su propósito original.

Search Party es una característica que se activa por defecto y crea una red de cámaras Ring en un área determinada que, mediante algoritmos de IA, analiza automáticamente el metraje grabado cuando se informa de un perro perdido para intentar localizarlo. Si una cámara detecta un posible avistamiento, se notifica al propietario del dispositivo, quien puede optar por compartir el video con quien busca al animal. La herramienta ha suscitado críticas por su activación por defecto y por la escala de la red de cámaras interconectadas, lo que ha despertado inquietudes sobre la normalización de una infraestructura de vigilancia en vecindarios.

La filtración ocurre en un contexto más amplio de escepticismo y rechazo público hacia las capacidades de vigilancia de Ring. La empresa enfrentó una reacción negativa importante tras la emisión de un anuncio en el Super Bowl que promocionaba Search Party, ya que muchos críticos interpretaron la publicidad como un preludio de un sistema de vigilancia encubierto que utiliza aparatos cotidianos como cámaras de puerta para monitorear barrios. Aunque Ring ha afirmado que Search Party no procesa biométricos humanos ni rastrea personas directamente, expertos en privacidad señalan que la tecnología subyacente y la expansión de funciones como Familiar Faces (identificación facial) y Fire Watch (detección de incendios) incrementan la capacidad de monitoreo automático y, por ende, los riesgos asociados a la protección de datos y libertades civiles.

Los defensores de la privacidad han advertido que una red tan extensa de dispositivos conectados por IA podría teoréticamente adaptarse para otros fines, incluidos la búsqueda de objetos o incluso personas, si futuros desarrollos así lo permiten. La reacción pública también llevó a Ring a cancelar una asociación planificada con la empresa de vigilancia Flock Safety, tras recibir críticas por el potencial uso de la herramienta para integrar a las fuerzas del orden en la recolección de evidencia a través de solicitudes de video. Ring declaró que la integración con Flock nunca se lanzó y que no se compartió ningún dato de usuario con esa empresa, enfatizando que la herramienta está diseñada para beneficiar a las comunidades y que la decisión de compartir videos recae en cada propietario.

Tasas de adopción de IA por país

Neufeld, Dorothy. Mapped: AI Adoption Rates by Country. Visual Capitalist, January 22, 2026. https://www.visualcapitalist.com/ai-adoption-rates-by-country/

El artículo de Visual Capitalist presenta un mapa con las tasas de adopción de inteligencia artificial (IA) en el mundo, estimadas sobre la base del porcentaje de la población en edad laboral que usó IA al menos una vez durante el segundo semestre de 2025. Los datos provienen del informe Global AI Adoption in 2025 de Microsoft, y muestran amplias diferencias regionales y nacionales en el uso de IA.

La disparidad en las tasas de adopción sugiere que no siempre coincide la capacidad tecnológica con el uso real de IA entre la población. Países con políticas públicas y estrategias nacionales bien definidas para impulsar la adopción tienden a mostrar cifras más altas, incluso por encima de economías más grandes o con mayor capacidad de investigación.

Principales conclusiones:

  • En 2025, 16.1 % de la población mundial en edad de trabajar utilizó IA, lo que indica que aún hay un gran potencial de crecimiento del uso de estas tecnologías en muchas regiones.
  • Las tasas de adopción promedio son más altas en el hemisferio norte (24.7 %) que en el hemisferio sur (14.1 %), reflejando diferencias de desarrollo tecnológico e infraestructura.

Países con mayores tasas de adopción:

  • Emiratos Árabes Unidos (64.0 %) — el país con mayor adopción global en 2025, gracias a su enfoque temprano en la gobernanza y uso de IA.
  • Singapur (60.9 %) — también con una estrategia sólida de inversión en infraestructura y tecnologías.
  • Noruega (46.4 %) y otros países europeos como Irlanda (44.6 %) y Francia (44.0 %) — destacando la fuerte integración de IA en sectores productivos.
  • España (41.8 %) — posicionándose entre los países con tasas elevadas de uso de IA en Europa.
  • Dentro del top 10 también aparecen Nueva Zelanda, Países Bajos, Reino Unido, Catar y Australia, con tasas de adopción entre ~36 % y ~40 %.
  • Estados Unidos ocupa el puesto 24 a nivel mundial con una tasa de adopción de 28.3 %, lo que contrasta con su liderazgo en infraestructura de IA y desarrollo de modelos avanzados.


Bibliotecarios enseñan alfabetización en IA para ayudar a comunidades a navegar el nuevo entorno digital

Librarians Teach AI Literacy to Students and Communities.CBC News, February 2026 https://www.cbc.ca/news/canada/librarians-teach-ai-9.7055661?utm_source=flipboard&utm_content=JamesGood6mff/magazine/Education+%26+Parenting

El papel cada vez más importante que están desempeñando los bibliotecarios como educadores en alfabetización de inteligencia artificial (IA), adaptándose a un entorno digital en rápida transformación.

En un contexto donde herramientas como ChatGPT, Gemini y otros modelos generativos se vuelven omnipresentes, profesionales de las bibliotecas están ampliando sus funciones tradicionales —más allá de ayudar a las personas a encontrar y evaluar información— para incluir la enseñanza sobre cómo identificar, evaluar y utilizar inteligencias artificiales de manera crítica y responsable.

Históricamente, las bibliotecas han sido centros de alfabetización en información, enseñando habilidades que permiten a los usuarios discernir fuentes fiables y navegar recursos complejos. Hoy, esa misión se extiende a la alfabetización en IA, que abarca no solo comprender qué hacen estas tecnologías y cómo funcionan, sino también sus limitaciones y sus posibles impactos éticos y sociales —por ejemplo, cómo distinguir contenido generado por IA de aquel creado por humanos y reconocer posibles sesgos o errores en los resultados que producen.

El artículo subraya que distintos bibliotecarios trabajan con estudiantes y comunidades de todas las edades para integrar este tipo de educación. En escuelas y universidades, por ejemplo, estos profesionales colaboran con docentes para enseñar a los estudiantes no solo a usar herramientas de IA para la investigación académica, sino también a objetivar críticamente sus beneficios y riesgos, incluyendo cuestiones como el plagio, la integridad académica y la búsqueda responsable de información.

Además, el papel del bibliotecario se extiende a iniciativas comunitarias más amplias. Algunos programas públicos de bibliotecas han empezado a ofrecer recursos y talleres gratuitos para personas que desean entender mejor cómo las IA influyen en la vida diaria, desde las noticias y las redes sociales hasta cuestiones laborales y de privacidad de datos. En este sentido, se enfatiza la importancia de que las bibliotecas no solo enseñen técnicas de uso, sino que también fomenten habilidades de pensamiento crítico y evaluación ética frente a sistemas que generan contenido automáticamente.

La discusión del artículo también apunta a que, en un momento en que el público general y los estudiantes muestran una necesidad creciente de entender estas tecnologías —como reflejan encuestas que señalan brechas en pensamiento crítico relacionadas con el uso de IA—, los bibliotecarios están bien posicionados para asumir este rol educativo debido a su experiencia histórica en alfabetización informacional. Su labor, por tanto, se percibe no solo como una extensión natural de su función, sino como una respuesta esencial a las demandas educativas y sociales del entorno digital contemporáneo.

.

Discord implementará detección automatizada con validación de IA y revisión humana para aplicar restricciones por edad en servidores

Goodall, Jack. “Discord Says It Will Use a Mixture of ‘AI Validation and Human Review’ to Determine Age-Restricted Content.PC Guide, February 16, 2026 https://www.xda-developers.com/discord-will-use-automated-detection-with-ai-validation-and-human-review-to-age-gate-your-servers/?utm_source=flipboard&utm_content=other

La plataforma de comunicación Discord está actualizando sus políticas de moderación y seguridad para aplicar restricciones de edad en servidores y contenido, empleando una combinación de detección automatizada, validación mediante inteligencia artificial y revisión humana para identificar y clasificar qué espacios deben ser considerados para adultos.

Según la explicación de un portavoz de Discord citada por PC Guide, estos mecanismos forman parte de un enfoque amplio que la compañía llama “Teen Safety Assist” o “safety-by-default”, diseñado para proteger a usuarios más jóvenes de contenido sensible o no apropiado en su plataforma.

El sistema de detección automatizada con IA busca identificar servidores que potencialmente alojen material para adultos, especialmente imágenes o contenidos sensibles, aplicando filtros y políticas de seguridad existentes. Estos filtros automatizados se combinan con revisiones humanas en casos donde el algoritmo no sea concluyente o donde se necesite confirmación adicional para evitar errores de clasificación. La IA actúa como primera línea —escaneando grandes cantidades de espacios y contenidos dentro de Discord— y la revisión humana sirve como un control de calidad para aquellos casos más ambiguos o complejos.

El anuncio de este nuevo enfoque ocurre en un contexto más amplio de actualizaciones en la plataforma que, desde marzo de 2026, requerirán la verificación de edad de los usuarios para permitirles acceder a servidores con restricciones para adultos o desactivar los filtros predeterminados de contenido seguro. Aunque cualquier administrador puede seguir marcando voluntariamente su servidor como restringido por edad, el sistema automatizado procurará identificar y aplicar estas restricciones incluso en aquellos casos no señalados explícitamente por los administradores. En este sentido, la IA y la revisión humana no solo ayudan a confirmar la edad de los usuarios, sino también a evaluar qué tipo de contenido o servidores deben estar cerrados a menores.

La medida forma parte de un impulso más amplio de Discord para implementar controles de seguridad para menores y cumplir con estándares regulatorios crecientes sobre protección infantil en internet. Esto incluye, en otras actualizaciones de la plataforma, establecer un modo predeterminado para cuentas de adolescentes y limitar funciones sin una verificación positiva de adultez, como parte de un esfuerzo por equilibrar la seguridad con la experiencia de los usuarios adultos. Aunque el uso de IA para estas funciones puede traer mejoras en la eficiencia y la cobertura de detección, también suscita preguntas y debates sobre precisión, privacidad y la intervención automatizada en comunidades privadas, elementos que Discord deberá gestionar cuidadosamente a medida que despliega estas herramientas.

¿Sobrevivirán las humanidades a la inteligencia artificial?

Burnett, D. Graham. “Will the Humanities Survive Artificial Intelligence?The New Yorker, April 26, 2025. https://www.newyorker.com/culture/the-weekend-essay/will-the-humanities-survive-artificial-intelligence

El historiador de ciencia y tecnología D. Graham Burnett analiza cómo los avances de la inteligencia artificial están transformando de manera profunda —y a veces silenciosa— la vida intelectual y educativa, con especial enfoque en las disciplinas humanísticas.

Burnett parte de su experiencia como profesor universitario. Describe el desconcierto que ha generado la aparición de modelos de lenguaje capaces de redactar ensayos coherentes, interpretar textos complejos y producir análisis que antes exigían años de formación académica. Lo que inicialmente fue recibido con prohibiciones o sospechas —plagio, trampa, atajo intelectual— pronto se reveló como un fenómeno mucho más profundo: no se trata solo de estudiantes usando herramientas nuevas, sino de una transformación estructural en la manera en que se produce y se procesa el conocimiento textual.

El autor subraya que las humanidades modernas se han organizado históricamente en torno a prácticas como la lectura atenta, la escritura argumentativa y la interpretación crítica. Estas actividades constituían no solo métodos pedagógicos, sino también rituales de formación intelectual. La IA, al automatizar gran parte de esas tareas, parece desestabilizar el corazón mismo del currículo. Si una máquina puede analizar a Shakespeare, resumir a Kant o imitar la prosa académica con notable solvencia, ¿qué queda para el estudiante? ¿Qué queda para el profesor?

Pero el ensayo no reduce la cuestión a la eficiencia técnica. Burnett propone que la verdadera crisis es ontológica y cultural. Las humanidades no solo enseñan a producir textos, sino a habitar preguntas: ¿qué es una persona?, ¿qué significa comprender?, ¿qué valor tiene la experiencia subjetiva? La aparición de sistemas capaces de simular comprensión obliga a revisar nuestras nociones de conciencia, intención y creatividad. La IA no solo compite con las humanidades en el plano operativo; las interpela en el plano filosófico.

Burnett observa también que la universidad contemporánea ya estaba en crisis antes de la llegada de la IA: precarización laboral, reducción de matrícula en carreras humanísticas, presión utilitarista hacia disciplinas STEM. La inteligencia artificial actúa como acelerador de esas tensiones. Sin embargo, su impacto también puede ser catalizador de renovación. En lugar de aferrarse a un modelo basado exclusivamente en la producción de ensayos evaluables, el autor imagina un giro hacia formas más dialógicas, performativas y experienciales de aprendizaje: seminarios donde la IA se use críticamente, prácticas que enfaticen la presencia corporal, la discusión en vivo y la reflexión ética.

Uno de los argumentos centrales del ensayo es que la esencia de las humanidades no radica en la mera generación de contenido, sino en la formación del juicio. El juicio —esa capacidad de discernir, valorar, contextualizar y asumir responsabilidad interpretativa— no se reduce a la producción textual. En este sentido, la IA podría incluso reforzar el papel de las humanidades si obliga a desplazarlas desde la repetición de conocimientos hacia la reflexión sobre qué significa pensar con y contra las máquinas.

El texto sugiere que estamos asistiendo al colapso de un modelo curricular basado en la escasez de información y en la dificultad técnica de escribir bien. En un mundo donde la producción textual es abundante y casi instantánea, el valor ya no estará en “hacer un ensayo correcto”, sino en formular preguntas significativas, en sostener conversaciones complejas y en desarrollar una conciencia crítica sobre las herramientas que utilizamos.

En última instancia, Burnett no defiende la preservación nostálgica del pasado académico. Más bien invita a aceptar que el viejo edificio puede estar en ruinas, pero que en esos escombros se percibe movimiento. Algo vital —una nueva forma de humanismo, quizá más consciente de la tecnología y de sus límites— comienza a gestarse. La supervivencia de las humanidades dependerá de su capacidad para redefinirse no como guardianas de un canon textual, sino como espacios de interrogación radical sobre lo humano en una era de inteligencia no humana.

El problema de la “caja vacía”: Por qué es más difícil que nunca saber qué escribir en la barra de búsqueda de IA

Tay, Aaron. The Blank Box Problem: Why It’s Harder Than Ever to Know What to Type Into an AI Search Bar. Publicado el 10 de enero de 2026 en Aaron Tay’s Musings about Librarianship (Substack). https://aarontay.substack.com/p/the-blank-box-problem-why-its-harder

Se aborda un fenómeno importante y creciente en la forma en que interactuamos con las tecnologías de búsqueda potenciada por inteligencia artificial. Aaron Tay describe el llamado “problema de la caja vacía”, que se refiere a la interfaz minimalista y aparentemente sencilla que caracteriza a las nuevas herramientas de búsqueda con IA: una simple barra de texto en blanco donde el usuario debe escribir su consulta sin ninguna guía explícita. Aunque esta simplicidad visual puede parecer atractiva, Tay argumenta que en realidad introduce una complejidad mucho mayor para el usuario, quien ahora enfrenta un desafío mucho más grande para formular preguntas efectivas. La ausencia de señales visuales, filtros o estructuras de consulta claras que existían en los motores de búsqueda tradicionales provoca que el usuario quede desorientado y no sepa qué tipo de entrada es la más adecuada para obtener resultados precisos o útiles.

En la era previa a la inteligencia artificial, muchas plataformas de búsqueda ofrecían herramientas como operadores booleanos, menús desplegables y categorías que ayudaban a los usuarios a acotar y precisar sus consultas. Estas herramientas, aunque a veces complejas, proporcionaban un marco de referencia sobre cómo interactuar con la base de datos o motor de búsqueda. Sin embargo, las interfaces modernas con IA, como los chatbots y asistentes inteligentes, presentan una única caja de texto sin indicaciones claras sobre qué esperar. Esto crea dos niveles de ambigüedad para el usuario: por un lado, no está seguro de cómo debe redactar su consulta —si debe usar términos técnicos, lenguaje natural, frases completas, comandos específicos o prompts diseñados para la IA—, y por otro lado, desconoce qué tipo de capacidades tiene el sistema, qué preguntas puede responder con precisión y cuáles no. Esta doble incertidumbre dificulta la confianza en el sistema y genera una sensación de trial and error constante, en la que los usuarios prueban diferentes formas de preguntar sin saber cuál será la mejor.

Además, Aaron Tay compara esta situación actual con la experiencia de años anteriores en entornos académicos y profesionales, donde las bases de datos especializadas exigían un aprendizaje de formatos y comandos específicos para ser usadas eficazmente. A pesar de ser más técnicas, esas plataformas ofrecían a los usuarios un marco claro y reglas definidas para construir consultas. En contraste, la actual “caja vacía” no ofrece ningún tipo de feedback inmediato ni estructura clara, por lo que los usuarios desarrollan sus propias “teorías populares” o intuiciones sobre cómo deben preguntar, a menudo basadas en ensayo y error o en compartir trucos entre comunidades en línea. Este fenómeno evidencia la falta de transparencia en cómo los modelos de IA interpretan el lenguaje y procesan las solicitudes, dejando a los usuarios sin un entendimiento real sobre la arquitectura interna que guía la generación de respuestas.

Finalmente, el artículo enfatiza que esta simplicidad superficial puede resultar contraproducente, ya que la interfaz minimalista esconde un funcionamiento interno complejo que no se comunica al usuario. Esto crea una brecha entre la experiencia del usuario y la tecnología, dificultando no solo la eficacia en la búsqueda, sino también la confianza y la adopción plena de estas nuevas herramientas. Aaron Tay sugiere que para superar este desafío, es necesario repensar el diseño de las interfaces de búsqueda con IA, de modo que se mantenga la accesibilidad y simplicidad, pero se agreguen señales claras y transparencia sobre las capacidades reales del sistema. Solo así se podrá equilibrar la promesa de la inteligencia artificial con la necesidad humana de entender y controlar las herramientas que utilizamos diariamente.

Pensamiento crítico en la era de la IA: quién, qué, dónde, cuándo, por qué, cómo

Addy Osmani. Critical Thinking during the age of AI. Publicado el 21 de noviembre de 2025 en Substack (Addyo).

Texto completo

El artículo destaca que, en una época en la que la inteligencia artificial puede generar código, ideas de diseño y respuestas plausibles de inmediato, el pensamiento crítico humano es más esencial que nunca.

Osmani señala que, aunque la IA puede acelerar muchas tareas, no puede sustituir la capacidad humana de cuestionar suposiciones, verificar resultados y pensar de forma independiente.

Utilizando un enfoque estructurado basado en las clásicas preguntas quién, qué, dónde, cuándo, por qué y cómo, el autor guía al lector sobre cómo aplicar el pensamiento crítico en equipos técnicos y de ingeniería que trabajan con herramientas potenciadas por IA. Por ejemplo, enfatiza que no se debe confiar en la IA como una autoridad incuestionable, sino tratar sus respuestas como sugerencias que deben ser verificadas y evaluadas por personas.

El artículo continúa explicando que el pensamiento crítico implica definir claramente el problema real antes de buscar soluciones, considerar el contexto completo (no solo un entorno aislado de prueba), y distinguir entre una solución rápida superficial y un análisis profundo de causa raíz. Además, subraya la importancia de involucrar a las personas adecuadas en el proceso de toma de decisiones para evitar el pensamiento de grupo y ampliar la diversidad de perspectivas.

También se hace hincapié en que el pensamiento crítico requiere basarse en evidencia y datos, no en opiniones o intuiciones. Esto significa recopilar hechos, validar hipótesis y comunicarse de forma clara y lógica. Según Osmani, estas prácticas ayudan a evitar errores comunes —como aceptar respuestas plausibles sin prueba— y permiten que los equipos mantengan un juicio sólido incluso cuando trabajan con tecnologías avanzadas.

La imagen es una guía visual que propone preguntas esenciales para aplicar el pensamiento crítico estructurado alrededor de las clásicas interrogantes en inglés: Who (Quién), What (Qué), Where (Dónde), When (Cuándo), Why (Por qué) y How (Cómo).

Cada sección de la imagen está codificada por colores y contiene un conjunto de preguntas orientadas a profundizar en el análisis de cualquier tema, problema o decisión, facilitando una exploración completa desde diferentes ángulos.


Comentario sobre cada sección:

  • Who (Quién):
    Aquí se busca identificar a los actores involucrados. Preguntas como “¿Quién se beneficia?” o “¿Quién está más afectado?” nos ayudan a entender los intereses, responsabilidades y las relaciones de poder que rodean el asunto. También destaca la importancia de reconocer a las personas clave y a quienes deben ser consultadas o reconocidas.
  • What (Qué):
    Esta sección invita a examinar las características del tema, sus fortalezas y debilidades, alternativas y posibles argumentos en contra. Preguntas como “¿Cuál es la mejor o peor opción?” y “¿Qué está bloqueando nuestra acción?” apuntan a evaluar las opciones y obstáculos para tomar decisiones informadas.
  • Where (Dónde):
    Se enfoca en el contexto y la relevancia geográfica o situacional. Por ejemplo, “¿Dónde sería un problema?” o “¿Podemos obtener más información?” son preguntas que resaltan la importancia de situar el análisis en el mundo real y buscar datos adicionales para un juicio más sólido.
  • When (Cuándo):
    Aquí el énfasis está en el tiempo: identificar momentos adecuados para actuar, entender la historia detrás del problema y anticipar cambios futuros. Preguntas como “¿Es este el mejor momento para actuar?” o “¿Sabremos cuándo hemos tenido éxito?” fomentan la planificación y evaluación temporal.
  • Why (Por qué):
    Busca entender las razones fundamentales del problema o situación, su relevancia y su duración. Cuestiona si el problema es realmente importante y si ha sido aceptado o permitido por la sociedad. Esto ayuda a clarificar motivaciones y a desafiar el status quo.
  • How (Cómo):
    Finalmente, esta parte explora los métodos, impactos y posibilidades de cambio. Preguntas como “¿Conocemos la verdad?” o “¿Podemos cambiar esto para nuestro beneficio?” incitan a reflexionar sobre la implementación práctica y las consecuencias de las acciones.

Esta imagen es una herramienta excelente para fomentar el pensamiento crítico de forma estructurada, ya sea en la educación, en el trabajo o en la vida cotidiana. Al usar estas preguntas, podemos evitar conclusiones apresuradas o sesgadas y promover un análisis más profundo y equilibrado.

Su formato visual con colores ayuda a organizar ideas y facilita recordar qué aspectos considerar para evaluar problemas complejos. También subraya que el pensamiento crítico no es solo cuestionar, sino hacerlo de manera amplia, rigurosa y desde múltiples perspectivas.

El autor defiende que la combinación de curiosidad consciente, cuestionamiento riguroso y razonamiento fundamentado sigue siendo indispensable en la era de la inteligencia artificial, especialmente para tomar decisiones robustas y evitar soluciones incompletas o erróneas.

¿Podría la inteligencia artificial salvar archivos en peligro?

Crawford, Kendall.Could artificial intelligence save endangered archives? A Kenyon College cohort aims to find out.” The Ohio Newsroom, publicado el 9 de febrero de 2026. https://www.statenews.org/section/the-ohio-newsroom/2026-02-09/could-artificial-intelligence-save-endangered-archives-a-kenyon-college-cohort-aims-to-find-out

El deterioro de los archivos está poniendo en peligro documentos históricos en todo el país. Un grupo de estudiantes y profesorado de Kenyon College, en la zona rural del centro-norte de Ohio, cree que la inteligencia artificial podría ser la clave para rescatarlos.

Kenyon es uno de los 23 equipos de investigación financiados por el Humanities and AI Virtual Institute (HAVI) de Schmidt Sciences para impulsar la investigación en humanidades. Su objetivo es construir un sistema de IA abierto que pueda salvar archivos en peligro pertenecientes a comunidades pequeñas e infrarrepresentadas, como la colección del Museo del Jazz de Nueva Orleans.

Un equipo de estudiantes y profesores de Kenyon College, en Ohio, está explorando cómo la inteligencia artificial (IA) podría ayudar a preservar archivos históricos que se están deteriorando, como los del New Orleans Jazz Museum, que contienen documentos, partituras y grabaciones valiosas de la historia del jazz. Muchos de estos archivos están dañados por el paso del tiempo —papeles arrugados, tinta corrida o discos deformados— y las comunidades pequeñas a menudo carecen de los recursos necesarios para conservarlos con equipos profesionales tradicionales.

En la visión de Elkins, lo que antes llevaba a los investigadores años de revisión minuciosa ahora podría resolverse en minutos. Con solo un par de pulsaciones de teclado, podrían rastrear cómo una melodía pasó de una partitura manuscrita a una grabación años después.

El proyecto busca desarrollar un sistema de IA de acceso abierto capaz de digitalizar y restaurar materiales frágiles utilizando solo fotografías tomadas con un teléfono móvil. El objetivo es que esta herramienta sea asequible y fácil de usar, especialmente para archivos de comunidades pequeñas o subrepresentadas que no pueden costar soluciones de preservación convencionales.

Más allá de la simple digitalización, la IA también permitiría analizar y conectar datos dispersos en diferentes tipos de archivos —texto, audio y vídeo— facilitando descubrimientos que antes requerían años de trabajo manual. Esta tecnología podría, por ejemplo, seguir la evolución de una melodía desde su partición manuscrita hasta una grabación posterior con solo unas pulsaciones.

Aunque la IA acelera tareas complicadas, el equipo enfatiza un enfoque “centrado en las personas”, donde expertos humanos supervisan y validan las interpretaciones de las máquinas para evitar errores comunes en sistemas automatizados. Esto asegura que tanto la restauración como el análisis de los archivos mantengan rigor académico y sensibilidad cultural.