La Biblioteca Pública de Toronto amplía sus servicios de apoyo social y en situaciones de crisis a más sucursales

Tiberio, Vanessa. “Toronto Public Library Expanding Social, Crisis Support Services to More Branches.” The Canadian Press, 16 de septiembre de 2025. Publicado en CBC News. https://www.cbc.ca/news/canada/toronto/toronto-library-crisis-services-1.7634871

Las bibliotecas públicas de Toronto se han convertido en un espacio clave en la respuesta a la crisis de salud mental y de personas sin hogar que atraviesa la ciudad. Desde 2023, se ofrece un programa piloto de apoyo social y de crisis en colaboración con el Gerstein Crisis Centre, que ha crecido rápidamente debido a la fuerte demanda. En 2025, ya son doce las sucursales que ofrecen estos servicios gratuitos en un entorno accesible y comunitario.

El origen del programa se encuentra en la inquietud del personal bibliotecario, que se sentía limitado a la hora de atender a personas vulnerables que acudían a las bibliotecas. La asociación con Gerstein permitió que trabajadores especializados en crisis estuvieran presentes para orientar y acompañar a quienes enfrentan problemas de salud mental, adicciones o situaciones de emergencia. Para el centro, la colaboración también ha supuesto una manera de llegar a personas que difícilmente accederían a sus instalaciones.

Los resultados han sido significativos: en un año y medio, más de 8.000 personas participaron en servicios de crisis y más de 1.000 actividades de bienestar, generando cerca de 12.900 interacciones entre usuarios y trabajadores de crisis. La oferta incluye desde asesoría breve y talleres de prevención del suicidio hasta actividades de grupo como música y ejercicio, que fomentan la conexión comunitaria y ayudan a reducir la soledad, un problema creciente en Toronto donde más de un tercio de los residentes dice sentirse solo de forma frecuente.

El impacto social es evidente. Los programas han reforzado la idea de la biblioteca como uno de los últimos espacios públicos gratuitos donde cualquiera puede encontrar apoyo y pertenencia. En 2025, solo en los primeros meses del año, más de 4.000 personas participaron en estas iniciativas y se registraron más de 8.300 interacciones con trabajadores de crisis. Los responsables prevén ampliar el programa a más sucursales, guiándose por los datos de participación y las necesidades específicas de cada comunidad.

En suma, la Biblioteca Pública de Toronto ha asumido un papel innovador como centro de apoyo social, convirtiéndose no solo en un lugar de acceso a la cultura, sino también en un punto de encuentro y cuidado para quienes más lo necesitan.

Cómo ven los estadounidenses el impacto de la inteligencia artificial en la sociedad

Kennedy, Brian; Eileen Yam; Emma Kikuchi; Isabelle Pula; Javier Fuentes. How Americans View AI and Its Impact on People and Society. Pew Research Center, 17 septiembre 2025. https://www.pewresearch.org/science/2025/09/17/how-americans-view-ai-and-its-impact-on-people-and-society/

El informe del Pew Research Center, basado en una encuesta nacional realizada a más de cinco mil adultos en junio de 2025, ofrece una radiografía de cómo los estadounidenses perciben el impacto de la inteligencia artificial en la sociedad. Casi la totalidad de los encuestados afirma haber oído hablar de la IA, lo que revela el nivel de penetración del concepto en la cultura general. Sin embargo, ese conocimiento no se traduce necesariamente en entusiasmo: predominan las reservas, las dudas y una sensación de inquietud ante la velocidad de los cambios tecnológicos.

La mayoría de los participantes señalan que se siente más preocupados que esperanzados respecto a la expansión de la IA en la vida cotidiana. Concretamente, la mitad de los encuestados declara experimentar más ansiedad que ilusión frente a estos avances, mientras que solo una pequeña minoría expresa una actitud mayoritariamente optimista. Esta percepción se refleja en el balance entre riesgos y beneficios: más del 50 % cree que los riesgos sociales asociados al desarrollo de la IA son elevados, frente a apenas una cuarta parte que considera igual de significativos los beneficios.

En el ámbito de las capacidades humanas, los encuestados tienden a pensar que la IA puede deteriorar más que potenciar habilidades esenciales. Muchos temen que la creatividad individual, la capacidad de pensamiento crítico y las relaciones interpersonales puedan verse mermadas en un contexto donde las máquinas asumen un papel cada vez más protagónico. Aunque existe un sector que reconoce que la IA puede aportar ventajas en la resolución de problemas complejos, el pesimismo sigue siendo mayoritario.

Donde sí se observa una mayor aceptación es en los usos más técnicos y analíticos de la IA. La ciudadanía se muestra más abierta a su incorporación en campos como la predicción meteorológica, la detección de fraudes financieros o la investigación médica. Sin embargo, rechaza con contundencia la idea de que la inteligencia artificial sustituya a las personas en esferas íntimas y de carácter moral o emocional, como el acompañamiento religioso, la terapia psicológica o la búsqueda de pareja. La distinción entre lo “técnico” y lo “humano” resulta clave: los estadounidenses parecen dispuestos a confiar en los algoritmos cuando se trata de cálculos y datos, pero no cuando se trata de valores, creencias o vínculos afectivos.

Otro hallazgo relevante del estudio es la preocupación por la transparencia en la producción de contenidos. Una gran mayoría considera imprescindible que exista un mecanismo claro para diferenciar el material generado por humanos del producido por sistemas de IA. No obstante, al mismo tiempo, muchos reconocen sentirse incapaces de identificar esa diferencia por sí mismos, lo que genera un clima de desconfianza e incertidumbre. La demanda de regulación y control externo aparece aquí con fuerza, como una forma de proteger tanto la integridad de la información como la autonomía de los individuos frente a una tecnología que, en gran medida, aún se percibe como opaca.

En conjunto, los resultados muestran una ciudadanía dividida entre la aceptación pragmática de la IA en campos de utilidad pública y la resistencia a su penetración en aspectos más personales y sociales. Estados Unidos se encuentra, por tanto, en una fase de negociación cultural: la inteligencia artificial ya forma parte del día a día, pero todavía despierta más temores que entusiasmos. Entre el escepticismo, la cautela y la esperanza, los estadounidenses reclaman garantías de seguridad, transparencia y regulación antes de conceder a la IA un papel más central en la vida social.

Datos clave:

  • Conocimiento generalizado: 95 % de los adultos en EE. UU. ha oído hablar de la inteligencia artificial.
  • Preocupación vs entusiasmo: 50 % se siente más preocupado que ilusionado por la IA; solo 10 % está más entusiasmado; 38 % tiene sentimientos mixtos.
  • Riesgos vs beneficios sociales: 57 % percibe altos riesgos sociales; apenas 25 % percibe altos beneficios.
  • Deseo de control: ~60 % quiere más control sobre cómo la IA afecta sus vidas; solo 17 % está conforme con el control actual.
  • Creatividad: 53 % cree que la IA empeorará la capacidad de pensar creativamente; 16 % piensa que la mejorará.
  • Relaciones humanas: 50 % cree que la IA empeorará la capacidad de formar relaciones significativas; solo 5 % dice que la mejorará.
  • Resolución de problemas: 38 % cree que la IA lo empeorará; 29 % que lo mejorará.
  • Toma de decisiones difíciles: 40 % opina que la IA empeorará esta capacidad; 19 % que la mejorará.Transparencia en contenidos: 76 % cree que es muy importante distinguir entre contenido humano y generado por IA; 53 % no confía en poder hacerlo.
  • Aceptación de roles técnicos: mayoría apoya IA en pronósticos meteorológicos (74 %), detección de fraudes financieros (70 %), control de ayudas gubernamentales (70 %) y desarrollo de medicamentos (66 %).
  • Rechazo en roles íntimos/morales: 73 % rechaza que la IA aconseje sobre fe; 66 % rechaza que evalúe compatibilidad romántica.
  • Edad: jóvenes menores de 30 años son más propensos a pensar que la IA empeorará la creatividad (61 %) y las relaciones (58 %), más que los mayores.
  • Educación: 73 % considera importante que la población entienda qué es la IA; la cifra sube entre personas con estudios universitarios.

Encuesta salarial anual 2024 en bibliotecas universitarias estadounidenses y canadienses (2025)

Association of Research Libraries. 2025. ARL Annual Salary Survey 2024: Reports Data on Professional Positions in Member Libraries. Washington, D.C.: ARL. https://publications.arl.org/ARL-Annual-Salary-Survey-2024/

Association of Research Libraries (ARL) publicó en 2025 los resultados de la Annual Salary Survey 2024, un informe que analiza los salarios y condiciones profesionales del personal en las bibliotecas miembro. El estudio incluye datos de 123 de las 125 bibliotecas de la ARL, lo que abarca 118 bibliotecas universitarias de Canadá y Estados Unidos, así como cinco bibliotecas de investigación no universitarias en EE. UU. (federales, públicas y sin fines de lucro). En total, se recopilaron cifras de 11.256 profesionales en bibliotecas universitarias y 2.040 en bibliotecas no universitarias. El informe organiza la información en tres grandes grupos de bibliotecas universitarias: sistemas generales, bibliotecas de ciencias de la salud y bibliotecas jurídicas.

El estudio también aborda las condiciones de contratación y sindicalización del personal. En las universidades públicas de Estados Unidos, un 76 % de las instituciones ofrecen nombramientos de tipo docente «faculty» (tienen el mismo estatus académico que a los profesores) y un 41 % permite la sindicalización. En las privadas, las cifras son sensiblemente menores: 29 % ofrecen nombramientos como faculty y solo 16 % posibilitan la pertenencia a sindicatos. En Canadá, donde todas las universidades son públicas, los porcentajes muestran otra realidad: 69 % con nombramientos como faculty y un 81 % con acceso a negociación colectiva. Estos datos reflejan las diferencias notables entre países y entre instituciones públicas y privadas en cuanto a reconocimiento académico y derechos laborales de los bibliotecarios.

En relación con la experiencia y las remuneraciones, el informe analiza un total de 9.567 profesionales de bibliotecas universitarias de la ARL, agrupados en diferentes niveles de responsabilidad. En los puestos de dirección ejecutiva se observa un promedio de 22 años de experiencia, con salarios que alcanzan los 177.800 dólares. Los altos directivos o senior managers cuentan con 18 años de experiencia en promedio y reciben 112.600 dólares. Los gestores intermedios presentan una media de 15 años y un salario de 91.400 dólares. Finalmente, el grupo de otros profesionales registra una experiencia de 13 años y salarios medios de 82.300 dólares. Esta clasificación permite a las instituciones comparar y establecer referencias entre experiencia, jerarquía y compensación.

El informe también incorpora información sobre bibliotecas de investigación no universitarias, ampliando el análisis más allá del ámbito académico. Estas instituciones muestran diferencias salariales y organizativas respecto de las bibliotecas universitarias, y dichas variaciones se detallan tanto en la introducción como en las tablas del estudio. En conjunto, el ARL Annual Salary Survey 2024 constituye una herramienta clave para evaluar la estructura salarial, el reconocimiento profesional y las condiciones de trabajo en las bibliotecas de investigación de Estados Unidos y Canadá.

DATOS CLAVE

Experiencia y niveles salariales en bibliotecas universitarias

El análisis incluyó a 9.567 profesionales en bibliotecas universitarias ARL, agrupados por niveles jerárquicos:

  • Dirección ejecutiva
    • Experiencia promedio: 22 años
    • Salario promedio: 177.800 USD
  • Alta dirección (senior managers)
    • Experiencia promedio: 18 años
    • Salario promedio: 112.600 USD
  • Gestores intermedios (managers)
    • Experiencia promedio: 15 años
    • Salario promedio: 91.400 USD
  • Otros profesionales
    • Experiencia promedio: 13 años
    • Salario promedio: 82.300 USD

Inteligencia artificial y enseñanza universitaria: desafíos, riesgos y oportunidades según la AAUP

AAUP. Artificial Intelligence and Academic Professions. American Association of University Professors, 2025

Texto completo

El informe Artificial Intelligence and Academic Professions de la American Association of University Professors (AAUP) analiza de manera exhaustiva el impacto potencial de la inteligencia artificial (IA) en la educación superior y en las profesiones académicas.

El documento subraya que la adopción de la IA en entornos universitarios no debe ser meramente instrumental o tecnológica, sino que requiere un enfoque crítico, ético y participativo. Los autores advierten que el uso indiscriminado de la IA podría alterar la naturaleza misma del trabajo académico, afectando tanto la autonomía profesional como la libertad académica.

Uno de los puntos centrales del informe es que la IA puede automatizar numerosas tareas docentes y administrativas, desde la corrección de exámenes hasta la generación de materiales educativos o la asistencia en la investigación. Si bien esto puede aumentar la eficiencia, también existe un riesgo significativo de deshumanización de la educación, pérdida de empleos y precarización laboral. La AAUP enfatiza que las herramientas de IA no deben reemplazar la labor humana, sino complementarla, asegurando que el juicio, la experiencia y la creatividad de los académicos sigan siendo insustituibles en la enseñanza y la investigación.

El informe también aborda la participación activa del profesorado en la implementación de estas tecnologías. La AAUP recomienda que las universidades involucren a docentes y personal académico en la selección, supervisión y evaluación de herramientas de IA, evitando decisiones unilaterales por parte de la administración. Esto se considera clave para proteger la integridad académica, garantizar la transparencia en los procesos y fomentar un uso responsable de los datos estudiantiles y de investigación.

Otro tema destacado es el impacto ético y social de la IA en la educación superior. Los académicos deben cuestionar cómo estas tecnologías pueden reproducir sesgos, afectar la equidad educativa y cambiar la naturaleza de la interacción docente-estudiante. El informe enfatiza la necesidad de políticas institucionales claras que promuevan un enfoque ético, incluyendo la protección de la privacidad, la equidad en el acceso y la transparencia en la toma de decisiones algorítmicas.

Por último, el informe de la AAUP subraya que la IA representa tanto oportunidades como desafíos. Por un lado, puede facilitar la enseñanza personalizada, optimizar procesos administrativos y apoyar la investigación. Por otro, plantea riesgos significativos si se implementa sin supervisión ni participación académica. La recomendación final es que las universidades adopten un enfoque equilibrado, reflexivo y regulado, donde la innovación tecnológica se integre respetando los valores fundamentales de la educación superior y la profesionalidad de los docentes.

¿Logrará la IA superar el umbral del pensamiento humano?

Nosta, John. “AI’s Cognitive March Toward Thought.Psychology Today, June 21, 2025. https://www.psychologytoday.com/us/blog/the-digital-self/202506/ais-cognitive-march-toward-thought

La inteligencia artificial (IA) se aproxima a lo que entendemos como pensamiento humano, aunque sin alcanzarlo completamente. Utilizando la analogía matemática de una serie que se acerca infinitamente a un valor sin llegar a él.

Los modelos de lenguaje a gran escala (LLMs) simulan el razonamiento paso a paso, pero su lógica es predictiva, no secuencial como la humana. Modelos recientes emplean el concepto de “pensamiento continuo”, que permite considerar múltiples caminos de razonamiento simultáneamente antes de colapsar en una sola respuesta, lo que mejora la eficiencia en la resolución de problemas complejos.

Aunque la IA se aproxima cada vez más a lo que podríamos llamar pensamiento humano en apariencia, la brecha entre simulación y cognición real persiste. La analogía matemática de la asintota ilustra cómo la IA se acerca infinitamente a la cognición humana, pero nunca la alcanza: sus capacidades se parecen cada vez más al razonamiento, pero no implican conciencia, intención ni experiencia subjetiva.

El autor advierte sobre el riesgo de atribuir cualidades humanas a sistemas que, aunque sofisticados, siguen siendo herramientas de manipulación semántica a gran escala. La tentación de considerar estos sistemas como inteligentes o incluso conscientes puede llevar a malentendidos y expectativas erróneas sobre sus capacidades.

Este comportamiento plantea un desafío filosófico y social: aunque los sistemas puedan parecer pensantes y generar respuestas confiables o incluso convincentes, siguen siendo herramientas de manipulación semántica a gran escala. La ilusión de cognición puede llevar a interpretaciones erróneas sobre su inteligencia o supuesta conciencia, pero la distinción entre apariencia de razonamiento y pensamiento real es crucial.

Se invita a reflexionar sobre la naturaleza de la cognición y la inteligencia, reconociendo los avances de la IA sin caer en la ilusión de que ha alcanzado el pensamiento humano genuino. La diferencia fundamental radica en que, mientras la IA puede simular el razonamiento, solo los seres humanos lo viven y lo experimentan.

Teoría de la muerte de Internet: gran parte de la web está dominada por bots y contenido generado automáticamente

Hindy, Joe. “What Is the Dead Internet Theory? Zombie Internet Might Be a More Accurate Term.” Mashable, September 6, 2025. https://mashable.com/article/what-is-dead-internet-theory

La Dead Internet Theory sostiene que desde 2016 gran parte de la web está dominada por bots y contenido generado automáticamente, manipulado por algoritmos. Sus defensores creen que se usan para influir en el consumo y en la opinión pública, incluso por parte de gobiernos.

Dead Internet Theory (Teoría del Internet Muerto) postula que gran parte del contenido y la actividad en la web ya no proviene de seres humanos auténticos, sino de bots, cuentas automatizadas, contenido generado por IA y mecanismos algorítmicos diseñados para maximizar la participación (likes, clics, compartidos), muchas veces sin intervención humana real.

Según esta perspectiva, no solo se crean publicaciones automatizadas, sino que también las cuentas que interactúan con ellas (comentando, reaccionando, compartiendo) pueden estar controladas por IA, lo que produce una retroalimentación artificial de contenido. Esto habría generado un ciclo donde los algoritmos, motores de búsqueda y plataformas sociales priorizan lo que atrae métricas, no lo que es auténtico o humano.

Un ejemplo citado en fuentes relacionadas es el fenómeno de «Shrimp Jesus» — imágenes generadas por IA que combinan iconografía religiosa con absurdos visuales, que terminan haciéndose virales en redes sociales. Estas tendencias ilustran cómo contenido sin una lógica humana clara puede ganar tracción por su capacidad de generar reacción, no necesariamente por su valor informativo o cultural.

También se discute la implicación política y social de esta teoría: no se trata solo de curiosidad o fenómenos virales, sino de una posible manipulación de la opinión pública, desinformación, propaganda, o de estructuras de monetización que se benefician más de la atención que de la verdad. En algunos estudios se estima que casi la mitad del tráfico de internet podría estar generado por bots u operaciones automatizadas, lo que refuerza los temores de que lo que percibimos como conversación humana puede estar mediado o construido por sistemas no humanos.

Al mismo tiempo, los expertos señalan que muchos elementos de la teoría son especulativos o conjeturales. Si bien hay evidencias de aumento en contenido generado por IA, mayor uso de bots, y prácticas de engagement fraudulento o artificial, no hay consenso de que la “internet esté muerta” en el sentido literal que algunos proponentes afirman. La teoría sirve más como un lente crítico: nos permite pensar en hasta qué punto la autenticidad humana todavía está presente en nuestras interacciones en línea, y cómo se están transformando las dinámicas de visibilidad, verdad y confianza en la red.

El 38 % de los sitios web que estaban activos en 2013 ya no existen en 2025

Boing Boing. 2025. “Link Rot Study Finds More Than 1/3 Websites from 2013 Are Gone.” Boing Boing, September 16, 2025. https://boingboing.net/2025/09/16/link-rot-study-finds-more-than-1-3-websites-from-2013-are-gone.html

Un estudio sobre la llamada “decadencia digital”, es decir, la desaparición progresiva de sitios web, reveló que el 38 % de las páginas que estaban en línea en 2013 ya no existen. Otro análisis, titulado When Online Content Disappears, mostró además que el 8 % de los sitios creados apenas dos años atrás ya no son accesibles. Esta pérdida de información se detecta principalmente a través del fenómeno conocido como link rot, visible en páginas de noticias y en Wikipedia.

En las webs de noticias, el 23 % contiene al menos un enlace roto, una proporción similar a la de los portales gubernamentales (21 %). El tráfico del sitio no parece influir: tanto los más visitados como los menos concurridos muestran problemas. En el caso de las páginas gubernamentales locales —como las de ayuntamientos— la situación es todavía más grave. En Wikipedia, más de la mitad de las entradas (54 %) incluyen en la sección de “Referencias” al menos un enlace que ya no conduce a ninguna parte.

Buena parte de estos enlaces perdidos corresponde a tuits, que durante la última década llegaron a considerarse “fuentes suficientes” en noticias. Sin embargo, también desaparecen recursos oficiales en portales gubernamentales. El muestreo de unas 500.000 páginas de organismos públicos realizado a partir del rastreo de Common Crawl de marzo/abril de 2023 reveló que el 6 % de los enlaces ya no funciona, tanto internos como externos. En conjunto, un 21 % de los sitios gubernamentales analizados presentaba al menos un enlace roto, con un mínimo del 14 % en cada nivel administrativo, y con los ayuntamientos mostrando la peor tasa.

El estudio invita a una reflexión: cuanto más antiguo es un sitio web, más “humana” suele ser la huella que deja. A mediados de la década de 2010, muchas páginas comenzaron a inflarse con contenido automatizado para mejorar su posicionamiento en buscadores. Hoy, en cambio, proliferan textos generados a escala masiva por modelos de lenguaje, lo que los autores llaman la “era del slop”. En este contexto, la desaparición del 38 % de los sitios de 2013 resulta llamativa, pero buena parte de lo que se pierde en la actualidad son contenidos efímeros y artificiales, creados con fines automatizados y rara vez consultados por personas reales.

Las bibliotecas como guías en el uso ético y comunitario de la inteligencia artificial

Enis, Matt “AI Influencers: Libraries Guiding AI Use.Library Journal, March 20, 2024. https://www.libraryjournal.com/story/news/ai-influencers-libraries-guiding-ai-use

El artículo aborda el creciente impacto de la inteligencia artificial generativa y el papel que pueden tener las bibliotecas para moldear su uso ético y efectivo. Se cita el libro Generative AI and Libraries: Claiming Our Place in the Center of a Shared Future de Chris Rosser y Michael Hanegan, que compara la velocidad de adopción de tecnologías como ChatGPT con la del teléfono o internet, subrayando que la IA “llega para quedarse” y transformará profundamente la sociedad.

Los autores sostienen que las bibliotecas están en una posición privilegiada para intervenir: enseñar sobre la IA, desarrollar competencias necesarias en las comunidades, colaborar con organizaciones locales de ámbito laboral, compartir recursos entre distintas bibliotecas y establecer políticas comunes. Por ejemplo, mencionan que las bibliotecas públicas se verán involucradas en una de las mayores reconversiones laborales de la historia.

Otro tema destacado es la desigualdad de acceso y conocimiento. Dr. Michael Hughes advierte que quienes entienden y tienen acceso a versiones más potentes de las herramientas de IA obtendrán ventajas, agudizando las brechas existentes. Las bibliotecas tienen ya experiencia crítica con IA y la capacidad para guiar a estudiantes y usuarios en un uso responsable.

El artículo también describe ejemplos prácticos de acciones ya en marcha. En Austin (EE.UU.), por ejemplo, la biblioteca pública y las oficinas municipales han promovido políticas de IA y formación profesional para el personal con el fin de asesorar sobre uso ético. Asimismo, la Universidad de Carolina del Norte ha creado un AI Studio en su sistema de bibliotecas, espacio destinado a talleres, diálogo comunitario, cooperación entre facultades y democratización del acceso a herramientas.

Finalmente, se destaca el reto del ritmo acelerado de cambio tecnológico. Las bibliotecas deben mantenerse al día, no solo en cuanto a las herramientas, sino también en los debates sobre implicaciones éticas, equidad, riesgos y desinformación. Se sugiere que el aprendizaje continuo, la colaboración entre bibliotecas, y la creación de políticas institucionales y locales son vías esenciales para que las bibliotecas realmente influyan.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

La dependencia excesiva de la inteligencia artificial (IA) que podría estar erosionando habilidades humanas esenciales

Daws, Ryan. «AI Obsession Is Costing Us Our Human SkillsArtificial Intelligence News, 6 de agosto de 2025. https://www.artificialintelligence-news.com/news/ai-obsession-costing-us-our-human-skills/

Un número creciente de evidencias sugiere que la dependencia excesiva de la inteligencia artificial (IA) podría estar erosionando las habilidades humanas necesarias para usarla de manera efectiva.

Aunque la inversión en IA promete transformar sectores económicos, Daws destaca que sin una inversión paralela en el desarrollo de capacidades humanas como el razonamiento analítico y la creatividad, el potencial de la IA podría no materializarse plenamente. Investigaciones de Multiverse identifican trece habilidades clave que distinguen a los usuarios avanzados de IA, enfocadas en el pensamiento crítico y la reflexión, más allá de la simple interacción técnica con las herramientas.

La advertencia es que, sin cultivar activamente nuestras propias habilidades humanas, esta inversión multimillonaria en IA no solo rendirá por debajo de lo esperado, sino que podría fracasar por completo. Corremos el riesgo de crear un déficit de habilidades humanas que podría lastrar la productividad durante años.

No se trata solo de lo que le pides a la IA, sino de cómo analizas, cuestionas y refinás lo que te devuelve. Tomemos el razonamiento analítico. Es la habilidad humana de examinar un problema complejo y descomponerlo en partes que la IA pueda manejar, pero también la sabiduría para reconocer cuándo una tarea simplemente no es adecuada para una máquina. Se trata de ser el piloto, no solo el pasajero.

De manera similar, la creatividad nos impulsa a experimentar y encontrar formas genuinamente nuevas de usar estas herramientas, en lugar de pedir solo una versión ligeramente mejor de algo que ya existe.

También entran en juego rasgos personales. Habilidades como la determinación (la paciencia de seguir intentando cuando la IA produce resultados deficientes) y la adaptabilidad son necesarias. Cualquiera que haya usado estas herramientas sabe que el éxito a la primera es raro. Se requiere cierta resiliencia y curiosidad profunda para mirar más allá de la respuesta de la IA y verificarla con tu propio conocimiento.

Gary Eimerman, director de aprendizaje en Multiverse, enfatiza que los líderes empresariales deben reconocer que los desafíos actuales no son únicamente tecnológicos, sino también humanos. La falta de atención al desarrollo de habilidades cognitivas y culturales podría generar un déficit de competencias humanas que obstaculizaría la adopción efectiva de la IA y limitaría su impacto positivo en la productividad.

El artículo subraya la necesidad de equilibrar la inversión en IA con el fortalecimiento de las habilidades humanas fundamentales para garantizar una integración exitosa y sostenible de la inteligencia artificial en la sociedad y la economía.