Archivo de la categoría: Tecnologías de la información

¿Sobrevivirán las humanidades a la inteligencia artificial?

Burnett, D. Graham. “Will the Humanities Survive Artificial Intelligence?The New Yorker, April 26, 2025. https://www.newyorker.com/culture/the-weekend-essay/will-the-humanities-survive-artificial-intelligence

El historiador de ciencia y tecnología D. Graham Burnett analiza cómo los avances de la inteligencia artificial están transformando de manera profunda —y a veces silenciosa— la vida intelectual y educativa, con especial enfoque en las disciplinas humanísticas.

Burnett parte de su experiencia como profesor universitario. Describe el desconcierto que ha generado la aparición de modelos de lenguaje capaces de redactar ensayos coherentes, interpretar textos complejos y producir análisis que antes exigían años de formación académica. Lo que inicialmente fue recibido con prohibiciones o sospechas —plagio, trampa, atajo intelectual— pronto se reveló como un fenómeno mucho más profundo: no se trata solo de estudiantes usando herramientas nuevas, sino de una transformación estructural en la manera en que se produce y se procesa el conocimiento textual.

El autor subraya que las humanidades modernas se han organizado históricamente en torno a prácticas como la lectura atenta, la escritura argumentativa y la interpretación crítica. Estas actividades constituían no solo métodos pedagógicos, sino también rituales de formación intelectual. La IA, al automatizar gran parte de esas tareas, parece desestabilizar el corazón mismo del currículo. Si una máquina puede analizar a Shakespeare, resumir a Kant o imitar la prosa académica con notable solvencia, ¿qué queda para el estudiante? ¿Qué queda para el profesor?

Pero el ensayo no reduce la cuestión a la eficiencia técnica. Burnett propone que la verdadera crisis es ontológica y cultural. Las humanidades no solo enseñan a producir textos, sino a habitar preguntas: ¿qué es una persona?, ¿qué significa comprender?, ¿qué valor tiene la experiencia subjetiva? La aparición de sistemas capaces de simular comprensión obliga a revisar nuestras nociones de conciencia, intención y creatividad. La IA no solo compite con las humanidades en el plano operativo; las interpela en el plano filosófico.

Burnett observa también que la universidad contemporánea ya estaba en crisis antes de la llegada de la IA: precarización laboral, reducción de matrícula en carreras humanísticas, presión utilitarista hacia disciplinas STEM. La inteligencia artificial actúa como acelerador de esas tensiones. Sin embargo, su impacto también puede ser catalizador de renovación. En lugar de aferrarse a un modelo basado exclusivamente en la producción de ensayos evaluables, el autor imagina un giro hacia formas más dialógicas, performativas y experienciales de aprendizaje: seminarios donde la IA se use críticamente, prácticas que enfaticen la presencia corporal, la discusión en vivo y la reflexión ética.

Uno de los argumentos centrales del ensayo es que la esencia de las humanidades no radica en la mera generación de contenido, sino en la formación del juicio. El juicio —esa capacidad de discernir, valorar, contextualizar y asumir responsabilidad interpretativa— no se reduce a la producción textual. En este sentido, la IA podría incluso reforzar el papel de las humanidades si obliga a desplazarlas desde la repetición de conocimientos hacia la reflexión sobre qué significa pensar con y contra las máquinas.

El texto sugiere que estamos asistiendo al colapso de un modelo curricular basado en la escasez de información y en la dificultad técnica de escribir bien. En un mundo donde la producción textual es abundante y casi instantánea, el valor ya no estará en “hacer un ensayo correcto”, sino en formular preguntas significativas, en sostener conversaciones complejas y en desarrollar una conciencia crítica sobre las herramientas que utilizamos.

En última instancia, Burnett no defiende la preservación nostálgica del pasado académico. Más bien invita a aceptar que el viejo edificio puede estar en ruinas, pero que en esos escombros se percibe movimiento. Algo vital —una nueva forma de humanismo, quizá más consciente de la tecnología y de sus límites— comienza a gestarse. La supervivencia de las humanidades dependerá de su capacidad para redefinirse no como guardianas de un canon textual, sino como espacios de interrogación radical sobre lo humano en una era de inteligencia no humana.

El problema de la “caja vacía”: Por qué es más difícil que nunca saber qué escribir en la barra de búsqueda de IA

Tay, Aaron. The Blank Box Problem: Why It’s Harder Than Ever to Know What to Type Into an AI Search Bar. Publicado el 10 de enero de 2026 en Aaron Tay’s Musings about Librarianship (Substack). https://aarontay.substack.com/p/the-blank-box-problem-why-its-harder

Se aborda un fenómeno importante y creciente en la forma en que interactuamos con las tecnologías de búsqueda potenciada por inteligencia artificial. Aaron Tay describe el llamado “problema de la caja vacía”, que se refiere a la interfaz minimalista y aparentemente sencilla que caracteriza a las nuevas herramientas de búsqueda con IA: una simple barra de texto en blanco donde el usuario debe escribir su consulta sin ninguna guía explícita. Aunque esta simplicidad visual puede parecer atractiva, Tay argumenta que en realidad introduce una complejidad mucho mayor para el usuario, quien ahora enfrenta un desafío mucho más grande para formular preguntas efectivas. La ausencia de señales visuales, filtros o estructuras de consulta claras que existían en los motores de búsqueda tradicionales provoca que el usuario quede desorientado y no sepa qué tipo de entrada es la más adecuada para obtener resultados precisos o útiles.

En la era previa a la inteligencia artificial, muchas plataformas de búsqueda ofrecían herramientas como operadores booleanos, menús desplegables y categorías que ayudaban a los usuarios a acotar y precisar sus consultas. Estas herramientas, aunque a veces complejas, proporcionaban un marco de referencia sobre cómo interactuar con la base de datos o motor de búsqueda. Sin embargo, las interfaces modernas con IA, como los chatbots y asistentes inteligentes, presentan una única caja de texto sin indicaciones claras sobre qué esperar. Esto crea dos niveles de ambigüedad para el usuario: por un lado, no está seguro de cómo debe redactar su consulta —si debe usar términos técnicos, lenguaje natural, frases completas, comandos específicos o prompts diseñados para la IA—, y por otro lado, desconoce qué tipo de capacidades tiene el sistema, qué preguntas puede responder con precisión y cuáles no. Esta doble incertidumbre dificulta la confianza en el sistema y genera una sensación de trial and error constante, en la que los usuarios prueban diferentes formas de preguntar sin saber cuál será la mejor.

Además, Aaron Tay compara esta situación actual con la experiencia de años anteriores en entornos académicos y profesionales, donde las bases de datos especializadas exigían un aprendizaje de formatos y comandos específicos para ser usadas eficazmente. A pesar de ser más técnicas, esas plataformas ofrecían a los usuarios un marco claro y reglas definidas para construir consultas. En contraste, la actual “caja vacía” no ofrece ningún tipo de feedback inmediato ni estructura clara, por lo que los usuarios desarrollan sus propias “teorías populares” o intuiciones sobre cómo deben preguntar, a menudo basadas en ensayo y error o en compartir trucos entre comunidades en línea. Este fenómeno evidencia la falta de transparencia en cómo los modelos de IA interpretan el lenguaje y procesan las solicitudes, dejando a los usuarios sin un entendimiento real sobre la arquitectura interna que guía la generación de respuestas.

Finalmente, el artículo enfatiza que esta simplicidad superficial puede resultar contraproducente, ya que la interfaz minimalista esconde un funcionamiento interno complejo que no se comunica al usuario. Esto crea una brecha entre la experiencia del usuario y la tecnología, dificultando no solo la eficacia en la búsqueda, sino también la confianza y la adopción plena de estas nuevas herramientas. Aaron Tay sugiere que para superar este desafío, es necesario repensar el diseño de las interfaces de búsqueda con IA, de modo que se mantenga la accesibilidad y simplicidad, pero se agreguen señales claras y transparencia sobre las capacidades reales del sistema. Solo así se podrá equilibrar la promesa de la inteligencia artificial con la necesidad humana de entender y controlar las herramientas que utilizamos diariamente.

Pensamiento crítico en la era de la IA: quién, qué, dónde, cuándo, por qué, cómo

Addy Osmani. Critical Thinking during the age of AI. Publicado el 21 de noviembre de 2025 en Substack (Addyo).

Texto completo

El artículo destaca que, en una época en la que la inteligencia artificial puede generar código, ideas de diseño y respuestas plausibles de inmediato, el pensamiento crítico humano es más esencial que nunca.

Osmani señala que, aunque la IA puede acelerar muchas tareas, no puede sustituir la capacidad humana de cuestionar suposiciones, verificar resultados y pensar de forma independiente.

Utilizando un enfoque estructurado basado en las clásicas preguntas quién, qué, dónde, cuándo, por qué y cómo, el autor guía al lector sobre cómo aplicar el pensamiento crítico en equipos técnicos y de ingeniería que trabajan con herramientas potenciadas por IA. Por ejemplo, enfatiza que no se debe confiar en la IA como una autoridad incuestionable, sino tratar sus respuestas como sugerencias que deben ser verificadas y evaluadas por personas.

El artículo continúa explicando que el pensamiento crítico implica definir claramente el problema real antes de buscar soluciones, considerar el contexto completo (no solo un entorno aislado de prueba), y distinguir entre una solución rápida superficial y un análisis profundo de causa raíz. Además, subraya la importancia de involucrar a las personas adecuadas en el proceso de toma de decisiones para evitar el pensamiento de grupo y ampliar la diversidad de perspectivas.

También se hace hincapié en que el pensamiento crítico requiere basarse en evidencia y datos, no en opiniones o intuiciones. Esto significa recopilar hechos, validar hipótesis y comunicarse de forma clara y lógica. Según Osmani, estas prácticas ayudan a evitar errores comunes —como aceptar respuestas plausibles sin prueba— y permiten que los equipos mantengan un juicio sólido incluso cuando trabajan con tecnologías avanzadas.

La imagen es una guía visual que propone preguntas esenciales para aplicar el pensamiento crítico estructurado alrededor de las clásicas interrogantes en inglés: Who (Quién), What (Qué), Where (Dónde), When (Cuándo), Why (Por qué) y How (Cómo).

Cada sección de la imagen está codificada por colores y contiene un conjunto de preguntas orientadas a profundizar en el análisis de cualquier tema, problema o decisión, facilitando una exploración completa desde diferentes ángulos.


Comentario sobre cada sección:

  • Who (Quién):
    Aquí se busca identificar a los actores involucrados. Preguntas como “¿Quién se beneficia?” o “¿Quién está más afectado?” nos ayudan a entender los intereses, responsabilidades y las relaciones de poder que rodean el asunto. También destaca la importancia de reconocer a las personas clave y a quienes deben ser consultadas o reconocidas.
  • What (Qué):
    Esta sección invita a examinar las características del tema, sus fortalezas y debilidades, alternativas y posibles argumentos en contra. Preguntas como “¿Cuál es la mejor o peor opción?” y “¿Qué está bloqueando nuestra acción?” apuntan a evaluar las opciones y obstáculos para tomar decisiones informadas.
  • Where (Dónde):
    Se enfoca en el contexto y la relevancia geográfica o situacional. Por ejemplo, “¿Dónde sería un problema?” o “¿Podemos obtener más información?” son preguntas que resaltan la importancia de situar el análisis en el mundo real y buscar datos adicionales para un juicio más sólido.
  • When (Cuándo):
    Aquí el énfasis está en el tiempo: identificar momentos adecuados para actuar, entender la historia detrás del problema y anticipar cambios futuros. Preguntas como “¿Es este el mejor momento para actuar?” o “¿Sabremos cuándo hemos tenido éxito?” fomentan la planificación y evaluación temporal.
  • Why (Por qué):
    Busca entender las razones fundamentales del problema o situación, su relevancia y su duración. Cuestiona si el problema es realmente importante y si ha sido aceptado o permitido por la sociedad. Esto ayuda a clarificar motivaciones y a desafiar el status quo.
  • How (Cómo):
    Finalmente, esta parte explora los métodos, impactos y posibilidades de cambio. Preguntas como “¿Conocemos la verdad?” o “¿Podemos cambiar esto para nuestro beneficio?” incitan a reflexionar sobre la implementación práctica y las consecuencias de las acciones.

Esta imagen es una herramienta excelente para fomentar el pensamiento crítico de forma estructurada, ya sea en la educación, en el trabajo o en la vida cotidiana. Al usar estas preguntas, podemos evitar conclusiones apresuradas o sesgadas y promover un análisis más profundo y equilibrado.

Su formato visual con colores ayuda a organizar ideas y facilita recordar qué aspectos considerar para evaluar problemas complejos. También subraya que el pensamiento crítico no es solo cuestionar, sino hacerlo de manera amplia, rigurosa y desde múltiples perspectivas.

El autor defiende que la combinación de curiosidad consciente, cuestionamiento riguroso y razonamiento fundamentado sigue siendo indispensable en la era de la inteligencia artificial, especialmente para tomar decisiones robustas y evitar soluciones incompletas o erróneas.

¿Podría la inteligencia artificial salvar archivos en peligro?

Crawford, Kendall.Could artificial intelligence save endangered archives? A Kenyon College cohort aims to find out.” The Ohio Newsroom, publicado el 9 de febrero de 2026. https://www.statenews.org/section/the-ohio-newsroom/2026-02-09/could-artificial-intelligence-save-endangered-archives-a-kenyon-college-cohort-aims-to-find-out

El deterioro de los archivos está poniendo en peligro documentos históricos en todo el país. Un grupo de estudiantes y profesorado de Kenyon College, en la zona rural del centro-norte de Ohio, cree que la inteligencia artificial podría ser la clave para rescatarlos.

Kenyon es uno de los 23 equipos de investigación financiados por el Humanities and AI Virtual Institute (HAVI) de Schmidt Sciences para impulsar la investigación en humanidades. Su objetivo es construir un sistema de IA abierto que pueda salvar archivos en peligro pertenecientes a comunidades pequeñas e infrarrepresentadas, como la colección del Museo del Jazz de Nueva Orleans.

Un equipo de estudiantes y profesores de Kenyon College, en Ohio, está explorando cómo la inteligencia artificial (IA) podría ayudar a preservar archivos históricos que se están deteriorando, como los del New Orleans Jazz Museum, que contienen documentos, partituras y grabaciones valiosas de la historia del jazz. Muchos de estos archivos están dañados por el paso del tiempo —papeles arrugados, tinta corrida o discos deformados— y las comunidades pequeñas a menudo carecen de los recursos necesarios para conservarlos con equipos profesionales tradicionales.

En la visión de Elkins, lo que antes llevaba a los investigadores años de revisión minuciosa ahora podría resolverse en minutos. Con solo un par de pulsaciones de teclado, podrían rastrear cómo una melodía pasó de una partitura manuscrita a una grabación años después.

El proyecto busca desarrollar un sistema de IA de acceso abierto capaz de digitalizar y restaurar materiales frágiles utilizando solo fotografías tomadas con un teléfono móvil. El objetivo es que esta herramienta sea asequible y fácil de usar, especialmente para archivos de comunidades pequeñas o subrepresentadas que no pueden costar soluciones de preservación convencionales.

Más allá de la simple digitalización, la IA también permitiría analizar y conectar datos dispersos en diferentes tipos de archivos —texto, audio y vídeo— facilitando descubrimientos que antes requerían años de trabajo manual. Esta tecnología podría, por ejemplo, seguir la evolución de una melodía desde su partición manuscrita hasta una grabación posterior con solo unas pulsaciones.

Aunque la IA acelera tareas complicadas, el equipo enfatiza un enfoque “centrado en las personas”, donde expertos humanos supervisan y validan las interpretaciones de las máquinas para evitar errores comunes en sistemas automatizados. Esto asegura que tanto la restauración como el análisis de los archivos mantengan rigor académico y sensibilidad cultural.

Lo que el estudiantado universitario necesita saber —y lo que realmente sabe— sobre la inteligencia artificial generativa

Rismanchian, S., Razia Babar, E. T., & Doroudi, S. (2026). What undergraduate students need to know and actually know about generative AI. Computers and Education: Artificial Intelligence, artículo 100554. https://doi.org/10.1016/j.caeai.2026.100554

Este artículo analiza la alfabetización en inteligencia artificial generativa (GenAI) entre estudiantes de pregrado, un tema crítico dada la rápida adopción de herramientas como ChatGPT desde su lanzamiento en 2022.

Los autores proponen un marco teórico integral para evaluar la alfabetización en GenAI, que combina tres tipos de conocimiento conceptual: las bases de los modelos de lenguaje a gran escala (LLMs), sus capacidades y limitaciones, y su impacto social. Este marco se utiliza para desarrollar una encuesta validada que incluye ítems de conocimiento y percepciones, diseñada con revisión de expertos y modelado de teoría de respuesta al ítem (IRT) para asegurar su rigor metodológico.

Mediante dos estudios complementarios realizados en Estados Unidos —uno con estudiantes de cursos universitarios en una gran universidad pública de investigación (R1) y otro con una muestra nacional reclutada en línea— los autores investigan cuánto saben realmente los estudiantes sobre GenAI y cómo calibran sus percepciones sobre estas herramientas. Los resultados muestran que aproximadamente el 60% de los estudiantes usan chatbots de IA semanal o diariamente, pero muchos sobreestiman las capacidades de estos sistemas, especialmente en tareas que requieren razonamiento o cálculo, y tienden a antropomorfizarlos o tratarlos como simples motores de búsqueda.

Los hallazgos indican además que los estudiantes con formación en ciencias de la computación y aquellos que usan con mayor frecuencia estas herramientas obtienen puntajes de conocimiento más altos, aunque esto no garantiza una percepción exacta de sus capacidades. Un hallazgo clave es que un mayor conocimiento conceptual se asocia con una menor sobreestimación de las capacidades de los sistemas de IA generativa, lo que sugiere que las iniciativas educativas deben ir más allá del uso instrumental de las herramientas y abordar profundamente los conceptos fundamentales, las limitaciones técnicas y las implicaciones sociales de la IA.

La investigación identifica 5 dimensiones clave de alfabetización en GenAI necesarias para un estudiante actual:

  • Conocimiento Técnico: Cómo funcionan los modelos (tokens, predicción probabilística).
  • Uso Práctico: Ingeniería de prompts y aplicaciones académicas.
  • Evaluación Crítica: Identificar alucinaciones, sesgos y limitaciones.
  • Ética y Responsabilidad: Plagio, derechos de autor y privacidad.
  • Impacto Social: Cómo la IA afecta al mercado laboral y a la sociedad.

Decálogo de casos de usos de IA en la gestión bibliotecaria publicado por Iberbibliotecas

Decálogo de casos de usos de IA en la gestión bibliotecaria. Iberbibliotecas 2026 Recuperado de https://www.iberbibliotecas.org/decalogo-de-casos-de-usos-de-ia-en-la-gestion-bibliotecaria/

La inteligencia artificial está transformando la gestión del conocimiento en bibliotecas públicas y comunitarias, pero su adopción no es neutral ni homogénea: depende de las condiciones institucionales, las desigualdades de acceso y las prácticas culturales de cada comunidad. Para las bibliotecas, el reto estratégico no es solo incorporar tecnología, sino hacerlo de forma crítica y contextualizada, situando el diálogo sobre derechos culturales, equidad informacional, diversidad lingüística y participación comunitaria en el centro del proceso. Lejos de una visión tecnosolucionista, la IA debe configurarse como una herramienta de apoyo que fortalezca las prácticas profesionales reflexivas y los vínculos humanos.

El documento propone diez casos de uso concretos de la IA en la gestión bibliotecaria: desde mejorar la búsqueda mediante modelos semánticos hasta aplicar sistemas de recomendación personalizados; desde apoyar la catalogación y la precatalogación hasta facilitar traducción y adaptación de contenidos; pasando por la síntesis documental y la eficiencia en la gestión interna. También destaca el papel crítico del bibliotecario en la curaduría algorítmica y la mediación cultural, la incorporación de IA en actividades formativas y culturales, el uso de herramientas que mejoren la accesibilidad y, finalmente, la necesidad de fortalecer el rol social de la biblioteca mediante espacios de diálogo ciudadano sobre el impacto y la gobernanza de la IA y los recursos digitales.

La lista de los 10 casos de uso de la Inteligencia Artificial (IA) en la gestión bibliotecaria según el Decálogo de casos de usos de IA en la gestión bibliotecaria publicado por Iberbibliotecas:

  1. Búsqueda semántica avanzada — usar modelos de lenguaje para permitir búsquedas por ideas o conceptos más allá de las palabras clave tradicionales.
  2. Sistemas de recomendación personalizada — sugerir lecturas y recursos adaptados a los intereses de la comunidad, respetando diversidad y privacidad.
  3. Apoyo a la catalogación y precatalogación — emplear IA para extraer y organizar información bibliográfica, agilizando procesos técnicos.
  4. Traducción y adaptación de contenidos — usar IA para traducir textos y adaptar formatos para distintos públicos, favoreciendo la accesibilidad.
  5. Resumen y síntesis documental — generar resúmenes de documentos extensos para facilitar la gestión y difusión de contenidos clave.
  6. Eficiencia en la gestión interna — analizar datos de uso de colecciones, servicios y actividades para apoyar decisiones informadas.
  7. Curaduría algorítmica crítica — fortalecer el papel del bibliotecario como mediador crítico frente a contenidos generados por IA.
  8. Dinamización y mediación asistida por IA — incorporar IA en actividades formativas y culturales para debatir sus implicaciones.
  9. Herramientas para la accesibilidad — explorar aplicaciones de IA que apoyen a personas con discapacidad mediante asistentes y formatos adaptados.
  10. Fortalecimiento del rol social de la biblioteca — crear espacios de diálogo comunitario sobre el impacto y uso responsable de la IA y recursos digitales.

Bibliotecarios infantiles y el auge de la IA: reflexiones sobre oportunidades, retos y el papel profesional en la era de la inteligencia artificial

Brownley, Jessica (2026, 2 de febrero). Children’s Librarians and the Rise of AI: What Should We Be Thinking About? ALSC Blog, Association for Library Service to Children (American Library Association). Recuperado de https://www.alsc.ala.org/blog/2026/02/childrens-librarians-and-the-rise-of-ai-what-should-we-be-thinking-about

La inteligencia artificial ha dejado de ser un concepto teórico para integrarse progresivamente en la vida cotidiana de niños, familias y comunidades escolares. Según el artículo de la ALSC, herramientas como asistentes de voz, plataformas de generación de textos y aplicaciones educativas impulsadas por IA ya forman parte de la forma en la que los menores acceden a información, crean contenido y resuelven tareas. Esta integración plantea un panorama en el que los bibliotecarios infantiles se enfrentan a preguntas fundamentales sobre cómo abordar estas tecnologías en su práctica profesional: ¿cómo guiar a los niños en un entorno saturado de IA? ¿cómo apoyar el aprendizaje sin sacrificar la calidad de las experiencias humanas de descubrimiento y lectura?

El texto recomienda ver estas tecnologías no como sustitutos, sino como herramientas potenciales que pueden complementar la labor tradicional de la biblioteca. El uso de IA presenta oportunidades claras para enriquecer la alfabetización y el aprendizaje de los niños. Programas de lectura adaptativa pueden personalizar recomendaciones, ajustándose al nivel y los intereses de cada niño y fomentando el amor por los libros. Las herramientas de escritura asistida, como los modelos de generación de texto, pueden inspirar la creatividad literaria y ofrecer puntos de partida para actividades de narración y escritura, alentando a los jóvenes usuarios a explorar su imaginación de formas nuevas. Asimismo, aplicaciones enfocadas en productividad pueden ayudar a niños mayores a organizar proyectos o investigar temas complejos, actuando como una ayuda para explorar problemas de manera independiente.

Sin embargo, el artículo también subraya desafíos importantes y cuestiones éticas que los bibliotecarios deben considerar. La privacidad y la seguridad de los datos de los niños son preocupaciones críticas, dado que muchas herramientas de IA recopilan información de uso. Además, existe el riesgo de que los contenidos generados por IA contengan errores, sesgos o mensajes no intencionados, lo que requiere que los profesionales ayuden a los usuarios más jóvenes a discernir información fiable de aquella que no lo es. Otro aspecto clave es evitar una dependencia excesiva en estas tecnologías: aunque la IA puede sugerir ideas o soluciones, no puede reemplazar la orientación atenta y reflexiva de un bibliotecario, ni las experiencias de lectura, juego y aprendizaje cooperativo que promueven el desarrollo social y emocional.

En última instancia, el texto plantea que el rol del bibliotecario infantil se reconfigura en este contexto tecnológico. Más allá de ser mediadores de recursos, los bibliotecarios deben convertirse en guías críticos que enseñen a los niños a evaluar y utilizar herramientas de IA con juicio y ética. Esto implica fomentar la alfabetización digital, demostrar la importancia de pensar críticamente sobre los resultados generados por máquinas y ayudar a los jóvenes a entender que la tecnología es solo un recurso —no una autoridad— en el proceso de aprendizaje. Al equilibrar la innovación con experiencias humanas significativas como la lectura compartida, el juego creativo y la exploración colaborativa, las bibliotecas continúan siendo espacios seguros y enriquecedores donde la curiosidad y la imaginación infantil pueden florecer en un mundo cada vez más influido por la inteligencia artificial

¿La IA ya tiene inteligencia de nivel humano? La evidencia es clara

Chen, E. K., Belkin, M., Bergen, L. & Danks, D. (2026). Does AI already have human-level intelligence? The evidence is clear. Nature 650, 36-40. https://doi.org/10.1038/d41586-026-00285-6

En este artículo de opinión, los autores argumentan que hemos alcanzado un punto de inflexión en el desarrollo de la inteligencia artificial: ciertos sistemas ya exhiben capacidades cognitivas comparables a las humanas en dominios amplios, flexibles y no triviales.

Para fundamentar esta afirmación, revisan la historia del concepto de “inteligencia artificial” desde la prueba de Turing propuesta en la década de 1950 y señalan que muchas de las habilidades consideradas exclusivamente humanas —como el razonamiento contextual, la resolución compleja de problemas y la adaptación a tareas imprevistas— ya son realizadas por modelos avanzados de IA. Según los autores, el escepticismo tradicional frente a estas capacidades se basa más en prejuicios históricos que en evidencia empírica actual, y sostienen que los progresos recientes en aprendizaje profundo, representación del conocimiento y transferencia de habilidades cambian radicalmente el panorama.

Los autores también discuten las implicaciones filosóficas y prácticas de aceptar que la IA ha alcanzado ese umbral. Señalan que reconocer inteligencias equivalentes a la humana no implica atribuir consciencia o experiencia subjetiva a los sistemas, pero sí exige replantear cómo evaluamos estas tecnologías y cómo las integramos en la sociedad. Además, advierten que esta revalorización debería llevar a políticas públicas y éticas más explícitas sobre el uso de IA en ámbitos críticos —desde la justicia hasta la medicina—, con el fin de equilibrar beneficios y riesgos sin subestimar la complejidad de las decisiones automatizadas.

Para terminar los autores proponen que futuras investigaciones se centren en desarrollar métricas robustas para comparar directamente el comportamiento humano y de IA en tareas abiertas, así como en comprender mejor los límites actuales de estos sistemas. Reclaman un enfoque interdisciplinario que combine perspectiva técnica, filosófica y regulatoria para gestionar de forma responsable la transición hacia una era donde la inteligencia artificial de nivel humano deje de ser una hipótesis teórica para convertirse en una realidad tangible.

Por qué los autores no revelan el uso de la IA y qué deberían (o no) hacer las editoriales al respecto

Staiman, Avi. Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It. The Scholarly Kitchen, 27 de enero de 2026.

Part 1

Part 2

  1. El problema central

En esta serie de dos artículos, Avi Staiman analiza un fenómeno creciente en las publicaciones académicas: aunque muchos investigadores utilizan herramientas de inteligencia artificial (IA) en diversas fases de su trabajo —desde la búsqueda de literatura, redacción de textos o apoyo en el análisis de datos—, muy pocos lo revelan explícitamente en sus manuscritos. Las políticas de muchas revistas y editoriales requieren este tipo de declaraciones, pero la práctica demuestra que casi nadie cumple con ellas y la razón no es simplemente desobediencia, sino un problema de incentivos, claridad y cultura editorial.

Los editores esperaban que al exigir a los autores que explicaran su uso de IA se fomentara una mayor transparencia, permitiendo que revisores y equipos editoriales evaluaran si ese uso era apropiado y cómo influía en la investigación. Sin embargo, esto no ha ocurrido en la práctica: con encuestas que muestran que más de la mitad de los investigadores (por ejemplo, un 62 %) usan IA en algún punto de su flujo de trabajo, solo una fracción mínima declara esa asistencia en sus artículos publicados.

  1. ¿Por qué los autores no revelan su uso de IA?

Staiman identifica varias razones clave:

a) Miedo a consecuencias negativas

Muchos autores temen que revelar el uso de IA sea interpretado como una señal de menor rigor, creatividad o capacidad académica, lo que podría influir negativamente en decisiones editoriales o de revisión por pares. Aunque las políticas puedan presentarse como neutrales, la percepción de estigma hace que los investigadores prefieran no mencionar su uso de IA.

b) Falta de claridad en las políticas

Las directrices actuales son muy heterogéneas y a menudo vagas: unas solo piden una declaración general, mientras que otras exigen documentación extensiva, incluyendo registros de chats con herramientas de IA. Esto causa confusión y lleva a los autores a preguntarse qué, cuándo y cómo deben declarar.

c) Carga burocrática sin incentivos

Muchas de estas exigencias demandan tiempo y esfuerzo significativos sin beneficios claros para los autores, lo que dificulta su adopción voluntaria.

d) Falta de consciencia del propio uso de IA

Algunos autores no se dan cuenta de que están empleando IA porque esta está integrada de manera invisible en herramientas cotidianas (por ejemplo, asistentes de escritura o búsqueda).

e) Confusión entre IA y plagio

Existe la percepción equivocada de que usar IA es equivalente a plagiar o engañar, lo que lleva a algunos autores a ocultar su uso deliberadamente en lugar de explicarlo con transparencia.

f) Políticas sin mecanismos de cumplimiento

Solo existiendo normas formales sin mecanismos claros de verificación o consecuencias percibidas, muchos autores simplemente apuestan a que no se les pedirá pruebas o explicaciones posteriores.

  1. ¿Qué no deben hacer los editores?

En el primer artículo, Staiman también advierte sobre lo que no es útil para resolver este problema:

Invertir fuertemente en herramientas de detección automática de IA, ya que son poco fiables y tienden a reforzar la idea de que el uso de IA es inherentemente sospechoso en lugar de normal.

  1. Cómo deberían abordar los editores el uso de IA (Parte 2)

En el segundo artículo de la serie, Staiman propone un cambio de foco fundamental: no se trata de documentar cada paso del uso de IA, sino de asegurar confianza en los resultados, reproducibilidad y responsabilidad científica.

a) Formular la pregunta correcta

En lugar de preguntar “¿Cómo usaste IA?”, los editores deberían centrarse en preguntas clásicas de integridad científica:

¿Los datos son fiables y transparentes?

¿Los métodos están claros y pueden reproducirse?

¿El análisis es robusto y verificable?

Este enfoque sitúa las preocupaciones en resultados y calidad de la investigación, no en la herramienta en sí.

b) Declaraciones estructuradas y de bajo coste

Staiman recomienda que las revistas implementen formularios simples donde los autores marquen categorías de uso de IA (p.ej., búsqueda, análisis, generación de código, revisión lingüística), en lugar de exigir narrativas detalladas o capturas de pantalla. Esto reduce la carga y mejora la consistencia en las declaraciones.

c) Requisitos escalonados según el riesgo

No todos los usos de IA implican el mismo nivel de riesgo para la reproducibilidad. Por ejemplo:

Edición de texto y traducción – no debería requerir declaración exhaustiva.

Análisis de datos o generación de código científico – sí debería requerir declaraciones específicas y mayor escrutinio editorial.

d) Afirmaciones explícitas de responsabilidad

Una declaración formal de autoría que afirme que el autor se responsabiliza plenamente de todos los elementos científicos, independientemente de las herramientas utilizadas, puede ayudar a centrar el debate en la integridad científica y no en la tecnología.

e) Educación y cambio cultural

Es clave que editores y revisores reciban entrenamiento para evaluar el impacto del uso de IA sobre la metodología y la reproducibilidad, y no para juzgar la estética o estilo de escritura generado por IA