Archivo de la categoría: Tecnologías de la información

Los jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico

Liu, Yi-Ling. “Young People in China Are Embracing AI Therapy.” Rest of World, October 6, 2025. https://restofworld.org/2025/young-people-in-china-are-embracing-ai-therapy/

En los últimos años, un número creciente de jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico. Esta tendencia responde a múltiples factores: la escasez de terapeutas profesionales, los elevados costes de las consultas presenciales y el estigma social que todavía rodea a los problemas de salud mental


384 / 5.000

Casi el 80% de los hospitales generales de China carecen de servicio de psiquiatría. Conseguir citas es difícil, costoso y, en su mayoría, se paga directamente del paciente, sobre todo en las zonas rurales.

Frente a esta realidad, las aplicaciones basadas en IA ofrecen una alternativa inmediata, económica y discreta. Los chatbots terapéuticos permiten conversar en cualquier momento del día, sin cita previa y sin exponerse al juicio de otros, lo que los convierte en una opción atractiva para una generación habituada a interactuar digitalmente y a buscar soluciones rápidas a través del teléfono móvil.

Las plataformas más populares, como DeepSeek, Doubao de ByteDance, PsychSnail o Good Mood AI Companion, ofrecen funciones que van más allá del simple diálogo. Incorporan cuestionarios psicológicos, seguimiento del estado de ánimo, recomendaciones personalizadas y, en algunos casos, protocolos de emergencia que detectan palabras clave relacionadas con crisis emocionales o ideaciones suicidas. Estas herramientas se presentan como un recurso híbrido entre la autoayuda digital y la terapia guiada, con una capacidad de respuesta que, en muchos casos, supera la disponibilidad de los servicios públicos.

Entre los principales beneficios que los usuarios mencionan se encuentran la accesibilidad, el bajo coste y la sensación de anonimato. Hablar con una máquina resulta menos intimidante que hacerlo con una persona, especialmente en una cultura donde la expresión abierta de las emociones todavía se percibe como signo de debilidad. Además, algunos modelos permiten personalizar la voz o el estilo del “terapeuta virtual”, adaptándolo a figuras o tonos que el usuario percibe como reconfortantes. Sin embargo, esta flexibilidad conlleva riesgos, como la dependencia emocional hacia el chatbot o la validación irreflexiva de pensamientos negativos. Los modelos de lenguaje tienden a confirmar o empatizar con todo lo que el usuario expresa, incluso cuando esas emociones deberían ser confrontadas o encauzadas de otro modo.

El artículo de Rest of World también advierte sobre las limitaciones técnicas y éticas de estas plataformas. Aunque el gobierno chino ha desarrollado un marco regulatorio para los algoritmos generativos —que exige su registro y evaluación de seguridad—, no existen aún normas específicas para los chatbots terapéuticos. Esto deja un vacío legal en temas tan sensibles como la privacidad de los datos, la protección de usuarios vulnerables o la calidad de las intervenciones. En situaciones de crisis graves, la respuesta automatizada puede ser insuficiente o incluso peligrosa si no se conecta al usuario con asistencia humana inmediata.

Aun con estas advertencias, los testimonios recogidos en el reportaje muestran que la IA está desempeñando un papel importante en la democratización del acceso al cuidado psicológico en China. Para muchas personas jóvenes, hablar con un chatbot ha sido el primer paso hacia la comprensión y expresión de sus emociones, o incluso una manera de sentirse escuchadas en un contexto social y económico cada vez más competitivo y exigente. Sin embargo, el desafío futuro radica en encontrar un equilibrio entre la innovación tecnológica y la responsabilidad ética: aprovechar el potencial de la inteligencia artificial sin sustituir la presencia humana donde esta es insustituible.

La alfabetización en IA está emergiendo como una competencia fundamental para todos

Webber, Gerald. “The Future of AI Literacy: Why Everyone Needs to Understand Artificial Intelligence.” Page One Power, September 26, 2025. https://pageonepower.com

La inteligencia artificial (IA) ha dejado de ser exclusiva de laboratorios o industrias especializadas y se ha integrado en aulas, lugares de trabajo e interacciones cotidianas. Al igual que la alfabetización digital se volvió esencial en la era de Internet, la alfabetización en IA está emergiendo como una competencia fundamental para estudiantes, profesionales y comunidades. Ser competente en IA no se limita a usar chatbots o aplicaciones; implica comprender lo que la IA puede y no puede hacer, cómo aplicarla de manera responsable, cuestionar sus resultados y reconocer sus riesgos sin depender excesivamente de ella, todo ello sin necesidad de saber programar.

Las percepciones sobre la IA varían según la generación. Estudios recientes muestran que los jóvenes son más propensos a experimentar con herramientas de IA, mientras que los grupos mayores manifiestan cautela, preocupados por la confianza, la privacidad y las consecuencias a largo plazo. Estas diferencias afectan la aceptación de la IA en entornos educativos, laborales y en la formulación de políticas.

Para los estudiantes, la alfabetización en IA es esencial, ya que esta tecnología ya respalda la investigación, la tutoría y la colaboración. Quienes la dominan estarán mejor preparados para carreras donde el uso de herramientas de IA es habitual, al igual que la alfabetización informática benefició a generaciones anteriores. UNESCO destaca que desarrollar competencias en IA dentro de la educación contribuye a mejorar habilidades de resolución de problemas y conciencia ética.

En el ámbito laboral, empleados y líderes deben comprender la IA para adaptarse a nuevas formas de resolver problemas y tomar decisiones más informadas. La inteligencia artificial está transformando prácticas de ingeniería y gestión, aumentando la eficiencia y ampliando las estrategias de resolución de problemas. La comprensión de sus beneficios y limitaciones permite un uso responsable y reduce riesgos de malaplicación.

La alfabetización en IA también ayuda a proteger contra su uso indebido, incluyendo la desinformación y violaciones de privacidad. Comprender cómo funcionan estos sistemas permite identificar problemas, hacer preguntas críticas y responsabilizar a las organizaciones sobre su aplicación. Además, es crucial reconocer los sesgos inherentes en los datos que alimentan la IA, que pueden generar resultados injustos o engañosos. La conciencia de estos sesgos fomenta la equidad y la confianza en el uso de la tecnología. Encuestas, como la de Pew Research Center, muestran que un alto porcentaje de adultos en EE. UU. desea tener más control sobre el uso de la IA y comparte preocupaciones sobre los sesgos en sus decisiones.

A nivel nacional e internacional, la alfabetización en IA representa una ventaja competitiva. Los países que invierten en educación sobre IA preparan a sus ciudadanos para adaptarse, innovar y contribuir al crecimiento económico sostenido. La falta de estas habilidades podría dejar rezagados tanto a individuos como a naciones en la carrera global por el liderazgo tecnológico.

Microsoft alerta que la IA podría generar amenazas biológicas “zero day” indetectables por los sistemas actuales

Microsoft says AI can create ‘Zero Day’ Threats in Biology.” MIT Technology Review, 2 de octubre de 2025. https://www.technologyreview.com/2025/10/02/1124767/microsoft-says-ai-can-create-zero-day-threats-in-biology/?utm_source=flipboard&utm_content=user%2Fmittechreview

Microsoft ha identificado un riesgo significativo: la inteligencia artificial podría diseñar amenazas biológicas que los sistemas actuales de bioseguridad no logren detectar, lo que se denomina un “zero day” en biología. Esto implica que una IA podría producir versiones levemente modificadas de toxinas conocidas —o nuevas moléculas peligrosas— que escapen a los controles existentes.

Las salvaguardas actuales, como el software de detección de secuencias genéticas, se basan en compararlas con amenazas conocidas. Pero los investigadores de Microsoft demostraron que, mediante IA generativa, pueden crear variantes suficientemente alteradas para evitar que el software las marque como peligrosas, aunque mantengan su función nociva. Esto revela un desfase entre la velocidad de innovación en IA aplicada a la biología y la capacidad reguladora de las defensas actuales.

El hallazgo plantea la necesidad urgente de reforzar los mecanismos de supervisión biológica. Se sugiere incorporar estándares más estrictos, monitoreo continuo, y una reevaluación de las herramientas de detección para que sean capaces de captar tanto versiones conocidas como variantes nuevas o no anticipadas de agentes biológicos peligrosos.

¿Cómo están utilizando los organizaciones humanitarias la inteligencia artificial en 2025? Análisis de las prácticas actuales y el potencial futuro.

ReliefWeb. How Are Humanitarians Using Artificial Intelligence in 2025? Mapping Current Practice and Future Potential: Initial Insights Report, August 2025. Agosto de 2025.

Texto completo

El informe de ReliefWeb ofrece una visión detallada de cómo los actores humanitarios están adoptando la inteligencia artificial (IA) en sus operaciones, destacando tanto las prácticas actuales como el potencial futuro de esta tecnología en el ámbito humanitario. A través de una investigación exhaustiva, se identifican las áreas clave donde la IA está siendo implementada, incluyendo la recopilación y análisis de datos, la toma de decisiones en tiempo real y la mejora de la eficiencia en la distribución de recursos.

El informe también aborda los desafíos que enfrentan las organizaciones humanitarias al integrar la IA en sus procesos, tales como la necesidad de infraestructura tecnológica adecuada, la capacitación del personal y las consideraciones éticas relacionadas con el uso de datos sensibles. Además, se discuten las oportunidades que la IA ofrece para mejorar la respuesta a emergencias y la planificación a largo plazo, permitiendo una mayor personalización de la ayuda y una mejor adaptación a las necesidades cambiantes de las poblaciones afectadas.

Principales conclusiones:

  • La adopción individual impulsa la preparación organizacional: Si bien los trabajadores humanitarios adoptan rápidamente las herramientas de IA, la mayoría de las organizaciones aún se encuentran en las primeras etapas de experimentación; el 25% sigue en fase piloto y el 26% está en fase de planificación, pero aún no ha iniciado su implementación.
  • La falta de capacitación genera riesgos: El 64% de los encuestados afirma tener poca o ninguna capacitación en IA a nivel organizacional, mientras que el 73% identifica la capacitación como la necesidad de apoyo más crucial para los próximos 12-24 meses.
  • Dominio de las herramientas comerciales: El 69% utiliza plataformas de IA comerciales como ChatGPT y Claude, en lugar de soluciones humanitarias específicas.
  • Falta de gobernanza: Existe un uso generalizado de la IA sin políticas formales, ya que solo el 21% de las organizaciones cuenta con un marco de gobernanza en IA.
  • Liderazgo del Sur Global: El 75% de las respuestas provino de África subsahariana, Oriente Medio y Norte de África, y la región de Asia-Pacífico, lo que demuestra un alto nivel de compromiso e innovación en entornos con recursos limitados.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

Jisc presenta una herramienta estratégica para impulsar la transformación digital en bibliotecas universitarias

Taking Digital Transformation Forward in Your Organisation Jisc. Accedido el 9 de octubre de 2025. https://www.jisc.ac.uk/taking-digital-transformation-forward-in-your-organisation

Jisc ha lanzado una nueva herramienta estratégica llamada “Digital Transformation Library Lens”, diseñada para fortalecer el papel de las bibliotecas académicas en la transformación digital de la educación superior.

Desarrollada en colaboración con líderes bibliotecarios y organizaciones como SCONUL, RLUK y CILIP, esta herramienta ofrece una perspectiva centrada en las bibliotecas dentro del marco general de transformación digital de Jisc para universidades.

El “library lens” muestra cómo los servicios de bibliotecas y archivos contribuyen al cambio institucional en seis áreas clave:

  1. Cultura digital organizacional,
  2. Creación e innovación del conocimiento,
  3. Desarrollo del conocimiento,
  4. Gestión y uso del conocimiento,
  5. Intercambio y alianzas,
  6. Infraestructura digital y física.

Aunque las bibliotecas universitarias han sido pioneras en innovación digital —liderando ámbitos como las colecciones digitales, la comunicación científica y las competencias digitales de los estudiantes—, muchas sienten que su papel no se reconoce plenamente en los procesos institucionales de transformación digital.

La nueva herramienta busca visibilizar y potenciar su impacto mediante un enfoque estructurado y basado en evidencias, con ejemplos prácticos sobre cómo las bibliotecas pueden contribuir a:

  • Desarrollar estrategias de IA y bienestar digital,
  • Mejorar la infraestructura de investigación y las políticas de acceso abierto,
  • Cocrear entornos digitales inclusivos y espacios de aprendizaje,
  • Apoyar la toma de decisiones basada en datos y analíticas.

El “library lens” se acompaña de materiales de apoyo como un modelo de madurez digital, plantillas de planes de acción y herramientas para la implicación de actores clave.

Jisc invita a las universidades a incorporar esta herramienta en su planificación estratégica y está colaborando con siete bibliotecas universitarias piloto, cuyos resultados se publicarán en 2026. Además, anima a los líderes universitarios y directores de bibliotecas a unirse al grupo de trabajo y explorar los recursos del Digital Transformation Toolkit.

Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación

Novomisky, Sebastián, y Alexandre Le Voci Sayad, eds. Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación. Huelva: Grupo Comunicar Ediciones, 2025.

Texto completo

Este libro colectivo aborda los desafíos y oportunidades que plantea la inteligencia artificial (IA) en el ámbito educativo y comunicacional, proponiendo la alfabetización mediática e informacional (AMI) como herramienta clave para navegar críticamente el entorno digital contemporáneo. En el prólogo, Alexandre Le Voci Sayad plantea que la IA debe ser humanizada mediante una educación que combine técnica, ética y pensamiento crítico, evitando tanto el tecno-optimismo ingenuo como el rechazo absoluto.

El primer capítulo, escrito por Romero-Gutiérrez, de-Casas-Moreno y Aguaded, analiza la tensión entre resiliencia y resistencia frente a la IA en América Latina. Se destaca la necesidad de una educomunicación ética que medie el uso de estas tecnologías en las instituciones educativas, reconociendo tanto sus riesgos como sus posibilidades pedagógicas.

Gabriella Taddeo introduce el concepto de “prompting reflexivo, una práctica que utiliza la IA como herramienta de exploración cultural e identitaria. A través de experiencias educativas, muestra cómo la IA puede actuar como una “prótesis cultural”, expandiendo nuestras capacidades expresivas y cognitivas, siempre desde una perspectiva crítica y consciente.

Simona Tirocchi propone un modelo de alfabetización crítica en IA, adaptando los principios clásicos de acceso, análisis, evaluación y producción al contexto algorítmico. Subraya que, aunque los sistemas de IA muestran comportamientos inteligentes, carecen de comprensión semántica, lo que exige una mediación humana constante para evitar malentendidos y usos acríticos.

Verónica Piovani reflexiona sobre la formación docente en tiempos de cultura digital y brecha generacional. Defiende el valor social de la escuela como espacio de construcción de memoria histórica y ciudadanía crítica, y propone actualizar los marcos normativos sin perder de vista los principios pedagógicos fundamentales.

Finalmente, Sebastián Novomisky y Nicolás Bernardo exploran los desafíos actuales en el aula, invitando a repensar qué aporta lo humano en la educación frente a las capacidades de la IA. Plantean que la automatización educativa no es inevitable, sino una decisión política, y que la AMI debe ser una herramienta inclusiva para garantizar una educación equitativa y transformadora.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

¿Está la IA erosionando silenciosamente nuestra capacidad de pensar? Y cómo los libros pueden salvarla.

Is AI Quietly Eroding Our Ability to Think? And How Books Can Save It.” Magazine – 1000 Libraries, 8 de septiembre de 2025. https://magazine.1000libraries.com/is-ai-quietly-eroding-our-ability-to-think-and-how-books-can-save-it/

El uso excesivo de la inteligencia artificial (IA) para responder preguntas y sintetizar información puede debilitar nuestra capacidad de pensamiento crítico. Según el autor, cuando confiamos en IA para procesar, analizar y explicar datos en lugar de hacerlo nosotros mismos, perdemos la oportunidad de profundizar en el razonamiento, cuestionar suposiciones o generar nuevas ideas.

La corteza prefrontal, o el área del cerebro necesaria para la toma de decisiones, la resolución de problemas y la regulación emocional, está mucho más desarrollada en los humanos que en los animales. Es el factor distintivo, la diferencia, y significa que somos los pensadores críticos más destacados del mundo.

976 / 5.000

La inteligencia artificial se ha convertido en una especie de fantasma, una palabra de moda que circula en redes sociales e internet. ChatGPT, en particular, ha sido noticia tras su lanzamiento al público. La gente ve el servicio como una oportunidad: puede planificar vacaciones, ayudarte a emprender y a gestionar un sistema legal complejo. ChatGPT es inteligente, si por inteligente nos referimos a que tiene acceso a más información de la que el cerebro humano puede procesar, y es capaz de dar respuesta a casi todo. ¿Suena a sueño, verdad?

Como cualquier otra parte del cuerpo, el cerebro es un músculo que necesita ser ejercitado y desarrollado. Necesitamos aprender a usarlo; requiere ejercicio y desafío. El problema que se pronostica con la IA es que podría erosionar nuestras habilidades de pensamiento crítico. Esto no es solo una hipótesis; estudios recientes han confirmado que una mayor dependencia de la IA está relacionada con una disminución de las habilidades de pensamiento crítico.

La situación empeora cuando pensamos en las generaciones más jóvenes, que se han vuelto especialmente dependientes de la tecnología. Sí, ChatGPT puede encontrarte excelentes restaurantes en Roma, pero también puede ayudarte con tus deberes, decirte si deberías romper con tu marido y pensar por ti sin tener la experiencia ni los matices necesarios para darte respuestas críticas.

No se trata de ser derrotistas; no es un tema sin esperanza. Por supuesto, la IA puede usarse como herramienta si se maneja correctamente. Pero lo más importante es que existe una actividad que puede combatir esta descarga cognitiva y obligarnos a, de forma gratificante, ejercitar un poco nuestro cerebro: la lectura.

Para contrarrestar esa erosión intelectual, el texto aboga por la lectura de libros como práctica que restaura y fortalece la mente humana. Leer exige tiempo, concentración, reflexión, confrontar ideas complejas y construir conexiones propias entre conceptos —actividades que la IA no “realiza” de la misma forma. En ese sentido, el autor sostiene que los libros funcionan como entrenamiento mental, ofreciendo resistencia cognitiva frente a la facilidad con la que la IA puede ofrecer respuestas rápidas y superficiales.

El artículo también sugiere que este no debe pensarse como un conflicto total entre IA y lectura, sino como una relación equilibrada: usar la IA para asistir nuestra curiosidad, pero no delegar el pensamiento. Así, el enfoque sería emplear estas herramientas como punto de partida, mientras el lector mantiene el rol activo de interpretar, cuestionar y extender. Al final, el texto propone que preservar una cultura de lectura consciente es una de las formas más contundentes de proteger nuestra autonomía intelectual en la era digital.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.