La IA está cambiando la salud: esto es lo que debes saber.

Mashable Team. “AI Is Changing Health: Here’s What You Should Know.” Mashable, April 9, 2026. https://mashable.com/article/ai-health-news-regulation

La inteligencia artificial tiene un enorme potencial para democratizar el acceso a la salud y mejorar la eficiencia del sistema, pero su uso actual requiere vigilancia, regulación y una actitud informada por parte de los usuarios para evitar riesgos significativos.

la inteligencia artificial está transformando rápidamente el ámbito de la salud, tanto para profesionales como para usuarios. Cada vez más médicos utilizan herramientas de IA para tareas como la generación de notas clínicas, mientras que los pacientes recurren a chatbots y asistentes digitales para obtener información sobre su estado de salud. La aparición de servicios como ChatGPT Health o soluciones similares refleja una creciente demanda, impulsada en parte por el alto coste de la atención sanitaria y la falta de acceso a médicos, especialmente en contextos como el estadounidense.

Uno de los principales beneficios señalados es la posibilidad de reducir costes y mejorar el acceso a la atención médica. La IA puede facilitar diagnósticos tempranos, ofrecer respuestas inmediatas y ayudar a los pacientes a comprender mejor sus síntomas antes de acudir a consulta. Para muchas personas, especialmente aquellas sin seguro médico, estas herramientas representan una alternativa accesible. Sin embargo, los expertos insisten en que su valor depende en gran medida de que estén entrenadas con datos fiables y validados, evitando así la desinformación presente en Internet.

A pesar de sus ventajas, el artículo subraya importantes riesgos. Entre ellos destacan los problemas de privacidad, especialmente cuando los usuarios comparten datos médicos sensibles con plataformas tecnológicas, así como la falta de regulación clara. También preocupa la posibilidad de “alucinaciones” de la IA —respuestas incorrectas o inventadas— y la reproducción de sesgos médicos, lo que puede derivar en recomendaciones inadecuadas. Estudios recientes muestran que algunos sistemas pueden evaluar incorrectamente la gravedad de los casos, lo que refuerza la necesidad de cautela.

En este contexto, los especialistas recomiendan un uso crítico y prudente de estas herramientas: formular preguntas de manera clara, verificar las fuentes de información y contrastar siempre los resultados con profesionales sanitarios. La IA puede ser útil como complemento —incluso superior a una búsqueda tradicional en Internet—, pero no debe sustituir la atención médica humana, especialmente en situaciones graves o urgentes.

La crisis de la verdad en la era de la IA

Chaudry, Gia. “How the Internet Broke Everyone’s Bullshit Detectors.” WIRED, April 11, 2026. https://www.wired.com/story/how-the-internet-broke-everyones-bullshit-detectors/

La evolución reciente de Internet —marcada por la inteligencia artificial generativa, la lógica algorítmica de las plataformas y la limitación del acceso a fuentes verificables— ha erosionado profundamente nuestra capacidad colectiva para distinguir entre lo verdadero y lo falso. Ya no se trata simplemente de desinformación, sino de una transformación estructural del ecosistema informativo donde la velocidad, la estética y la viralidad pesan más que la veracidad.

Uno de los factores clave es la proliferación de contenido sintético generado por IA, capaz de producir imágenes y vídeos altamente convincentes en cuestión de horas. Este contenido no necesita ser duradero ni resistir un análisis profundo: basta con que circule rápidamente antes de que pueda ser verificado. En este contexto, la verdad llega tarde, mientras que la falsedad se beneficia de los mecanismos de amplificación de las redes sociales. La lógica del “engagement” prioriza aquello que impacta o emociona, independientemente de su fiabilidad.

El artículo subraya además un fenómeno especialmente preocupante: la aparición de manipulaciones “híbridas”. En estos casos, una imagen es casi completamente real, pero contiene pequeñas alteraciones —un detalle añadido, un objeto modificado— que cambian su significado. Estas falsificaciones son extremadamente difíciles de detectar, incluso para herramientas técnicas, ya que la mayor parte del contenido es auténtico. Este cambio rompe con la premisa tradicional de que una imagen es un registro fiel de la realidad.

A este problema se suma la creciente dificultad para acceder a fuentes primarias de verificación, como imágenes satelitales, cuya disponibilidad puede verse restringida por decisiones políticas o estratégicas. Esto limita la capacidad de periodistas, investigadores y analistas de contrastar hechos de forma independiente, creando un vacío que el contenido generado por IA puede ocupar fácilmente. En ese espacio de incertidumbre, la realidad ya no solo se interpreta: se compite por definirla.

El texto también advierte sobre el papel de los usuarios en la propagación de la desinformación. Los llamados “superdifusores” y el tráfico automatizado —que ya representa una parte significativa de la actividad en Internet— aceleran la circulación de contenidos sin verificación. Incluso los sistemas de detección de falsificaciones resultan insuficientes: ofrecen probabilidades, no certezas, y pueden fallar con frecuencia. Por ello, no pueden considerarse herramientas definitivas para determinar la verdad.

Frente a este panorama, el artículo propone un cambio de enfoque. Más que confiar exclusivamente en tecnologías de detección, sugiere apostar por sistemas de “proveniencia” que certifiquen el origen de los contenidos. Mientras estas soluciones no estén plenamente implementadas, la responsabilidad recae en el comportamiento del usuario: detenerse, verificar, rastrear el origen de la información y resistir la presión de compartir de forma impulsiva. En un entorno diseñado para la inmediatez, la pausa se convierte en una forma de resistencia cognitiva.

El artículo describe una transición hacia un entorno informativo donde la duda es constante y la certeza escasa. La pérdida de confianza no solo afecta a los contenidos, sino también a las instituciones y a los propios mecanismos de verificación. En este nuevo escenario, la alfabetización digital y el pensamiento crítico dejan de ser habilidades opcionales para convertirse en herramientas esenciales de supervivencia informativa.

Los estadounidenses siguen prefiriendo los libros impresos a las versiones digitales o en audio

Bishop, William. “Americans Still Opt for Print Books over Digital or Audio Versions; Few Are in Book Clubs.” Pew Research Center, 9 de abril de 2026. https://www.pewresearch.org/short-reads/2026/04/09/americans-still-opt-for-print-books-over-digital-or-audio-versions-few-are-in-book-clubs/

El estudio del Pew Research Center ofrece una panorámica actualizada sobre los hábitos de lectura en Estados Unidos, destacando la persistencia del libro impreso como formato dominante a pesar del crecimiento de las alternativas digitales.

Según los datos recogidos en una encuesta de 2025, el 75 % de los adultos estadounidenses afirma haber leído al menos un libro en el último año, lo que indica que la lectura sigue siendo una práctica ampliamente extendida. Sin embargo, el formato preferido continúa siendo el papel: aproximadamente dos tercios de la población han leído libros impresos, superando claramente a quienes consumen libros electrónicos o audiolibros.

El informe subraya que, aunque el uso de e-books y audiolibros ha crecido de forma significativa en la última década, este aumento no ha desplazado al libro tradicional. En 2025, un 31 % de los adultos declara haber leído libros electrónicos y un 26 % haber escuchado audiolibros, cifras que muestran una expansión sostenida desde 2011 pero que siguen siendo minoritarias frente al formato impreso. Además, en los últimos años se observa una cierta estabilización en estos hábitos, lo que sugiere que la convivencia entre formatos ha alcanzado un punto de equilibrio más que una sustitución progresiva.

El análisis también revela diferencias significativas según variables sociodemográficas. El nivel educativo es uno de los factores más determinantes: las personas con estudios universitarios presentan tasas de lectura mucho más elevadas que aquellas con menor formación. Asimismo, los jóvenes son más proclives a utilizar formatos digitales y audiolibros, mientras que los grupos de mayor edad mantienen una mayor fidelidad al libro impreso. También se observan diferencias por género y origen étnico, lo que pone de manifiesto que la lectura no es un hábito homogéneo, sino condicionado por factores sociales y culturales.

En cuanto a la intensidad lectora, el informe muestra una gran diversidad: mientras una parte de la población lee de forma ocasional (entre uno y cinco libros al año), existe un segmento significativo de lectores intensivos que supera los veinte libros anuales. Sin embargo, también destaca un dato relevante: un 25 % de los adultos declara no haber leído ningún libro en el último año, lo que evidencia la persistencia de desigualdades en el acceso y la práctica de la lectura.

Por último, el estudio señala que la participación en clubes de lectura es muy limitada. Solo un 7 % de los adultos afirma haber formado parte de uno en el último año, lo que contrasta con la amplitud general del hábito lector. Este dato sugiere que, aunque la lectura sigue siendo una actividad común, se practica mayoritariamente de forma individual y no tanto como una experiencia social organizada. En conjunto, el informe dibuja un panorama en el que el libro impreso mantiene su centralidad en la cultura lectora, coexistiendo con formatos digitales que, si bien han crecido, no han logrado sustituirlo.

Acelerando la investigación cualitativa con inteligencia artificial

Acelerando la investigación cualitativa con inteligencia artificial. 2024. Lima: Lidera. ´

Acceso al documento

El informe presenta la inteligencia artificial como un aliado estratégico para la investigación cualitativa, capaz de acelerar procesos, mejorar la eficiencia y abrir nuevas posibilidades analíticas. Sin embargo, insiste en que su implementación debe ser crítica, ética y consciente de sus limitaciones. La IA no sustituye la interpretación humana, sino que la potencia, siempre que el investigador mantenga el control sobre el proceso y preserve el objetivo fundamental de comprender en profundidad la complejidad de la experiencia humana.

El documento analiza el impacto de la inteligencia artificial (IA) en la investigación cualitativa, destacando su papel como herramienta transformadora que no sustituye al investigador, sino que amplifica sus capacidades. La IA permite automatizar tareas repetitivas y laboriosas, como la transcripción de entrevistas o el procesamiento inicial de datos, lo que libera tiempo para que los investigadores se concentren en la interpretación profunda y el análisis crítico. Esta complementariedad humano-máquina constituye uno de los ejes centrales del texto, subrayando que el valor de la investigación cualitativa sigue residiendo en la capacidad humana para comprender significados y contextos.

Uno de los principales aportes del informe es la identificación de áreas concretas en las que la IA acelera el proceso investigador. Entre ellas destacan la transcripción automatizada de entrevistas, el análisis de grandes volúmenes de datos textuales y la detección de patrones o temas emergentes. Estas capacidades no solo incrementan la eficiencia, sino que también permiten ampliar la escala de los estudios cualitativos, tradicionalmente limitados por el tiempo y los recursos disponibles. Además, la IA introduce nuevas perspectivas analíticas al facilitar enfoques más sistemáticos y consistentes en el tratamiento de los datos.

El texto también enfatiza los beneficios derivados del uso de la IA, como la mejora en la consistencia metodológica, el aumento del rigor analítico y la posibilidad de explorar información de manera más exhaustiva. Al automatizar procesos, se reduce el riesgo de errores humanos en tareas mecánicas y se favorece una mayor homogeneidad en el análisis. Sin embargo, estos avances no eliminan la necesidad de supervisión humana; al contrario, refuerzan la importancia del criterio investigador para validar resultados y contextualizar hallazgos.

No obstante, el documento advierte sobre una serie de desafíos y consideraciones éticas asociados al uso de la IA. Entre ellos se encuentran el sesgo algorítmico, que puede reproducir o amplificar prejuicios presentes en los datos; la posible pérdida de matices en la interpretación; y los riesgos relacionados con la privacidad y la seguridad de la información. Asimismo, se señala el peligro de una dependencia excesiva de estas herramientas, lo que podría debilitar la capacidad crítica del investigador si no se mantiene un uso reflexivo y controlado.

La mejor respuesta a la inteligencia artificial es un carné de biblioteca

Illingworth, S. “The Best Response to AI Is a Library Card.” The Slow AI (Substack). Accedido el 12 de abril de 2026. https://theslowai.substack.com/p/best-response-to-ai-is-a-library-card

El texto plantea una idea central clara: en el contexto del auge de la inteligencia artificial, estamos priorizando la enseñanza del uso de estas herramientas mientras descuidamos una competencia mucho más básica y esencial, la lectura. El autor sostiene que no puede existir una verdadera alfabetización en IA sin una alfabetización previa sólida, ya que habilidades como el pensamiento crítico, la evaluación de evidencias o la capacidad de sostener la ambigüedad no son innatas, sino que se construyen lentamente a través de la lectura profunda de textos complejos.

A lo largo del artículo, se argumenta que la lectura ofrece algo que la IA no puede replicar: un entrenamiento cognitivo basado en la atención sostenida, la interpretación y el مواجهimiento con ideas que no están adaptadas al lector. Leer novelas o ensayos exigentes permite desarrollar juicio, empatía y capacidad analítica, habilidades imprescindibles para evaluar los contenidos generados por máquinas. En contraste, el uso de IA tiende a ofrecer respuestas rápidas y adaptadas, lo que puede limitar la exposición a perspectivas diversas y reducir el esfuerzo intelectual necesario para comprenderlas.

El autor también cuestiona el enfoque actual de la “alfabetización en IA”, que da por hecho que los usuarios ya saben leer críticamente. Según su planteamiento, esta es una omisión grave: no se puede detectar un argumento débil o una información falsa generada por IA si no se ha aprendido previamente a analizar textos humanos. Por ello, propone invertir la lógica dominante: antes que enseñar a escribir mejores prompts, es necesario formar mejores lectores.

En este marco, las bibliotecas adquieren un papel fundamental. Se presentan como espacios de acceso libre al conocimiento, ajenos a algoritmos y métricas de consumo, donde es posible explorar ideas de forma lenta y no dirigida. El texto advierte, además, sobre la paradoja contemporánea: mientras crece la inversión en tecnologías de IA, las bibliotecas —instituciones clave para la formación de la lectura crítica— están siendo recortadas o amenazadas.

Illingworth propone una iniciativa simbólica y práctica, la Slow AI Public Library, una selección de libros diseñada para fomentar las capacidades humanas que la IA no puede sustituir: juicio, paciencia, empatía y pensamiento crítico. La conclusión es contundente: frente a la proliferación de textos generados automáticamente, la mejor defensa no es tecnológica, sino cultural. Antes que la inteligencia artificial, está la lectura; antes que el prompt, la página.

Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa

Manuel Etesse. Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa. Lima: Pontificia Universidad Católica del Perú, 2024.

Texto completo

La obra constituye una guía práctica orientada a investigadores del ámbito social y educativo que desean incorporar herramientas de inteligencia artificial, especialmente ChatGPT, en el análisis de datos cualitativos.

El texto parte de una premisa clara: la IA no sustituye el trabajo del investigador, sino que actúa como un apoyo técnico que permite optimizar tareas complejas como la organización, codificación e interpretación de grandes volúmenes de información textual. En este sentido, el manual combina fundamentos metodológicos con aplicaciones concretas, facilitando la integración de estas tecnologías en procesos de investigación rigurosos.

Uno de los ejes centrales del libro es la propuesta de un marco metodológico estructurado que organiza el análisis cualitativo en fases como la anotación, exploración y codificación de datos. A través de estrategias como el modelo AEXCO, el autor muestra cómo utilizar la IA para identificar patrones, extraer citas relevantes de entrevistas y sintetizar información compleja. Además, introduce procedimientos específicos —como el entrenamiento “cori-f”— que permiten configurar el comportamiento de la herramienta para obtener respuestas alineadas con los objetivos de investigación, destacando la importancia de diseñar instrucciones precisas (prompts) para mejorar la calidad del análisis.

El libro también subraya el valor de la IA en la eficiencia del proceso investigador. Gracias a estas herramientas, es posible reducir significativamente el tiempo dedicado a tareas como la transcripción, clasificación y organización de datos, especialmente en estudios con gran cantidad de material cualitativo. Sin embargo, el autor insiste en que estos beneficios deben ir acompañados de una supervisión constante por parte del investigador, quien mantiene la responsabilidad sobre la interpretación final y la validez de los resultados.

Un aspecto especialmente relevante es la dimensión ética del uso de la inteligencia artificial. La guía propone un protocolo que incluye la anonimización de los տվյալos, la protección de la privacidad de los participantes y el uso de sistemas en entornos controlados para evitar la exposición de información sensible. Este enfoque refuerza la idea de que la incorporación de la IA en la investigación no solo es una cuestión técnica, sino también metodológica y deontológica.

En conjunto, el libro de Manuel Etesse se presenta como una herramienta accesible —sin requerir conocimientos avanzados de programación— que democratiza el uso de la inteligencia artificial en la investigación cualitativa. Su principal aportación radica en ofrecer un equilibrio entre innovación tecnológica y rigor científico, mostrando cómo la IA puede integrarse de forma crítica y responsable en las prácticas investigadoras contemporáneas.

El 35 % de los nuevos sitios web contienen texto generado o asistido por IA

Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek. “The Impact of AI-Generated Text on the Internet.” 2025. https://ai-on-the-internet.github.io/

El estudio analiza cómo la rápida expansión del texto generado por inteligencia artificial ha transformado el ecosistema digital entre 2022 y 2025. A partir de una muestra representativa de páginas web obtenida mediante la Wayback Machine del Internet Archive, los autores estiman que hacia mediados de 2025 aproximadamente el 35 % de los nuevos sitios web contienen texto generado o asistido por IA, una cifra que contrasta con la inexistencia de este fenómeno antes del lanzamiento de ChatGPT en 2022. Este crecimiento evidencia la velocidad con la que la IA se ha integrado en la producción de contenidos en línea.

Uno de los aportes más relevantes del trabajo es su intento de medir empíricamente los efectos reales de este fenómeno frente a la percepción social. Para ello, combina análisis computacional del contenido web con una encuesta a 853 adultos en Estados Unidos. Metodológicamente, el estudio afronta dos retos clave: obtener una muestra representativa de internet —algo complejo por su naturaleza descentralizada— y distinguir entre texto humano y generado por IA, utilizando varios detectores y seleccionando el más robusto (Pangram v3).

En cuanto a los resultados, el estudio confirma dos efectos significativos. Por un lado, se observa una contracción semántica, es decir, una reducción en la diversidad de ideas y perspectivas: los textos generados por IA muestran mayor similitud entre sí. Por otro, se detecta un aumento del tono positivo, con contenidos más “amables” o emocionalmente optimistas, lo que sugiere una cierta tendencia hacia la homogeneización afectiva del discurso digital.

Sin embargo, el trabajo desmonta varias creencias extendidas. No encuentra evidencia estadísticamente significativa de que el uso de IA reduzca la precisión factual, ni de que provoque una pérdida clara de diversidad estilística, ni tampoco que genere textos más largos pero menos densos o que disminuya el uso de enlaces externos. Estos resultados contrastan fuertemente con la percepción pública: una mayoría de los encuestados cree que todos estos efectos negativos sí están ocurriendo.

En conjunto, el estudio pone de relieve una brecha importante entre evidencia empírica y opinión social. Aunque la IA sí está modificando el ecosistema textual de internet —especialmente en términos de diversidad semántica y tono—, muchos de los temores más extendidos no están respaldados por los datos. Esto sugiere la necesidad de un análisis más matizado del impacto de la inteligencia artificial, evitando tanto el alarmismo como la complacencia.

La inteligencia artificial no es peligrosa por ser artificial

“La inteligencia artificial no es peligrosa por ser artificial, sino porque piensa fuera del sujeto. El riesgo no es la máquina, sino la renuncia humana a pensar.”

Giorgio Agamben 

Giorgio Agamben (Roma, 22 de abril de 1942) es un filósofo italiano de renombre internacional, miembro de una familia veneciana de origen armenio

Explorar la inteligencia artificial en educación: guía práctica para una integración pedagógica crítica y creativa

Arbó Trabado, Andreu, Mònica Blasco Paüls, Maria de Lluc Coli Mulet, Mar Fernández Montenegro, Jordi Planes Cid, Gerard Santiveri Ribalta, Cristina Torrent Pujol, Javier Badia Clavera, Oriol Capdevila Morro, Anna de Dios Pifarré, et al. Guia: Explorant la Intel·ligència Artificial (IA). Lleida: Universitat de Lleida, Institut de Ciències de l’Educació, 2025.

Texto completo

La obra Guia: Explorant la Intel·ligència Artificial (IA) constituye un recurso educativo desarrollado por el grupo de trabajo del Institut de Ciències de l’Educació de la Universitat de Lleida con el propósito de acercar la inteligencia artificial al ámbito docente desde una perspectiva práctica, aplicada y pedagógicamente fundamentada. El documento se enmarca en un contexto de creciente digitalización de la educación y responde a la necesidad de dotar al profesorado de herramientas que faciliten la integración efectiva de tecnologías emergentes en el aula, no solo como instrumentos técnicos, sino como elementos que transforman los procesos de enseñanza-aprendizaje.

Uno de los ejes centrales de la guía es su orientación práctica. A diferencia de aproximaciones teóricas o meramente conceptuales, el documento recopila experiencias reales de aplicación de la inteligencia artificial en distintos niveles educativos y áreas curriculares. Estas experiencias incluyen propuestas para mejorar la comprensión lectora, el aprendizaje de lenguas, la resolución de problemas matemáticos o incluso la creación musical mediante herramientas de IA. Cada actividad está cuidadosamente estructurada, incorporando objetivos pedagógicos, instrucciones paso a paso, resultados obtenidos y una reflexión crítica sobre sus fortalezas y limitaciones, lo que convierte la guía en un instrumento directamente transferible al aula.

Además, la guía no se limita a promover el uso instrumental de la inteligencia artificial, sino que insiste en la necesidad de desarrollar una actitud crítica y reflexiva hacia estas tecnologías. En este sentido, plantea la importancia de que tanto docentes como estudiantes comprendan las implicaciones éticas, sociales y educativas de la IA, fomentando un uso responsable, creativo y consciente. La propuesta pedagógica subyacente apuesta por una integración equilibrada en la que la tecnología no sustituya al docente, sino que amplifique sus capacidades y enriquezca la experiencia educativa.

Otro aspecto relevante es la organización de los contenidos, que facilita su accesibilidad y aplicabilidad. Las actividades están clasificadas tanto por áreas de conocimiento como por herramientas de inteligencia artificial, lo que permite a los docentes seleccionar fácilmente aquellas propuestas más adecuadas a sus necesidades. Asimismo, la inclusión de materiales complementarios, como presentaciones para trabajar con el alumnado, refuerza el carácter didáctico de la obra y su vocación de ser utilizada como guía de referencia en contextos educativos diversos.

En conjunto, la guía representa una aportación significativa al campo de la innovación educativa, al ofrecer un modelo concreto de incorporación de la inteligencia artificial en el aula basado en la experimentación, la reflexión crítica y la mejora continua. Su enfoque combina la dimensión técnica con la pedagógica, contribuyendo a preparar al profesorado para afrontar los retos y oportunidades que plantea la inteligencia artificial en la educación contemporánea.