Archivo de la etiqueta: Inteligencia artificial

Marcelo Careaga presenta ¡Oh, Humanidad! El ocaso de los metarrelatos y las nuevas utopías. Planeta Biblioteca 2026/04/13.

Marcelo Careaga presenta ¡Oh, Humanidad! El ocaso de los metarrelatos y las nuevas utopías.

Planeta Biblioteca 2026/04/13.

ESCUCHAR

Descargar

En esta ocasión visita nuestro Planeta Biblioteca Marcelo Careaga Butter, profesor titular de la Universidad Católica de la Santísima Concepción, para presentarnos su nuevo libro ¡Oh, Humanidad! El ocaso de los metarrelatos y las nuevas utopías. Se trata de un relato que aborda la transición cultural disruptiva que la humanidad está experimentando en los últimos tiempos, especialmente a partir de la eclosión de la inteligencia artificial generativa. Nunca antes los seres humanos habíamos tenido la oportunidad de resolver problemas mediante una administración tan eficaz de la información. El acceso y la representación de datos masivos —big data— están hoy al alcance de todos.

En este contexto, el valor de lo escrito en el libro no reside en los antecedentes antropológicos, históricos o culturales —ya ampliamente disponibles—, sino en la capacidad de gestionar un tipo de conocimiento que vincula las causas profundas de los grandes problemas humanos no resueltos con sus macroconsecuencias, aún vigentes en la actualidad. La obra ha sido concebida sin una pretensión antropológica, filosófica, histórica, ideológica, doctrinal, religiosa, política o cultural específica. Más bien, se presenta como un ejercicio de profunda autocrítica, impregnado de una mezcla de estupefacción y, paradójicamente, de una búsqueda urgente de esperanza.

Su propósito es estremecer conciencias y provocar una transformación en los patrones de comportamiento que han definido a la humanidad a lo largo de su historia. Porque, en última instancia, el llamado es claro: que cada persona se sienta interpelada a hacer su parte. Para ello, necesitamos mirarnos desde nuestra propia humanidad… y atrevernos a repensarlo todo.

La IA está cambiando la salud: esto es lo que debes saber.

Mashable Team. “AI Is Changing Health: Here’s What You Should Know.” Mashable, April 9, 2026. https://mashable.com/article/ai-health-news-regulation

La inteligencia artificial tiene un enorme potencial para democratizar el acceso a la salud y mejorar la eficiencia del sistema, pero su uso actual requiere vigilancia, regulación y una actitud informada por parte de los usuarios para evitar riesgos significativos.

la inteligencia artificial está transformando rápidamente el ámbito de la salud, tanto para profesionales como para usuarios. Cada vez más médicos utilizan herramientas de IA para tareas como la generación de notas clínicas, mientras que los pacientes recurren a chatbots y asistentes digitales para obtener información sobre su estado de salud. La aparición de servicios como ChatGPT Health o soluciones similares refleja una creciente demanda, impulsada en parte por el alto coste de la atención sanitaria y la falta de acceso a médicos, especialmente en contextos como el estadounidense.

Uno de los principales beneficios señalados es la posibilidad de reducir costes y mejorar el acceso a la atención médica. La IA puede facilitar diagnósticos tempranos, ofrecer respuestas inmediatas y ayudar a los pacientes a comprender mejor sus síntomas antes de acudir a consulta. Para muchas personas, especialmente aquellas sin seguro médico, estas herramientas representan una alternativa accesible. Sin embargo, los expertos insisten en que su valor depende en gran medida de que estén entrenadas con datos fiables y validados, evitando así la desinformación presente en Internet.

A pesar de sus ventajas, el artículo subraya importantes riesgos. Entre ellos destacan los problemas de privacidad, especialmente cuando los usuarios comparten datos médicos sensibles con plataformas tecnológicas, así como la falta de regulación clara. También preocupa la posibilidad de “alucinaciones” de la IA —respuestas incorrectas o inventadas— y la reproducción de sesgos médicos, lo que puede derivar en recomendaciones inadecuadas. Estudios recientes muestran que algunos sistemas pueden evaluar incorrectamente la gravedad de los casos, lo que refuerza la necesidad de cautela.

En este contexto, los especialistas recomiendan un uso crítico y prudente de estas herramientas: formular preguntas de manera clara, verificar las fuentes de información y contrastar siempre los resultados con profesionales sanitarios. La IA puede ser útil como complemento —incluso superior a una búsqueda tradicional en Internet—, pero no debe sustituir la atención médica humana, especialmente en situaciones graves o urgentes.

La crisis de la verdad en la era de la IA

Chaudry, Gia. “How the Internet Broke Everyone’s Bullshit Detectors.” WIRED, April 11, 2026. https://www.wired.com/story/how-the-internet-broke-everyones-bullshit-detectors/

La evolución reciente de Internet —marcada por la inteligencia artificial generativa, la lógica algorítmica de las plataformas y la limitación del acceso a fuentes verificables— ha erosionado profundamente nuestra capacidad colectiva para distinguir entre lo verdadero y lo falso. Ya no se trata simplemente de desinformación, sino de una transformación estructural del ecosistema informativo donde la velocidad, la estética y la viralidad pesan más que la veracidad.

Uno de los factores clave es la proliferación de contenido sintético generado por IA, capaz de producir imágenes y vídeos altamente convincentes en cuestión de horas. Este contenido no necesita ser duradero ni resistir un análisis profundo: basta con que circule rápidamente antes de que pueda ser verificado. En este contexto, la verdad llega tarde, mientras que la falsedad se beneficia de los mecanismos de amplificación de las redes sociales. La lógica del “engagement” prioriza aquello que impacta o emociona, independientemente de su fiabilidad.

El artículo subraya además un fenómeno especialmente preocupante: la aparición de manipulaciones “híbridas”. En estos casos, una imagen es casi completamente real, pero contiene pequeñas alteraciones —un detalle añadido, un objeto modificado— que cambian su significado. Estas falsificaciones son extremadamente difíciles de detectar, incluso para herramientas técnicas, ya que la mayor parte del contenido es auténtico. Este cambio rompe con la premisa tradicional de que una imagen es un registro fiel de la realidad.

A este problema se suma la creciente dificultad para acceder a fuentes primarias de verificación, como imágenes satelitales, cuya disponibilidad puede verse restringida por decisiones políticas o estratégicas. Esto limita la capacidad de periodistas, investigadores y analistas de contrastar hechos de forma independiente, creando un vacío que el contenido generado por IA puede ocupar fácilmente. En ese espacio de incertidumbre, la realidad ya no solo se interpreta: se compite por definirla.

El texto también advierte sobre el papel de los usuarios en la propagación de la desinformación. Los llamados “superdifusores” y el tráfico automatizado —que ya representa una parte significativa de la actividad en Internet— aceleran la circulación de contenidos sin verificación. Incluso los sistemas de detección de falsificaciones resultan insuficientes: ofrecen probabilidades, no certezas, y pueden fallar con frecuencia. Por ello, no pueden considerarse herramientas definitivas para determinar la verdad.

Frente a este panorama, el artículo propone un cambio de enfoque. Más que confiar exclusivamente en tecnologías de detección, sugiere apostar por sistemas de “proveniencia” que certifiquen el origen de los contenidos. Mientras estas soluciones no estén plenamente implementadas, la responsabilidad recae en el comportamiento del usuario: detenerse, verificar, rastrear el origen de la información y resistir la presión de compartir de forma impulsiva. En un entorno diseñado para la inmediatez, la pausa se convierte en una forma de resistencia cognitiva.

El artículo describe una transición hacia un entorno informativo donde la duda es constante y la certeza escasa. La pérdida de confianza no solo afecta a los contenidos, sino también a las instituciones y a los propios mecanismos de verificación. En este nuevo escenario, la alfabetización digital y el pensamiento crítico dejan de ser habilidades opcionales para convertirse en herramientas esenciales de supervivencia informativa.

Acelerando la investigación cualitativa con inteligencia artificial

Acelerando la investigación cualitativa con inteligencia artificial. 2024. Lima: Lidera. ´

Acceso al documento

El informe presenta la inteligencia artificial como un aliado estratégico para la investigación cualitativa, capaz de acelerar procesos, mejorar la eficiencia y abrir nuevas posibilidades analíticas. Sin embargo, insiste en que su implementación debe ser crítica, ética y consciente de sus limitaciones. La IA no sustituye la interpretación humana, sino que la potencia, siempre que el investigador mantenga el control sobre el proceso y preserve el objetivo fundamental de comprender en profundidad la complejidad de la experiencia humana.

El documento analiza el impacto de la inteligencia artificial (IA) en la investigación cualitativa, destacando su papel como herramienta transformadora que no sustituye al investigador, sino que amplifica sus capacidades. La IA permite automatizar tareas repetitivas y laboriosas, como la transcripción de entrevistas o el procesamiento inicial de datos, lo que libera tiempo para que los investigadores se concentren en la interpretación profunda y el análisis crítico. Esta complementariedad humano-máquina constituye uno de los ejes centrales del texto, subrayando que el valor de la investigación cualitativa sigue residiendo en la capacidad humana para comprender significados y contextos.

Uno de los principales aportes del informe es la identificación de áreas concretas en las que la IA acelera el proceso investigador. Entre ellas destacan la transcripción automatizada de entrevistas, el análisis de grandes volúmenes de datos textuales y la detección de patrones o temas emergentes. Estas capacidades no solo incrementan la eficiencia, sino que también permiten ampliar la escala de los estudios cualitativos, tradicionalmente limitados por el tiempo y los recursos disponibles. Además, la IA introduce nuevas perspectivas analíticas al facilitar enfoques más sistemáticos y consistentes en el tratamiento de los datos.

El texto también enfatiza los beneficios derivados del uso de la IA, como la mejora en la consistencia metodológica, el aumento del rigor analítico y la posibilidad de explorar información de manera más exhaustiva. Al automatizar procesos, se reduce el riesgo de errores humanos en tareas mecánicas y se favorece una mayor homogeneidad en el análisis. Sin embargo, estos avances no eliminan la necesidad de supervisión humana; al contrario, refuerzan la importancia del criterio investigador para validar resultados y contextualizar hallazgos.

No obstante, el documento advierte sobre una serie de desafíos y consideraciones éticas asociados al uso de la IA. Entre ellos se encuentran el sesgo algorítmico, que puede reproducir o amplificar prejuicios presentes en los datos; la posible pérdida de matices en la interpretación; y los riesgos relacionados con la privacidad y la seguridad de la información. Asimismo, se señala el peligro de una dependencia excesiva de estas herramientas, lo que podría debilitar la capacidad crítica del investigador si no se mantiene un uso reflexivo y controlado.

Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa

Manuel Etesse. Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa. Lima: Pontificia Universidad Católica del Perú, 2024.

Texto completo

La obra constituye una guía práctica orientada a investigadores del ámbito social y educativo que desean incorporar herramientas de inteligencia artificial, especialmente ChatGPT, en el análisis de datos cualitativos.

El texto parte de una premisa clara: la IA no sustituye el trabajo del investigador, sino que actúa como un apoyo técnico que permite optimizar tareas complejas como la organización, codificación e interpretación de grandes volúmenes de información textual. En este sentido, el manual combina fundamentos metodológicos con aplicaciones concretas, facilitando la integración de estas tecnologías en procesos de investigación rigurosos.

Uno de los ejes centrales del libro es la propuesta de un marco metodológico estructurado que organiza el análisis cualitativo en fases como la anotación, exploración y codificación de datos. A través de estrategias como el modelo AEXCO, el autor muestra cómo utilizar la IA para identificar patrones, extraer citas relevantes de entrevistas y sintetizar información compleja. Además, introduce procedimientos específicos —como el entrenamiento “cori-f”— que permiten configurar el comportamiento de la herramienta para obtener respuestas alineadas con los objetivos de investigación, destacando la importancia de diseñar instrucciones precisas (prompts) para mejorar la calidad del análisis.

El libro también subraya el valor de la IA en la eficiencia del proceso investigador. Gracias a estas herramientas, es posible reducir significativamente el tiempo dedicado a tareas como la transcripción, clasificación y organización de datos, especialmente en estudios con gran cantidad de material cualitativo. Sin embargo, el autor insiste en que estos beneficios deben ir acompañados de una supervisión constante por parte del investigador, quien mantiene la responsabilidad sobre la interpretación final y la validez de los resultados.

Un aspecto especialmente relevante es la dimensión ética del uso de la inteligencia artificial. La guía propone un protocolo que incluye la anonimización de los տվյալos, la protección de la privacidad de los participantes y el uso de sistemas en entornos controlados para evitar la exposición de información sensible. Este enfoque refuerza la idea de que la incorporación de la IA en la investigación no solo es una cuestión técnica, sino también metodológica y deontológica.

En conjunto, el libro de Manuel Etesse se presenta como una herramienta accesible —sin requerir conocimientos avanzados de programación— que democratiza el uso de la inteligencia artificial en la investigación cualitativa. Su principal aportación radica en ofrecer un equilibrio entre innovación tecnológica y rigor científico, mostrando cómo la IA puede integrarse de forma crítica y responsable en las prácticas investigadoras contemporáneas.

El 35 % de los nuevos sitios web contienen texto generado o asistido por IA

Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek. “The Impact of AI-Generated Text on the Internet.” 2025. https://ai-on-the-internet.github.io/

El estudio analiza cómo la rápida expansión del texto generado por inteligencia artificial ha transformado el ecosistema digital entre 2022 y 2025. A partir de una muestra representativa de páginas web obtenida mediante la Wayback Machine del Internet Archive, los autores estiman que hacia mediados de 2025 aproximadamente el 35 % de los nuevos sitios web contienen texto generado o asistido por IA, una cifra que contrasta con la inexistencia de este fenómeno antes del lanzamiento de ChatGPT en 2022. Este crecimiento evidencia la velocidad con la que la IA se ha integrado en la producción de contenidos en línea.

Uno de los aportes más relevantes del trabajo es su intento de medir empíricamente los efectos reales de este fenómeno frente a la percepción social. Para ello, combina análisis computacional del contenido web con una encuesta a 853 adultos en Estados Unidos. Metodológicamente, el estudio afronta dos retos clave: obtener una muestra representativa de internet —algo complejo por su naturaleza descentralizada— y distinguir entre texto humano y generado por IA, utilizando varios detectores y seleccionando el más robusto (Pangram v3).

En cuanto a los resultados, el estudio confirma dos efectos significativos. Por un lado, se observa una contracción semántica, es decir, una reducción en la diversidad de ideas y perspectivas: los textos generados por IA muestran mayor similitud entre sí. Por otro, se detecta un aumento del tono positivo, con contenidos más “amables” o emocionalmente optimistas, lo que sugiere una cierta tendencia hacia la homogeneización afectiva del discurso digital.

Sin embargo, el trabajo desmonta varias creencias extendidas. No encuentra evidencia estadísticamente significativa de que el uso de IA reduzca la precisión factual, ni de que provoque una pérdida clara de diversidad estilística, ni tampoco que genere textos más largos pero menos densos o que disminuya el uso de enlaces externos. Estos resultados contrastan fuertemente con la percepción pública: una mayoría de los encuestados cree que todos estos efectos negativos sí están ocurriendo.

En conjunto, el estudio pone de relieve una brecha importante entre evidencia empírica y opinión social. Aunque la IA sí está modificando el ecosistema textual de internet —especialmente en términos de diversidad semántica y tono—, muchos de los temores más extendidos no están respaldados por los datos. Esto sugiere la necesidad de un análisis más matizado del impacto de la inteligencia artificial, evitando tanto el alarmismo como la complacencia.

La inteligencia artificial no es peligrosa por ser artificial

“La inteligencia artificial no es peligrosa por ser artificial, sino porque piensa fuera del sujeto. El riesgo no es la máquina, sino la renuncia humana a pensar.”

Giorgio Agamben 

Giorgio Agamben (Roma, 22 de abril de 1942) es un filósofo italiano de renombre internacional, miembro de una familia veneciana de origen armenio

Explorar la inteligencia artificial en educación: guía práctica para una integración pedagógica crítica y creativa

Arbó Trabado, Andreu, Mònica Blasco Paüls, Maria de Lluc Coli Mulet, Mar Fernández Montenegro, Jordi Planes Cid, Gerard Santiveri Ribalta, Cristina Torrent Pujol, Javier Badia Clavera, Oriol Capdevila Morro, Anna de Dios Pifarré, et al. Guia: Explorant la Intel·ligència Artificial (IA). Lleida: Universitat de Lleida, Institut de Ciències de l’Educació, 2025.

Texto completo

La obra Guia: Explorant la Intel·ligència Artificial (IA) constituye un recurso educativo desarrollado por el grupo de trabajo del Institut de Ciències de l’Educació de la Universitat de Lleida con el propósito de acercar la inteligencia artificial al ámbito docente desde una perspectiva práctica, aplicada y pedagógicamente fundamentada. El documento se enmarca en un contexto de creciente digitalización de la educación y responde a la necesidad de dotar al profesorado de herramientas que faciliten la integración efectiva de tecnologías emergentes en el aula, no solo como instrumentos técnicos, sino como elementos que transforman los procesos de enseñanza-aprendizaje.

Uno de los ejes centrales de la guía es su orientación práctica. A diferencia de aproximaciones teóricas o meramente conceptuales, el documento recopila experiencias reales de aplicación de la inteligencia artificial en distintos niveles educativos y áreas curriculares. Estas experiencias incluyen propuestas para mejorar la comprensión lectora, el aprendizaje de lenguas, la resolución de problemas matemáticos o incluso la creación musical mediante herramientas de IA. Cada actividad está cuidadosamente estructurada, incorporando objetivos pedagógicos, instrucciones paso a paso, resultados obtenidos y una reflexión crítica sobre sus fortalezas y limitaciones, lo que convierte la guía en un instrumento directamente transferible al aula.

Además, la guía no se limita a promover el uso instrumental de la inteligencia artificial, sino que insiste en la necesidad de desarrollar una actitud crítica y reflexiva hacia estas tecnologías. En este sentido, plantea la importancia de que tanto docentes como estudiantes comprendan las implicaciones éticas, sociales y educativas de la IA, fomentando un uso responsable, creativo y consciente. La propuesta pedagógica subyacente apuesta por una integración equilibrada en la que la tecnología no sustituya al docente, sino que amplifique sus capacidades y enriquezca la experiencia educativa.

Otro aspecto relevante es la organización de los contenidos, que facilita su accesibilidad y aplicabilidad. Las actividades están clasificadas tanto por áreas de conocimiento como por herramientas de inteligencia artificial, lo que permite a los docentes seleccionar fácilmente aquellas propuestas más adecuadas a sus necesidades. Asimismo, la inclusión de materiales complementarios, como presentaciones para trabajar con el alumnado, refuerza el carácter didáctico de la obra y su vocación de ser utilizada como guía de referencia en contextos educativos diversos.

En conjunto, la guía representa una aportación significativa al campo de la innovación educativa, al ofrecer un modelo concreto de incorporación de la inteligencia artificial en el aula basado en la experimentación, la reflexión crítica y la mejora continua. Su enfoque combina la dimensión técnica con la pedagógica, contribuyendo a preparar al profesorado para afrontar los retos y oportunidades que plantea la inteligencia artificial en la educación contemporánea.

Inteligencia artificial y edición científica en el contexto de la Ciencia Abierta: desafíos, riesgos y oportunidades

Vechi, Bernardo Dionízio, Milton Shintaku, Maria Aniolly Queiroz Maia y Rosilene Paiva Marinho de Sousa. 2026. Inteligência artificial na editoração científica em Ciência Aberta. Brasília: Ibict Editora. https://omp-editora.prd.ibict.br/index.php/edibict/catalog/book/385

Texto completo

La obra analiza de manera sistemática el impacto de la inteligencia artificial, especialmente la generativa, en los procesos de edición científica dentro del marco de la Ciencia Abierta.

Los autores parten de la constatación de que estas tecnologías están transformando profundamente todas las etapas del ciclo editorial, desde la redacción de manuscritos hasta la evaluación por pares, la normalización de contenidos y su posterior difusión. En este sentido, el libro no solo describe las posibilidades técnicas de la IA, sino que también se adentra en sus implicaciones estructurales para el ecosistema de la comunicación científica.

Uno de los ejes centrales del análisis es la tensión entre eficiencia y calidad. La inteligencia artificial permite acelerar procesos editoriales, automatizar tareas repetitivas y mejorar la accesibilidad a los contenidos científicos. Sin embargo, esta misma automatización introduce riesgos significativos, como la generación de textos con errores o “alucinaciones”, la pérdida de originalidad y la posible homogeneización del discurso académico. Los autores advierten que el uso indiscriminado de estas herramientas puede afectar negativamente a la integridad científica si no se establecen mecanismos de control adecuados.

El libro también aborda con profundidad las implicaciones éticas del uso de la IA en la edición científica. Entre los problemas más destacados se encuentran la falta de transparencia en el uso de estas herramientas, la dificultad para rastrear la autoría real de los textos generados y los desafíos relacionados con la responsabilidad editorial. En este contexto, se subraya la necesidad de desarrollar políticas claras que regulen el uso de la inteligencia artificial, así como de establecer criterios que permitan identificar cuándo y cómo ha sido utilizada en la producción de contenidos científicos.

Otro aspecto relevante es la cuestión de la gobernanza de los datos y la protección de la información. La integración de sistemas de inteligencia artificial en plataformas editoriales implica el tratamiento de grandes volúmenes de datos, lo que plantea interrogantes sobre la privacidad, la seguridad y el control de dichos datos. Los autores insisten en que estas cuestiones deben ser abordadas desde una perspectiva crítica, especialmente en un entorno de Ciencia Abierta que promueve el acceso y la reutilización de la información.

Finalmente, la obra propone un enfoque equilibrado que reconoce tanto las oportunidades como los riesgos de la inteligencia artificial. Se defiende que, aunque estas tecnologías pueden mejorar significativamente los procesos editoriales, las decisiones clave deben seguir siendo responsabilidad de los seres humanos. En este sentido, el libro aboga por una integración ética y responsable de la IA, basada en principios de transparencia, rendición de cuentas y preservación de la calidad científica. En conjunto, se trata de una contribución relevante para editores, bibliotecarios, investigadores y gestores de información que buscan comprender y gestionar el impacto de la inteligencia artificial en la comunicación científica contemporánea.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Planeta biblioteca 2026/04/09.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Planeta biblioteca 2026/04/09.

ESUCHAR

Descargar

En esta ocasión, Julio Alonso Arévalo analiza el impacto de la inteligencia artificial generativa en la integridad académica, destacando su rápida adopción y su utilidad en la investigación y la escritura. Señala que estas herramientas plantean riesgos como el plagio, la falta de originalidad, la generación de información falsa (alucinaciones) y el uso no declarado en publicaciones científicas. Asimismo, expone evidencias del aumento de textos académicos asistidos por IA y de problemas reales derivados de su uso indebido. Aborda también las limitaciones de los detectores de contenido generado por IA, subrayando su falta de fiabilidad y sus sesgos. Propone, además, medidas como el desarrollo de políticas claras, el uso de herramientas tecnológicas de detección y la alfabetización en IA para fomentar un uso ético y crítico. Concluye que la IA es una herramienta valiosa, pero no sustituye el pensamiento humano, siendo fundamentales la transparencia, la formación y la responsabilidad en su uso.