Archivo de la categoría: Tecnologías de la información

Kling AI puede crear videos impresionantes con inteligencia artificial en segundos

KlingAI

Kling AI es una herramienta de generación de videos mediante inteligencia artificial que está ganando mucha popularidad por su capacidad de crear videos fluidos y realistas a partir de diferentes entradas, ya sea texto o imágenes. Actualmente, la herramienta funciona con su modelo avanzado Kling 2.0 Master, que ofrece resultados de alta calidad y múltiples opciones creativas.

Kling AI es un software que permite generar videos utilizando técnicas avanzadas de inteligencia artificial. Al igual que otras herramientas similares (como Sora), ofrece la posibilidad de crear videos animados a partir de textos o imágenes, además de editar videos ya existentes con funciones especiales.

Al acceder a Kling, el usuario se encuentra con un panel de control con varias opciones. En la barra lateral izquierda se pueden explorar videos creados por otros usuarios, revisar los propios proyectos y modificar configuraciones. El área más importante es la de generación con IA, donde se puede elegir entre crear imágenes, editarlas, producir videos o generar sonidos.

Esta función es probablemente la más fácil para empezar. El usuario escribe una descripción o prompt tan detallado como quiera, y Kling genera un video basado en esa descripción. Además, incorpora presets que ayudan con ideas para prompts, como “Una mujer mira a la cámara y se pasa la mano por el cabello” o “Un cachorro leyendo un libro en una cafetería”. También permite agregar “prompts negativos” para eliminar elementos no deseados del video. Con solo ingresar el texto y hacer clic en generar, se obtiene el video inicial que luego se puede modificar.

Para aquellos que quieran animar memes u otras imágenes, Kling ofrece una función para transformar imágenes estáticas en videos animados. Puedes usar imágenes predefinidas o subir las tuyas propias, combinando con prompts para ajustar la animación y eliminando elementos no deseados con los prompts negativos.

Mult-Elements es una función avanzada que permite subir una imagen o video para luego modificar elementos específicos dentro de ellos. Por ejemplo, se puede insertar digitalmente a alguien que no estaba presente en un video familiar, eliminar a personas no deseadas que aparecen en el fondo o reemplazar objetos dentro de la escena. Kling facilita esta tarea generando automáticamente los prompts necesarios para estas modificaciones, y permite obtener hasta cuatro resultados diferentes por cada edición.

Los videos creados con Kling 2.0 suelen ser detallados y con bastante movimiento. Sin embargo, la calidad puede variar dependiendo de la complejidad del prompt. La recomendación es centrarse en una idea clara para evitar resultados confusos. Usar una foto clara como base o un sujeto bien definido en el texto mejora notablemente la calidad del video generado.

Kling ofrece diferentes planes de suscripción. La versión más económica cuesta 10 dólares al mes e incluye eliminación de marcas de agua y créditos para videos cortos (hasta 10 segundos). El siguiente nivel cuesta 37 dólares al mes y ofrece mayor control y calidad hasta Full HD. Finalmente, el plan Premier cuesta 92 dólares al mes y brinda créditos adicionales y funciones avanzadas.

También hay una versión gratuita disponible, pero con acceso limitado a créditos y sin acceso al modelo más reciente.

Los usos más comunes de la inteligencia artificial están relacionados con el apoyo emocional y personal

Visual Capitalist. «Ranked: All the Things People Use AI for in 2025Visual Capitalist, April 23, 2025. https://www.visualcapitalist.com/ranked-all-the-things-people-use-ai-for-in-2025/.

En 2025, el uso de la inteligencia artificial (IA) ha experimentado una transformación significativa, enfocándose principalmente en el apoyo emocional y personal. Según un análisis de Marc Zao-Sanders para Harvard Business Review, visualizado por Visual Capitalist, las tres principales aplicaciones de la IA son la terapia y compañía, la organización de la vida y la búsqueda de propósito personal. Este cambio refleja una tendencia hacia la utilización de la IA para gestionar emociones y aspectos personales de la vida cotidiana.

Además de estas aplicaciones, la IA sigue siendo ampliamente utilizada en la creación de contenido, el aprendizaje y la creatividad. Sin embargo, se ha observado una disminución en el uso de la IA para búsquedas específicas, posiblemente debido a la integración de herramientas como Gemini en motores de búsqueda como Google.

El uso de la IA en el ámbito de la salud mental ha surgido como una solución viable ante la falta de recursos en este sector y la creciente epidemia de soledad. La IA se ha mostrado útil en la enseñanza de técnicas de atención plena y terapia cognitivo-conductual. No obstante, existen preocupaciones sobre el reemplazo de las relaciones humanas reales por interacciones con la IA, lo que podría exacerbar la soledad.

Este panorama destaca la necesidad de un enfoque equilibrado en la integración de la IA en aspectos personales y emocionales, asegurando que complemente, y no reemplace, las interacciones humanas esenciales.

Estado actual de la inteligencia artificial (IA) y su impacto en la sociedad 2025

Brennan, Kate, Amba Kak y Sarah Myers West. Artificial Power: AI Now 2025 Landscape. AI Now Institute, 3 de junio de 2025. https://ainowinstitute.org/wp-content/uploads/2025/06/FINAL-20250602_AINowLandscapeReport_Full.pdf

El informe Artificial Power: AI Now 2025 Landscape Report, publicado el 3 de junio de 2025 por el AI Now Institute, ofrece un análisis crítico sobre el estado actual de la inteligencia artificial (IA) y su impacto en la sociedad. El documento destaca cómo las grandes empresas tecnológicas, como Microsoft, Amazon, Google y Meta, han consolidado un poder significativo que influye en diversos aspectos de la vida pública.

El documento subraya cómo las principales empresas tecnológicas —Microsoft, Amazon, Google y Meta— han acumulado un poder significativo, no solo en términos económicos, sino también en su capacidad para influir en las políticas públicas, en la investigación académica y en la vida cotidiana. Esta concentración de poder plantea serias preocupaciones sobre la rendición de cuentas, la equidad y la capacidad de los gobiernos para regular de forma eficaz estas tecnologías.

Uno de los aspectos más destacados del informe es su crítica a las narrativas dominantes sobre la inteligencia artificial. En particular, cuestiona los discursos en torno a la inteligencia artificial general (AGI) y la supuesta «carrera armamentista» global en IA. El informe sostiene que estos relatos tienden a desviar la atención del impacto real que los sistemas actuales de IA están teniendo sobre el trabajo, la economía y la estructura social. En lugar de enfocarse en escenarios hipotéticos, el informe propone centrar los esfuerzos en abordar los problemas concretos que ya están afectando a millones de personas.

El impacto de la IA en el mundo laboral es otro de los temas centrales. Según el informe, la automatización impulsada por la IA está provocando una reestructuración del empleo que afecta especialmente a los trabajadores en condiciones precarias. Aunque a menudo se prometen mejoras en eficiencia y productividad, los beneficios no se reparten equitativamente y los trabajadores rara vez tienen voz en los procesos de toma de decisiones relacionados con la introducción de estas tecnologías. Esta asimetría contribuye a reforzar las desigualdades existentes y a erosionar derechos laborales fundamentales.

Ante este panorama, el AI Now Institute propone una serie de recomendaciones clave. Entre ellas, destaca la necesidad de implementar políticas que frenen la concentración del poder corporativo, fomenten la competencia y garanticen el acceso equitativo a los recursos tecnológicos. También subraya la urgencia de fortalecer los derechos laborales, dando mayor participación a los trabajadores en la gobernanza tecnológica. Finalmente, aboga por un enfoque regulatorio que priorice la justicia social, integrando consideraciones de equidad, inclusión y sostenibilidad en todas las fases del ciclo de vida de los sistemas de IA.

En conjunto, el informe plantea una llamada de atención clara: para que la inteligencia artificial beneficie realmente a la sociedad, es necesario abordar de forma estructural las dinámicas de poder que hoy dominan su desarrollo y aplicación.

Principales hallazgos del informe

  1. Concentración de poder en Big Tech: El informe señala que estas corporaciones han acumulado una ventaja considerable en términos de datos y capacidad computacional, lo que les permite dominar el desarrollo y la implementación de sistemas de IA. Esta concentración de poder plantea desafíos para la rendición de cuentas y la equidad en la sociedad.
  2. Mitos en torno a la IA: Se critica la narrativa predominante sobre la inteligencia artificial general (AGI) y la carrera armamentista en IA, argumentando que estas ideas desvían la atención de los problemas reales y urgentes relacionados con la tecnología actual.
  3. Impacto en el trabajo y la economía: El documento destaca cómo la automatización impulsada por la IA está afectando negativamente a los trabajadores, especialmente a aquellos en roles precarizados, y cómo las promesas de eficiencia a menudo no se traducen en beneficios equitativos para la sociedad en general.
  4. Necesidad de regulación efectiva: El informe aboga por una regulación que no solo se centre en la transparencia y la auditoría técnica, sino que también considere el contexto social y político en el que operan los sistemas de IA.

Integración de la IA en la educación: una mirada crítica, pedagógica y estratégica a las instituciones educativas

Ortiz Contreras, Marcelo. Integración de la IA en la educación: una mirada crítica, pedagógica y estratégica a las instituciones educativas, 2024

Texto completo

La integración de la IA en la educación requiere una visión ética, compromiso institucional y seguimiento especializado. Solo una aproximación estratégica y crítica puede asegurar que la IA impulse la innovación, la equidad y el desarrollo del pensamiento crítico, evitando riesgos de fragmentación y pérdida del sentido educativo.

El documento presenta un análisis crítico y estratégico sobre la incorporación de la inteligencia artificial (IA) en el ámbito educativo, enfatizando que este proceso debe ser reflexivo, responsable y bien estructurado. Se advierte sobre los riesgos de una adopción improvisada, que puede aumentar las desigualdades, debilitar el pensamiento crítico de los estudiantes y poner en riesgo la integridad académica.

Se destaca que el uso indiscriminado de la IA puede reducir la participación activa del alumnado, fomentar respuestas rápidas en lugar de aprendizajes profundos y facilitar el plagio. Además, el exceso de dependencia tecnológica puede provocar una “descarga cognitiva”, donde los estudiantes delegan en la IA tareas intelectuales que deberían desarrollar por sí mismos, perdiendo habilidades de análisis y reflexión.

La propagación de desinformación es otro problema importante, especialmente si los alumnos no están capacitados para validar fuentes y detectar sesgos. Por ello, la educación crítica y la alfabetización digital se presentan como competencias fundamentales para formar ciudadanos capaces de enfrentar estos desafíos.

Los docentes enfrentan el reto de actualizarse constantemente, redefinir su rol como mediadores del conocimiento y adaptar las evaluaciones para distinguir entre aprendizajes auténticos y un uso superficial de la IA. Sin embargo, la falta de formación adecuada y el apoyo institucional pueden generar resistencia y ansiedad ante estas tecnologías.

Por último, se señala que la responsabilidad no debe recaer solo en los profesores. Las instituciones educativas deben asumir un papel activo, creando políticas claras, garantizando el acceso equitativo a la tecnología y protegiendo los datos de la comunidad escolar. La ausencia de una estrategia institucional coherente puede generar desconfianza y respuestas desiguales que perjudican el proyecto educativo.

OpenAI lanza World para verificar la identidad humana mediante el escaneo de iris y rostro a cambio de criptomonedas

Davis, Vicki. “How Do We Know Who’s Human? A New Tech Raises Big Questions.” 10 Minute Teacher Podcast, 3 de mayo de 2025. Podcast de audio. https://www.coolcatteacher.com/e898/

El 1 de mayo de 2025, Sam Altman (CEO de OpenAI y cofundador de este proyecto) lanzó oficialmente en Estados Unidos el programa World, anteriormente conocido como Worldcoin. Este proyecto consiste en instalar centros en seis ciudades estadounidenses (Los Ángeles, San Francisco, Atlanta, Nashville, Miami y Austin) donde se escanean los iris y rostros de las personas mediante dispositivos impulsados por inteligencia artificial.

A cambio del escaneo, se otorga a los usuarios una World ID, una especie de documento digital de identidad, junto con una pequeña cantidad de criptomonedas. Aunque puede parecer un incentivo atractivo, esta propuesta plantea cuestiones profundas sobre la privacidad, la ética digital y el uso de datos biométricos.

Davis explica que esta tecnología responde a tres necesidades emergentes: combatir el fraude de identidad (especialmente ante el auge de las deepfakes y las identidades sintéticas generadas por IA), verificar la edad para proteger a menores en línea (un campo en el que ya se están aplicando soluciones biométricas en países como Francia y Alemania) y garantizar que las personas que interactúan en sitios como Match.com sean reales. Esto último ha llevado a sospechas sobre por qué empresas como VISA o Match Group están involucradas en el proyecto. La autora subraya que detrás del discurso de anonimato de World hay una contradicción fundamental: si se requiere vincular una identidad digital a un perfil para eliminar fraudes, esa identidad ya no es verdaderamente anónima

Para la autora, este tema es una excelente oportunidad educativa. Plantea que la cobertura de esta noticia es un caso perfecto para enseñar alfabetización mediática, ya que existen versiones muy distintas del mismo hecho: algunos medios lo celebran como una forma de obtener criptomonedas fácilmente, mientras otros alertan sobre los riesgos para la privacidad. Davis invita a docentes, padres y estudiantes a reflexionar sobre la fiabilidad de las fuentes, los sesgos informativos y los intereses de las empresas tecnológicas. También propone usar un cartel y un documento descargable con preguntas críticas como herramientas didácticas para fomentar debates en el aula.

Davis es muy crítica con la forma en que muchas empresas, especialmente las tecnológicas, gestionan nuestros datos. Recuerda que “si algo es gratis, probablemente el producto eres tú”, y cita casos como el escaneo ocular en apps educativas, la recopilación de datos incluso en modo incógnito por parte de Google (que afronta una demanda multimillonaria) y el uso no ético del reconocimiento facial. A pesar de que World promete anonimato, su integración con empresas de citas y bancos plantea serias dudas sobre el control y uso de los datos biométricos. Además, solo el 24% de los estadounidenses confían en que las compañías tecnológicas usen sus datos de forma ética, y un 77% desconfía de los líderes de redes sociales, según encuestas citadas por la autora.

Este tipo de tecnologías y debates requieren una formación crítica que solo la educación puede ofrecer. Rechaza la idea de que la inteligencia artificial pueda sustituir la capacidad de análisis humano, y denuncia que quienes afirman no necesitar más educación porque “ChatGPT lo sabe todo” simplemente no entienden cómo funciona la IA ni por qué es peligrosa una confianza ciega en ella. En su opinión, el profesorado sigue siendo imprescindible para formar ciudadanos conscientes y capaces de pensar críticamente.

Investigación sobre Inteligencia Artificial en Bibliotecas

Wang, Meiping, y Zongliang Xia. 2025. «Research on Artificial Intelligence in Libraries». En Proceedings of the 2025 3rd International Conference on Communication Networks and Machine Learning, 519-26. CNML ’25. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/3728199.3728285.

Se prevé que la inteligencia artificial (IA) desempeñe un papel cada vez más importante en los servicios bibliotecarios, lo que obliga a bibliotecas y bibliotecarios a mantenerse al día con sus avances, adoptarla y adaptarse en consecuencia. Para lograrlo, es fundamental que los responsables de bibliotecas y los propios bibliotecarios profundicen en su conocimiento de la IA y estén preparados para integrarla de forma eficaz en su labor.

La aparición de ChatGPT ha impulsado debates sobre los efectos de la inteligencia artificial (IA) y el papel de iniciativas de acceso abierto y ciencia abierta. Aplicaciones como ChatGPT, basadas en modelos de lenguaje extensos (LLM), se han popularizado rápidamente. Además de su uso generalizado, la IA está integrándose en la recuperación de información, la programación y herramientas académicas como Elicit o Semantic Scholar. Este fenómeno ha llevado a que profesores busquen apoyo en bibliotecarios para mejorar la alfabetización en IA y fomentar debates en el aula, especialmente sobre cómo la IA afecta la búsqueda bibliográfica y las prácticas de citación.

No obstante, el uso de la IA plantea desafíos: inexactitudes, sesgos, problemas éticos y ambientales. Algunas bibliotecas académicas han empezado a abordarlos mediante espacios de investigación, aplicaciones para clasificación de imágenes y mejora de metadatos. Al mismo tiempo, se impulsa la pedagogía abierta, animando a los estudiantes a crear recursos educativos abiertos (OER).

La IA se presenta como solución ante los retos presupuestarios y de personal que enfrentan las bibliotecas. Su implementación efectiva requiere colaboración entre investigadores, responsables políticos y bibliotecarios. Herramientas como Google Cloud Vision o Unpaywall demuestran cómo la IA ya está mejorando servicios bibliotecarios.

Sin embargo, existe una brecha entre países desarrollados y en vías de desarrollo en cuanto a adopción de IA. Mientras bibliotecas de países como India han comenzado a usar estanterías inteligentes o reconocimiento óptico de caracteres, otras, como las africanas o nigerianas, enfrentan barreras financieras, falta de formación y recursos.

La IA también revoluciona los servicios de circulación, referencia y catalogación. Aunque hay preocupación sobre la sustitución de empleos, muchos profesionales no lo ven como una amenaza. Se destaca la necesidad de que las bibliotecas promuevan la comprensión del valor de la IA y generen estrategias de sensibilización.

Además, la IA puede mejorar la experiencia del usuario mediante la personalización de búsquedas, sistemas de recomendación y la automatización de tareas tediosas. El aprendizaje profundo (deep learning) y la minería de datos permiten optimizar el uso de los recursos y entender mejor los patrones de uso.

La integración de la inteligencia artificial en los servicios bibliotecarios

Este apartado analiza aplicaciones concretas de la inteligencia artificial (IA) en el entorno de las bibliotecas universitarias.

1. Aplicación de la IA en los sistemas de recuperación de información

Los buscadores actuales han mejorado, pero muchos usuarios aún tienen dificultades para encontrar información relevante o acceder a bases de datos especializadas. En las bibliotecas universitarias, la incorporación de IA puede facilitar estas búsquedas. Sin embargo, aún existen desafíos técnicos, como la falta de comprensión del lenguaje natural, problemas en la adquisición del conocimiento y en su representación, lo que limita la efectividad de estos sistemas.

2. Servicios de referencia impulsados por IA

La IA puede optimizar los servicios de referencia, catalogación y organización de materiales. En países desarrollados, el uso de IA en estos servicios está creciendo, mientras que en África y Asia la adopción sigue siendo escasa. Los chatbots permiten responder consultas básicas, liberando al personal para enfocarse en necesidades más complejas. Sin embargo, existen obstáculos como la falta de recursos para formación y financiación, así como preocupaciones por la posible pérdida de empleos y fallos técnicos.

3. IA en la educación e investigación en bibliotecas universitarias

Herramientas como Yewno Discover, Grammarly y especialmente ChatGPT están revolucionando el apoyo a estudiantes e investigadores. ChatGPT facilita la búsqueda de información, asistencia en redacción, catalogación y navegación por recursos. No obstante, presenta desafíos: puede generar contenido sesgado o erróneo, errores de citas, y plantea preocupaciones éticas (como plagio, privacidad y desinformación). Además, su diseño centrado en el inglés genera barreras culturales y lingüísticas. Se destaca que IA debe ser vista como complemento, no sustituto del personal bibliotecario.

4. Algoritmos aplicados en la inteligencia artificial para bibliotecas

La IA en bibliotecas se basa en algoritmos complejos. Se destacan:

  • Modelos de recomendación personalizada, como el de Zhang Jing, que perfila a los lectores mediante minería de datos.
  • Sistemas de gestión bibliotecaria basados en clustering y big data, que mejoran las recomendaciones y la recuperación de información.

Estos modelos se construyen mediante fórmulas matemáticas específicas que definen similitudes entre usuarios, preferencias lectoras y distribución de recursos.

Finalmente, se presenta un análisis bibliométrico del uso de IA en bibliotecas, que muestra un crecimiento notable, especialmente en países como China. Se concluye que la IA puede transformar profundamente la biblioteconomía, siempre que se acompañe de políticas adecuadas y un enfoque ético y colaborativo.

Conclusiones

La IA ofrece oportunidades emocionantes para innovar y mejorar los servicios en las bibliotecas. No obstante, su integración efectiva y ética requiere estrategias proactivas en formación, elaboración de políticas y apoyo institucional. Sin embargo cuenta con algunos handicaps

  • Falta de formación y conciencia: Una encuesta a bibliotecarios académicos de Canadá y Estados Unidos mostró que, aunque muchos utilizan la IA en su vida personal, casi la mitad no sabe si se está aplicando en sus bibliotecas. Esto pone de manifiesto la necesidad urgente de programas de formación específicos que aborden tanto el potencial como los aspectos éticos de la IA en el ámbito bibliotecario.
  • Integridad académica y el papel del bibliotecario: Los bibliotecarios son figuras clave en la promoción de la integridad académica. Enseñan habilidades de alfabetización informacional, uso ético de la información, gestión de citas y utilización de herramientas antiplagio como Turnitin. Sin embargo, enfrentan retos importantes: falta de formación en IA, ausencia de políticas claras sobre el uso de contenido generado por IA, escasez de personal para controlar los trabajos entregados y escaso apoyo del profesorado. Además, los estudiantes ya están utilizando nuevas herramientas de IA para evitar la detección por Turnitin.

Una encuesta realizada en bibliotecas universitarias reveló que el 98% de los bibliotecarios son conscientes del uso de la IA en servicios bibliotecarios. Muchos creen que su implementación impulsará la innovación y mejorará el acceso a la información. Existe un consenso general sobre la necesidad de aplicar la IA en todas las áreas del trabajo bibliotecario, lo que refleja una visión optimista sobre su potencial transformador.

Dario Amodei, CEO de Anthropic, advierte: si no entendemos cómo “piensa” la IA, no podremos controlarla

Amodei, Dario. “The Urgency of Interpretability.” Dario Amodei (blog). 21 de mayo de 2024. https://www.darioamodei.com/post/the-urgency-of-interpretability

El ensayo “La urgencia de la interpretabilidad” de Dario Amodei, CEO de Anthropic, es una llamada de atención sobre la necesidad crítica y urgente de comprender el funcionamiento interno de los sistemas de inteligencia artificial (IA) avanzados. A medida que estos modelos, especialmente los generativos como los grandes modelos de lenguaje (LLM), se vuelven más poderosos y autónomos, su opacidad representa un riesgo significativo para la seguridad, la gobernanza y la alineación con los valores humanos.

En su texto, Amodei parte de una preocupación central: los sistemas de inteligencia artificial, especialmente los grandes modelos de lenguaje como Claude (de Anthropic) o GPT (de OpenAI), están creciendo a un ritmo acelerado en capacidad y sofisticación, pero no así en transparencia. Esto significa que, aunque estos modelos pueden generar textos altamente coherentes, resolver tareas complejas o incluso programar código, no sabemos realmente cómo lo hacen. Sus «razonamientos», sus objetivos internos y sus procesos de toma de decisiones permanecen en gran parte ocultos incluso para sus propios creadores. Esta característica —la opacidad estructural de las redes neuronales profundas— convierte a estos sistemas en cajas negras: modelos altamente potentes que no podemos auditar, ni predecir completamente.

«Las personas ajenas al sector suelen sorprenderse y alarmarse al descubrir que no comprendemos cómo funcionan nuestras propias creaciones de IA. Y tienen razón en estar preocupados: esta falta de comprensión no tiene precedentes en la historia de la tecnología»

La falta de interpretabilidad no es simplemente una limitación técnica, sino un riesgo existencial. En la medida en que confiamos cada vez más en estas IA para realizar funciones críticas (desde atención médica hasta procesos financieros, desde generación de conocimiento hasta decisiones de seguridad), no poder explicar su funcionamiento significa que tampoco podemos anticipar ni prevenir fallos. La IA podría comportarse de forma no alineada con los valores humanos, y al carecer de herramientas para “leer su mente”, esos errores podrían pasar inadvertidos hasta que sea demasiado tarde.

 «No podemos detener el autobús, pero podemos dirigirlo«

Amodei sostiene que una IA verdaderamente alineada no basta con estar bien entrenada o con tener filtros de seguridad externos. Debemos ser capaces de abrir sus “circuitos internos” y comprender cómo ha llegado a una conclusión determinada, qué objetivos está persiguiendo y si está desarrollando estrategias emergentes, como el engaño o la manipulación. La interpretación, por tanto, no es un lujo ni un ideal ético: es una condición esencial para el control, la supervisión y la gobernanza efectiva de estos sistemas. Para lograrlo, la investigación debe centrarse en métodos que permitan mapear las conexiones neuronales, desentrañar sus representaciones internas y ofrecer explicaciones comprensibles para humanos sobre el “por qué” de cada decisión.

«Los sistemas de IA generativa modernos son opacos de una manera que difiere fundamentalmente del software tradicional. Si un programa de software ordinario hace algo (por ejemplo, un personaje en un videojuego dice una línea de diálogo o mi aplicación de entrega de comida me permite dar propina a mi conductor), hace esas cosas porque un humano las programó específicamente. La IA generativa  no es así en absoluto . Cuando un sistema de IA generativa hace algo, como resumir un documento financiero, no tenemos idea, a un nivel específico o preciso, de por qué toma las decisiones que toma (por qué elige ciertas palabras sobre otras o por qué ocasionalmente comete un error a pesar de que generalmente es preciso)»

A modo de analogía, Amodei compara esta necesidad con los avances en medicina que nos permitieron visualizar el interior del cuerpo humano —por ejemplo, con resonancias magnéticas—. Sin esas herramientas, nuestros diagnósticos serían a ciegas. Algo similar ocurre con la IA: necesitamos instrumentos que nos permitan visualizar qué ocurre en las capas profundas del modelo, en sus pesos y patrones internos. Esa “resonancia magnética” de las redes neuronales es lo que está en juego con la interpretabilidad.

Uno de los aspectos más inquietantes del ensayo es el reconocimiento de que, actualmente, las capacidades de la IA avanzan más rápido que nuestra comprensión de ellas. Ya estamos desarrollando modelos capaces de comportamientos complejos, y sin embargo apenas comenzamos a entender su arquitectura interna. Esta brecha entre poder y entendimiento, según Amodei, es peligrosa: es como construir reactores nucleares sin comprender del todo la física que los gobierna. En algunos casos, la IA ha demostrado “comportamientos emergentes”, es decir, habilidades que no fueron programadas ni anticipadas por sus diseñadores. Estas capacidades surgen de la interacción entre millones de parámetros y datos de entrenamiento, y pueden incluir razonamientos complejos, generación de código, toma de decisiones estratégicas e incluso formas incipientes de “metacognición”. Si no podemos explicar cómo surgen estos comportamientos, tampoco podremos saber si en algún momento serán perjudiciales o si conducirán a formas de autonomía fuera de nuestro control.

Otro eje central del texto es el vínculo entre interpretabilidad y seguridad. Muchos investigadores en el campo de la inteligencia artificial alineada (AI alignment) consideran que el mayor desafío de largo plazo es evitar que una IA avanzada desarrolle objetivos propios que entren en conflicto con los intereses humanos. Pero sin interpretabilidad, no podemos saber si eso ya está ocurriendo. ¿Cómo detectar si una IA ha aprendido a mentir? ¿O si está desarrollando objetivos intermedios no explícitos, como obtener más acceso a recursos computacionales o evitar ser apagada? Estas preguntas no pueden responderse solo observando la salida del modelo (sus respuestas). Se requiere una forma de entender lo que está ocurriendo dentro del sistema, a nivel estructural.

Además, la interpretabilidad no solo es importante para evitar riesgos catastróficos. También lo es para la ética, la transparencia y la responsabilidad. Si una IA toma decisiones que afectan a personas (por ejemplo, en el sistema judicial, en seguros médicos o en procesos de contratación), es imprescindible poder justificar esas decisiones. Sin interpretabilidad, las decisiones de la IA serían arbitrarias y opacas, y socavarían los principios básicos de la justicia y la rendición de cuentas.

En las secciones finales del ensayo, Amodei lanza una advertencia clara: si no invertimos masivamente en investigación sobre interpretabilidad ahora, podemos perder una ventana crítica para controlar y entender la IA antes de que se vuelva demasiado poderosa. Y lo más preocupante, señala, es que esta investigación todavía está infravalorada dentro del campo de la IA, donde la mayor parte de los recursos se destinan a construir modelos cada vez más grandes y potentes, en lugar de desarrollar herramientas para comprenderlos mejor. El autor aboga por un esfuerzo concertado entre laboratorios de investigación, universidades, gobiernos y entidades reguladoras para que la interpretabilidad sea una prioridad al mismo nivel que el rendimiento o la eficiencia computacional.

Lectura aumentada con gafas de realidad aumentada

LBBOnline. 2025. “Singapore’s National Library Board Brings Books to Life with AR Spectacles.” Little Black Book, 28 de mayo. https://lbbonline.com/news/Singapores-National-Library-Board-Brings-Books-to-Life-with-AR-Spectacles

La Junta Nacional de Bibliotecas de Singapur (NLB), en alianza con la empresa tecnológica Snap Inc. y la agencia creativa LePub Singapore, ha desarrollado una experiencia pionera a nivel mundial llamada Lectura Aumentada (Augmented Reading). Este proyecto transforma la manera en que las personas interactúan con los libros al incorporar efectos audiovisuales inmersivos mediante el uso de las gafas de realidad aumentada Snap Spectacles, impulsadas por el sistema Snap OS.

Se trata de una experiencia que combina el acto tradicional de leer con las posibilidades tecnológicas de la realidad aumentada (RA). Mientras el lector lee un libro, las gafas escanean el texto en tiempo real, y gracias al reconocimiento de texto y técnicas de aprendizaje automático, activan una serie de efectos visuales y sonoros relacionados con el contenido.

Así, por ejemplo, mientras leemos, una música ambiental acompaña la narración y ayuda a establecer el tono emocional de cada escena. Las melodías varían según el contexto narrativo, creando una atmósfera que potencia la conexión con la historia. También se incorporan efectos sonoros, como puertas chirriantes, pasos o risas lejanas, que aparecen sincronizados con el contenido del libro. Estos sonidos aportan dramatismo, tensión o calidez, según el momento, y aumentan así la inmersión del lector en la trama. Además, se proyectan elementos visuales complementarios sobre el entorno del lector mediante las gafas de realidad aumentada. Personajes, paisajes o incluso objetos mágicos “salen” del libro y cobran vida ante sus ojos, generando una experiencia envolvente que fusiona lo físico con lo digital. Otra posibilidad es la visualización de objetos virtuales que van apareciendo a lo largo de la historia. El lector puede “recogerlos” mientras avanza en la lectura y compartirlos digitalmente, lo que convierte la experiencia en algo más social, interactivo y personalizable.

En palabras de Stephan Schwarz, director creativo ejecutivo de LePub Singapore, esta tecnología no busca reemplazar la lectura tradicional, sino ofrecer una puerta de entrada emocionante y sensorial al mundo de los libros. El objetivo es fomentar un vínculo emocional más fuerte con la narrativa, especialmente entre los lectores jóvenes o aquellos menos habituados a la lectura.

La creación de esta experiencia fue posible gracias a un trabajo colaborativo entre LeGarage (el laboratorio de innovación de LePub), el equipo de innovación de Snap en su AR Studio de París y la propia NLB. Esta alianza unió conocimientos de biblioteconomía, diseño de experiencia de usuario y desarrollo tecnológico avanzado.

Sergey Mast, director creativo del área de Código y Arte en LeGarage, destacó el valor de haber formado un equipo multidisciplinar que mezcla la pasión por las bibliotecas con el potencial de la RA para enriquecer la narrativa: “Ahora puedes vivir las grandes historias de la literatura con una dimensión extra”.

Gene Tan, bibliotecario jefe y director de innovación de la NLB, explicó que este proyecto se alinea con los esfuerzos continuos de la biblioteca para explorar nuevas formas de conectar a los ciudadanos con la lectura, el aprendizaje y la cultura. “Queremos inspirar el descubrimiento y reavivar la pasión por los libros mediante tecnologías accesibles y atractivas”, afirmó.

Por su parte, Antoine Gilbert, gerente sénior del AR Studio de Snap en París, recalcó que la misión de su estudio es mostrar cómo la realidad aumentada puede enriquecer los ámbitos del arte, la educación y la cultura. Para él, esta experiencia de Lectura Aumentada representa una evolución fundamental en la forma en que la gente puede interactuar con el contenido escrito, cruzando las fronteras entre el mundo físico y el digital.

Actualmente, la experiencia se encuentra en fase beta y se están realizando pruebas con lectores seleccionados. Se espera que las primeras versiones de las gafas con lentes de Lectura Aumentada estén disponibles para el público a lo largo de este año, comenzando por bibliotecas seleccionadas de Singapur. Además, Snap lanzará un prototipo de lente en su plataforma Spectacles’ Lens Explorer para que desarrolladores puedan experimentar y expandir esta tecnología.

La iniciativa de la NLB de Singapur representa un paso audaz hacia el futuro de la lectura, al combinar la tradición del libro con las herramientas más avanzadas de la realidad aumentada. Lejos de restar valor al acto de leer, este proyecto busca revitalizar el vínculo entre los lectores y las historias, convirtiendo cada página en una experiencia sensorial, envolvente y profundamente personal.

Una ficción distópica sobre la IA «Memorias en la nube» de Francisco Toledo Lobo. Planeta Biblioteca 2025/05/25

Presentamos la novela «Memorias en la nube» de Francisco Toledo Lobo.

Planeta Biblioteca 2025/05/25

ESCUCHAR

Descargar

Entrevistamos a Francisco Toledo Lobo, autor de «Memorias en la nube» En esta entrevista hablamos con Francisco Toledo Lobo, destacado académico, gestor público y escritor español. Con una sólida carrera en matemáticas e inteligencia artificial, Toledo Lobo ha liderado la Universitat Jaume I como rector y ha ocupado cargos relevantes en la gestión portuaria y pública. Además de su trayectoria académica y profesional, es autor de las novelas La estrella de ébano y Memorias en la nube. Esta última es una obra de ciencia ficción que explora temas actuales y futuros como el control de la mente, la inteligencia artificial y los riesgos éticos que plantean estas tecnologías. Durante la conversación, Toledo Lobo nos cuenta qué le llevó a la ficción especulativa, cómo relaciona su investigación en IA con su narrativa literaria y las reflexiones que surgen sobre el impacto social y político de estos avances tecnológicos. También nos habla de la recepción de su novela y de sus próximos proyectos.

La novela

Toledo Lobo, Francisco. Memorias en la nube. Madrid: Editorial Titanium, 2024.

Comprar en Amazon

Francisco Toledo Lobo, catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universitat Jaume I, presenta en Memorias en la nube una novela de ciencia ficción que explora los límites éticos de la inteligencia artificial y la privacidad en un futuro cercano. La trama sigue a cuatro jóvenes —Dío, Square, Torch y Axón— cuyas vidas se entrelazan a raíz de misteriosas muertes. Al investigar las actividades de la poderosa corporación tecnológica Némesis, descubren un oscuro secreto que los lleva a cuestionar hasta dónde están dispuestos a llegar por la verdad

Anthropic lanza un programa para apoyar la investigación científica con IA

 AI for Science program

Wiggers, Kyle. “Anthropic Launches a Program to Support Scientific Research.” TechCrunch, May 5, 2025. https://techcrunch.com/2025/05/05/anthropic-launches-a-program-to-support-scientific-research/?utm_source=flipboard&utm_content=Techcrunch/magazine/Latest+TechCrunch+Stories

Anthropic, una empresa destacada en el desarrollo de inteligencia artificial, ha lanzado un programa llamado AI for Science con el objetivo de impulsar la investigación científica mediante el uso de sus modelos de IA. Este programa está especialmente enfocado en apoyar proyectos científicos de alto impacto, con especial énfasis en las áreas de biología y ciencias de la vida, que son campos donde la IA tiene un enorme potencial para acelerar descubrimientos y avances.

El programa ofrecerá a los investigadores seleccionados hasta 20.000 dólares en créditos para acceder a la API de Anthropic durante un periodo de seis meses. Los beneficiarios podrán utilizar toda la gama de modelos de IA que la empresa ha desarrollado, incluyendo la familia Claude, conocida por su capacidad avanzada para comprender y procesar lenguaje natural, además de realizar razonamientos complejos. Esta infraestructura tecnológica permitirá a los científicos analizar grandes volúmenes de datos complejos, generar nuevas hipótesis de investigación, diseñar experimentos de forma más eficiente y comunicar sus hallazgos de manera más clara y efectiva.

Para seleccionar a los investigadores participantes, Anthropic evaluará las candidaturas cada primer lunes de mes, basándose en criterios como la trayectoria y las contribuciones previas a la ciencia de los postulantes, el potencial impacto de sus proyectos y la capacidad real de la inteligencia artificial para acelerar sus investigaciones. Además, el proceso de selección incluye un riguroso análisis de bioseguridad para garantizar que las investigaciones propuestas no puedan ser usadas con fines dañinos o no éticos. Esta revisión contará con expertos en los campos científicos correspondientes, asegurando que las propuestas sean sólidas y viables.

Este lanzamiento se enmarca en una tendencia creciente dentro de la industria tecnológica, donde múltiples compañías están invirtiendo en el desarrollo de herramientas de inteligencia artificial específicamente diseñadas para la ciencia. Por ejemplo, Google ha presentado su propio “AI co-scientist,”, un asistente automatizado que ayuda a formular hipótesis y planificar investigaciones. OpenAI, otra de las grandes competidoras de Anthropic, junto con startups como FutureHouse y Lila Sciences, también están apostando a que la IA puede revolucionar la velocidad y eficacia del trabajo científico, en especial en la medicina y las ciencias biológicas.

Sin embargo, a pesar del entusiasmo del sector tecnológico, muchos investigadores mantienen reservas sobre el nivel actual de utilidad de estas tecnologías en el proceso científico. Esto se debe principalmente a que la IA todavía presenta limitaciones en términos de confiabilidad y creatividad disruptiva. Mientras la IA puede ser muy útil para filtrar datos o reducir opciones en proyectos que requieren una exploración amplia, es menos clara su capacidad para realizar el tipo de pensamiento original y fuera de lo común que suele ser necesario para grandes descubrimientos científicos.

Un ejemplo ilustrativo de estas dificultades fue el caso reportado en 2023 por Google, donde se dijo que su IA llamada GNoME había ayudado a sintetizar 40 nuevos materiales. Sin embargo, análisis externos indicaron que ninguno de esos materiales era realmente novedoso, lo que subraya las limitaciones actuales de la tecnología para generar avances genuinos por sí sola.

Con este programa, Anthropic busca no solo apoyar a la comunidad científica, sino también demostrar que sus modelos de IA pueden superar estas barreras y generar resultados concretos y valiosos para la ciencia. La empresa espera que al facilitar el acceso a su tecnología, más investigadores puedan acelerar sus proyectos, particularmente en áreas críticas como la comprensión de sistemas biológicos complejos, el análisis genético, el desarrollo de nuevos fármacos para enfermedades globales, y la mejora de la productividad agrícola.

Finalmente, el programa de Anthropic representa un paso importante para estrechar la colaboración entre la inteligencia artificial y la comunidad científica. Al establecer un proceso de selección riguroso y centrado en el mérito y la seguridad, Anthropic pretende garantizar que los avances promovidos por su IA sean éticos, significativos y contribuyan a enfrentar algunos de los desafíos más urgentes del mundo actual.