Archivo de la categoría: Tecnologías de la información

Guía inicial de la IFLA sobre inteligencia artificial en bibliotecas: oportunidades, riesgos y recomendaciones

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.

Texto completo

«IFLA Entry Point to Libraries and AI», publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.

La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.

La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.

La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.

Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:

  • Digitalización masiva (textos, archivos visuales, grabados).
  • Creación de metadatos a escala.
  • Sistemas de recomendación y personalización.
  • Resúmenes automatizados, análisis de datos, traducciones y chatbots.
  • Soporte en tareas profesionales internas (p. ej., redacción de informes)

Aunque el documento alerta también sobre 14 riesgos clave, como:

  • Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
  • Sobrehype y casos de uso poco relevantes o ineficaces.
  • Información inexacta o desactualizada, con invención de fuentes.
  • Sesgos heredados de datos de entrenamiento.
  • Pérdida de diversidad cultural y lingüística.
  • Desinformación y censura.
  • Brecha digital y acceso desigual.
  • Opacidad, falta de explicabilidad y responsabilidad.
  • Privacidad y seguridad de los datos de usuarios.
  • Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
  • Falta de consulta a las partes interesadas.
  • Reducción de autonomía humana y dependencia tecnológica.
  • Desplazamiento laboral y explotación de trabajadores precarios.
  • Impacto ambiental por consumo energético y agua en centros de datos.

Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos

Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.

Y propone diferentes niveles de acción

La IFLA propone seis niveles de acción:

  1. Desarrollar o licenciar herramientas de IA.
  2. Contribuir a la creación y entrenamiento de modelos en interés público.
  3. Guiar a usuarios en el uso responsable de IA.
  4. Incluir alfabetización en IA dentro de la alfabetización digital.
  5. Asesorar internamente respecto a políticas de IA.
  6. Abogar por un uso ético y regulado de la IA en la sociedad

Desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario

Chen, Zhuo; Nathan Kelber; y Ruby MacDougall. “The Divided State of AI in Higher Education.Ithaka S+R (blog), 9 de junio de 2025. https://sr.ithaka.org/blog/the-divided-state-of-ai-in-higher-education/

El artículo expone cómo la alfabetización en inteligencia artificial en la educación superior está fragmentada entre disciplinas, generaciones y políticas institucionales. Muchas universidades carecen de estrategias coherentes, con recursos distribuidos de forma desigual y enfoques que priorizan al profesorado sobre el estudiantado. Ante esta división, el proyecto “Integrating AI Literacy into the Curricula” busca desarrollar un marco común que unifique criterios y fomente una implementación equitativa.

Se analiza los desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario. Señalan que esta alfabetización no sigue un patrón uniforme: mientras algunas instituciones ofrecen programas e iniciativas formales, otras no cuentan con talleres ni formación sistemática. Además, existen marcadas diferencias según el campo académico—las ramas de ciencias y negocios adoptan la IA con mayor rapidez, mientras que las humanidades mantienen una postura más reservada—y según la generación docente, donde el profesorado joven se muestra más receptivo frente al escepticismo del profesorado con mayor trayectoria

Otra división clave es la disparidad entre los enfoques institucionales: no hay una política común sobre qué implica la alfabetización en IA ni cómo integrarla en los planes de estudio. En muchas universidades, los recursos y los programas relacionados con IA están aislados entre bibliotecas, centros de enseñanza e informática, sin una estrategia cohesiva a nivel campus . Esto contrasta con la presión comercial, pues muchos centros tienen acceso a herramientas IA antes incluso de formar al personal o establecer estándares.

El informe destaca también que las formaciones en IA están más orientadas al profesorado que al estudiantado. En algunas universidades, los profesores pueden utilizar IA libremente en su labor, mientras que los estudiantes apenas tienen permiso para hacerlo, y cuando lo tienen, depende del criterio individual del docente. Además, no existen buenas prácticas estandarizadas para guiar su integración en la enseñanza .

Como respuesta, Ithaka S+R ha lanzado el proyecto “Integrating AI Literacy into the Curricula”, que ha convocado a 45 instituciones para abordar estas divisiones colaborativamente. En la reunión inicial (abril de 2025), participantes identificaron las brechas existentes y comenzaron a compartir soluciones, aunque todavía no existe un modelo unificado. El objetivo es construir un marco compartido de alfabetización en IA que supere las diferencias disciplinarias, generacionales y organizativas

¿Qué ocurre cuando la gente no entiende cómo funciona la IA?

Harper, Tyler Austin. “What Happens When People Don’t Understand How AI Works.” The Atlantic, 6 de junio de 2025. https://www.theatlantic.com/culture/archive/2025/06/artificial-intelligence-illiteracy/683021/.

El artículo analiza los peligros de la «analfabetización en IA», es decir, la falta de comprensión pública sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT. Esta ignorancia puede generar desde relaciones emocionales inapropiadas hasta delirios. El autor aboga por una alfabetización crítica que enfrente tanto los mitos tecnológicos como sus implicaciones sociales y laborales.

El núcleo del texto es la crítica a la “analfabetización en IA” (AI illiteracy): muchas personas creen que los LLMs “entienden”, “piensan” o “sienten”, cuando en realidad estos sistemas operan mediante cálculos probabilísticos sobre vastas bases de datos. No tienen conciencia ni intencionalidad; simplemente generan texto estadísticamente plausible . Sin embargo, esa apariencia de inteligencia puede inducir a los usuarios a errores de juicio o relaciones inapropiadas con el sistema, como terapeutas, consejeros o fuentes espirituales.

Harper recuerda casos extremos, como el de personas que desarrollan delirios en torno a ChatGPT —considerándolo una figura divina o guía—, fenómeno documentado en artículos como uno de Rolling Stone, describiendo “psicosis inducida por ChatGPT”: un hombre cree que la IA es “ChatGPT‑Jesus”, otros piensan que el modelo les revela verdades místicas. Estas situaciones reflejan hasta qué punto la falta de comprensión sobre lo que es (y no es) la IA puede afectar la percepción emocional y racional de los usuarios.

El autor también critica la imitación de relaciones humanas por parte de la tecnología: desde terapeutas virtuales hasta “amigos” o incluso parejas románticas automatizadas. Silicon Valley impulsa narrativas de inteligencia emocional en las máquinas (como declaraciones de Sam Altman, Dario Amodei o Demis Hassabis), pero Harper cuestiona si esta sustitución de vínculos humanos por algoritmos pueda restablecer empatía o, al contrario, magnificar la alienación y la pobreza afectiva

Además, denuncia la explotación laboral que subyace en el entrenamiento de IA. Hao documenta los traumas de moderadores de contenido en países como Kenia, quienes revisan imágenes perturbadoras—todo para “humanizar” las respuestas de los modelos—mientras estos trabajadores reciben salarios ínfimos . Este contraste evidencia una cara oscura de la industria, donde avanzan capacidades técnicas sobre la atención al bienestar de quienes las posibilitan.

A pesar de las amenazas señaladas, Harper muestra que buena parte del público es escéptico con la IA. Según una encuesta del Pew Research Center, solo el 17 % de los adultos estadounidenses confía plenamente en que la IA mejore al país, frente al 56 % de expertos que lo cree. Este distanciamiento puede ser una oportunidad: si se impulsa una alfabetización real en IA—ensuciándose las manos para entender su funcionamiento, sus límites y sus riesgos—será posible mitigar efectos negativos . Harper cita como ejemplo un caso en que explicar a un afectado que las respuestas de ChatGPT dependían de una actualización errónea —no de consciencia— fue un paso crucial para disipar su delirio

Impacto de la inteligencia artificial generativa en bibliotecas y entornos de información

Wong, Melissa A., ed. 2025. Generative AI and Libraries: Applications and Ethics, Part I. Special issue, Library Trends 73 (3). https://doi.org/10.1353/lib.2025.a961188.

Monográfico dedicado al impacto de la inteligencia artificial generativa en bibliotecas y entornos de información. Editado por Melissa A. Wong, este volumen recoge 14 artículos de acceso abierto que abordan desde distintos enfoques el papel, las aplicaciones y los desafíos éticos que esta tecnología plantea para los profesionales de la información.

El número incluye investigaciones originales, ensayos críticos y reflexiones especulativas sobre futuros posibles. Los temas abarcan la alfabetización crítica en IA, el uso de IA para codificación cualitativa, su aplicación en procesos editoriales y de publicación científica, la generación de metadatos, el sesgo informativo, y el papel de la IA en la búsqueda de información y la alfabetización informacional. También se exploran cuestiones éticas fundamentales como la autoría, la precisión de los contenidos generados, el impacto medioambiental y las condiciones laborales asociadas al desarrollo de herramientas de IA.

Algunos autores celebran el potencial transformador de estas herramientas, otros adoptan una postura pragmática, y varios alertan sobre sus riesgos y proponen una postura crítica o incluso de rechazo. En conjunto, la publicación proporciona una panorámica rigurosa y plural sobre cómo la IA generativa está reconfigurando el campo de la bibliotecología y la ciencia de la información.

Los artículos se agrupan en tres grandes ejes temáticos:

  1. Aplicaciones profesionales de la IAG: varios estudios exploran cómo se está utilizando la IAG en tareas concretas de la práctica bibliotecaria. Esto incluye:
    • su papel en la codificación cualitativa de datos (Gustavsen et al.),
    • la modelización colaborativa de metadatos entre humanos y LLMs (Bagchi),
    • la automatización en revisiones de literatura académica (Sparkman y Witt),
    • el uso de IA por parte de editores de revistas científicas (Hosier y Cantwell-Jurkovic),
    • y su aplicación en la vida cotidiana de bibliotecarios (Luo).
  2. Cuestiones éticas, epistemológicas y pedagógicas: varios autores analizan los peligros asociados al uso de IAG:
    • los sesgos y las desigualdades informativas que puede perpetuar (Mazel),
    • la necesidad de una alfabetización crítica en IA como marco pedagógico (Baer),
    • y los dilemas en torno a la autoría, los derechos de uso y la sostenibilidad ecológica de estas tecnologías.
  3. Modelos de futuro y posicionamientos ideológicos: mientras que algunos autores adoptan posturas esperanzadas o pragmáticas, otros argumentan por una mayor resistencia a la penetración de la IAG en las prácticas profesionales y académicas. Los textos promueven una reflexión colectiva sobre el rol que deben adoptar las bibliotecas como mediadoras críticas en el debate sobre IA, y sobre su responsabilidad en la formación de una ciudadanía informacionalmente competente y éticamente consciente.

Riesgos de seguridad asociados con los agentes de inteligencia artificial (IA) autónomos

Dal Cin, Paolo, Daniel Kendzior, Yusof Seedat, y Renato Marinho. 2025. “Three Essentials for Agentic AI Security.” MIT Sloan Management Review, 4 de junio de 2025. https://sloanreview.mit.edu/article/agentic-ai-security-essentials/

El artículo destaca la importancia de gestionar la seguridad en agentes de IA autónomos mediante un enfoque de tres fases: modelado de amenazas, pruebas de seguridad y protección en tiempo real. Muchas empresas aún no están preparadas para estos riesgos, lo que puede comprometer datos y operaciones. Implementar estas medidas es clave para adoptar IA responsablemente y evitar vulnerabilidades.

Estos agentes, que operan de forma independiente utilizando modelos de lenguaje a gran escala (LLMs), tienen la capacidad de interactuar con múltiples sistemas, tomar decisiones y automatizar procesos complejos dentro de organizaciones. Su autonomía, si bien es una ventaja importante para aumentar la eficiencia, también introduce riesgos significativos que requieren una atención especializada para evitar vulnerabilidades que puedan poner en peligro la integridad de los datos y la seguridad organizacional.

Uno de los puntos clave que resaltan los autores es que muchas empresas no están suficientemente preparadas para enfrentar estos riesgos. Según encuestas realizadas, solo un 42% de los ejecutivos equilibra el desarrollo y la implementación de herramientas de IA con inversiones adecuadas en seguridad. Peor aún, apenas un 37% ha establecido procesos formales para evaluar la seguridad de estas tecnologías antes de incorporarlas en sus operaciones diarias. Esto revela una brecha preocupante entre la adopción acelerada de IA y la preparación para gestionar sus implicaciones de seguridad.

Para responder a este desafío, el artículo propone un marco estructurado basado en tres fases esenciales. La primera fase es el modelado de amenazas, que consiste en identificar y comprender los riesgos específicos que los agentes de IA autónomos pueden generar. Esto implica analizar cómo la autonomía y la interacción con sistemas externos pueden abrir puertas a posibles ataques o fallos. La segunda fase son las pruebas de seguridad, donde los agentes se someten a simulaciones y escenarios controlados que permiten detectar y corregir vulnerabilidades antes de su despliegue real. Finalmente, la tercera fase es la implementación de protecciones en tiempo de ejecución, es decir, mecanismos de supervisión y control que garanticen que estos agentes actúan conforme a las políticas y objetivos de la organización, previniendo comportamientos no deseados o maliciosos durante su funcionamiento.

El artículo también ejemplifica cómo este enfoque puede aplicarse en la práctica con el caso de una empresa brasileña del sector salud. Esta organización enfrentaba un problema común en muchas instituciones: un cuello de botella costoso causado por el procesamiento manual de solicitudes de exámenes médicos. Al implementar agentes de IA para automatizar esta tarea, aplicaron el marco de seguridad propuesto, logrando identificar riesgos, mitigarlos y asegurar que la automatización no comprometiera la seguridad de los datos ni la calidad del servicio. Este ejemplo ilustra cómo la aplicación rigurosa de principios de seguridad puede facilitar la adopción responsable y efectiva de tecnologías avanzadas en sectores sensibles.

En conclusión, el artículo subraya la importancia de un enfoque proactivo y sistemático en la gestión de la seguridad de los agentes de IA autónomos. Solo mediante la identificación temprana de riesgos, pruebas rigurosas y controles continuos en tiempo real, las organizaciones podrán aprovechar al máximo las ventajas de estas tecnologías sin poner en riesgo su integridad, privacidad o cumplimiento normativo. La seguridad, por tanto, debe ser una prioridad inseparable del desarrollo y despliegue de agentes de IA para asegurar que su impacto sea positivo y sostenible a largo plazo.

Perspectivas de los estudiantes sobre los beneficios y riesgos de la inteligencia artificial en la educación

Pitts, Griffin, Viktoria Marcus, y Sanaz Motamedi. “Student Perspectives on the Benefits and Risks of AI in Education.” arXiv, 2025. https://arxiv.org/abs/2505.02198v2

Se ofrece una visión detallada sobre cómo perciben los estudiantes universitarios el uso de chatbots de inteligencia artificial (IA) en el ámbito educativo. Basado en una encuesta a 262 estudiantes de grado en una universidad pública estadounidense de gran tamaño, el estudio busca comprender no solo los aspectos positivos que los alumnos asocian con estas tecnologías, sino también sus inquietudes y temores respecto a su integración en el proceso de aprendizaje.

Entre los beneficios más valorados, los estudiantes resaltaron que los chatbots facilitan el estudio mediante un apoyo constante, ofreciendo respuestas rápidas y retroalimentación inmediata, lo que les permite aclarar dudas al instante y avanzar en su formación sin depender exclusivamente de la disponibilidad de profesores o tutores. También reconocieron que estas herramientas pueden complementar la instrucción tradicional, proporcionando explicaciones accesibles y ayudando a reforzar conceptos clave. Asimismo, valoran la posibilidad de acceder a información de manera ágil y en formatos variados, lo que les permite adaptar el aprendizaje a sus ritmos y estilos personales.

Sin embargo, el estudio también expone preocupaciones profundas que los estudiantes tienen sobre los riesgos y limitaciones de la IA en educación. Entre ellas, destaca la amenaza a la integridad académica, ya que temen que el uso de IA para generar trabajos o respuestas pueda fomentar el plagio y dificultar la evaluación justa del esfuerzo individual. Además, existe la preocupación de que la dependencia excesiva de estas herramientas pueda erosionar habilidades esenciales como el pensamiento crítico, el análisis profundo y la resolución creativa de problemas, capacidades que son fundamentales para el desarrollo académico y profesional. La fiabilidad de las respuestas generadas por los chatbots también es cuestionada, pues los estudiantes advierten que la IA puede ofrecer información inexacta o incompleta, lo que podría inducir a errores en el aprendizaje.

Los aspectos éticos también aparecen como una dimensión clave en la percepción estudiantil. Los alumnos expresan inquietudes relacionadas con la privacidad de sus datos, la posibilidad de sesgos algorítmicos que reproduzcan desigualdades o prejuicios, y el impacto ambiental asociado al alto consumo energético que requiere el entrenamiento y funcionamiento de estos sistemas. Finalmente, subrayan la importancia de mantener un componente humano en la educación, valorando la interacción personal, el juicio y la empatía que los docentes aportan, aspectos que consideran irremplazables por la inteligencia artificial.

Un tema particularmente delicado es la dificultad para distinguir entre trabajos realizados por estudiantes y aquellos generados total o parcialmente por IA, lo que genera incertidumbre sobre cómo evaluar la autoría y la autenticidad académica. Existe el temor de que trabajos legítimos puedan ser erróneamente señalados como producidos por IA, con consecuencias negativas para los estudiantes.

Ante estas complejas realidades, el artículo recomienda que las instituciones educativas desarrollen políticas claras y transparentes sobre el uso de IA, definiendo límites y condiciones que fomenten un empleo responsable y ético de estas tecnologías. Además, sugiere que se promueva una alfabetización digital sólida entre estudiantes y docentes para que comprendan las capacidades, limitaciones y riesgos de la IA, y puedan integrarla como una herramienta complementaria en su proceso de aprendizaje. Solo así se podrá maximizar el potencial de la inteligencia artificial para enriquecer la educación, garantizando al mismo tiempo la calidad, la equidad y la integridad del entorno académico.

Pros y contras

Pros:

  • Apoyo al estudio: La IA proporciona ayuda constante y personalizada, facilitando la comprensión de conceptos complejos.
  • Retroalimentación inmediata: Los chatbots responden al instante, lo que acelera el proceso de aprendizaje y resolución de dudas.
  • Capacidades instructivas: La IA complementa la enseñanza tradicional con explicaciones claras y adaptadas.
  • Acceso ágil a la información: Permite a los estudiantes encontrar rápidamente datos y recursos útiles.
  • Flexibilidad: Los estudiantes pueden aprender a su propio ritmo y según sus necesidades.

Contras:

  • Riesgo para la integridad académica: Posibilidad de plagio o trabajos generados por IA que dificultan la evaluación justa.
  • Pérdida de habilidades críticas: Dependencia excesiva que puede afectar el desarrollo del pensamiento crítico y creativo.
  • Fiabilidad cuestionable: La IA puede generar respuestas inexactas o incompletas, afectando el aprendizaje.
  • Cuestiones éticas: Problemas relacionados con la privacidad de datos, sesgos algorítmicos y el impacto ambiental.
  • Dificultad para distinguir autorías: Complica la identificación de trabajos auténticos frente a los generados por IA.
  • Necesidad de mantener el componente humano: La interacción y juicio de docentes siguen siendo esenciales y no reemplazables.

Políticas sobre el uso de la inteligencia artificial generativa (IA Gen) en la enseñanza superior

EDUCAUSE. 2025. “In the Room Where It Happens: Generative AI Policy Creation in Higher Education.” EDUCAUSE Review, May 7, 2025. https://er.educause.edu/articles/2025/5/in-the-room-where-it-happens-generative-ai-policy-creation-in-higher-education

Se analiza el modo en que las universidades están respondiendo al auge de la inteligencia artificial generativa (IA Gen) mediante la creación de políticas institucionales. A medida que herramientas como ChatGPT, Copilot o Bard se integran en la vida académica, las instituciones enfrentan el reto de formular directrices claras, responsables y equitativas sobre su uso.

Según datos del estudio EDUCAUSE AI Landscape 2025, menos del 40 % de las universidades encuestadas han desarrollado políticas específicas relacionadas con el uso aceptable de estas herramientas. Esto refleja una desconexión entre el crecimiento del uso de la IA y la gobernanza que debería acompañarlo.

Una de las principales preocupaciones que aborda el artículo es que muchas de las conversaciones sobre IA generativa ocurren de forma fragmentada dentro de las instituciones. Los debates se dan por separado en unidades como servicios de TI, bibliotecas, centros de enseñanza y aprendizaje, oficinas de accesibilidad o departamentos académicos, sin una coordinación transversal. Esta falta de conexión impide un enfoque coherente y compartido sobre cómo incorporar la IA en la docencia, la investigación, la administración y los servicios al estudiante. Además, al tratarse de un fenómeno que impacta de forma transversal, la ausencia de colaboración puede generar vacíos normativos o inconsistencias en su aplicación.

El artículo hace una llamada a crear “espacios comunes” donde confluyan las distintas voces de la comunidad universitaria, desde estudiantes y profesorado hasta personal técnico y administrativo. Sostiene que incluir una diversidad de perspectivas en la creación de políticas no solo promueve un enfoque más justo y reflexivo, sino que también fortalece el sentido de pertenencia institucional. Esta participación amplia y deliberativa puede contribuir a identificar riesgos éticos, brechas en el acceso o preocupaciones sobre privacidad que de otro modo podrían quedar fuera del debate.

Asimismo, se subraya la importancia de fomentar una cultura institucional basada en la colaboración y la transparencia, en lugar de limitarse a imponer normas desde arriba. El desarrollo de políticas inclusivas, señala el texto, es un proceso tanto técnico como cultural. Se trata de alinear la gobernanza tecnológica con los valores educativos y sociales de la institución, garantizando que la IA generativa se utilice de manera responsable, creativa y crítica.

En conclusión, el artículo propone que la formulación de políticas sobre IA en la educación superior debe hacerse «en la sala donde ocurre», es decir, en espacios reales de deliberación colectiva, abiertos a todas las voces. Solo así será posible construir un marco normativo robusto y alineado con los desafíos actuales de la enseñanza, la equidad y la transformación digital en las universidades.

Kling AI puede crear videos impresionantes con inteligencia artificial en segundos

KlingAI

Kling AI es una herramienta de generación de videos mediante inteligencia artificial que está ganando mucha popularidad por su capacidad de crear videos fluidos y realistas a partir de diferentes entradas, ya sea texto o imágenes. Actualmente, la herramienta funciona con su modelo avanzado Kling 2.0 Master, que ofrece resultados de alta calidad y múltiples opciones creativas.

Kling AI es un software que permite generar videos utilizando técnicas avanzadas de inteligencia artificial. Al igual que otras herramientas similares (como Sora), ofrece la posibilidad de crear videos animados a partir de textos o imágenes, además de editar videos ya existentes con funciones especiales.

Al acceder a Kling, el usuario se encuentra con un panel de control con varias opciones. En la barra lateral izquierda se pueden explorar videos creados por otros usuarios, revisar los propios proyectos y modificar configuraciones. El área más importante es la de generación con IA, donde se puede elegir entre crear imágenes, editarlas, producir videos o generar sonidos.

Esta función es probablemente la más fácil para empezar. El usuario escribe una descripción o prompt tan detallado como quiera, y Kling genera un video basado en esa descripción. Además, incorpora presets que ayudan con ideas para prompts, como “Una mujer mira a la cámara y se pasa la mano por el cabello” o “Un cachorro leyendo un libro en una cafetería”. También permite agregar “prompts negativos” para eliminar elementos no deseados del video. Con solo ingresar el texto y hacer clic en generar, se obtiene el video inicial que luego se puede modificar.

Para aquellos que quieran animar memes u otras imágenes, Kling ofrece una función para transformar imágenes estáticas en videos animados. Puedes usar imágenes predefinidas o subir las tuyas propias, combinando con prompts para ajustar la animación y eliminando elementos no deseados con los prompts negativos.

Mult-Elements es una función avanzada que permite subir una imagen o video para luego modificar elementos específicos dentro de ellos. Por ejemplo, se puede insertar digitalmente a alguien que no estaba presente en un video familiar, eliminar a personas no deseadas que aparecen en el fondo o reemplazar objetos dentro de la escena. Kling facilita esta tarea generando automáticamente los prompts necesarios para estas modificaciones, y permite obtener hasta cuatro resultados diferentes por cada edición.

Los videos creados con Kling 2.0 suelen ser detallados y con bastante movimiento. Sin embargo, la calidad puede variar dependiendo de la complejidad del prompt. La recomendación es centrarse en una idea clara para evitar resultados confusos. Usar una foto clara como base o un sujeto bien definido en el texto mejora notablemente la calidad del video generado.

Kling ofrece diferentes planes de suscripción. La versión más económica cuesta 10 dólares al mes e incluye eliminación de marcas de agua y créditos para videos cortos (hasta 10 segundos). El siguiente nivel cuesta 37 dólares al mes y ofrece mayor control y calidad hasta Full HD. Finalmente, el plan Premier cuesta 92 dólares al mes y brinda créditos adicionales y funciones avanzadas.

También hay una versión gratuita disponible, pero con acceso limitado a créditos y sin acceso al modelo más reciente.

Los usos más comunes de la inteligencia artificial están relacionados con el apoyo emocional y personal

Visual Capitalist. «Ranked: All the Things People Use AI for in 2025Visual Capitalist, April 23, 2025. https://www.visualcapitalist.com/ranked-all-the-things-people-use-ai-for-in-2025/.

En 2025, el uso de la inteligencia artificial (IA) ha experimentado una transformación significativa, enfocándose principalmente en el apoyo emocional y personal. Según un análisis de Marc Zao-Sanders para Harvard Business Review, visualizado por Visual Capitalist, las tres principales aplicaciones de la IA son la terapia y compañía, la organización de la vida y la búsqueda de propósito personal. Este cambio refleja una tendencia hacia la utilización de la IA para gestionar emociones y aspectos personales de la vida cotidiana.

Además de estas aplicaciones, la IA sigue siendo ampliamente utilizada en la creación de contenido, el aprendizaje y la creatividad. Sin embargo, se ha observado una disminución en el uso de la IA para búsquedas específicas, posiblemente debido a la integración de herramientas como Gemini en motores de búsqueda como Google.

El uso de la IA en el ámbito de la salud mental ha surgido como una solución viable ante la falta de recursos en este sector y la creciente epidemia de soledad. La IA se ha mostrado útil en la enseñanza de técnicas de atención plena y terapia cognitivo-conductual. No obstante, existen preocupaciones sobre el reemplazo de las relaciones humanas reales por interacciones con la IA, lo que podría exacerbar la soledad.

Este panorama destaca la necesidad de un enfoque equilibrado en la integración de la IA en aspectos personales y emocionales, asegurando que complemente, y no reemplace, las interacciones humanas esenciales.

Estado actual de la inteligencia artificial (IA) y su impacto en la sociedad 2025

Brennan, Kate, Amba Kak y Sarah Myers West. Artificial Power: AI Now 2025 Landscape. AI Now Institute, 3 de junio de 2025. https://ainowinstitute.org/wp-content/uploads/2025/06/FINAL-20250602_AINowLandscapeReport_Full.pdf

El informe Artificial Power: AI Now 2025 Landscape Report, publicado el 3 de junio de 2025 por el AI Now Institute, ofrece un análisis crítico sobre el estado actual de la inteligencia artificial (IA) y su impacto en la sociedad. El documento destaca cómo las grandes empresas tecnológicas, como Microsoft, Amazon, Google y Meta, han consolidado un poder significativo que influye en diversos aspectos de la vida pública.

El documento subraya cómo las principales empresas tecnológicas —Microsoft, Amazon, Google y Meta— han acumulado un poder significativo, no solo en términos económicos, sino también en su capacidad para influir en las políticas públicas, en la investigación académica y en la vida cotidiana. Esta concentración de poder plantea serias preocupaciones sobre la rendición de cuentas, la equidad y la capacidad de los gobiernos para regular de forma eficaz estas tecnologías.

Uno de los aspectos más destacados del informe es su crítica a las narrativas dominantes sobre la inteligencia artificial. En particular, cuestiona los discursos en torno a la inteligencia artificial general (AGI) y la supuesta «carrera armamentista» global en IA. El informe sostiene que estos relatos tienden a desviar la atención del impacto real que los sistemas actuales de IA están teniendo sobre el trabajo, la economía y la estructura social. En lugar de enfocarse en escenarios hipotéticos, el informe propone centrar los esfuerzos en abordar los problemas concretos que ya están afectando a millones de personas.

El impacto de la IA en el mundo laboral es otro de los temas centrales. Según el informe, la automatización impulsada por la IA está provocando una reestructuración del empleo que afecta especialmente a los trabajadores en condiciones precarias. Aunque a menudo se prometen mejoras en eficiencia y productividad, los beneficios no se reparten equitativamente y los trabajadores rara vez tienen voz en los procesos de toma de decisiones relacionados con la introducción de estas tecnologías. Esta asimetría contribuye a reforzar las desigualdades existentes y a erosionar derechos laborales fundamentales.

Ante este panorama, el AI Now Institute propone una serie de recomendaciones clave. Entre ellas, destaca la necesidad de implementar políticas que frenen la concentración del poder corporativo, fomenten la competencia y garanticen el acceso equitativo a los recursos tecnológicos. También subraya la urgencia de fortalecer los derechos laborales, dando mayor participación a los trabajadores en la gobernanza tecnológica. Finalmente, aboga por un enfoque regulatorio que priorice la justicia social, integrando consideraciones de equidad, inclusión y sostenibilidad en todas las fases del ciclo de vida de los sistemas de IA.

En conjunto, el informe plantea una llamada de atención clara: para que la inteligencia artificial beneficie realmente a la sociedad, es necesario abordar de forma estructural las dinámicas de poder que hoy dominan su desarrollo y aplicación.

Principales hallazgos del informe

  1. Concentración de poder en Big Tech: El informe señala que estas corporaciones han acumulado una ventaja considerable en términos de datos y capacidad computacional, lo que les permite dominar el desarrollo y la implementación de sistemas de IA. Esta concentración de poder plantea desafíos para la rendición de cuentas y la equidad en la sociedad.
  2. Mitos en torno a la IA: Se critica la narrativa predominante sobre la inteligencia artificial general (AGI) y la carrera armamentista en IA, argumentando que estas ideas desvían la atención de los problemas reales y urgentes relacionados con la tecnología actual.
  3. Impacto en el trabajo y la economía: El documento destaca cómo la automatización impulsada por la IA está afectando negativamente a los trabajadores, especialmente a aquellos en roles precarizados, y cómo las promesas de eficiencia a menudo no se traducen en beneficios equitativos para la sociedad en general.
  4. Necesidad de regulación efectiva: El informe aboga por una regulación que no solo se centre en la transparencia y la auditoría técnica, sino que también considere el contexto social y político en el que operan los sistemas de IA.