Archivo de la etiqueta: Inteligencia artificial

Inteligencia Artificial con empatía hacia los humanos

Werner, J. (2025, 11 octubre). AI With Empathy For Humans. Forbes.

Texto completo

El artículo explora la pregunta central de si es posible —y deseable— construir inteligencias artificiales capaces de mostrar empatía hacia los seres humanos. La discusión parte de una constatación cultural: abundan las obras literarias, musicales y audiovisuales que plantean el temor a que la inteligencia artificial pueda reemplazar a las personas, no solo en tareas mecanizadas, sino también en ámbitos donde hoy consideramos indispensable la sensibilidad humana. Según el autor, este temor convive con una realidad cada vez más extendida: millones de jóvenes ya utilizan sistemas conversacionales como compañía emocional, y muchos expresan sentirse igual o más acompañados por estas interacciones que por relaciones humanas tradicionales. Sin embargo, también existe incomodidad o incluso inquietud cuando la IA produce comentarios que parecen desafinar emocionalmente con el usuario, lo que demuestra que la empatía simulada aún se sostiene sobre bases frágiles.

En el marco del congreso Imagination in Action, celebrado en Stanford, distintos expertos debatieron sobre las limitaciones actuales del alineamiento entre sistemas de IA y necesidades humanas. Técnicas como el fine-tuning supervisado o el aprendizaje por preferencia humana han permitido mejorar la coherencia conversacional en el corto plazo, pero presentan deficiencias notables cuando las interacciones se prolongan en el tiempo o requieren una comprensión más profunda de los matices emocionales. A ello se suma una diferencia estructural fundamental entre el modo en que trabajan los humanos y las máquinas: mientras la creatividad humana se nutre de procesos iterativos, pruebas, idas y vueltas, los modelos de IA operan típicamente en una sola pasada, lo que reduce su capacidad de adaptación a tareas imprevistas, creativas o repletas de contexto subjetivo.

El autor también advierte sobre los efectos que podría tener una adopción acelerada de sistemas de IA en el mercado laboral y en la transmisión generacional de habilidades. Si las empresas comienzan a depender en exceso de agentes de IA para escribir código, producir informes o resolver tareas operativas, es posible que reduzcan la contratación de profesionales jóvenes. Esto generaría un debilitamiento grave en el desarrollo de talento humano a largo plazo, comprometiendo la sostenibilidad de profesiones técnicas y creativas. En este sentido, Werner sostiene que la discusión sobre empatía en IA no puede desligarse de otra más amplia: cómo integrar esta tecnología en estructuras organizacionales sin erosionar las capacidades humanas ni desplazar la práctica profesional que sostiene la innovación futura.

El papel de la Inteligencia Artificial en la investigación científica: una perspectiva científica para las políticas europeas

Purificato, E., D. Bili, R. Jungnickel, V. Ruiz Serra, J. Fabiani, K. Abendroth Dias, D. Fernandez Llorca, y E. Gomez. 2025. The Role of Artificial Intelligence in Scientific Research: A Science for Policy, European Perspective. Luxemburgo: Oficina de Publicaciones de la Unión Europea. doi:10.2760/7217497. JRC143482.

Texto completo

La Inteligencia Artificial (IA) está transformando fundamentalmente el proceso científico en todas sus etapas, desde la generación de hipótesis y el diseño experimental hasta el análisis de datos, la revisión por pares y la difusión de resultados. Este informe del Centro Común de Investigación (JRC) de la Comisión Europea proporciona un análisis científico y técnico clave para fundamentar la Estrategia Europea para la IA en la Ciencia. La IA, impulsada por técnicas como el Aprendizaje Automático (ML), el Aprendizaje Profundo (DL) y la IA Generativa (GenAI), tiene el potencial de acelerar drásticamente los descubrimientos, fomentar la colaboración interdisciplinaria y mejorar la reproducibilidad en áreas críticas para la Unión Europea, como la salud, el cambio climático y las tecnologías limpias.

La IA se posiciona como un «científico co-asistente» a lo largo del ciclo de investigación. En la fase inicial, ayuda a acelerar el análisis de la literatura y a identificar lagunas de conocimiento, lo que facilita la formulación de hipótesis novedosas. En la fase experimental, permite el diseño automatizado de experimentos y la simulación, evolucionando hacia los «laboratorios autónomos» (self-driving labs). El ejemplo de AlphaFold en la predicción de estructuras proteicas es citado como un hito que demuestra el poder transformador de la IA en la aceleración de la verificación de hipótesis biológicas. Además, la IA es crucial en el procesamiento de datos masivos, ya que puede analizar vastos conjuntos de datos multimodales para detectar patrones y realizar descubrimientos en genómica, astronomía y otras ciencias computacionales que superan la capacidad de análisis humano. En la etapa de comunicación, las herramientas de IA son cada vez más utilizadas para la redacción científica, la edición, la visualización de datos y la superación de barreras idiomáticas.

A pesar de sus promesas, la integración de la IA en la ciencia conlleva desafíos importantes que requieren una gobernanza robusta. Los principales riesgos identificados incluyen el sesgo algorítmico, la posible proliferación de «alucinaciones» e información fabricada, la erosión potencial de las habilidades de pensamiento crítico y un fenómeno denominado deriva epistémica. Esta deriva describe la tendencia de la tecnología a reforzar inadvertidamente los paradigmas de investigación existentes, lo que podría limitar la diversidad de las preguntas científicas exploradas o separar las conclusiones científicas de una supervisión humana crítica. Para afrontar estos riesgos y maximizar los beneficios de la IA, el informe propone tres áreas principales de acción política:

(1) Fomentar los principios de la ciencia abierta (datos, modelos e infraestructura abiertos) para garantizar la reproducibilidad y la confiabilidad.

(2) Realizar una inversión estratégica en infraestructura de Computación de Alto Rendimiento (HPC), ‘Fábricas de IA’ y repositorios de datos científicos abiertos.

(3) Impulsar el desarrollo de un nuevo conjunto de habilidades en los investigadores, promoviendo equipos «híbridos» que combinen experiencia en el dominio científico con métodos avanzados de IA y ciencia de datos.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.

La IA llegará a consumir hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

CNET. 2025. “AI Is the ‘Biggest Driver’ of Electricity Use in North America, a New Energy Report Shows.CNET, octubre 2025. https://www.cnet.com/tech/services-and-software/ai-is-the-biggest-driver-of-electricity-use-in-north-america-a-new-energy-report-shows/

La demanda de electricidad en Norteamérica está siendo impulsada de forma creciente por la expansión de centros de datos dedicados a la inteligencia artificial (IA). Según un nuevo informe citado por CNET, se proyecta que estos centros, por sí solos, puedan llegar a representar hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

Este aumento masivo del consumo no es casual: los algoritmos de IA requieren enormes recursos computacionales y un suministro constante de electricidad para alimentar GPUs de alto rendimiento, mantener servidores y sistemas de refrigeración, así como garantizar disponibilidad continua. Esa necesidad energética coloca a la IA como la “principal fuerza motriz” detrás del crecimiento de la demanda eléctrica en la región.

Esos centros de datos, que albergan miles de ordenadores para gestionar todo, desde el entrenamiento de modelos de IA hasta la respuesta a tus solicitudes de ChatGPT, Gemini y Sora, consumirán no solo megavatios de electricidad, sino también millones de galones de agua y miles de acres de tierra.

El impacto ya empieza a notarse en los sistemas energéticos: en Estados Unidos, los centros de datos representan una parte sustancial del crecimiento previsto en demanda eléctrica de aquí a 2030. Si continúa esta tendencia, la presión sobre la red eléctrica, la necesidad de más generación, infraestructura y inversiones energéticas será mayor. Eso plantea retos de sostenibilidad, pues buena parte de esta electricidad todavía proviene de fuentes fósiles, lo que implica un aumento de emisiones y de la huella ambiental ligada al “boom” de la IA.

En julio, la administración Trump publicó lo que denomina el Plan de Acción de IA de Estados Unidos, en el que insta a acelerar la construcción de centros de datos, dejando en segundo plano las cuestiones normativas. «El sistema de permisos medioambientales y otras normativas de Estados Unidos hacen que sea casi imposible construir esta infraestructura en el país con la rapidez necesaria».

Pero a pesar del rápido avance de la IA y del retroceso de la administración Trump en materia de regulaciones medioambientales en Estados Unidos, la empresa prevé que las emisiones globales se reducirán un 63 % para 2060. El informe estima que lo que está sucediendo en Estados Unidos tendrá un mayor efecto en el país, con un retraso de unos cinco años en la reducción de emisiones, y no tanto en los objetivos mundiales de energía limpia.

En definitiva —y según lo que denuncia el informe citado por CNET—, la expansión de la inteligencia artificial no es neutra en términos energéticos: su demanda creciente transforma la estructura del consumo eléctrico en Norteamérica, lo que pone en evidencia la necesidad de replantear políticas energéticas, promover el uso de energías renovables y diseñar una gobernanza de la IA que tenga en cuenta su impacto ambiental.

Suben las calificaciones de los trabajos de clase y bajan las notas en los exámenes presenciales

Oatley, Gabe. 2025. “The New Learning Curve: How Student AI Use Is Changing Teaching at UofT.” TorontoToday.ca, November 24, 2025. https://www.torontotoday.ca/local/education/learning-curve-student-artificial-intelligence-use-changing-teaching-uoft-11532998

Estudio

El uso creciente de herramientas de inteligencia artificial por parte del alumnado está transformando profundamente la enseñanza en la University of Toronto. Los profesores han detectado un fenómeno especialmente llamativo: mientras que las calificaciones de los trabajos para casa han subido de forma notable, los resultados en los exámenes presenciales finales han caído de manera significativa. Esta divergencia, según apuntan, se explica por un uso extendido —y en muchos casos no declarado— de modelos de lenguaje avanzados para elaborar tareas que antes exigían un esfuerzo de lectura, análisis y redacción personal.

Datos clave:

  • El 59 % de los estudiantes canadienses encuestados usan IA generativa para sus trabajos escolares — un aumento respecto al 52 % del año anterior.
  • De entre los estudiantes que usan IA, un 67 % dice que no cree estar aprendiendo o reteniendo tanto conocimiento como antes.
  • A pesar de ello, el 75 % considera que las herramientas de IA han mejorado la calidad de sus trabajos escolares.
  • El uso frecuente: el 63 % dice usar IA generativa varias veces por semana.
  • El 82 % admite que presenta como propio contenido generado por IA.
  • Un 70 % prefiere recurrir a la IA antes que pedir ayuda a sus profesores.
  • Entre quienes usan IA, aproximadamente un 65 %–67 % sienten que su uso equivale a hacer trampa.
  • El 63 % teme ser descubierto por su institución por depender de IA en sus trabajos.

Ante esta realidad, los docentes han comenzado a observar patrones de comportamiento nuevos en su alumnado. Muchos estudiantes recurren a herramientas como ChatGPT o Gemini para resolver dudas, generar ideas iniciales o mejorar la coherencia de sus textos, lo que en algunos casos puede tener un efecto positivo, especialmente cuando se usa para reforzar el aprendizaje. Sin embargo, un número creciente de estudiantes emplea la IA como sustituto del propio proceso cognitivo: delegan totalmente la elaboración de trabajos escritos o incluso la resolución de ejercicios técnicos. Esto ha generado una sensación de falsa competencia, pues los trabajos parecen impecables pero el rendimiento en evaluaciones sin asistencia tecnológica revela lagunas importantes de comprensión.

El artículo también subraya que detectar el uso indebido de IA es una tarea compleja. Las herramientas de detección disponibles no son fiables, y los profesores encuentran difícil —y muchas veces imposible— demostrar que un texto ha sido producido o modificado sustancialmente por un sistema automático. Además, la dinámica de aprendizaje ha cambiado: los estudiantes hacen menos preguntas en clase, participan menos en foros y asisten menos a tutorías, ya que encuentran en la IA una fuente inmediata de respuestas, disponible en cualquier momento. Para parte del profesorado, esta sustitución del diálogo pedagógico por consultas a modelos generativos supone la pérdida de una dimensión esencial de la educación universitaria: la interacción humana, que permite matizar conceptos, plantear dudas profundas y construir pensamiento crítico.

Frente a estos desafíos, los profesores de la universidad están rediseñando sus estrategias docentes. Una respuesta habitual ha sido aumentar el peso de las evaluaciones presenciales, incluyendo exámenes escritos en el aula, defensas orales o entrevistas breves vinculadas a trabajos entregados. De este modo, se busca comprobar que los estudiantes realmente dominan los contenidos que presentan en sus tareas. Otra estrategia consiste en diseñar actividades “auténticas”, vinculadas a experiencias reales, análisis de campo, estudios de caso o ejercicios creativos basados en situaciones concretas que resultan más difíciles de delegar a una IA. En algunas asignaturas se ha optado por dividir las tareas en fases: por ejemplo, primero marcar y comentar un texto leído, y solo después elaborar una reflexión personal. Esto permite observar el proceso de pensamiento del estudiante y no solo el producto final.

A lo largo del artículo se destaca que el uso de IA en la educación superior ya no es una tendencia pasajera, sino un cambio estructural que obliga a repensar la evaluación y la enseñanza. Según los profesores entrevistados, la forma tradicional de asignar trabajos y corregirlos ha dejado de ser viable en un contexto donde una herramienta automatizada puede producir textos correctos en segundos. La cuestión ya no es si permitir o prohibir estas tecnologías, sino cómo integrarlas de manera responsable, enseñando a los estudiantes a utilizarlas como apoyo sin renunciar a la comprensión profunda, el razonamiento propio y el desarrollo de habilidades intelectuales fundamentales. En definitiva, la universidad se enfrenta a una nueva curva de aprendizaje institucional, en la que conviven innovación, preocupación y la necesidad urgente de adaptar la pedagogía a un entorno educativo donde la inteligencia artificial es parte del día a día.

Un nuevo paradigma para la biblioteconomía: una revisión del trabajo de las asociaciones bibliotecarias y la IA desde 2019 hasta hoy

Garcia-Febo, Loida. “A New Paradigm for Librarianship: A Review of Library Associations’ Work and AI from 2019 Until the Present.” IFLA Management of Library Associations, noviembre 24, 2025. IFLA. https://repository.ifla.org/handle/20.500.14598/6927

Texto completo

a autora sostiene que las asociaciones bibliotecarias —en especial ALA, IFLA, ARL, ACRL y CENL— han sido actores fundamentales para interpretar, orientar y liderar la introducción de la IA en bibliotecas, actuando como conectores entre iniciativas locales y agendas globales. Estas asociaciones han impulsado marcos éticos, programas de capacitación, alianzas internacionales y documentos estratégicos que guían la adopción responsable y humana de estas tecnologías.

El texto comienza situando a la profesión frente a un momento histórico: la transición desde un modelo basado en colecciones físicas hacia instituciones tecnológicas capaces de influir en la sociedad digital. La autora expone su propia implicación internacional en conferencias y comités desde 2019 para explicar la perspectiva desde la que observa el fenómeno: la de un liderazgo activo en el diálogo global entre bibliotecas y tecnología. Insiste en que la IA no solo introduce herramientas nuevas, sino que redefine el papel del bibliotecario, los valores profesionales —como la equidad, la privacidad y la libertad intelectual— y la misión social de las bibliotecas.

A continuación se describe cómo la IA se ha incorporado rápidamente al ecosistema bibliotecario: chatbots para atención en tiempo real, herramientas de accesibilidad y búsqueda multilingüe, analíticas para la comunicación científica y sistemas de evaluación de necesidades comunitarias. Paralelamente, alerta sobre riesgos como el sesgo algorítmico, la opacidad o la distribución desigual de recursos; de ahí que las asociaciones hayan priorizado la creación de guías éticas y políticas responsables. Documentos como la IFLA Statement on Libraries and AI, los principios de ARL sobre IA o las competencias en IA de ACRL ilustran estos esfuerzos por mantener la centralidad del juicio humano y la transparencia.

Un foco clave del artículo es la transformación educativa. La autora detalla cómo las asociaciones influyen en la formación a través de estándares, acreditaciones y colaboraciones con universidades. Programas de instituciones como San José State University, University of North Carolina, University of Washington y University of Illinois muestran la creciente integración de ciencia de datos, análisis sociotécnico y ética de la IA en la educación bibliotecaria. Al mismo tiempo, asociaciones como ACRL han creado grupos de trabajo para desarrollar competencias específicas y llenar las lagunas formativas que todavía existen en el colectivo profesional.

La dimensión global ocupa otra parte sustancial del análisis. Garcia-Febo describe cómo las asociaciones bibliotecarias se han convertido en interlocutores relevantes en debates internacionales sobre movilidad digital, gobernanza algorítmica y derechos humanos. A través de iniciativas como la participación de IFLA en la ONU, el trabajo del AI SIG, los simposios internacionales y la alineación con la Agenda 2030, las bibliotecas se posicionan como agentes que pueden influir en políticas públicas de tecnología ética. Las encuestas y redes europeas impulsadas por CENL, así como los eventos multilaterales organizados entre 2024 y 2025, muestran un movimiento coordinado y creciente hacia la institucionalización de la IA en la profesión.

El documento incluye además una línea temporal detallada de los principales hitos desde 2019: publicaciones pioneras de ALA, la creación del IFLA AI SIG, los informes y encuestas de CENL, libros especializados, programas de reskilling como el GPT-4 Exploration Program, y el lanzamiento del documento Entry Point to Libraries and AI en 2025. Esta cronología permite ver cómo la atención a la IA ha evolucionado desde una fase exploratoria inicial hacia una etapa madura, donde existen políticas, competencias, foros estables y cooperación internacional estructurada.

Se identifica tres direcciones estratégicas clave para el futuro:

  • Políticas ágiles y gobernanza adaptativa: generar documentos vivos, promover pilotos experimentales y ampliar la mirada hacia nuevas tecnologías como el metaverso o la publicación computacional.
  • Alfabetización en IA y competencia ética: crear marcos de formación continua que incluyan comprensión técnica, reflexión ética, diseño centrado en las personas y mecanismos de rendición de cuentas; incluso proponiendo microcredenciales.
  • Colaboración global y multisectorial: ampliar redes con asociaciones, consorcios, universidades, sociedad civil y actores tecnológicos, con especial atención al Sur Global.

Para la autora, el reto no es solo integrar la IA en bibliotecas, sino garantizar que lo haga de forma ética, inclusiva y orientada al bien público. Bibliotecas y bibliotecarios, apoyados por sus asociaciones, no son meros usuarios de tecnología: son guías capaces de moldear el futuro digital con responsabilidad y visión social.

El uso de la IA en el trabajo casi se ha duplicado en dos años.

Pendell, Ryan, y Andy Kemp. “AI Use at Work Has Nearly Doubled in Two Years.” Gallup, 15 de junio de 2025. Gallup. https://www.gallup.com/workplace/691643/work-nearly-doubled-two-years.aspx

El uso de la inteligencia artificial (IA) en el ámbito laboral ha aumentado significativamente en los últimos dos años. La proporción de empleados que usan IA al menos ocasionalmente ha pasado del 21 % al 40 %, mientras que el uso frecuente y diario también se ha duplicado, lo que indica una integración creciente de estas herramientas en las tareas cotidianas de trabajo.

Este incremento se concentra especialmente en trabajadores de oficina y líderes, donde el uso frecuente alcanza el 27 % y 33 % respectivamente, mostrando que los roles con mayor responsabilidad tienden a adoptar antes estas tecnologías.

A pesar de la mayor adopción, muchas organizaciones carecen de estrategias claras para integrar la IA de manera efectiva. Solo una minoría de empleados reporta que su empresa ha comunicado un plan sólido o establecido políticas formales sobre el uso de IA, lo que limita el potencial de estas herramientas. Esta falta de estructura también se refleja en la percepción de utilidad: apenas el 16 % de los usuarios considera que las herramientas de IA proporcionadas por su empresa son realmente útiles para su trabajo.

Los beneficios percibidos son claros a nivel individual y organizativo: muchos empleados reportan mejoras en productividad y eficiencia, y los líderes observan ventajas en la eficiencia operativa. Sin embargo, la comodidad y confianza para trabajar con IA sigue siendo limitada. Solo un pequeño porcentaje se siente muy cómodo usando estas herramientas, mientras que alrededor de un tercio se siente muy incómodo, indicando la necesidad de formación y comunicación más efectiva sobre su uso.

Por último, las preocupaciones sobre la pérdida de empleo por automatización se mantienen moderadas. Solo un 15 % de los empleados considera que es muy o bastante probable que la IA elimine su trabajo en los próximos cinco años, mostrando que, aunque la adopción crece, los temores sobre la sustitución laboral no se han incrementado de manera significativa.

Optimización para motores de IA: cómo Mejorar la visibilidad y las citaciones de tu contenido

Search Engine Journal. “A Step‑By‑Step AEO Guide For Growing AI Citations & Visibility.Search Engine Journal, 15 de noviembre de 2023. https://www.searchenginejournal.com/aeo-guide-seo-visibility-tac-spa/559880/

Se aborda la creciente importancia de optimizar contenidos no solo para los buscadores tradicionales, sino también para los sistemas de inteligencia artificial (IA), como ChatGPT, Perplexity o Claude. Estos motores de IA utilizan la web para entrenar sus modelos y para generar respuestas en tiempo real, por lo que lograr que tu contenido sea rastreado y citado por ellos se está convirtiendo en un factor clave para aumentar la visibilidad online.

Para abordar este reto, se propone un enfoque estructurado llamado Answer Engine Optimization (AEO). Este enfoque consiste en entender cómo los crawlers de IA interactúan con tu sitio y, a partir de esos datos, optimizar el contenido. Los pasos principales incluyen: analizar los logs del servidor para identificar qué bots visitan qué páginas, monitorizar la actividad con herramientas específicas y analizar qué tipo de contenido atrae más a los crawlers.

Los crawlers de IA son bots desarrollados por empresas de inteligencia artificial que navegan por la web para recopilar datos. Algunos de los más relevantes son GPTBot (OpenAI), PerplexityBot y ClaudeBot. Su función principal es recoger información para entrenar los modelos y recuperar contenido en tiempo real para responder preguntas de usuarios. Por ello, que tus páginas sean visitadas por estos bots aumenta la probabilidad de que tu contenido sea citado por sistemas de IA.

El análisis de logs del servidor es la manera más precisa de entender la actividad de estos bots, aunque puede ser técnico y complejo para sitios grandes. Alternativamente, se puede usar el plugin SEO Bulk Admin en WordPress, que permite monitorizar la actividad de los crawlers de IA de forma más accesible, aunque quizá menos exhaustiva que el análisis de logs. Esta herramienta ofrece información a nivel de página sobre qué URLs están siendo rastreadas y permite tomar decisiones de optimización basadas en datos reales.

Con la información obtenida de los crawlers, se puede mejorar la estrategia de contenido. Es recomendable analizar qué páginas son más visitadas por bots de IA, identificar patrones de contenido efectivo (como guías, preguntas frecuentes o definiciones), añadir datos estructurados (schema), hacer el contenido más claro y conciso, aumentar la autoridad mediante fuentes fiables y mejorar el enlazado interno para conectar contenido relevante.

En conclusión, los SEOs no pueden ignorar el comportamiento de los crawlers de IA. Tanto mediante el análisis de logs como mediante herramientas más sencillas, es posible diseñar estrategias basadas en datos reales que aumenten la probabilidad de que el contenido sea citado por IA. La clave está en identificar el contenido exitoso, optimizar el menos rastreado y aplicar mejoras estructurales que maximicen la visibilidad en motores de IA.

¡Ten cuidado! ¡No te dejes engañar! Proyecto de alfabetización informacional para combatir la desinformación en la educación

Lopes, Carlos, Maria Luz Antunes, y Tatiana Sanches. 2025. Be Careful! Não te deixes enganar! Projeto de literacia no combate à desinformação no ensino superior. Lisboa: Edições ISPA. http://hdl.handle.net/10400.12/13586

El proyecto BE CAREFUL! tiene como finalidad fortalecer la alfabetización informacional en el ámbito de la educación superior para enfrentar el fenómeno creciente de la desinformación. Parte del reconocimiento de que los estudiantes interactúan cada día con sistemas de información y algoritmos complejos, que pueden reforzar la propagación de contenidos engañosos si no se manejan con pensamiento crítico. El documento subraya la responsabilidad colectiva de comprender cómo se produce, circula y utiliza la información, especialmente en entornos académicos.

La propuesta se sustenta en el Marco de la ACRL para la Alfabetización Informacional en la Educación Superior, adaptado al contexto portugués. El proyecto desarrolla seis grandes áreas de competencia: evaluar la autoridad y credibilidad de las fuentes, comprender la creación de información como un proceso, reconocer el valor de la información, investigar desde el cuestionamiento, establecer un diálogo académico ético y sostenible y realizar búsquedas estratégicas en entornos cada vez más complejos. Cada apartado combina definiciones, retos asociados al uso de la Inteligencia Artificial y las habilidades que los estudiantes e investigadores deben adquirir.

Uno de los ejes principales del proyecto es la reflexión sobre la Inteligencia Artificial, que transforma la forma en que se produce y se consume la información. El documento señala riesgos como la difusión de contenidos sesgados, la generación de textos y referencias falsos, la confusión entre autoría humana y artificial y la posibilidad de reproducir prejuicios presentes en los datos de entrenamiento. A la vez, promueve un uso ético, transparente y crítico de estas herramientas, invitando a explicar cuándo han sido utilizadas y a verificar siempre la fiabilidad de los resultados generados por la IA.

El proyecto propone además diversas estrategias educativas: lectura lateral, uso de herramientas de verificación (CRAAP, RADAR, PILS), análisis comparado de fuentes, debates guiados sobre la IA, construcción de preguntas de investigación y prácticas de citación y referencia que respeten la integridad académica. Se destaca el papel esencial de las bibliotecas y de sus profesionales como agentes formadores en estas competencias, promoviendo cursos, talleres y acciones colaborativas.

En conjunto, el proyecto BE CAREFUL! pretende reforzar la integridad académica, el pensamiento crítico y las prácticas de Ciencia Abierta. Su impacto se orienta a crear comunidades universitarias más preparadas para navegar en entornos informativos complejos, evaluar la fiabilidad del conocimiento y tomar decisiones fundamentadas, contribuyendo así a reducir la vulnerabilidad frente a la desinformación.

El impacto de la IA sobre el empleo es mixto: algunas empresas han reducido plantilla, otras están contratando más personal.

McKinsey. The State of AI in 2025: Agents, Innovation, and Transformation. McKinsey & Company, 2025. Artículo de ZDNet: “Is AI a career killer? Not if you have these skills, McKinsey research shows”. Enlace

Un informe de McKinsey, titulado The State of AI in 2025: Agents, Innovation, and Transformation, analiza cómo la inteligencia artificial (IA) está transformando el mundo laboral. Según la investigación, el impacto de la IA sobre el empleo es mixto: mientras algunas empresas han reducido plantilla, otras están contratando más personal.

En la encuesta realizada, menos del 20 % de los encuestados reportó reducciones de más del 3 % en sus equipos, pero se espera que en el próximo año el 32 % de las organizaciones reduzca empleados debido a la IA, mientras que un 13 % anticipa aumentos en sus contrataciones.

Algunos datos clave:

  • Reducción de plantilla por IA actual: <20 % reporta caídas ≥3 %
  • Proyección próximo año: 32 % reducirá personal, 13 % aumentará contrataciones
  • Roles más demandados: ingenieros de datos, científicos de datos, gestores de producto de IA, arquitectos de datos, desarrolladores
  • Habilidades críticas: análisis y preparación de datos, rediseño de procesos, aplicación estratégica de IA

No todos los trabajos están amenazados de la misma manera. Los roles técnicos relacionados con datos y desarrollo de IA están en auge, incluyendo ingenieros de datos, científicos de datos, gestores de producto de IA, arquitectos de datos y desarrolladores. Este crecimiento responde a la necesidad de contar con infraestructuras de datos sólidas y operaciones de machine learning (MLOps) que permitan implementar la IA de forma efectiva en las empresas.

Para protegerse de que la IA reemplace sus funciones, los trabajadores deben desarrollar habilidades clave. Estas incluyen competencias en análisis y preparación de datos, así como la capacidad de rediseñar procesos y aplicar la IA de manera estratégica. No basta con ser técnico: es esencial combinar habilidades técnicas con visión para optimizar flujos de trabajo y generar valor empresarial.

Por otro lado, muchas organizaciones aún no han gestionado adecuadamente los riesgos asociados a la IA, como privacidad, explicabilidad y posibles errores de los modelos. Aquellas que lideran en adopción de IA (“high performers”) son las que cuentan con liderazgo comprometido, procesos de validación robustos y estrategias claras para escalar la IA de manera transformadora.

Según McKinsey, los trabajadores que desarrollen las habilidades adecuadas en datos, IA aplicada y gestión de cambio pueden convertir esta tecnología en una oportunidad, en lugar de una amenaza, para su futuro profesional.