Archivo de la categoría: Tecnologías de la información

Del buscar al responder: el enfoque CARE y el nuevo papel del bibliotecario universitario ante la IA generativa

Lo, Leo S. The CARE Approach for Academic Librarians: From Search First to Answer First with Generative AI. The Journal of Academic Librarianship 52, no. 1 (enero 2026): 103186. https://doi.org/10.1016/j.acalib.2025.103186

En el entorno académico actual, estudiantes y profesores cada vez más inician sus investigaciones solicitando explicaciones a sistemas de inteligencia artificial en lugar de comenzar con la búsqueda tradicional en los recursos de la biblioteca. Las herramientas de IA y los motores de búsqueda avanzados proporcionan respuestas desarrolladas incluso antes de que el usuario vea una lista de fuentes académicas. Este fenómeno transforma el punto de partida de la indagación académica y plantea nuevos desafíos para las prácticas de la bibliotecología.

Dado este cambio hacia un enfoque de “respuesta primero”, el autor sostiene que los bibliotecarios también deben evolucionar su mentalidad y estrategias de intervención. En lugar de simplemente ofrecer acceso a recursos, los bibliotecarios necesitan reconocer las respuestas generadas por IA como textos que demandan interpretación y análisis crítico. Para ello, se propone la creación de una tipografía de respuestas que ayude a identificar la función que cumplen estas respuestas automatizadas.

Finalmente, el artículo propone el enfoque CARE —por sus siglas en inglés: Classify, Assess, Review, Enhance (Clasificar, Evaluar, Revisar, Mejorar)— como un marco metodológico para interactuar críticamente con las respuestas de IA en colaboración con los usuarios. Este enfoque sitúa a los bibliotecarios como guías que ayudan a sus comunidades académicas a leer, cuestionar y ampliar las respuestas generadas por IA manteniendo el juicio humano y la evidencia científica en el centro de la investigación.

La era de la extracción: cómo las «Big Tech» concentran poder y limitan la competencia

Levy, S. (2025). Welcome to Big Tech’s ‘Age of Extraction’. WIRED. Recuperado de https://www.wired.com/story/tim-wu-age-of-extraction/

Vivimos en una “era de la extracción” en la que las grandes plataformas tecnológicas —como Amazon, Google y Meta— han acumulado un poder de mercado tan dominante que han desplazado el propósito original de servir a los usuarios para priorizar su propia extracción de valor.

Esta extracción se manifiesta en precios más altos, tasas crecientes cobradas a desarrolladores y prácticas monopolísticas que consolidan su control, generando una estructura económica que favorece desproporcionadamente a las grandes empresas frente a consumidores y competidores más pequeños.

La concentración de poder en plataformas digitales impacta negativamente la apertura y la equidad en el ecosistema tecnológico. A través de ejemplos y analogías históricas, Wu explora cómo la regulación antimonopolio del pasado —como la que redujo el poder de gigantes como AT&T o IBM— ilustra enfoques posibles para moderar el poder actual de las plataformas, aunque el autor también reconoce el desafío político de implementar tales medidas, especialmente en contextos donde administraciones actuales pueden ser menos agresivas en su aplicación de leyes de competencia.

Una parte notable del análisis radica en las implicaciones más amplias de esta era de extracción: no solo se afecta la economía digital, sino también la estructura social y democrática. Wu sugiere que la consolidación tecnológica contribuye a una sensación generalizada de desigualdad económica y pérdida de control, lo cual puede alimentar divisiones políticas y sociales profundas. Además, aunque el libro toca aspectos tecnológicos emergentes —como la inteligencia artificial— Wu expresa preocupación de que estos avances, en lugar de democratizar beneficios, podrían reforzar aún más la posición dominante de las grandes plataformas si no se contrarrestan con políticas adecuadas. A pesar de ello, el autor mantiene una perspectiva a largo plazo más optimista, confiando en que ciclos históricos de cambio tecnológico y presión pública pueden, eventualmente, equilibrar el poder económico y abrir espacio para una competencia más justa

Casi todo lo que has oído sobre IA y recortes de empleo es incorrecto: aquí está el porqué 

McKendrick, Joe. 2025. “Nearly Everything You’ve Heard About AI and Job Cuts Is Wrong — Here’s Why.” ZDNet, 23 de septiembre de 2025. https://www.zdnet.com/article/nearly-everything-youve-heard-about-ai-and-job-cuts-is-wrong-heres-why/

El artículo cuestiona de forma crítica uno de los relatos más extendidos sobre la inteligencia artificial en el ámbito laboral: la idea de que la IA provocará recortes masivos de empleo, especialmente entre los trabajadores de cuello blanco.

Según Joe McKendrick, las predicciones que anuncian la desaparición del 50 % de los puestos de trabajo debido a la IA están enormemente exageradas y carecen de una base realista. El problema central no es la tecnología en sí, sino el modo en que se está gestionando su adopción. En este sentido, el texto subraya que el mayor reto actual de la IA es un déficit de liderazgo capaz de moderar expectativas, disipar temores y establecer marcos claros de uso responsable.

Apoyándose en las reflexiones de Tom Davenport, una de las figuras más influyentes en el ámbito de la analítica de datos y la IA, el artículo sostiene que la transformación real impulsada por la inteligencia artificial será mucho más lenta de lo que suele afirmarse. A pesar del flujo constante de nuevos modelos y de los anuncios sobre una supuesta inminencia de la inteligencia artificial general, muchas organizaciones siguen sin saber cómo obtener un valor medible de estas tecnologías. El motivo principal es que la verdadera transformación no se logra simplemente incorporando nuevas herramientas, sino que exige una reingeniería profunda de los procesos, proyectos a escala organizativa y años de esfuerzo sostenido.

Desde esta perspectiva, la IA se asemeja a anteriores olas tecnológicas: por sí sola no genera valor económico si no va acompañada de cambios estructurales en la forma de trabajar. El artículo desacredita la creencia de que bastaría con introducir sistemas generativos y redactar buenos “prompts” para lograr mejoras significativas. Davenport desmonta también el mito de que la IA eliminará masivamente los empleos de entrada, señalando una contradicción clave: si las empresas prescinden de los puestos junior, ¿cómo formarán a los profesionales experimentados del futuro? Según su experiencia, esta pregunta lleva más de una década sin una respuesta convincente por parte de las organizaciones.

El texto advierte además de los riesgos de que los consejos de administración y los altos directivos adopten una visión simplista según la cual la IA permitirá reducir drásticamente las plantillas. No solo considera irrealista ese escenario, sino también contraproducente. Promover la idea de que la adopción exitosa de la IA llevará al despido de los empleados desincentiva la implicación del personal y genera un clima de miedo que dificulta la innovación. En lugar de ello, el artículo defiende que la IA puede —y probablemente deberá— crear nuevos roles y ocupaciones, aunque todavía no sepamos con claridad cuáles serán.

Uno de los conceptos clave introducidos es el de vibe coding, entendido como una nueva forma de desarrollo ciudadano facilitada por la IA. Según Davenport, la inteligencia artificial convierte a prácticamente cualquier persona en un “desarrollador ciudadano”, capaz de crear aplicaciones, páginas web o herramientas funcionales sin conocimientos técnicos avanzados. Este fenómeno abre enormes oportunidades para la creatividad y la productividad, pero también implica riesgos si no se gestiona adecuadamente.

Por ello, el artículo insiste en la necesidad de establecer límites y sistemas de gobernanza claros. No todas las tareas son adecuadas para este tipo de desarrollo asistido por IA. Davenport propone un esquema de “semáforo”: actividades prohibidas (rojo), tareas que pueden realizarse con fuertes controles (amarillo) y usos plenamente aceptables (verde). Sin este tipo de criterios, el entusiasmo por la IA puede derivar en problemas graves, especialmente en sistemas críticos como los financieros o de recursos humanos.

Finalmente, el texto subraya la urgencia de contar con un liderazgo unificado en materia de tecnología y datos. La proliferación de cargos directivos relacionados con la IA —CIO, CTO, CDO, CAIO— ha generado fragmentación y falta de coordinación. Davenport aboga por una figura única, con visión estratégica y capacidad de interlocución con la alta dirección, que sea capaz de guiar la adopción de la IA sin caer en la exageración ni en el miedo.

Los bibliotecarios están desbordados por acusaciones de ocultar libros de referencias inexistentes que realmente fueron inventadas por alucinaciones de la IA

Novak, Matt. 2025. “Librarians Are Tired of Being Accused of Hiding Secret Books That Were Made Up by AI.Gizmodo, 11 de diciembre de 2025. https://gizmodo.com/librarians-arent-hiding-secret-books-from-you-that-only-ai-knows-about-2000698176

Todo el mundo sabe que los chatbots con IA como ChatGPT, Grok y Gemini suelen inventarse fuentes. Pero para las personas encargadas de ayudar al público a encontrar libros y artículos de revistas, las referencias falsas de la IA están pasando factura. Según una nueva publicación de Scientific American, los bibliotecarios parecen absolutamente agotados por las solicitudes de títulos que no existen.

Una problemática creciente en bibliotecas y centros de información provocada por la expansión del uso de chatbots de inteligencia artificial como ChatGPT, Grok o Gemini: la generación de títulos de libros, artículos y citas que en realidad no existen. Estas herramientas, debido a sus frecuentes “alucinaciones” (es decir, respuestas plausibles pero inventadas), han llevado a que muchos usuarios crean que dichos títulos son reales y se dirijan a los bibliotecarios con solicitudes para encontrarlos. Esta situación está causando frustración entre los profesionales de la información, quienes deben invertir tiempo y esfuerzo en demostrar que tales obras no existen en ningún catálogo o archivo conocido.

Según testimonios recopilados, como el de Sarah Falls del Library of Virginia, alrededor del 15% de las consultas de referencia recibidas por correo electrónico provienen directamente de sugerencias generadas por IA, muchas de las cuales incluyen títulos inventados o citas erróneas. Lo que agrava la situación no es solo la frecuencia de estas consultas, sino también el hecho de que parte del público confía más en la respuesta de la IA que en la experiencia de un bibliotecario profesional, lo cual ha generado situaciones tensas en las que usuarios insisten en la existencia de un libro pese a la demostración de que este nunca fue publicado.

Asimismo, el artículo señala que esta tendencia plantea un desafío más amplio para la comunidad académica y científica, ya que diluir la calidad de las referencias podría erosionar la confianza en el sistema de investigación y en la fiabilidad de las fuentes. Mientras que los modelos de IA pueden ser útiles para sintetizar o resumir información, su falta de capacidad para verificar hechos contra bases de datos reales implica que las instituciones y los investigadores deben adoptar prácticas de verificación más estrictas y educar a los usuarios sobre las limitaciones de estas tecnologías. Esto incluye pedir a quienes hagan consultas que indiquen si la referencia proviene de una IA y animarles a validar independientemente cualquier cita recibida.

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como persona del año

Reuters. 2025. “Architects of AI’ Named Time’s Person of the Year 2025.” December 11, 2025. https://time.com/7339685/person-of-the-year-2025-ai-architects/

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como Persona del Año, un reconocimiento no a una figura individual, sino a todo un grupo de líderes que han diseñado y transformado el ecosistema global de la IA.

Esta elección simboliza el momento histórico en que la inteligencia artificial pasó de ser un avance tecnológico a convertirse en una fuerza determinante en la vida cotidiana, en la economía y en el funcionamiento de las instituciones.

El artículo subraya que 2025 marcó un punto de inflexión: la IA dejó de ser una herramienta de nicho y se convirtió en un componente esencial para millones de personas. Modelos como ChatGPT y sistemas de IA aplicados en salud, educación o industria demostraron su capacidad para resolver problemas complejos y acelerar procesos. La labor de estos arquitectos permitió que la tecnología avanzara a una velocidad sin precedentes y ampliara su alcance a prácticamente todos los sectores. Esta selección reconoce a quienes han impulsado el desarrollo, la adopción y la expansión global de la IA, transformando industrias y la vida cotidiana. Entre ellos están Jensen Huang, Sam Altman, Elon Musk, Mark Zuckerberg, Lisa Su, Demis Hassabis, Dario Amodei y Fei-Fei Li.

Jensen Huang es CEO de Nvidia, la empresa que fabrica los chips que alimentan la mayoría de los sistemas de IA modernos. Su liderazgo ha llevado a Nvidia a convertirse en uno de los pilares de la infraestructura de la inteligencia artificial. Sam Altman, como CEO de OpenAI, es una de las figuras más visibles detrás de modelos de lenguaje como ChatGPT, que han popularizado la IA en todo el mundo. Elon Musk, fundador de xAI y de empresas como Tesla y SpaceX, ha invertido fuertemente en tecnologías de IA y ha influido en el debate público sobre su futuro.

Mark Zuckerberg, al frente de Meta, ha integrado capacidades de IA en redes sociales y aplicaciones de gran uso global. Lisa Su, CEO de AMD, dirige una de las principales empresas de semiconductores que compiten en la producción de hardware para IA. Demis Hassabis, líder de Google DeepMind, es conocido por avances en investigación de IA, y Dario Amodei, CEO de Anthropic, destaca por su trabajo en modelos de lenguaje y seguridad. Finalmente, Fei-Fei Li, investigadora académica y cofundadora de World Labs, aporta una perspectiva de investigación fundamental en el campo de la visión por computadora y la IA responsable.

Sin embargo, el reconocimiento también refleja los desafíos que acompañan este auge. El desarrollo acelerado de la IA ha despertado preocupaciones sobre privacidad, desinformación, desplazamiento laboral y sesgos algorítmicos. La figura de los “Arquitectos de la IA” representa tanto el enorme potencial transformador de estas tecnologías como la responsabilidad ética que implica dirigir su futuro.

En conjunto, TIME destaca que estas personas —ingenieros, investigadores y líderes tecnológicos— están moldeando la era actual y sentando las bases del mundo que viene. Su influencia es tan profunda que, para bien o para mal, el rumbo de la sociedad global en los próximos años estará estrechamente vinculado a las decisiones que tomen sobre cómo diseñar, regular y aplicar la inteligencia artificial.

RSL 1.0: el nuevo estándar que permite a los editores controlar el uso de su contenido por la IA

Roth, Emma. “RSL 1.0 Has Arrived, Allowing Publishers to Ask AI Companies to Pay to Scrape Content.” The Verge, 10 de diciembre de 2025 https://rslstandard.org/

Really Simple Licensing 1.0 (RSL 1.0) es un nuevo estándar de licencias abierto que se ha lanzado oficialmente para la era de la inteligencia artificial. Su objetivo principal es permitir que los editores de contenido web establezcan reglas claras sobre cómo y si las empresas de IA pueden utilizar su material, incluyendo posibles mecanismos de compensación económica.

Este estándar fue desarrollado por el RSL Collective con el respaldo de grandes nombres del sector como Yahoo, Ziff Davis y O’Reilly Media, y amplia el tradicional archivo robots.txt añadiendo un conjunto más detallado de permisos que las máquinas pueden leer y aplicar. Gracias a él, los editores pueden, por ejemplo, bloquear el uso de su contenido en funciones de búsqueda potenciadas por IA (como el “AI Mode” de Google) sin dejar de aparecer en los resultados de búsqueda tradicionales.

RSL 1.0 ha sido respaldado por más de 1 500 medios y plataformas, incluidas Reddit, Quora, WikiHow, Stack Overflow y The Guardian, y también cuenta con el apoyo de proveedores de infraestructura web como Cloudflare, Akamai y Fastly, lo que facilita la aplicación práctica de estas reglas frente a rastreadores o bots que no cumplan con las condiciones establecidas.

Además, la especificación incluye un modelo de “contribución” desarrollado junto con Creative Commons, pensado para permitir que organizaciones sin ánimo de lucro y otros creadores exijan aportaciones a los sistemas de IA que se beneficien de su trabajo, sin cerrar el acceso a contenidos útiles o de libre uso.

Este lanzamiento llega en un contexto en el que compañías como Google están siendo investigadas por el uso de contenido de editores en funciones de IA sin ofrecer opciones claras de exclusión o compensación, y RSL 1.0 pretende aportar transparencia y un marco legal para resolver estas tensiones en la relación entre creadores de contenido y proveedores de IA.

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.

La IA ahorra a los trabajadores menos de una hora al día.

AI Saves Workers Less Than an Hour Each Day, New OpenAI Report Shows.” CNET. 2025 https://www.cnet.com/tech/services-and-software/ai-saves-workers-less-than-an-hour-each-day-new-openai-report-shows/

Informe

Un reciente informe de OpenAI revela que las herramientas de inteligencia artificial (IA) ya están generando un ahorro de tiempo real en el entorno laboral. Según la encuesta realizada a 9.000 empleados de cerca de 100 empresas, quienes usan las soluciones de IA han declarado que logran ahorrar entre 40 y 60 minutos por día en sus tareas profesionales.

El informe OpenAI’s 2025 ‘The State of Enterprise AI’ report ofrece una visión detallada de cómo las empresas están utilizando las herramientas de IA en la práctica. Basándose en datos de uso anónimos de más de un millón de clientes empresariales, junto con una encuesta realizada a 9000 trabajadores de casi 100 organizaciones, el informe presenta un panorama de la creciente adopción e integración de la IA en el lugar de trabajo.

Este ahorro no se limita a un tipo de trabajo: los sectores donde más se nota la ganancia de tiempo incluyen ciencia de datos, ingeniería, comunicaciones y contabilidad. Para muchos de estos trabajadores, el uso de IA no solo agiliza tareas rutinarias, sino que aumenta la velocidad o la calidad del resultado. De hecho, el 75 % de los encuestados afirmó que la IA ha mejorado su rendimiento en uno u otro de esos aspectos.

Además, el informe sugiere que la IA no solo optimiza lo ya existente, sino que amplía lo que los trabajadores pueden hacer: muchas personas informan que ahora son capaces de desempeñar tareas que antes les resultaban inaccesibles. En algunos perfiles —especialmente los más intensivos en uso de IA— el ahorro de tiempo puede traducirse en más de 10 horas semanales.

Por último, los datos muestran una adopción acelerada de la IA en las empresas: el uso de herramientas como ChatGPT Enterprise creció exponencialmente, y muchos equipos están integrándolas de forma estructural en sus flujos de trabajo, lo que sugiere que la IA está pasando de ser una novedad o experimento a ser parte permanente del entorno laboral moderno.

Bibliotecas y búsquedas con IA: evaluando la fiabilidad de las respuestas

Fowler, Geoffrey A. “We Tested Which AI Gave the Best Answers Without Making Stuff Up — One Beat ChatGPT.” The Washington Post, August 27, 2025

En agosto de 2025, The Washington Post publicó un estudio en el que un grupo de bibliotecarios evaluó nueve herramientas de búsqueda basadas en inteligencia artificial para determinar cuáles ofrecían respuestas más precisas y fiables, evitando las conocidas “alucinaciones” o errores inventados por la IA. El objetivo era medir la exactitud de las respuestas, la fiabilidad de las fuentes y la capacidad de cada sistema para manejar información reciente, especializada o compleja.

El experimento consistió en 30 preguntas diseñadas para poner a prueba las fortalezas y debilidades de cada IA, incluyendo datos poco conocidos, eventos recientes, interpretación de imágenes y sesgos de los modelos. Se evaluaron herramientas como ChatGPT (versiones 4 y 5), Bing Copilot, Claude, Grok, Perplexity, Meta AI y las versiones de búsqueda de Google AI. Tres bibliotecarios analizaron cerca de 900 respuestas, valorando tanto la exactitud como la presencia de referencias confiables.

Los resultados mostraron que Google AI Mode fue, en general, la herramienta más fiable, especialmente en la resolución de preguntas sobre trivialidades o información reciente. Sin embargo, todas las IA evaluadas presentaron limitaciones: muchas generaron respuestas incorrectas con citas aparentemente verídicas, fallaron en preguntas especializadas o de difícil acceso, tuvieron problemas con información reciente y mostraron sesgos hacia ciertas disciplinas o perspectivas. La interpretación de imágenes también fue un reto para la mayoría de los sistemas.

A pesar de sus limitaciones, las IA demostraron ser útiles en ciertos contextos, como la síntesis de información dispersa o compleja. Los evaluadores subrayaron que, aunque estas herramientas pueden ahorrar tiempo, no deben reemplazar la verificación tradicional de fuentes. Recomiendan un uso crítico y complementario, tratando la IA como un apoyo para la investigación más que como fuente definitiva.

El estudio evidencia que ninguna IA es perfecta y que, aunque ofrecen ventajas en rapidez y síntesis, siguen siendo propensas a errores, omisiones y sesgos. Los bibliotecarios enfatizan la importancia de la verificación y el pensamiento crítico al usar estas herramientas, igual que se haría al consultar fuentes tradicionales en una biblioteca.

Resultados clave:

Herramienta más fiable: Google AI Mode fue la IA que ofreció respuestas más precisas y consistentes, especialmente en información reciente y trivialidades poco conocidas.

Alucinaciones y errores: Varias IA, incluida ChatGPT, generaron respuestas incorrectas con un tono de certeza, a veces citando fuentes que no respondían a la pregunta.

Limitaciones con información especializada: Ninguna IA respondió correctamente en todos los casos que requerían conocimientos de nicho o fuentes difíciles de acceder.

Problemas con información reciente: Las IA fallaron en eventos o datos muy recientes debido a sus límites en actualización de datos.

Interpretación visual limitada: Las preguntas sobre detalles de imágenes o contenido visual fueron problemáticas para la mayoría de las IA.

Sesgos inherentes: Las IA mostraron sesgos en temas de carreras académicas o áreas de conocimiento, favoreciendo disciplinas STEM sobre humanidades o sociales.

Utilidad relativa: Las IA pueden ahorrar tiempo y sintetizar información compleja, pero no sustituyen la verificación de fuentes tradicionales; deben usarse como complemento crítico en la investigación.

Guía para el uso de las inteligencias artificiales en el ámbito educativo

Guía para el uso de las inteligencias artificiales en el ámbito educativo. Euskadi: Departamento de Educación. Departamento de Educación y Elhuyar Licencia, 2025

Texto completo

La Guía para el uso de las inteligencias artificiales en el ámbito educativo, elaborada por el Departamento de Educación y Elhuyar, se presenta como un documento exhaustivo destinado a acompañar al profesorado en la integración ética, crítica y pedagógica de la inteligencia artificial (IA) en los centros educativos. Desde el inicio, la guía subraya la rápida expansión de estas tecnologías en todos los ámbitos de la vida —incluida la enseñanza— y advierte que su accesibilidad, facilidad de uso y normalización entre adolescentes exigen una reflexión profunda sobre sus implicaciones éticas, legales y pedagógicas. Aunque la IA ofrece potenciales beneficios, también plantea riesgos como el coste ambiental, la dependencia tecnológica de grandes corporaciones, la propagación de errores o creencias falsas y el uso indebido por parte del alumnado.

La guía también explica de manera clara cómo funcionan los sistemas de IA generativa: se entrenan con grandes volúmenes de datos —muchos de ellos con sesgos— y generan respuestas probabilísticas, no comprensiones reales. Por ello, pueden equivocarse, “alucinar”, reproducir estereotipos o generar contenidos incorrectos. Se presentan ejemplos prácticos sobre cómo controlar la creatividad del chatbot, cuándo utilizar modelos de razonamiento y en qué contextos las herramientas son más útiles (generación de ideas, resúmenes, reorganización de formatos) o menos adecuadas (datos sensibles, procesos de aprendizaje en los que es crucial la participación activa del alumnado). También se subraya que las IA funcionan peor en lenguas minorizadas como el euskera, aunque existen iniciativas locales para fortalecer su presencia.