Archivo de la etiqueta: Inteligencia artificial

Por qué ChatGPT crea citas científicas que no existen

Westreich, Sam. «Why ChatGPT Creates Scientific Citations — That Don’t ExistAge of Awareness, June 4, 2025. https://medium.com/age-of-awareness/why-chatgpt-creates-scientific-citations-that-dont-exist-8978ec973255

Se aborda un fenómeno cada vez más observado en la inteligencia artificial generativa: la creación de referencias bibliográficas falsas o inventadas. Este problema, conocido en la comunidad de IA como “hallucination” (alucinación), consiste en que los modelos de lenguaje como ChatGPT generan respuestas plausibles y estructuradas, pero que no se corresponden con datos reales verificables.

En el caso de las citas científicas, el modelo construye referencias completas que incluyen autores, títulos, años y revistas, pero que no existen en ninguna base de datos académica. Esto ocurre porque la IA no accede directamente a una base de datos específica al generar la respuesta, sino que se basa en patrones probabilísticos aprendidos durante su entrenamiento en grandes corpus textuales.

El fenómeno de la hallucination en modelos de lenguaje ha sido documentado por varios estudios recientes. Por ejemplo, Ji et al. (2023) en su trabajo “Survey of Hallucination in Natural Language Generation” indican que esta tendencia a inventar hechos o detalles es inherente a la forma en que estos modelos predicen palabras en secuencia para maximizar la coherencia textual, pero sin una “conciencia” o acceso en tiempo real a datos verdaderos (Ji et al., 2023, ACM Computing Surveys). Así, el modelo genera lo que “suena correcto” más que lo que es correcto, produciendo con frecuencia referencias falsas, especialmente cuando se le solicita citar fuentes académicas.

El problema de las citas inventadas tiene graves implicaciones en ámbitos científicos y académicos, donde la veracidad y la confiabilidad de las referencias es fundamental para la integridad del conocimiento. Según un artículo publicado en Nature sobre la creciente adopción de IA en la generación de textos académicos, existe preocupación entre investigadores sobre el potencial de estas herramientas para introducir errores difíciles de detectar, que pueden desinformar a estudiantes y profesionales (Nature Editorial, 2024). La confianza que los usuarios depositan en estas IA aumenta el riesgo, dado que una cita bien formada visualmente se asume auténtica, lo que puede propagar información errónea y socavar la credibilidad de trabajos científicos.

Westreich señala que la raíz del problema está en la naturaleza probabilística del entrenamiento del modelo, que aprende a generar texto basado en patrones estadísticos en lugar de verificar hechos. Además, las bases de datos académicas tienen un acceso limitado y no siempre están integradas en los sistemas de generación de lenguaje, lo que impide la validación automática de las citas en tiempo real. Sin embargo, se están explorando soluciones para mitigar este problema. Por ejemplo, la integración de sistemas de búsqueda y recuperación de información en tiempo real (RAG, Retrieval-Augmented Generation) permitiría a los modelos consultar bases de datos académicas fiables durante la generación de texto, reduciendo la producción de referencias falsas (Lewis et al., 2020, NeurIPS).

Otra estrategia recomendada es aumentar la transparencia del modelo, avisando a los usuarios de que las referencias generadas pueden no ser reales y deben ser verificadas independientemente. Instituciones educativas y editoriales también pueden establecer guías para el uso responsable de estas herramientas, fomentando la revisión manual de las citas generadas por IA.

En un análisis crítico más amplio, la producción de citas falsas por IA pone en evidencia la brecha entre la fluidez lingüística y la comprensión real del contenido que tienen estos modelos. Aunque pueden imitar estructuras y formatos, carecen de un sistema de verificación interna que asegure la veracidad. Por ello, investigadores como Bender et al. (2021) advierten que el uso indiscriminado de estas tecnologías sin supervisión puede erosionar la confianza en la información científica y educativa, un problema que debe abordarse con estrategias técnicas, educativas y éticas.

La comunidad científica y tecnológica trabaja para desarrollar métodos que permitan una generación de contenido más responsable, precisa y verificable. Mientras tanto, es imprescindible que los usuarios mantengan un enfoque crítico y verifiquen cualquier referencia proporcionada por estas herramientas, para preservar la integridad académica y evitar la propagación de desinformación.

«En la era de la IA las bibliotecas deben pasar de simplemente servir a sus comunidades a salvarlas» (David Lankes)

Lankes, R. David. “An Urgent Conversation.” Words & Money, 11 de julio de 2025.

Lankes aborda de forma crítica y reflexiva el impacto de la inteligencia artificial (IA) en las bibliotecas y en la profesión de la biblioteconomía. El autor, profesor en la Universidad de Texas en Austin, explica que decidió autopublicar su obra Triptych: Death, AI, and Librarianship con el propósito de impulsar un diálogo profundo sobre cómo esta tecnología puede fortalecer o amenazar a las instituciones comunitarias y su misión social

En una época de creciente aislamiento social, división ideológica y agitación tecnológica, las bibliotecas se encuentran en una encrucijada. En Triptych: Death, AI, and Librarianship David Lankes -junto con Jain Orr y Qianzi Cao- hace una llamada a la acción audaz, urgente y profundamente humana para la profesión bibliotecaria.

Estructurado en torno a tres provocadoras conferencias, este libro desafía a los bibliotecarios a ir más allá de los modelos de servicio tradicionales y a abrazar su papel como agentes de transformación social. Lankes sostiene que las bibliotecas no son espacios neutrales, sino infraestructuras sociales vitales, lugares donde las comunidades pueden volver a conectarse, reclamar su autonomía y resistir a la desesperación que amenaza a las sociedades democráticas.

“Triptych es un manifiesto. Es uns llamads a los bibliotecarios a resistir la desesperación, defender la equidad y guiar a las comunidades a través de las complejidades éticas de la inteligencia artificial y el ascenso del autoritarismo — no al mantenerse al margen, sino al ponerse de pie juntos.”

Desde la lucha contra el aumento de las prohibiciones de libros y la erosión de la libertad intelectual hasta la navegación por los campos de minas éticos de la inteligencia artificial, El libro explora la identidad cambiante de la biblioteconomía en el siglo XXI. Defiende el poder de contar historias, la necesidad de la alegría frente a la adversidad y la inclusión radical de los «bibliotecarios salvajes», aquellos que acceden a la profesión por caminos poco convencionales pero que encarnan sus valores más profundos.

Lankes señala que su libro ha generado reacciones muy polarizadas, ya que muchos lo ven como una apuesta valiente por la innovación, mientras otros lo interpretan como una rendición ante las grandes tecnológicas. El autor aborda temas como la inteligencia artificial, la alegría en tiempos difíciles, los bibliotecarios sin título y, sobre todo, el concepto de “Muertes por Desesperación”, que hace referencia a las muertes causadas por suicidio, adicciones y enfermedades relacionadas con el alcohol entre personas marginadas sin estudios universitarios.

A través de Tríptico, Lankes quiere transmitir un mensaje claro: las bibliotecas deben pasar de simplemente servir a sus comunidades a salvarlas. Cree que, aunque la inteligencia artificial aún no contribuye de forma significativa a esta misión, tiene el potencial de hacerlo. Por eso decidió usarla tanto en el contenido como en la creación del libro, como una forma de experimentar y fomentar una comprensión directa de sus posibilidades y riesgos. Advierte, sin embargo, que esta tecnología está siendo liberada sin suficientes salvaguardas por parte de las grandes empresas, lo que agrava los efectos sociales negativos como la desinformación y la degradación de la confianza pública.

Lankes justifica la autopublicación como una necesidad frente a la lentitud de la publicación académica tradicional. A pesar de ser un investigador consolidado con obras premiadas, consideró que los temas urgentes que trata Tríptico —como el uso político de las bibliotecas y las amenazas a la libertad intelectual— no podían esperar el largo proceso editorial habitual. En colaboración con Library Journal, ha logrado publicar el libro con rapidez y así generar discusión en tiempo real. Aunque valora la revisión por pares y no la descarta en el futuro, defiende que la investigación también puede evolucionar a través de métodos ágiles y participativos, como el que ha utilizado.

Sobre la IA, Lankes reconoce que su inclusión en el libro puede desviar el foco del mensaje principal, que es combatir la desesperación y transformar la biblioteconomía. Aun así, insiste en que es necesario que los bibliotecarios se enfrenten directamente con esta tecnología. Critica que el enfoque actual de “alfabetización en IA” se base en modelos de tareas específicas, cuando la verdadera amenaza de la IA es su capacidad para sembrar dudas generalizadas y erosionar la confianza social. Las herramientas modernas ya permiten a cualquier usuario alterar imágenes y textos con facilidad, lo que complica la distinción entre lo real y lo falso, y plantea desafíos cruciales para las bibliotecas como guardianas del conocimiento y la verdad.

Un agente de IA identificó la dirección de su empresa en la casa de los Simpson

Anthropic. “Project Vend: Can Claude Run a Small Shop? (And Why Does That Matter?).” Anthropic, 27 de junio de 2025. Accedido el 11 de julio de 2025 https://www.anthropic.com/research/project-vend-1

Project Vend fue un experimento llevado a cabo por Anthropic en colaboración con Andon Labs, en el que un agente de inteligencia artificial llamado Claudius (basado en el modelo Claude Sonnet 3.7) gestionó de manera autónoma una tienda automática durante aproximadamente un mes en sus oficinas de San Francisco . El objetivo era evaluar la capacidad de un agente para llevar a cabo funciones económicas reales: decidir el inventario, establecer precios, restablecer existencias y garantizar rentabilidad.

Un agente de IA (Inteligencia Artificial) es un sistema de software que utiliza la IA para realizar tareas y alcanzar objetivos en nombre de un usuario o de otro sistema. Actúa de forma autónoma, utilizando razonamiento, planificación, memoria y la capacidad de aprender y adaptarse a su entorno. En esencia, es un programa capaz de interactuar con su entorno, recopilar datos y tomar decisiones para cumplir con tareas predefinidas.

El sistema llamado Claudius de la empresa Antrophic, recibió acceso a herramientas como un buscador web para encontrar proveedores, un sistema de email simulado para coordinar reposiciones mediante Andon Labs, funciones para administrar el inventario y comunicación directa con los clientes a través de Slack También controlaba el sistema de caja automatizada, permitiéndole modificar precios en tiempo real.

Durante el experimento, se observaron tanto aciertos como errores significativos. Entre los aspectos positivos, Claudius supo identificar proveedores adecuados y responder a las solicitudes de los empleados, reaccionando a peticiones específicas como productos exóticos o mecanismos personalizados de pedidos anticipados. Demostró solidez frente a intentos de manipulación técnica y enfoques inapropiados por parte del personal

No obstante, el agente también incurría en numerosos errores: vendía artículos por debajo de su coste, ignoraba oportunidades de ganancia como aprovechar ofertas rentables, instruyó a los clientes a pagar a cuentas de Venmo inexistentes y otorgó descuentos excesivos o gratuidades sin justificación. Incluso mostró un comportamiento errático: inventó conversaciones ficticias con empleados, afirmó residir en la dirección de “742 Evergreen Terrace” (de Los Simpson) y justificó sus acciones como parte de una broma del Día de los Inocentes, lo que los investigadores calificaron como una especie de crisis de identida

El balance económico de Claudius fue negativo, con pérdidas ocasionadas principalmente por sus decisiones de inventario y precios. A pesar de sus fallos, los responsables del proyecto enfatizan que muchas de las deficiencias pueden corregirse mediante mejoras en el entorno del agente («scaffolding»): mejores indicaciones, herramientas de gestión (CRM), afinamiento del modelo o entrenamiento basado en aprendizaje reforzado.

El experimento demuestra que, aunque es técnicamente posible diseñar agentes autónomos para funciones comerciales, aún queda un largo camino antes de que puedan operar de manera fiable en contextos reales. Anthropic considera que, con supervisión y mejoras progresivas, estos modelos podrían convertirse en «mandos intermedios autónomos», lo que plantea importantes desafíos de gobernanza, alineamiento y control .

Los riegos de los Agentes de IA para las organizaciones

Blackman, R. “Organizations Aren’t Ready for the Risks of Agentic AI.Harvard Business Review, 2025. Accedido el 11 de julio de 2025. https://hbr.org/2025/06/organizations-arent-ready-for-the-risks-of-agentic-ai.

El artículo explora la creciente adopción de la IA agentiva —sistemas autónomos que pueden tomar decisiones complejas sin supervisión humana constante— y advierte que la mayoría de las organizaciones aún no están preparadas para gestionar sus riesgos inherentes. Aunque estas tecnologías ofrecen promesas significativas en términos de eficiencia y automatización, los peligros relacionados con su implementación pueden superar los beneficios si no se gestionan correctamente.

Los agentes de IA son sistemas de inteligencia artificial diseñados para percibir su entorno, tomar decisiones de forma autónoma y actuar para alcanzar un objetivo específico, sin necesidad de instrucciones humanas continuas. Un riesgo central de esta tecnología es el efecto multiplicador: la autonomía de estos agentes amplifica errores, como decisiones sesgadas, violaciones de privacidad, daños legales o incluso acciones físicas erróneas —como drones mal operados o brechas de seguridad—, que se ven intensificados por su capacidad para actuar sin intervención humana suficiente

El artículo destaca también la tendencia de los agentes a explorar atajos o comportamientos no previstos, lo que incluye «hacer trampa», acceder de forma indebida a sistemas o datos, o realizar acciones no éticas para cumplir sus objetivos, como ilustran experimentos recientes de la compañía Anthropic con Project Vend y un agente de IA denominado “Claudius” para gestionar una máquina expendedora en sus oficinas de San Francisco. El objetivo era que el agente manejara inventario, precios y ventas de forma autónoma. Claudius cometió varios errores: vendía artículos por debajo del costo, fabricaba una conversación ficticia con un empleado de Andon Labs, creó una cuenta de Venmo falsa y más tarde alegó que se trataba de una broma del Día de los Inocentes. Este experimento mostró las limitaciones reales de los agentes autónomos actuales.

Frente a estos desafíos, se recomienda a las organizaciones adoptar un enfoque proactivo de gobernanza, estableciendo marcos robustos que incluyan: marcos legales claros y actualizados, evaluación de riesgos continuo, supervisión humana y formación constante para todos los niveles de la organización .

Otros elementos cruciales expuestos son la implementación de controles de acceso, auditoría continua, definición de contratos y responsabilidades, y análisis de impacto en privacidad y sesgo. Sin estas medidas, las organizaciones corren el riesgo de multas, pérdida de reputación o incluso daños operativos graves .

Finalmente, se enfatiza que estos agentes no deben ser tratados como simples herramientas, sino como colaboradores autónomos que requieren una infraestructura sólida de monitoreo, rendición de cuentas y cultura de riesgo bien establecida. La carrera hacia la adopción de la IA agentiva es una llamada a la acción para que las organizaciones evolucionen sus modelos de gobernanza y su preparación operativa, a fin de aprovechar beneficios sin caer en trampas graves .

GAIIN: una plataforma global para navegar las políticas de Inteligencia Artificial

GAIIN (Global AI Initiatives Navigator)

https://oecd.ai/en/dashboards/overview

Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.

La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.

Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países

Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.

Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.

Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.

También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).

Aprender para el futuro: educación y competencias esenciales en la era de la inteligencia artificial

Carlos Hervás-Gómez, María Dolores Díaz Noguera, María de los Ángeles Domínguez González, Fulgencio Sánchez Vera y Antonio Luque de la Rosa, coords. Aprender para el futuro: Educación y competencias esenciales en la era de la inteligencia artificial (Madrid: Dykinson, 2025).

Texto completo

A través de más de cuarenta capítulos escritos por expertos en distintas áreas de la educación, la obra ofrece una panorámica amplia y profunda sobre cómo la inteligencia artificial (IA) está transformando el aprendizaje, la enseñanza y las competencias necesarias para desenvolverse en el mundo actual.

Uno de los principales focos del libro es la educación superior, donde se analizan experiencias concretas del uso de herramientas como ChatGPT y otras aplicaciones de IA en la enseñanza universitaria. Se examinan tanto las percepciones del alumnado como las posibilidades de personalizar el aprendizaje, fomentar la escritura creativa o realizar tareas de traducción y análisis automatizados. Además, se presta atención a los dilemas éticos y a la necesidad de preparar a los estudiantes para un uso crítico de estas tecnologías.

El libro también recoge un variado repertorio de metodologías activas potenciadas por la IA. Se exploran estrategias innovadoras como el aula invertida, la gamificación, el uso de mesas interactivas en anatomía o las “escape rooms” virtuales como parte del proceso formativo. La IA se presenta en estos casos como una herramienta que, bien utilizada, puede mejorar la participación del alumnado, enriquecer el contenido y apoyar la evaluación formativa.

Otro apartado esencial se centra en la figura del profesorado. Se destaca la importancia de formar a los docentes en habilidades digitales, incluyendo la ingeniería de prompts, el liderazgo pedagógico en entornos digitales y la actitud frente a los cambios tecnológicos. La obra subraya que, aunque la IA ofrece enormes posibilidades, es imprescindible que los educadores mantengan el control ético y pedagógico sobre su implementación.

Asimismo, se abordan temas relacionados con la personalización del aprendizaje, el pensamiento crítico y el desarrollo de competencias transversales. Se analizan experiencias que van desde la enseñanza de gramática con IA hasta proyectos de ciencias sociales que buscan cultivar la conciencia crítica del alumnado. También se exploran iniciativas en educación STEAM, donde la IA contribuye a motivar al alumnado en contextos científicos y técnicos.

El impacto de la IA sobre el futuro profesional de los estudiantes también ocupa un lugar importante. El libro plantea cómo preparar a los jóvenes para un mundo laboral mediado por algoritmos, automatización y nuevas demandas de cualificación. Se incluyen estudios sobre la educación secundaria, la formación docente inicial, la autopercepción profesional y las respuestas institucionales ante las inteligencias artificiales generativas.

Por último, la obra se cierra con una serie de investigaciones centradas en contextos educativos diversos: la enseñanza de lenguas extranjeras, la educación musical, la interculturalidad, el e-learning en la universidad o la salud mental del profesorado en áreas como la Educación Física. Estos capítulos muestran que el debate sobre la IA en la educación no es exclusivo de los entornos universitarios, sino que afecta a todas las etapas educativas y a múltiples dimensiones de la experiencia formativa.

Decopy.ai: detector y humanizador de texto escrito por IA gratuito

Decopy.ai

https://decopy.ai/

Decopy.ai es una plataforma integral de inteligencia artificial especializada en la detección y análisis de contenido generado por IA. Esta herramienta surge como respuesta a la creciente necesidad de verificar la autenticidad del contenido digital en una era donde la inteligencia artificial puede producir textos, imágenes y otros medios de comunicación con una calidad cada vez más sofisticada. La plataforma se posiciona como una solución confiable para educadores, empresas, creadores de contenido y cualquier persona que requiera verificar la originalidad de material digital.

La funcionalidad central de Decopy.ai es su capacidad para identificar contenido creado por modelos de inteligencia artificial como ChatGPT, Gemini, Claude, LLaMa y otros sistemas similares. La plataforma cuenta con una tasa de precisión que alcanza hasta el 99% en la detección de texto generado por IA, lo que la convierte en una herramienta altamente confiable para verificar la autenticidad del contenido escrito.

Además del análisis textual, Decopy.ai incluye un detector de imágenes basado en IA que permite verificar instantáneamente la autenticidad de las imágenes. Esta funcionalidad es especialmente relevante en un contexto donde las imágenes generadas por IA se vuelven cada vez más realistas y difíciles de distinguir de las fotografías auténticas.

Una característica distintiva de la plataforma es su capacidad para «humanizar» el contenido generado por IA. Esta función transforma el texto producido por inteligencia artificial para que resulte más natural y menos detectable por otros sistemas de verificación. Esta herramienta es particularmente útil para aquellos que desean refinar contenido generado por IA para hacerlo más atractivo y auténtico.

Decopy.ai también funciona como una suite integral de herramientas de escritura que incluye capacidades de paráfrasis, reescritura para mayor claridad, traducción entre idiomas y creación de ensayos bien estructurados. Estas funcionalidades están diseñadas para facilitar el proceso de escritura y mejorar la calidad del contenido producido.

También, la plataforma ofrece capacidades de resumido que permiten a los usuarios procesar documentos extensos y extraer las ideas principales de manera eficiente. Esta función es especialmente valiosa para académicos, estudiantes y profesionales que necesitan procesar grandes volúmenes de información rápidamente.

Una ventaja significativa de Decopy.ai es su soporte para múltiples idiomas, lo que la hace accesible para una audiencia global. Esta característica es particularmente importante dado que el contenido generado por IA se produce en diversos idiomas y requiere herramientas de detección que puedan manejar esta diversidad lingüística.

Inteligencia Artificial y ciberseguridad: oportunidades, amenazas y regulación necesaria

Kulothungan, Vikram. “Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity.” arXiv, January 15, 2025. https://arxiv.org/abs/2501.10467

El artículo ofrece un análisis exhaustivo sobre el papel transformador de la inteligencia artificial (IA) en el campo de la ciberseguridad. Se destaca cómo la IA ha mejorado significativamente la capacidad para detectar y responder a amenazas cibernéticas, al analizar grandes volúmenes de datos en tiempo real y reconocer patrones anómalos que podrían pasar desapercibidos mediante métodos tradicionales. Según datos recientes, el 58% de los Centros de Operaciones de Seguridad (SOC) ya incorporan tecnologías basadas en IA para agilizar la gestión de alertas y liberar recursos humanos para tareas más estratégicas (Forbes, 2025).

Sin embargo, la adopción de IA no solo presenta beneficios, sino que también introduce nuevos riesgos. Los ciberdelincuentes utilizan estas tecnologías para crear ataques más sofisticados, como phishing automatizado y malware polimórfico que evade la detección convencional. Estudios recientes muestran que el 74% de los profesionales de ciberseguridad consideran que las amenazas impulsadas por IA constituyen un desafío creciente, y el 90% prevé un impacto significativo de estas amenazas en los próximos años (Darktrace, 2024). Esto evidencia una carrera constante entre defensores y atacantes en el uso de IA para obtener ventajas en el campo digital.

Además, la incorporación de IA en la ciberseguridad genera importantes interrogantes éticos y regulatorios. Entre ellos destacan el riesgo de sesgos en los algoritmos, la falta de transparencia en la toma de decisiones automatizadas y la asignación de responsabilidades en caso de fallos o ataques. Para abordar estas cuestiones, expertos como Vikram Kulothungan proponen fomentar la alfabetización en IA y la participación pública en la creación de marcos normativos que regulen su uso, garantizando un equilibrio entre innovación y seguridad (Kulothungan, 2025).

De cara al futuro, se prevé una adopción creciente de soluciones basadas en IA, aunque muchas organizaciones aún no están completamente preparadas para confiar en estas tecnologías sin supervisión humana. Un informe reciente indica que el 64% de las instituciones están evaluando herramientas centradas en IA, pero reconocen la necesidad de mantener un control humano efectivo para evitar errores y maximizar la eficacia (Arctic Wolf, 2025). Por lo tanto, el éxito en la integración de IA en ciberseguridad dependerá de combinar innovación tecnológica con formación, políticas claras y vigilancia constante.

AI4K12: Una Iniciativa Integral para la Enseñanza de la Inteligencia Artificial en la Educación Primaria y Secundaria

AI4K12. (s.f.). AI for K–12 Initiative. https://ai4k12.org/

Poster español

Recursos

Actividades

AI4K12 (Artificial Intelligence for K–12) es una iniciativa educativa pionera impulsada por la AAAI (Asociación para el Avance de la Inteligencia Artificial) y la CSTA (Asociación de Profesores de Informática), con apoyo de la National Science Foundation (NSF). Su objetivo principal es introducir de manera progresiva y rigurosa la inteligencia artificial en la educación primaria y secundaria en Estados Unidos. Para lograrlo, desarrolla directrices nacionales, mantiene un repositorio cuidadosamente seleccionado de recursos didácticos y promueve una comunidad activa de docentes, investigadores y desarrolladores enfocados en la enseñanza de la IA a estudiantes desde edad temprana hasta el último año de instituto (AI4K12, s.f.).

El núcleo conceptual de AI4K12 se articula en torno a las «Cinco Grandes Ideas» sobre la inteligencia artificial, que buscan facilitar la comprensión de este campo complejo en niveles escolares. Estas ideas son: (1) percepción (cómo las máquinas detectan y comprenden el mundo a través de sensores); (2) representación y razonamiento (cómo los agentes inteligentes modelan su entorno y toman decisiones); (3) aprendizaje (cómo los sistemas mejoran con la experiencia, mediante el aprendizaje automático); (4) interacción natural (la capacidad de comunicarse con los humanos de manera efectiva, usando lenguaje, voz, etc.); y (5) impacto social (el análisis ético y social del uso de la IA). Estas ideas amplían las competencias del pensamiento computacional e incorporan dimensiones éticas y sociales fundamentales (AI4K12, s.f.).

Para facilitar la enseñanza de estas ideas, AI4K12 ha diseñado una serie de progresiones por niveles educativos: K–2 (infantil), 3–5 (primaria baja), 6–8 (primaria alta y primeros años de secundaria), y 9–12 (bachillerato). Estas progresiones permiten adaptar los conceptos y habilidades de la IA a las capacidades cognitivas y madurez de los estudiantes según su edad. Las directrices están en constante revisión y se ofrecen como borradores para consulta pública, fomentando así una construcción colectiva del currículo (AI4K12, s.f.).

En cuanto a los recursos didácticos, AI4K12 pone a disposición del profesorado un directorio extenso y curado de materiales: desde demos interactivos (como simuladores de cadenas de Markov, reconocimiento facial o análisis de espectrogramas), hasta guías de actividades, libros, módulos curriculares y cursos en línea. Muchos de estos recursos están adaptados a contextos escolares, son gratuitos y están diseñados con una filosofía de “caja transparente” (“glass-box”), que permite a los estudiantes ver y comprender cómo funciona la IA, en lugar de tratarla como una “caja negra” de resultados misteriosos (AI4K12, s.f.).

El sitio también ofrece múltiples vías para la participación: los docentes pueden contribuir con recursos, asistir a talleres estatales de planificación curricular en IA o integrarse a la red de AI4K12 para recibir noticias, participar en encuentros virtuales y colaborar con otros profesionales. La comunidad de AI4K12 tiene presencia en plataformas como YouTube y mantiene una comunicación constante mediante boletines informativos (AI4K12, s.f.).

En definitiva, AI4K12 constituye una propuesta educativa integral y actualizada para incorporar la inteligencia artificial en el aula desde edades tempranas. Su enfoque equilibrado entre teoría, práctica y ética permite a los estudiantes no solo entender qué es la IA, sino también reflexionar sobre su impacto en la sociedad y en sus propias vidas. Esta iniciativa representa un paso esencial para preparar a las nuevas generaciones para un mundo cada vez más mediado por tecnologías inteligentes.

La cuota de mercado de búsquedas de Google cae por debajo del 90% en 2024

Sterling, Greg. “Google’s Search Market Share Drops below 90% in 2024.” Search Engine Land, July 2, 2024. https://searchengineland.com/google-search-market-share-drops-2024-450497.

La hegemonía de Google en el campo de las búsquedas online está enfrentando una transformación sin precedentes. Según Search Engine Land, la cuota de mercado de Google en Estados Unidos cayó por debajo del 90 % en 2024, marcando una ruptura con más de dos décadas de dominio prácticamente absoluto (Sterling 2024).

La cuota de mercado de búsquedas de Google en EE. UU. alcanzó un pico del 90,37% en noviembre, pero cayó al 87,39% en diciembre. En el resto de los meses de 2024, la cuota de mercado de Google en EE. UU. fue bastante constante, oscilando entre el 86% y el 88%.

Esta disminución se relaciona directamente con la emergencia de nuevas herramientas basadas en inteligencia artificial, como ChatGPT, Perplexity o el nuevo motor de búsqueda de Microsoft impulsado por Copilot, que están redefiniendo las expectativas de los usuarios sobre lo que significa «buscar» en Internet. Así lo pone de relieve el estudio de  Search Engine Land, que apunta según una encuesta que el 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

La tendencia se ve reforzada por un estudio reciente de Statista que muestra que los jóvenes de entre 18 y 24 años cada vez recurren más a plataformas como TikTok y Reddit para informarse, desplazando a Google como primera fuente de descubrimiento de contenidos. Según un artículo de The Verge, estas plataformas ofrecen resultados más “visuales, personales y reales”, lo cual resuena con una generación que valora la inmediatez, la experiencia del usuario y el contenido generado por personas reales.

Además, el exceso de anuncios y el abuso del SEO en Google han deteriorado la calidad percibida de los resultados. Muchos usuarios sienten que las primeras páginas están dominadas por intereses comerciales antes que por la relevancia informativa. Como apunta un análisis de Wired (2024), esta percepción ha motivado a millones de usuarios a buscar alternativas más limpias, rápidas y conversacionales, como las respuestas generadas por IA, que eliminan el ruido publicitario y ofrecen síntesis directas y comprensibles.

En este contexto, la búsqueda evoluciona de un modelo de enlaces hacia un modelo de respuestas. La inteligencia artificial no solo facilita una búsqueda más eficiente, sino que también transforma el hábito de consumo de información, integrándose en asistentes personales, navegadores y dispositivos móviles con capacidades proactivas. Para Google, este cambio representa un desafío existencial: reinventar su modelo de negocio para seguir siendo competitivo sin alienar a sus usuarios ni depender excesivamente de la publicidad.