Archivo de la etiqueta: Inteligencia artificial

Alfabetización en Inteligencia Artificial en enseñanza primaria

Yim, Iris Heung Yue, y Jiahong Su. “Artificial Intelligence Literacy Education in Primary Schools: A Review.” International Journal of Technology and Design Education 2025. https://doi.org/10.1007/s10798-025-09979-w

La educación en alfabetización sobre inteligencia artificial (IA) dirigida a estudiantes de educación primaria ha cobrado relevancia en el siglo XXI, ante la omnipresencia de tecnologías como asistentes de voz y contenidos generados por IA. No obstante, existe una clara carencia de estudios basados en evidencias que definan qué contenidos, marcos teóricos y prácticas pedagógicas son apropiados para esta etapa educativa .

Este artículo presenta una revisión sistemática de 25 estudios empíricos centrados en primaria, obtenidos a través de búsquedas en Scopus y Web of Science hasta marzo de 2024. La revisión describe cómo la alfabetización en IA abarca múltiples competencias: desde la interacción y colaboración con sistemas de IA, hasta el pensamiento computacional, la alfabetización crítica de datos y la ética de la IA

Los marcos teóricos predominantes identificados incluyen el construccionismo, el constructivismo y el modelo educativo ARCS (Atención, Relevancia, Confianza y Satisfacción). En términos de estrategias pedagógicas, las investigaciones utilizan metodologías constructivistas, aprendizaje basado en proyectos, programación y actividades de interacción humano-agente, combinadas con herramientas de aprendizaje asistido por IA (como agentes inteligentes)

Las evaluaciones de los programas emplean métodos mixtos (encuestas, entrevistas y análisis de artefactos diseñados por estudiantes), revelando impactos positivos en los planos académico, afectivo y conductual, además de manifestarse una alta satisfacción con los cursos.

Finalmente, la revisión aporta direcciones futuras importantes: se sugiere ampliar enfoques pedagógicos innovadores (por ejemplo, mediante metodologías artísticas), incorporar más estudios longitudinales, explorar diferencias de género y contexto cultural, y profundizar en las implicaciones éticas y sociales para lograr una alfabetización en IA más inclusiva y crítica .

Bots de IA atacan y colapsan la biblioteca universitaria de Carlina del Norte

Panitch, Judy. 2025. “Library IT vs. the AI bots.University Libraries News, June 9, 2025. https://library.unc.edu/news/library-it-vs-the-ai-bots/

Una reciente oleada de bots de inteligencia artificial irrumpió en los sistemas informáticos de las bibliotecas de la Universidad de Carolina del Norte, provocando una grave interrupción de sus servicios. Estos bots automatizados enviaron de forma simultánea miles de solicitudes al catálogo en línea, lo que sobrepasó la capacidad de los servidores. Como consecuencia, el acceso de los usuarios humanos al sistema quedó limitado o bloqueado durante el incidente, afectando seriamente la operatividad digital de la biblioteca.

Lo abrí y lo vi pasar en la pantalla, como en una película de hackers. Las peticiones volaban, miles por minuto. Y empezamos a notar patrones extraños.

Jason Casden

La magnitud del problema no fue evidente de inmediato. Los bots lograron evadir los sistemas básicos de detección, y su actividad no fue reconocida hasta que el sistema empezó a ralentizarse drásticamente. Su comportamiento fue descrito como técnicamente sofisticado, pero ineficiente desde el punto de vista del uso de recursos. Una vez identificado el patrón anómalo, el equipo de tecnología de la información tuvo que intervenir rápidamente para implementar medidas de contención.

Aunque el ataque no tenía una intención maliciosa directa, su impacto fue comparable al de un ataque de denegación de servicio (DDoS). Los bots estaban diseñados para extraer masivamente información del catálogo con el fin de alimentar modelos de inteligencia artificial, lo que generó una carga excesiva en los sistemas. Este fenómeno plantea una amenaza creciente para los archivos digitales y colecciones en línea de instituciones culturales y académicas.

El caso de UNC no es aislado. Instituciones culturales de todo el mundo —incluidas bibliotecas, archivos y museos— están reportando incidentes similares. Estos entornos, comúnmente conocidos por el acrónimo GLAM (Galleries, Libraries, Archives, and Museums), han observado un patrón creciente de tráfico automatizado que compromete su estabilidad tecnológica. El fenómeno sugiere una tendencia global asociada al entrenamiento no regulado de modelos de IA mediante el rastreo de fuentes abiertas.

Frente a este desafío, muchas instituciones están adoptando medidas técnicas para frenar el acceso automatizado, como la modificación de archivos robots.txt, el bloqueo de direcciones IP sospechosas, el uso de CAPTCHAs o la implementación de cortafuegos externos. No obstante, estas defensas generan tensiones con los principios de acceso abierto. La necesidad de proteger los sistemas puede entrar en conflicto con la misión de las bibliotecas de garantizar un acceso equitativo y sin barreras a la información.

Además de las implicaciones éticas, estos ataques automatizados suponen costos reales. Las bibliotecas se ven obligadas a destinar más recursos a la gestión de incidentes, a reforzar su infraestructura digital y, en algunos casos, a asumir mayores tarifas de servicios tecnológicos. Todo ello impacta negativamente en la sostenibilidad operativa de estas instituciones, especialmente aquellas con presupuestos limitados.

En respuesta, la comunidad GLAM está explorando soluciones colectivas. Algunas propuestas incluyen el desarrollo de APIs controladas para permitir un acceso legítimo a los datos sin sobrecargar los sistemas, así como mejoras en los mecanismos de exclusión de bots. Sin embargo, se reconoce que la solución definitiva requiere coordinación a mayor escala. Una combinación de regulación, acuerdos con desarrolladores de IA y colaboración entre bibliotecas e instituciones será clave para proteger los recursos digitales en el futuro próximo.

Las 5 dimensiones de la alfabetización en IA

Ascione, Laura. 2025. “The 5 Dimensions of AI Literacy.” eCampus News, abril 30, 2025. https://www.ecampusnews.com/ai-in-education/2025/04/30/the-5-dimensions-of-ai-literacy/

El artículo propone un modelo integral para entender la alfabetización en inteligencia artificial (IA) más allá del simple uso técnico; señala que estas cinco dimensiones son esenciales para cualquier persona que interactúe con IA en entornos educativos, laborales o cotidianos.

  1. Conciencia y comprensión básica de la IA
    Se trata del conocimiento fundamental: entender los conceptos básicos de IA, cómo funcionan los algoritmos, sus posibilidades y limitaciones. Esta dimensión habilita a los usuarios a identificar cuándo una herramienta utiliza IA y distinguir entre usos correctos y excesivos.
  2. Uso práctico en contextos profesionales
    En esta dimensión, la alfabetización implica saber aplicar IA en tareas reales del día a día: generación de contenido, análisis de datos, automatización de flujos de trabajo. No basta con conocer la IA; hay que saber integrarla eficazmente en procesos laborales o educativos.
  3. Pensamiento estratégico sobre IA
    Aquí se eleva la comprensión al nivel de planificación: evaluar cuándo es apropiado usar IA, diseñar soluciones basadas en IA o supervisar proyectos que la involucren. Implica habilidades para liderar iniciativas que incluyan IA dentro de una organización o aula.
  4. Reflexión ética y crítica
    Los usuarios deben reconocer riesgos como sesgos algorítmicos, problemas de privacidad o dependencia tecnológica. Esta dimensión promueve la evaluación de impacto ético, el diseño responsable y una actitud crítica hacia los contenidos generados por IA.
  5. Ciudadanía digital y participación informada
    La alfabetización en IA también tiene un componente social y cívico. Incluye competencias para interactuar de forma informada en debates públicos, participar en decisiones sobre regulación y colaborar para garantizar un desarrollo de IA inclusivo y justo.

Competencias

Este marco de cinco dimensiones ofrece una visión robusta y multidimensional de la alfabetización en IA. No se trata solo de aprender a usar herramientas; es fundamental formar una ciudadanía crítica, profesional y estratégica en un mundo donde la IA es omnipresente.

Dimensión 1: Comprender la IA y los datos; ¿cómo funciona la IA?

Nivel de competencia 1: Conocimiento y datos de la IA
Nivel de competencia 2: IA y datos en acción
Nivel de competencia 3: Optimización de la IA y los datos


Dimensión 2: Pensamiento y juicio críticos

  • Nivel de competencia 1: Cuestionar los resultados de la IA
  • Nivel de competencia 2: Evaluar los resultados de la IA
  • Nivel de competencia 3: Cuestionar los resultados de la IA

Dimensión 3: Uso ético y responsable

  • Nivel de competencia 1: Comprender los riesgos
  • Nivel de competencia 2: Aplicar prácticas responsables
  • Nivel de competencia 3: Dar forma a prácticas responsables

Dimensión 4: Centricidad humana, inteligencia emocional y creatividad

  • Nivel de competencia 1: Conciencia de la interacción entre el ser humano y la IA
  • Nivel de competencia 2: La IA como herramienta de colaboración
  • Nivel de competencia 3: Desarrollar prácticas de IA centradas en el ser humano

Dimensión 5: Experiencia en el dominio

  • Nivel de competencia 1: Conocimiento aplicado de la IA
  • Nivel de competencia 2: Aplicación de la IA en contextos profesionales
  • Nivel de competencia 3: Liderazgo estratégico en IA

El Futuro de la educación con IA: panorama global del Informe Especial de Microsoft 202

Lara Özer. (2025). AI in Education: A Microsoft Special Report. Microsoft Corporation. Disponible en PDF: https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/bade/documents/products-and-services/en-us/education/2025-Microsoft-AI-in-Education-Report.pdf

El artículo destaca que el 86 % de las instituciones educativas ya usan herramientas de IA generativa, lo que confirma que la IA es una realidad incorporada en las aulas, no una tendencia emergente . Sin embargo, la mayoría de docentes y estudiantes carecen de comprensión sobre cómo funcionan esas herramientas, sus límites o cómo aplicarlas con sentido pedagógico.

El informe muestra un crecimiento notable: más del 80 % de los educadores ya emplean IA, un aumento de 21 puntos respecto a 2024. Además, señala que el 47 % de líderes educativos utiliza herramientas de IA a diario, hasta para optimizar tareas administrativas y personalizar aprendizaje. Sin embargo, persiste la brecha en alfabetización digital: muchos docentes no se sienten preparados para integrar la IA en sus práctica.

Apelando a datos del Work Trend Index y LinkedIn, Microsoft resalta que el 71 % de las instituciones considera crear roles enfocados en IA, y el 75 % planea desarrollar agentes de IA en los próximos 12–18 meses. Según LinkedIn, las ofertas de empleo requieren seis veces más habilidades en IA que antes y un 66 % de empleadores no contratarán sin esta competencia. El informe propone cultivar una nueva visión educativa: formar estudiantes como “jefes de agentes” de IA, capaces de liderar y gestionar herramientas inteligentes. Por tanto, Özer sostiene que la alfabetización en IA debe convertirse en una competencia tan esencial como la digital o mediática, y estar integrada en todos los ámbitos curriculares .

Microsoft presenta nuevas iniciativas como el “Microsoft Learning Zone” y capacidades de Copilot en Microsoft 365 para educadores, optimizando desde la planificación de lecciones hasta la creación de contenidos interactivos. Estas herramientas permiten adaptar materiales a diferentes niveles, idiomas y contextos, mientras ahorran tiempo al profesorado.

Para cerrar la brecha en habilidades, Microsoft lanza el programa “Elevate Academy”, con una inversión global de 4 000 millones de USD en cinco años, con el objetivo de formar a 20 millones de personas y 400 000 docentes. Colabora con OpenAI, Anthropic y la American Federation of Teachers mediante la National Academy for AI Instruction, respaldada con 23 millones USD para capacitar a profesores. La iniciativa también buscará modelos educativos basados en prácticas éticas y pedagógicamente relevantes.

La IA promete personalización, delegación de tareas repetitivas y análisis predictivo de resultados para estimular el éxito estudiantil . Aun así, emergen riesgos reales: falta de comprensión profunda, posibilidad de sesgos, educación pasiva por generación automatizada de contenido y preocupaciones por la privacidad . Expertos enfatizan que la capacitación docente debe ser contextual, ética y ligada al desarrollo profesional continuo.

Brad Smith, presidente de Microsoft, argumenta que la misión principal no es reemplazar personas, sino empoderarlas para prosperar junto a la IA. Se considera un momento decisivo para desarrollar políticas y cultura educativas que utilicen IA, sin sacrificar valores humanos. Especialmente en un contexto donde el mercado laboral exige nuevas competencias y las instituciones trabajan para cerrar la brecha de alfabetización digital.

Claude for Education: Anthropic lanza un chatbot de IA para universidades

Zeff, Maxwell. “Anthropic Launches an AI Chatbot Plan for Colleges and Universities.” TechCrunch, April 2, 2025. https://www.anthropic.com/solutions/education

El pasado 2 de abril de 2025, Anthropic presentó Claude for Education, una versión especializada de su chatbot de inteligencia artificial, diseñada para el entorno universitario.

Una de las características más destacadas del producto es el modo de aprendizaje (Learning Mode) dentro de Claude Projects. En lugar de ofrecer respuestas directas, este sistema emplea preguntas socráticas para fomentar el pensamiento crítico. Así, ayuda a los estudiantes a reflexionar sobre los procesos, comprender principios fundamentales y acceder a plantillas útiles para investigaciones, esquemas o guías de estudio. Esta metodología posiciona a Claude como un asistente “inteligente”, enfocado en el desarrollo del razonamiento, más que en la simple generación de respuestas automáticas.

Además de sus beneficios para estudiantes, Claude for Education también ofrece herramientas avanzadas para docentes y personal administrativo. Entre ellas se encuentran la automatización de respuestas a correos frecuentes, el análisis de tendencias de matrícula, y la generación de rúbricas y retroalimentación personalizada. Todo esto se desarrolla en un entorno de chat seguro, con controles de privacidad de nivel empresarial.

Para facilitar su adopción por parte de universidades, Anthropic ha establecido alianzas con Instructure (Canvas) e Internet2, además de acuerdos con instituciones como Northeastern University, London School of Economics and Political Science (LSE) y Champlain College. Northeastern participa como socio de diseño, ayudando a definir marcos de buenas prácticas para la integración de la IA en contextos académicos.

Este movimiento de Anthropic se produce en un contexto de alta competencia: OpenAI lanzó ChatGPT Edu en mayo de 2024 y recientemente ha ofrecido ChatGPT Plus de forma gratuita a estudiantes universitarios en EE. UU. y Canadá, además de promover el consorcio NextGenAI, que cuenta con una inversión de 50 millones de dólares en investigación. Todo esto subraya una creciente disputa por consolidar a Claude o ChatGPT como la herramienta predeterminada en el ámbito universitario, con implicaciones clave en la formación de futuras generaciones y su alfabetización en inteligencia artificial.

Marco de Alfabetización en Inteligencia Artificial para Educadores

Lee, Stella.AI Literacy Framework. Calgary: Paradox Learning, 13 marzo 2025. https://paradoxlearning.com/wp-content/uploads/2025/03/AI-Literacy-Framework_updated_031325.pdf

“AI Literacy Framework” ofrece una guía comprensiva diseñada para cultivar la alfabetización en inteligencia artificial entre equipos de aprendizaje y desarrollo, educadores, profesionales del L&D y responsables políticos.

La estructura del marco se organiza en ocho dimensiones clave, cada una con competencias específicas. Estas dimensiones abarcan desde la comprensión de conceptos fundamentales de IA (qué es la IA, cómo funciona, principales tecnologías) hasta aspectos avanzados como integración pedagógica, análisis crítico, y gobernanza ética. Esta tipología permite a las organizaciones construir rutas de aprendizaje personalizadas según el perfil y rol de cada profesional .

Un elemento distintivo del framework es su enfoque en la evaluación: no basta con enseñar, sino que se debe medir cómo los individuos utilizan la IA, cómo piensa críticamente sobre ella y cómo aplican la tecnología en contextos reales. Este componente garantiza que la alfabetización en IA sea más que teórica, convirtiéndola en una habilidad funcional, aplicable y medible dentro de proyectos y entornos de trabajo.

El documento promueve también un enfoque experiencial. Propone que el desarrollo de habilidades ocurra en contextos auténticos: en proyectos reales de aprendizaje, en la práctica docente, o en entornos laborales con uso activo de IA. Se hace especial hincapié en la mentoría, comunidades de práctica y validación continua mediante feedback, lo que refuerza el aprendizaje colaborativo y permite que las competencias evolucionen conforme lo hace la tecnología .

Finalmente, el framework de Stella Lee destaca su adaptabilidad: aunque fue concebido para entornos educativos y de L&D, se puede aplicar en organizaciones de distintos sectores. Su diseño modular y estructurado por competencias permite escalarlo fácilmente y ajustarlo a necesidades específicas, reforzando su utilidad para educadores, formadores, responsables de políticas y sectores corporativos que buscan integrar la IA de forma confiable, responsable y estratégica.

Las empresas con altos niveles de Alfabetización en AI podrían obtener hasta un 20 % más de rendimiento financiero

Waller, Graham. “AI Literacy: Why and How Business Leaders Must Build It.Gartner, March 27, 2025.

La alfabetización en inteligencia artificial (AI literacy) se está convirtiendo en una competencia clave para los líderes empresariales en un mundo donde la IA está transformando todos los sectores.

La alfabetización en IA va mucho más allá de aprender a usar herramientas generativas: implica comprender los conceptos, capacidades, limitaciones y riesgos de la IA dentro del contexto empresarial y social. Permite que los líderes no solo adopten tecnología, sino que la gestionen de forma estratégica, asegurando que los casos de uso se alineen con los objetivos de negocio y cumplan con estándares éticos.

Uno de los ejes del artículo es la idea del «aprendizaje orientado al rendimiento» o learning-to-earning. Gartner subraya que, para lograr un compromiso real con la formación en IA, los programas educativos deben estar claramente vinculados con los resultados de negocio. Es decir, hay que mostrar cómo la alfabetización en IA se traduce en ventajas como generación de ingresos, aumento de eficiencia, mejora en la experiencia del cliente o fortalecimiento de la ventaja competitiva. La IA no es solo una herramienta tecnológica, sino una palanca para generar valor tangible, por lo que el aprendizaje debe enfocarse en cómo aplicar la IA de manera práctica y rentable.

El artículo también explica que no todos los empleados o líderes necesitan el mismo nivel de alfabetización en IA. Gartner propone dividir los conocimientos en cuatro grandes categorías:

  • Fundamentos (conceptos básicos de IA y su funcionamiento)
  • Valor (identificación de casos de uso y retorno de inversión)
  • Ingeniería (modelado, algoritmos, datos)
  • Gobernanza (ética, transparencia y cumplimiento normativo).

A partir de esta estructura, se recomienda realizar un análisis de brechas de habilidades por perfil profesional. Esta evaluación permite personalizar el aprendizaje según las funciones de cada individuo dentro de la organización y adaptarlo a las necesidades específicas del negocio.

Además, promueve un enfoque de aprendizaje ágil, es decir, continuo, flexible y adaptado al ritmo de cambio de la tecnología. Este enfoque combina distintos métodos: aprendizaje formal a través de cursos y certificaciones; aprendizaje social mediante comunidades de práctica, coaching y mentoría; y aprendizaje experiencial, centrado en proyectos reales que permiten aplicar los conocimientos en contextos concretos. La clave está en ofrecer formación relevante y accesible, que se pueda actualizar con rapidez para mantenerse al día con la evolución constante de la IA.

Por último, el artículo subraya que una organización con líderes alfabetizados en IA estará en mejor posición para aprovechar los beneficios de esta tecnología. Gartner predice que, para 2027, las empresas con altos niveles de AI literacy podrían obtener hasta un 20 % más de rendimiento financiero, y que la inteligencia artificial participará en el 50 % de las decisiones empresariales. Sin embargo, advierte que esto solo será posible si las organizaciones implementan estructuras sólidas de gobernanza y fomentan una cultura crítica en torno a la IA, evitando la adopción ciega de sistemas automatizados sin control humano.

Por lo tanto, la alfabetización en IA es un componente estratégico para cualquier empresa del presente y del futuro. No basta con adoptar tecnologías: es necesario que los líderes y sus equipos comprendan su funcionamiento, sus riesgos y su potencial transformador. El artículo de Gartner proporciona una guía clara para avanzar en esta dirección: vincular el aprendizaje con resultados, adaptar la formación a los distintos roles, aplicar un enfoque ágil y mantener una visión crítica y responsable sobre la inteligencia artificial.

Cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico

Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (Article 1121, pp. 1–22). ACM. https://doi.org/10.1145/3706598.3713778

Se analiza cómo la inteligencia artificial generativa (GenAI) influye en el pensamiento crítico de los trabajadores del conocimiento. El estudio parte de una preocupación creciente: si bien las herramientas de IA pueden mejorar la productividad, también podrían reducir el esfuerzo cognitivo y la capacidad de juicio crítico de los usuarios.

Para investigarlo, los autores realizaron una encuesta a 319 trabajadores del conocimiento, quienes proporcionaron un total de 936 ejemplos de cómo utilizan GenAI en su trabajo cotidiano.

Los resultados cuantitativos revelan una correlación preocupante: cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico. En cambio, quienes tienen más confianza en sus propias capacidades tienden a mantener un mayor nivel de evaluación crítica, incluso cuando emplean sistemas de IA. Estos hallazgos sugieren que la actitud del usuario frente a la tecnología influye significativamente en el nivel de verificación, análisis y control aplicado al contenido generado por IA.

En el análisis cualitativo, los investigadores identificaron tres dimensiones clave en las que los participantes reportaron cambios en su pensamiento crítico: la verificación de la información, la integración de respuestas y la supervisión de tareas. Algunos usuarios mencionaron que se volvieron más pasivos al aceptar las respuestas generadas por GenAI, mientras que otros afirmaron que la IA los impulsaba a contrastar fuentes, reinterpretar ideas o asumir un rol más reflexivo. Sin embargo, muchos reconocieron una reducción en el esfuerzo cognitivo necesario para resolver tareas complejas.

A partir de estos hallazgos, los autores advierten sobre el riesgo de que las herramientas GenAI refuercen hábitos mentales pasivos si no se diseñan cuidadosamente. Proponen que los diseñadores de interfaces incluyan elementos que fomenten la reflexión, la verificación de datos y la transparencia en los procesos algorítmicos. También destacan la importancia de promover una interacción más crítica y activa entre humanos y máquinas para evitar una dependencia acrítica de la tecnología.

En suma, el estudio proporciona una primera evidencia empírica sobre cómo las herramientas de IA generativa pueden estar moldeando el juicio y la capacidad crítica de los profesionales, tanto positiva como negativamente. Sus implicaciones son relevantes no solo para diseñadores de software, sino también para responsables de formación y políticas de implementación tecnológica en el ámbito laboral.

El fin de Internet tal y como lo conocemos: la IA en Comet y Operator

Olinga, Luc. “The End of the Internet As We Know It.” Gizmodo, 9 de julio de 2025. https://gizmodo.com/the-end-of-the-internet-as-we-know-it-2000627194

El artículo analiza una transformación radical que está ocurriendo en el mundo digital: la llegada de navegadores web impulsados por inteligencia artificial que pretenden eliminar el modelo tradicional de navegación basado en clics. Esta revolución está liderada por empresas como Perplexity y OpenAI, que buscan desafiar directamente el dominio de Google Chrome y transformar fundamentalmente cómo interactuamos con internet.

La empresa Perplexity ha lanzado oficialmente Comet, un navegador web revolucionario que funciona más como una conversación que como un sistema de navegación tradicional. Este navegador representa un cambio paradigmático, ya que está diseñado para funcionar como ChatGPT pero con capacidades de navegación integradas. Comet promete actuar como un «segundo cerebro» que puede realizar investigaciones activas, comparar opciones, realizar compras, proporcionar resúmenes diarios y analizar información de manera autónoma, todo sin necesidad de que el usuario navegue a través de múltiples pestañas o enlaces.

El concepto detrás de Comet se basa en la evolución de la inteligencia artificial agentiva, un campo de vanguardia donde los sistemas de IA no solo responden preguntas o generan texto, sino que pueden realizar de forma autónoma una serie de acciones y tomar decisiones para lograr los objetivos del usuario. En lugar de requerir que el usuario especifique cada paso, un navegador agéntico busca comprender la intención del usuario y ejecutar tareas de múltiples pasos, funcionando efectivamente como un asistente inteligente dentro del entorno web.

La aparición de Comet representa una confrontación directa con Google Chrome, que durante décadas ha sido el portal dominante que forma cómo miles de millones de personas navegan por la web. Todo el modelo de Chrome está construido para maximizar la interacción del usuario y, por consecuencia, los ingresos publicitarios. Comet está intentando destruir este modelo, desafiando fundamentalmente la economía de internet basada en la publicidad.

OpenAI, la empresa creadora de ChatGPT, también está preparando su propio navegador web impulsado por IA, que podría lanzarse próximamente según reportes de Reuters. Esta herramienta probablemente integrará el poder de ChatGPT con Operator, el agente web propietario de OpenAI. Operator es un agente de IA capaz de realizar tareas de forma autónoma a través de interacciones con el navegador web, utilizando modelos avanzados para navegar sitios web, llenar formularios, realizar pedidos y gestionar otras tareas repetitivas basadas en el navegador.

El diseño de Operator le permite «observar» las páginas web como lo haría un humano, haciendo clic, escribiendo y desplazándose, con el objetivo de manejar eventualmente la «cola larga» de casos de uso digital. Si se integra completamente en un navegador de OpenAI, podría crear una alternativa completa a Google Chrome y Google Search en un movimiento decisivo, atacando a Google desde ambos extremos: la interfaz del navegador y la funcionalidad de búsqueda.

La propuesta de Perplexity es simple pero provocativa: la web debería responder a los pensamientos del usuario, no interrumpirlos. La empresa sostiene que internet se ha convertido en la mente extendida de la humanidad, pero las herramientas para usarla siguen siendo primitivas. En lugar de navegar a través de pestañas infinitas y perseguir hipervínculos, Comet promete funcionar basándose en el contexto, permitiendo a los usuarios pedir comparaciones de planes de seguros, resúmenes de oraciones confusas o encontrar instantáneamente productos que olvidaron marcar como favoritos.

Esta transformación podría significar el fin de la optimización tradicional para motores de búsqueda (SEO) y la muerte de los familiares «enlaces azules» de los resultados de búsqueda. Los navegadores de IA como Comet no solo amenazan a editores individuales y su tráfico, sino que directamente amenazan los fundamentos del ecosistema de Google Chrome y el dominio de Google Search, que depende en gran medida de dirigir a los usuarios a sitios web externos.

Google Search ya ha estado bajo considerable presión de startups nativas de IA como Perplexity y You.com. Sus propios intentos de integración más profunda de IA, como la Experiencia Generativa de Búsqueda (SGE), han recibido críticas por producir a veces «alucinaciones» (información incorrecta) y resúmenes inadecuados. Simultáneamente, Chrome está enfrentando su propia crisis de identidad, atrapado entre tratar de preservar su masivo flujo de ingresos publicitarios y responder a una oleada de alternativas impulsadas por IA que no dependen de enlaces o clics tradicionales para entregar información útil.

Si Comet o el navegador de OpenAI tienen éxito, el impacto no se limitará solo a interrumpir la búsqueda, sino que redefinirá fundamentalmente cómo funciona toda la internet. Los editores, anunciantes, minoristas en línea e incluso las empresas de software tradicionales pueden encontrarse desintermediados por agentes de IA que pueden resumir su contenido, comparar sus precios, ejecutar sus tareas y evitar completamente sus sitios web e interfaces existentes.

Esta transformación representa un nuevo frente de alto riesgo en la guerra por cómo los humanos interactúan con la información y conducen sus vidas digitales. El navegador de IA ya no es un concepto hipotético: es una realidad presente que está redefiniendo el panorama digital tal como lo conocemos.

La IA saca sobresaliente en los exámenes de Derecho

Sloan, Karen. “Artificial Intelligence Is Now an A+ Law Student, Study Finds.” Reuters, 5 de junio de 2025. https://www.reuters.com/legal/legalindustry/artificial-intelligence-is-now-an-law-student-study-finds-2025-06-05/.

Un estudio reciente realizado por la Universidad de Maryland ha revelado que la última generación de inteligencia artificial generativa, específicamente el modelo o3 de OpenAI, es capaz de obtener calificaciones sobresalientes en los exámenes finales de la Facultad de Derecho Francis King Carey. Este modelo alcanzó calificaciones que van desde A+ hasta B en ocho exámenes de primavera evaluados por profesores de la universidad. Estas calificaciones representan una mejora significativa en comparación con versiones anteriores de ChatGPT, que en estudios previos habían obtenido calificaciones de B, C e incluso D en exámenes similares realizados en 2022 y 2023.

A diferencia de ChatGPT, que genera respuestas de manera inmediata en función de las consultas del usuario, o3 es un modelo de razonamiento. Esto significa que evalúa internamente las preguntas, genera respuestas tentativas y múltiples enfoques, y luego produce el texto final tras un proceso de revisión. Este enfoque le permite abordar problemas legales complejos con mayor precisión y coherencia.

Los resultados obtenidos por o3 en áreas como Derecho Constitucional, Responsabilidad Profesional y Propiedad, donde obtuvo A+, son indicativos de su capacidad para comprender y aplicar principios legales de manera efectiva. Sin embargo, en áreas como Derecho Penal y Procedimientos Penales, donde obtuvo A-, B+ y B, se observan ciertas limitaciones que podrían reflejar la complejidad inherente a estos campos del derecho.

Este avance sugiere que la inteligencia artificial generativa está acercándose al rendimiento de los estudiantes de derecho de alto nivel. No obstante, se destaca que, aunque o3 muestra un rendimiento impresionante, aún existen áreas en las que la intervención humana sigue siendo esencial para garantizar la interpretación adecuada de matices legales y contextuales