El Tiered Caching añade capas intermedias de cache entre nodos de edge distribuidos y el servidor de origen. Esta arquitectura en múltiples capas consolida solicitudes, aumenta el cache hit ratio y reduce llamadas directas al origin durante picos de tráfico.
¿Qué es Tiered Caching?
Tiered Cache es una estrategia de cache en múltiples capas que introduce un nivel intermedio de almacenamiento entre los puntos de presencia distribuidos y el servidor de origen.
En una arquitectura tradicional, cuando un nodo en infraestructura distribuida no encuentra datos en cache, consulta directamente al origin. En una arquitectura con Tiered Cache, primero consulta una capa intermedia — un cache centralizado compartido entre múltiples puntos.
Esto cambia el comportamiento del tráfico significativamente:
- solicitudes de múltiples puntos geográficos se consolidan
- el origin recibe muchas menos consultas directas
- el cache hit ratio global aumenta
- el costo de egress baja
Cómo funciona Tiered Cache
El flujo de una solicitud en una arquitectura con Tiered Cache funciona así:
Nivel 1 — Punto de presencia local La solicitud llega al nodo más cercano al usuario. Si el dato está en cache local, se entrega inmediatamente.
Nivel 2 — Capa intermedia (Tiered Cache) Si el cache local no tiene el dato, el nodo consulta la capa intermedia antes de ir al origin. Esta capa es compartida entre múltiples puntos de presencia.
Nivel 3 — Origin Solo si la capa intermedia tampoco tiene el dato, la solicitud llega al backend.
Este modelo tiene dos efectos prácticos inmediatos:
Consolidación de solicitudes Múltiples nodos que necesitarían consultar el origin de forma independiente ahora comparten una única respuesta. El origin deja de recibir llamadas redundantes de puntos diferentes.
Aumento del cache hit ratio Datos que no están en cache local tienen una segunda oportunidad de encontrarse antes de llegar al origin. Esto aumenta la proporción de solicitudes resueltas sin consultar el backend.
Solicitud llega al punto de presencia ↓Verificar cache local (L1) ↓Cache HIT → Respuesta inmediataCache MISS → Consultar capa intermedia (L2) ↓L2 HIT → Respuesta + poblar L1L2 MISS → Consultar origin → Poblar L2 + L1 → RespuestaBeneficios del Tiered Caching
Protección del origin
Cuando la mayoría de las solicitudes se resuelven en capas distribuidas, los sistemas de origin solo manejan operaciones transaccionales esenciales. El crecimiento del tráfico deja de traducirse directamente en estrés en el backend.
Reducción de costos de transferencia
Al servir más datos en capas intermedias, los costos de transferencia de datos caen significativamente. Lojas Renner, después de migrar a la infraestructura distribuida de Azion, registró una reducción del 67% en costos de transferencia de datos.
Aumento del cache hit ratio
Marisa entrega más del 85% de sus datos directamente a través de infraestructura distribuida, ahorrando en promedio 4.3 TB de banda por día — con páginas más rápidas, menores costos y conversiones estables incluso durante períodos de alta demanda.
Estabilidad del P99
Al consolidar solicitudes en capas intermedias y reducir la presión en el origin, Tiered Cache contribuye directamente a mantener la latencia estable incluso bajo picos — incluyendo la cola de la distribución, donde están los usuarios más afectados.
Tiered Cache vs Selective Caching
Tiered Cache responde una pregunta específica: “¿En cuántas capas debo distribuir el cache para reducir la carga del origin?”
Selective Caching responde una pregunta diferente: “¿Qué exactamente debo cachear — y con qué regla?”
| Dimensión | Tiered Cache | Selective Caching |
|---|---|---|
| Pregunta central | ¿En cuántas capas distribuir el cache? | ¿Qué cachear y con qué regla? |
| Mecanismo | Capa intermedia entre nodos y origin | Advanced Cache Keys por header, cookie o query string |
| Caso de uso principal | Picos de tráfico con múltiples puntos de acceso | Personalización, segmentación, tests A/B |
| Beneficio principal | Reduce llamadas directas al origin | Evita entregar dato erróneo a usuario erróneo |
| Combina con | Selective Caching, Micro Caching | Tiered Cache, invalidación por clave |
Ambas estrategias son complementarias — no excluyentes.
Qué puede y no puede ser cacheado con Tiered Caching
| Recurso | ¿Cacheable con Tiered Cache? | Estrategia recomendada |
|---|---|---|
| Catálogo de productos | ✅ Sí | Tiered Cache con invalidación por clave |
| Previews de promociones | ✅ Sí | Selective por segmento + TTL corto |
| Opciones de envío por región | ✅ Sí | Selective por header de ubicación |
| Feature flags y configuraciones | ✅ Sí | Tiered con TTL controlado |
| Lista de métodos de pago | ✅ Sí | Selective por mercado o segmento |
| Autorización de pago | ❌ No | Siempre transaccional |
| Confirmación de pedido | ❌ No | Siempre transaccional |
| Estado específico del carrito | ⚠️ Con cuidado | Cache con clave por sesión e invalidación fina |
Cache programable con Tiered Caching
Tiered Cache se vuelve aún más poderoso cuando es parte de una estrategia de cache programable.
Esto significa que puede:
Ajustar dinámicamente durante campañas Modificar políticas de cache en tiempo real, sin nuevos deploys. Durante un evento de Black Friday, esto puede ser la diferencia entre reaccionar a un incidente a las 11 PM o tener la plataforma ajustando automáticamente.
Combinar con stale-while-revalidate Mientras los datos se revalidan en background, el usuario recibe la versión cacheada sin percibir ninguna degradación. En escenarios de fallo parcial del origin, esto preserva la disponibilidad.
Purge por clave en lugar de purge total Cuando un precio cambia o un producto sale del stock, no hay motivo para invalidar el cache de toda la aplicación. Con invalidación por clave, limpia solo los fragmentos afectados — sin impactar el resto de la performance.
// Ejemplo: invalidación basada en tags con Azion Libimport { purgeWildCard } from 'azion/purge';
async function purgePatterns(patterns, label) { const { data, error } = await purgeWildCard(patterns); if (error) { console.error(`Purge falló para ${label}:`, error); return { success: false, error }; } return { success: true, invalidated: data?.items };}Ejemplo real: Lojas Renner en Black Friday
Lojas Renner es uno de los casos más expresivos de uso de infraestructura distribuida para proteger el checkout durante picos de tráfico en Brasil.
Black Friday requirió una arquitectura capaz de sostener picos masivos de acceso sin degradar el checkout para millones de consumidores. Para eliminar cuellos de botella centralizados, Renner migró sus aplicaciones a la infraestructura distribuida de Azion, trayendo la ejecución más cerca de los usuarios y garantizando que solo solicitudes transaccionales críticas llegaran a los sistemas de origin.
Los resultados fueron:
| Métrica | Resultado |
|---|---|
| Solicitudes en pico máximo | 899.000 req/s |
| Procesamiento de imágenes | 18.000 req/s |
| Reducción de costo de transferencia | 67% |
| Estabilidad en mobile y regiones de baja banda | ✅ Mantenida |
Black Friday dejó de ser un test de estrés de infraestructura y pasó a ser un evento de revenue predecible.
→ Lea el caso completo de Renner
FAQ
¿Qué es Tiered Cache?
Es una estrategia de cache en múltiples capas que añade un nivel intermedio entre puntos de presencia distribuidos y el servidor de origen, consolidando solicitudes y reduciendo llamadas directas al backend.
¿Tiered Cache es diferente de CDN tradicional?
Sí. Cache en infraestructura distribuida con capas programables permite control granular sobre qué se almacena, por cuánto tiempo y con qué criterio de invalidación. La arquitectura tradicional centralizada no ofrece ese nivel de control sobre flujos transaccionales.
¿Cómo combinar Tiered Cache con Micro Caching?
Tiered Cache define capas de almacenamiento. Micro Caching define TTL corto para datos dinámicos. Son estrategias complementarias: puede aplicar Micro Caching dentro de una arquitectura de Tiered Cache para datos de alta variación.
¿Cuándo usar purge por clave en lugar de purge total?
Siempre que sea posible. Purge total invalida el cache de toda la aplicación — incluyendo contenido que no cambió. Purge por clave remueve solo los fragmentos afectados por el cambio, manteniendo el resto de la aplicación acelerada.
¿Cómo ayuda Tiered Cache en flash sales?
En flash sales, múltiples usuarios acceden a los mismos recursos simultáneamente. Tiered Cache consolida estas solicitudes en capas intermedias, reduciendo drásticamente la presión en el origin exactamente cuando el tráfico está en su pico.
Conclusión
Tiered Cache es parte de una estrategia integrada de protección de origin y control de tráfico para flujos transaccionales a escala.
Resuelve en cuántas capas distribuir el cache. Combinado con Selective Caching, aumenta el cache hit ratio, reduce costos y mantiene la conversión estable incluso en picos de tráfico.
Próximos pasos
Conozca la solución de Cache de Azion: https://www.azion.com/es/productos/cache/
Vea cómo implementar Tiered Caching en su arquitectura: Hable con un especialista de Azion