¿Qué es Tiered Caching? | Arquitectura de Cache en Múltiples Capas

Aprenda qué es Tiered Caching, cómo añade capas intermedias de cache entre nodos de edge y servidores de origen, y cómo reduce la carga en el origin mientras aumenta el cache hit ratio.

El Tiered Caching añade capas intermedias de cache entre nodos de edge distribuidos y el servidor de origen. Esta arquitectura en múltiples capas consolida solicitudes, aumenta el cache hit ratio y reduce llamadas directas al origin durante picos de tráfico.


¿Qué es Tiered Caching?

Tiered Cache es una estrategia de cache en múltiples capas que introduce un nivel intermedio de almacenamiento entre los puntos de presencia distribuidos y el servidor de origen.

En una arquitectura tradicional, cuando un nodo en infraestructura distribuida no encuentra datos en cache, consulta directamente al origin. En una arquitectura con Tiered Cache, primero consulta una capa intermedia — un cache centralizado compartido entre múltiples puntos.

Esto cambia el comportamiento del tráfico significativamente:

  • solicitudes de múltiples puntos geográficos se consolidan
  • el origin recibe muchas menos consultas directas
  • el cache hit ratio global aumenta
  • el costo de egress baja

Cómo funciona Tiered Cache

El flujo de una solicitud en una arquitectura con Tiered Cache funciona así:

Nivel 1 — Punto de presencia local La solicitud llega al nodo más cercano al usuario. Si el dato está en cache local, se entrega inmediatamente.

Nivel 2 — Capa intermedia (Tiered Cache) Si el cache local no tiene el dato, el nodo consulta la capa intermedia antes de ir al origin. Esta capa es compartida entre múltiples puntos de presencia.

Nivel 3 — Origin Solo si la capa intermedia tampoco tiene el dato, la solicitud llega al backend.

Este modelo tiene dos efectos prácticos inmediatos:

Consolidación de solicitudes Múltiples nodos que necesitarían consultar el origin de forma independiente ahora comparten una única respuesta. El origin deja de recibir llamadas redundantes de puntos diferentes.

Aumento del cache hit ratio Datos que no están en cache local tienen una segunda oportunidad de encontrarse antes de llegar al origin. Esto aumenta la proporción de solicitudes resueltas sin consultar el backend.

Solicitud llega al punto de presencia
Verificar cache local (L1)
Cache HIT → Respuesta inmediata
Cache MISS → Consultar capa intermedia (L2)
L2 HIT → Respuesta + poblar L1
L2 MISS → Consultar origin → Poblar L2 + L1 → Respuesta

Beneficios del Tiered Caching

Protección del origin

Cuando la mayoría de las solicitudes se resuelven en capas distribuidas, los sistemas de origin solo manejan operaciones transaccionales esenciales. El crecimiento del tráfico deja de traducirse directamente en estrés en el backend.

Reducción de costos de transferencia

Al servir más datos en capas intermedias, los costos de transferencia de datos caen significativamente. Lojas Renner, después de migrar a la infraestructura distribuida de Azion, registró una reducción del 67% en costos de transferencia de datos.

Aumento del cache hit ratio

Marisa entrega más del 85% de sus datos directamente a través de infraestructura distribuida, ahorrando en promedio 4.3 TB de banda por día — con páginas más rápidas, menores costos y conversiones estables incluso durante períodos de alta demanda.

Estabilidad del P99

Al consolidar solicitudes en capas intermedias y reducir la presión en el origin, Tiered Cache contribuye directamente a mantener la latencia estable incluso bajo picos — incluyendo la cola de la distribución, donde están los usuarios más afectados.


Tiered Cache vs Selective Caching

Tiered Cache responde una pregunta específica: “¿En cuántas capas debo distribuir el cache para reducir la carga del origin?”

Selective Caching responde una pregunta diferente: “¿Qué exactamente debo cachear — y con qué regla?”

DimensiónTiered CacheSelective Caching
Pregunta central¿En cuántas capas distribuir el cache?¿Qué cachear y con qué regla?
MecanismoCapa intermedia entre nodos y originAdvanced Cache Keys por header, cookie o query string
Caso de uso principalPicos de tráfico con múltiples puntos de accesoPersonalización, segmentación, tests A/B
Beneficio principalReduce llamadas directas al originEvita entregar dato erróneo a usuario erróneo
Combina conSelective Caching, Micro CachingTiered Cache, invalidación por clave

Ambas estrategias son complementarias — no excluyentes.


Qué puede y no puede ser cacheado con Tiered Caching

Recurso¿Cacheable con Tiered Cache?Estrategia recomendada
Catálogo de productos✅ SíTiered Cache con invalidación por clave
Previews de promociones✅ SíSelective por segmento + TTL corto
Opciones de envío por región✅ SíSelective por header de ubicación
Feature flags y configuraciones✅ SíTiered con TTL controlado
Lista de métodos de pago✅ SíSelective por mercado o segmento
Autorización de pago❌ NoSiempre transaccional
Confirmación de pedido❌ NoSiempre transaccional
Estado específico del carrito⚠️ Con cuidadoCache con clave por sesión e invalidación fina

Cache programable con Tiered Caching

Tiered Cache se vuelve aún más poderoso cuando es parte de una estrategia de cache programable.

Esto significa que puede:

Ajustar dinámicamente durante campañas Modificar políticas de cache en tiempo real, sin nuevos deploys. Durante un evento de Black Friday, esto puede ser la diferencia entre reaccionar a un incidente a las 11 PM o tener la plataforma ajustando automáticamente.

Combinar con stale-while-revalidate Mientras los datos se revalidan en background, el usuario recibe la versión cacheada sin percibir ninguna degradación. En escenarios de fallo parcial del origin, esto preserva la disponibilidad.

Purge por clave en lugar de purge total Cuando un precio cambia o un producto sale del stock, no hay motivo para invalidar el cache de toda la aplicación. Con invalidación por clave, limpia solo los fragmentos afectados — sin impactar el resto de la performance.

// Ejemplo: invalidación basada en tags con Azion Lib
import { purgeWildCard } from 'azion/purge';
async function purgePatterns(patterns, label) {
const { data, error } = await purgeWildCard(patterns);
if (error) {
console.error(`Purge falló para ${label}:`, error);
return { success: false, error };
}
return { success: true, invalidated: data?.items };
}

Ejemplo real: Lojas Renner en Black Friday

Lojas Renner es uno de los casos más expresivos de uso de infraestructura distribuida para proteger el checkout durante picos de tráfico en Brasil.

Black Friday requirió una arquitectura capaz de sostener picos masivos de acceso sin degradar el checkout para millones de consumidores. Para eliminar cuellos de botella centralizados, Renner migró sus aplicaciones a la infraestructura distribuida de Azion, trayendo la ejecución más cerca de los usuarios y garantizando que solo solicitudes transaccionales críticas llegaran a los sistemas de origin.

Los resultados fueron:

MétricaResultado
Solicitudes en pico máximo899.000 req/s
Procesamiento de imágenes18.000 req/s
Reducción de costo de transferencia67%
Estabilidad en mobile y regiones de baja banda✅ Mantenida

Black Friday dejó de ser un test de estrés de infraestructura y pasó a ser un evento de revenue predecible.

Lea el caso completo de Renner


FAQ

¿Qué es Tiered Cache?

Es una estrategia de cache en múltiples capas que añade un nivel intermedio entre puntos de presencia distribuidos y el servidor de origen, consolidando solicitudes y reduciendo llamadas directas al backend.

¿Tiered Cache es diferente de CDN tradicional?

Sí. Cache en infraestructura distribuida con capas programables permite control granular sobre qué se almacena, por cuánto tiempo y con qué criterio de invalidación. La arquitectura tradicional centralizada no ofrece ese nivel de control sobre flujos transaccionales.

¿Cómo combinar Tiered Cache con Micro Caching?

Tiered Cache define capas de almacenamiento. Micro Caching define TTL corto para datos dinámicos. Son estrategias complementarias: puede aplicar Micro Caching dentro de una arquitectura de Tiered Cache para datos de alta variación.

¿Cuándo usar purge por clave en lugar de purge total?

Siempre que sea posible. Purge total invalida el cache de toda la aplicación — incluyendo contenido que no cambió. Purge por clave remueve solo los fragmentos afectados por el cambio, manteniendo el resto de la aplicación acelerada.

¿Cómo ayuda Tiered Cache en flash sales?

En flash sales, múltiples usuarios acceden a los mismos recursos simultáneamente. Tiered Cache consolida estas solicitudes en capas intermedias, reduciendo drásticamente la presión en el origin exactamente cuando el tráfico está en su pico.


Conclusión

Tiered Cache es parte de una estrategia integrada de protección de origin y control de tráfico para flujos transaccionales a escala.

Resuelve en cuántas capas distribuir el cache. Combinado con Selective Caching, aumenta el cache hit ratio, reduce costos y mantiene la conversión estable incluso en picos de tráfico.


Próximos pasos

Conozca la solución de Cache de Azion: https://www.azion.com/es/productos/cache/

Vea cómo implementar Tiered Caching en su arquitectura: Hable con un especialista de Azion


mantente actualizado

Suscríbete a nuestro boletín informativo

Recibe las últimas actualizaciones de productos, destacados de eventos y conocimientos de la industria tecnológica directamente en tu bandeja de entrada.