Tiered Caching adiciona camadas intermediárias de cache entre pontos de presença distribuídos e o servidor de origem. Essa arquitetura em múltiplas camadas consolida requisições, aumenta a chance de cache hit e reduz chamadas diretas à origem durante picos de tráfego.
O que é Tiered Caching?
Tiered Caching é uma estratégia de cache em múltiplas camadas que introduz um nível intermediário de armazenamento entre os pontos de presença distribuídos e o servidor de origem.
Em uma arquitetura de cache mais simples, quando um ponto de presença da infraestrutura distribuída não encontra um objeto em cache, ele consulta diretamente a origem. Em uma arquitetura com Tiered Caching, esse ponto de presença consulta primeiro uma camada intermediária de cache, compartilhada por múltiplos pontos de presença.
Essa diferença muda o comportamento do tráfego de forma importante:
- requisições vindas de múltiplos pontos geográficos podem ser consolidadas;
- a origem recebe menos consultas diretas;
- o cache hit ratio global tende a aumentar;
- o custo de transferência de dados da origem pode cair.
Como funciona o Tiered Caching
O fluxo de uma requisição em uma arquitetura com Tiered Caching geralmente funciona assim:
Nível 1 — Ponto de presença local A requisição chega ao ponto de presença mais próximo do usuário. Se o conteúdo está em cache local, ele é entregue imediatamente.
Nível 2 — Camada intermediária Se o cache local não possui o objeto, o nó consulta uma camada intermediária antes de ir à origem. Essa camada pode ser compartilhada entre múltiplos pontos de presença.
Nível 3 — Origem Somente se a camada intermediária também não tiver o objeto a requisição segue para o backend.
Esse modelo produz dois efeitos práticos importantes:
Consolidação de requisições Múltiplos pontos de presença que, de outra forma, consultariam a origem de forma independente passam a compartilhar respostas já presentes em uma camada superior de cache.
Aumento da chance de cache hit Objetos que não estão no cache local ainda podem ser encontrados em uma camada intermediária antes de chegar à origem.
Requisição chega no ponto de presença ↓Verificar cache local (L1) ↓Cache HIT → Resposta imediataCache MISS → Consultar camada intermediária (L2) ↓L2 HIT → Resposta + popular L1L2 MISS → Consultar origem → Popular L2 + L1 → RespostaBenefícios do Tiered Caching
Proteção da origem
Quando mais requisições são resolvidas em pontos de presença distribuídos, a origem passa a receber menos chamadas redundantes. Isso reduz pressão sobre servidores, bancos de dados e serviços internos, especialmente em picos de tráfego.
Redução de custos de transferência
Ao servir mais conteúdo a partir de camadas intermediárias e de pontos de presença, a operação pode reduzir o volume de dados transferidos diretamente pela origem, o que tende a diminuir custos de egress.
Melhora do cache hit ratio global
Com uma camada adicional entre ponto de presença e origem, objetos têm mais de uma oportunidade de serem encontrados antes de chegar ao backend. Isso tende a elevar a taxa total de requisições respondidas por cache.
Mais estabilidade sob carga
Ao reduzir a pressão direta sobre a origem, Tiered Caching ajuda a preservar desempenho e previsibilidade de resposta mesmo em períodos de tráfego elevado.
Tiered Caching vs. Selective Caching
Tiered Caching responde a uma pergunta específica:
“Em quantas camadas devo organizar o cache para reduzir chamadas à origem?”
Já o Selective Caching responde a outra:
“Quais respostas devem entrar em cache — e sob quais regras?”
| Dimensão | Tiered Caching | Selective Caching |
|---|---|---|
| Pergunta central | Em quantas camadas distribuir o cache? | O que cachear e sob quais regras? |
| Mecanismo | Hierarquia entre ponto de presença, camada intermediária e origem | Seleção por rota, método, status, cabeçalhos ou contexto |
| Caso de uso principal | Redução de chamadas redundantes à origem | Controle de elegibilidade e segurança do cache |
| Benefício principal | Melhor aproveitamento do cache distribuído | Evita cache indevido e aumenta precisão das políticas |
| Combina com | Micro Caching, invalidação seletiva | Tiered Caching, Granular Caching |
As duas estratégias são complementares — não excludentes.
O que pode e não pode ser cacheado com Tiered Caching
Tiered Caching não muda, por si só, a regra fundamental da cacheabilidade: dados de leitura e compartilháveis entre usuários são candidatos melhores do que operações transacionais ou estados altamente personalizados.
| Recurso | Cacheável com Tiered Caching? | Estratégia recomendada |
|---|---|---|
| Catálogo de produtos | ✅ Sim | Tiered Caching com invalidação por chave |
| Prévia de promoções | ✅ Sim | TTL controlado e segmentação quando necessário |
| Opções de frete por região | ✅ Sim | Chave por região, CEP ou contexto de cálculo |
| Feature flags globais ou por segmento | ✅ Sim | TTL curto ou moderado, conforme frequência de mudança |
| Lista de métodos de pagamento | ✅ Sim | Segmentação por país, canal ou mercado quando aplicável |
| Autorização de pagamento | ❌ Não | Sempre transacional |
| Confirmação de pedido | ❌ Não | Sempre transacional |
| Estado específico do carrinho | ⚠️ Com muito cuidado | Apenas com chave por sessão ou usuário e invalidação rigorosa |
Regra prática: Tiered Caching melhora a eficiência da arquitetura de cache, mas não torna seguro cachear respostas que já seriam sensíveis ou transacionais em uma arquitetura de camada única.
Tiered Caching com políticas programáveis
Tiered Caching se torna ainda mais poderoso quando faz parte de uma estratégia de cache programável.
Isso permite, por exemplo:
Ajustar políticas durante campanhas Modificar TTLs, critérios de bypass ou regras de cache sem redesenhar toda a infraestrutura. Em períodos como Black Friday, isso ajuda a responder com mais rapidez a mudanças de tráfego.
Combinar com stale-while-revalidate Uma resposta ligeiramente desatualizada pode continuar sendo servida por uma janela controlada enquanto a atualização acontece em background. Em cenários de degradação parcial da origem, isso ajuda a preservar disponibilidade.
Usar purge por chave em vez de purge total Quando um preço muda ou um produto sai do estoque, não é necessário invalidar o cache inteiro. Com invalidação seletiva, você remove apenas os objetos afetados e preserva o restante da performance.
// Exemplo: invalidação baseada em padrões com Azion Libimport { purgeWildCard } from 'azion/purge';
async function purgePatterns(patterns, label) { const { data, error } = await purgeWildCard(patterns); if (error) { console.error(`Purge falhou para ${label}:`, error); return { success: false, error }; } return { success: true, invalidated: data?.items };}Exemplo prático: Lojas Renner na Black Friday
A Lojas Renner é um exemplo relevante de como uma arquitetura distribuída pode ajudar a sustentar grandes volumes de tráfego durante eventos críticos de varejo.
Na Black Friday, a operação precisava suportar picos massivos de acesso sem degradar a experiência de compra. Para reduzir gargalos centralizados, a empresa adotou uma arquitetura distribuída com foco em desempenho, escalabilidade e proteção da origem.
Os resultados reportados foram:
| Métrica | Resultado |
|---|---|
| Requisições no pico máximo | 899.000 req/s |
| Processamento de imagens | 18.000 req/s |
| Redução de custo de transferência | 67% |
| Estabilidade em mobile e regiões de baixa banda | ✅ Mantida |
Embora esses números não provem, isoladamente, o uso de Tiered Caching como única causa, eles ilustram o valor de arquiteturas de cache e entrega distribuída em cenários de pico extremo.
→ Leia o case completo da Renner
FAQ
O que é Tiered Caching?
É uma estratégia de cache em múltiplas camadas que adiciona um nível intermediário entre os pontos de presença distribuídos e o servidor de origem, reduzindo chamadas diretas ao backend.
Qual a principal vantagem do Tiered Caching?
A principal vantagem é diminuir requisições redundantes à origem. Isso melhora o aproveitamento do cache distribuído e ajuda a proteger a infraestrutura backend em cenários de alto tráfego.
Tiered Caching é diferente de cache comum em CDN?
Sim. Em uma arquitetura de cache em camada única, um cache miss no ponto de presença normalmente segue direto para a origem. Com Tiered Caching, existe uma camada intermediária adicional que pode responder antes que a requisição chegue ao backend.
Como combinar Tiered Caching com Micro Caching?
Tiered Caching define a hierarquia de camadas. Micro Caching define janelas curtas de reutilização para respostas dinâmicas. As duas estratégias podem ser combinadas.
Quando usar purge por chave em vez de purge total?
Sempre que a mudança afetar apenas parte do conteúdo. Purge total invalida mais objetos do que o necessário; purge por chave ou padrão reduz impacto e preserva eficiência do cache.
Como o Tiered Caching ajuda em flash sales?
Em flash sales, muitos usuários acessam os mesmos recursos ao mesmo tempo. Tiered Caching ajuda a consolidar essas requisições em camadas intermediárias, reduzindo a pressão direta sobre a origem no momento de maior demanda.
Conclusão
Tiered Caching é uma estratégia importante para proteger a origem e melhorar a eficiência do cache distribuído em operações de escala.
Ele define em quantas camadas o cache será organizado. Quando combinado com Selective Caching, Micro Caching e invalidação seletiva, ajuda a aumentar o cache hit ratio, reduzir custos e preservar estabilidade sob picos de tráfego.
Próximos passos
Conheça a solução de Cache da Azion.
Veja como implementar Tiered Caching na sua arquitetura:
Fale com um especialista Azion