A crença de que o checkout não pode ser cacheado custa caro. Muitos recursos do fluxo transacional são repetitivos e de leitura — e podem ser acelerados com segurança usando TTL de segundos. O Micro Caching aplica janelas de cache extremamente curtas para dados dinâmicos como frete, promoções e estoque. O Granular Caching complementa essa estratégia definindo chaves precisas de segmentação. Juntos, eles reduzem latência, protegem o origin e mantêm a integridade dos dados transacionais
Introdução: o custo do checkout que não caches
Existe uma crença enraizada na engenharia de e-commerce: o checkout não pode ser cacheado
Essa decisão tem um custo real. Durante picos de tráfego, cada requisição de leitura que vai ao origin desnecessariamente consome capacidade que deveria estar reservada para operações transacionais críticas — autorização de pagamento, confirmação de estoque, finalização de pedido
O resultado é previsível: latência acumulada, timeouts intermitentes e abandono de carrinho exatamente quando a intenção de compra está no auge
O problema não é que o checkout é dinâmico. O problema é tratar todos os dados do checkout como igualmente sensíveis
Na prática, muitos requests no fluxo de checkout são predominantemente de leitura ou repetitivos sob carga. Eles podem ser acelerados — com os controles corretos
1. O que é Micro Caching?
Micro Caching é a técnica de armazenar conteúdo dinâmico por janelas de tempo extremamente curtas — tipicamente entre 1 e 10 segundos
Essa janela é curta o suficiente para garantir que os dados permaneçam relevantes, mas longa o suficiente para absorver rajadas de requisições simultâneas antes que elas cheguem ao origin.
Micro Caching não é o mesmo que cache tradicional.
Cache tradicional armazena conteúdo estático por minutos, horas ou dias. Micro Caching opera em escala de segundos e é projetado especificamente para dados que mudam com frequência, mas não a cada milissegundo.
Diferença explícita entre as estratégias do cluster
É importante deixar clara a distinção entre Micro Caching e as outras estratégias do cluster para evitar confusão:
| Estratégia | Pergunta que responde | Foco |
|---|---|---|
| Micro Caching | Por quanto tempo cachear? | TTL curto para dados dinâmicos |
| Tiered Cache | Em quantas camadas cachear? | Hierarquia entre nós e origin |
| Granular Caching | O que cachear e com qual regra? | Segmentação por headers e cookies |
As três são complementares — não excludentes
2. O que pode e o que não deve ser cacheado com Micro Caching
A separação correta entre dados cacheáveis e não cacheáveis é o fundamento de uma estratégia de Micro Caching segura
Tabela de elegibilidade e TTL recomendado
| Recurso | Cacheável? | TTL recomendado | Justificativa |
|---|---|---|---|
| Cálculo de frete por faixa de CEP | ✅ Sim | 5 a 10 segundos | Muda pouco em curtos intervalos, mas é muito consultado em picos |
| Prévia de promoções e elegibilidade | ✅ Sim | 2 a 5 segundos | Regras de campanha são estáveis durante a execução da flash sale |
| Nível de estoque para visualização | ✅ Sim | 3 a 5 segundos | Serve resposta estável enquanto o sistema central processa reservas |
| Feature flags e configurações de sessão | ✅ Sim | 5 a 30 segundos | Baixa variação, alto volume de consulta |
| Fragmentos de catálogo e produto | ✅ Sim | 10 a 60 segundos | Dados de leitura com versionamento controlado |
| Resumo do carrinho | ⚠️ Com cuidado | 1 a 2 segundos com key por sessão | Requer invalidação imediata ao alterar estado |
| Lista de métodos de pagamento | ✅ Sim | 30 a 60 segundos | Raramente muda durante uma sessão ativa |
| Autorização de pagamento | ❌ Não | — | Sempre transacional — nunca cachear |
| Finalização do pedido | ❌ Não | — | Operação de escrita irrepetível |
| Qualquer operação que altere estado | ❌ Não | — | Sem cache sem controles de idempotência |
Regra prática: se o dado é de leitura e pode ser compartilhado entre múltiplos usuários sem risco de contaminação de sessão, ele provavelmente pode ser acelerado com Micro Caching
3. Zero TTL: quando o tempo é o menor possível
Zero TTL é um caso extremo de Micro Caching em que o tempo de armazenamento é reduzido ao mínimo funcional — muitas vezes frações de segundo ou o tempo necessário para resolver uma rajada de requisições simultâneas
Zero TTL não é o mesmo que bypass de cache.
O bypass ignora o cache completamente e envia cada requisição diretamente ao origin. O Zero TTL ainda usa o cache como mecanismo de coordenação — ele armazena a resposta por tempo suficiente para evitar que requisições idênticas simultâneas sobrecarreguem o backend
Quando usar Zero TTL
- dados que mudam a cada poucos segundos mas têm picos de consulta concentrados
- endpoints de alta concorrência onde qualquer TTL positivo representa risco de dado obsoleto
- situações em que o Request Coalescing precisa de suporte adicional para picos extremos
→ Para entender como o Request Coalescing complementa o Zero TTL em cenários de Thundering Herd: Request Coalescing: Como Eliminar o Thundering Herd no Checkout
4. Granular Caching como complemento
Se o Micro Caching define por quanto tempo cachear, o Granular Caching define o quê cachear — e com qual critério de segmentação
Usando Advanced Cache Keys, você pode armazenar versões diferentes do mesmo recurso com base em informações específicas da requisição HTTP :
Segmentação por cookie Permite cachear fragmentos do resumo do carrinho ou da sessão de forma isolada, garantindo que um cliente nunca receba dados de outro
Segmentação por header
Serve versões diferentes de APIs com base em Device-Type, Accept-Language ou User-Segment — sem duplicar a lógica na aplicação
Segmentação por query string Essencial para APIs de recomendação, filtros de busca e parâmetros de campanha que geram URLs dinâmicas
Como combinar Micro Caching e Granular Caching
A combinação funciona assim:
- Micro Caching define a janela de tempo — quantos segundos o dado pode ser reutilizado
- Granular Caching define a chave — qual combinação de headers, cookies ou query strings identifica esse dado de forma única
- Bypass seletivo garante a fronteira — operações críticas como pagamento ignoram o cache completamente
Requisição de frete ↓[Granular Cache Key: CEP prefix + Device-Type] ↓[Micro Cache TTL: 5 segundos] ↓Cache HIT → resposta imediataCache MISS → origin → popula cache → respostaVeja o caso da Marisa, que combinou Micro Caching e Granular Caching modernizando sua arquitetura com execução distribuída e controle granular: https://www.azion.com/pt-br/casos-de-sucesso/marisa/
5. Bypass seletivo: protegendo operações críticas
Não basta saber o que cachear. É preciso garantir que as operações que não devem ser cacheadas nunca passem pelo cache — independentemente da configuração geral
O bypass seletivo aplica uma regra explícita por endpoint ou por tipo de operação:
| Operação | Comportamento correto |
|---|---|
GET /api/shipping-options | Micro Caching com TTL de 5s |
GET /api/promotions/eligibility | Micro Caching com TTL de 3s |
POST /api/cart/update | Bypass total — sempre ao origin |
POST /api/payment/authorize | Bypass total — sempre ao origin |
POST /api/order/confirm | Bypass total — sempre ao origin |
A fronteira entre o que é acelerado e o que é transacional deve ser explícita na configuração — não assumida
6. Implementação: o papel do stale-while-revalidate e do purge por key
Duas técnicas complementam o Micro Caching na prática. Elas foram abordadas em profundidade na página de Tiered Cache, mas vale contextualizar seu papel aqui:
Stale-while-revalidate Enquanto o TTL expira e o dado é atualizado em segundo plano, o usuário recebe a versão em cache sem perceber latência. Em picos de tráfego, isso preserva a disponibilidade do checkout mesmo quando o origin começa a degradar
Purge por key Quando o estado do carrinho muda ou um preço é atualizado, a invalidação deve ser cirúrgica — removendo apenas a chave afetada, sem impactar o restante da aplicação
→ Para implementação detalhada dessas técnicas: Tiered Cache: Como Reduzir a Carga no Origin em Checkout e APIs
7. Cache programável: da configuração estática à lógica contextual
O avanço do Micro Caching está em ir além de regras estáticas de TTL. Com cache programável, é possível definir por código como cada requisição deve ser tratada diretamente na infraestrutura distribuída
Isso significa que equipes podem :
- testar novas estratégias de cache sem reconstruir a camada de infraestrutura
- ajustar TTL por segmento de usuário em tempo real
- pré-aquecer caches antes de grandes campanhas
- automatizar invalidações com base em eventos de estoque ou promoção
- integrar regras de cache diretamente aos workflows da aplicação via APIs
Durante uma flash sale, por exemplo, regras de Micro Caching podem ser ativadas automaticamente para endpoints de alta concorrência — e desativadas quando o pico passa — sem intervenção manual
8. Exemplo real: Marisa
A Marisa é um exemplo concreto de como cache inteligente transforma a relação entre performance e custo em e-commerce de escala
Com a infraestrutura distribuída da Azion, a Marisa passou a entregar mais de 85% dos seus dados diretamente nas camadas distribuídas, sem consultar o origin
O resultado foi :
| Métrica | Resultado |
|---|---|
| Dados entregues na infraestrutura distribuída | 85% |
| Economia de banda por dia | 4,3 TB |
| Estabilidade durante períodos de alta demanda | ✅ Mantida |
| Páginas mais rápidas com custos menores | ✅ Confirmado |
Economizar 4,3 TB de banda por dia não é apenas uma métrica de infraestrutura. É a diferença entre um checkout que aguenta o pico e um que degrada silenciosamente
9. FAQ
O que é Micro Caching?
É a técnica de armazenar conteúdo dinâmico por janelas de tempo muito curtas — tipicamente entre 1 e 10 segundos — para reduzir a pressão sobre o origin sem comprometer a frescura dos dados
Qual a diferença entre Micro Caching e Zero TTL?
Micro Caching usa TTL de segundos para equilibrar performance e frescura. Zero TTL reduz esse tempo ao mínimo funcional — suficiente para coordenar requisições simultâneas sem entregar dados obsoletos
Micro Caching pode comprometer dados transacionais?
Não, se a fronteira entre dados cacheáveis e operações transacionais for explícita. Autorização de pagamento, finalização de pedido e qualquer operação que altere estado nunca devem ser cacheadas
Como definir o TTL correto para cada recurso?
O TTL ideal depende de dois fatores: a frequência de atualização do dado e o risco de exibir uma versão levemente desatualizada. Frete por CEP tolera 5 a 10 segundos. Resumo do carrinho exige chave por sessão e invalidação imediata ao alterar estado
Qual a diferença entre Micro Caching e Tiered Cache?
Micro Caching define por quanto tempo cachear — TTL curto para dados dinâmicos. Tiered Cache define em quantas camadas distribuir o cache — hierarquia entre nós de presença e origin. São estratégias complementares
Quando usar Granular Caching junto com Micro Caching?
Sempre que o mesmo recurso precisar de versões diferentes por segmento de usuário, dispositivo ou localização. O Granular Caching define a chave; o Micro Caching define a janela de tempo
Cache programável substitui a configuração estática de TTL?
Não substitui — expande. A configuração estática define o comportamento padrão. O cache programável adiciona lógica contextual: TTL diferente por segmento, invalidação automática por evento de negócio, pré-aquecimento antes de campanhas
Conclusão
O maior erro na gestão de cache de checkout não é cachear demais. É cachear de menos por falta de controle
O Micro Caching resolve isso com precisão: janelas de TTL curtas o suficiente para manter a frescura dos dados, longas o suficiente para absorver picos de tráfego antes que eles sobrecarreguem o origin.
Com Granular Caching como complemento e bypass seletivo como fronteira de segurança, é possível acelerar a maior parte do fluxo transacional sem comprometer a integridade de nenhuma operação crítica
A pergunta não é se o checkout pode ser cacheado. A pergunta é se você tem controle suficiente para fazer isso da forma correta
Próximos passos
Confira a solução de Cache da Azion e veja como ela implementa os princípios de Open Caching para garantir performance, resiliência e liberdade arquitetural para operações de e-commerce global. Quer construir uma arquitetura de checkout sem dependência de infraestrutura proprietária?
Leia Por Que o Cache Tradicional Falha Quando Seus Clientes Estão Prontos para Comprar e entenda como Open Caching e arquitetura aberta protegem a performance do checkout em escala global.
Quer implementar Micro Caching no seu checkout com segurança?
Fale com um especialista da Azion