Micro Caching armazena respostas por janelas de tempo extremamente curtas — geralmente de frações de segundo a poucos segundos. Essa técnica reduz a pressão sobre os servidores de origem durante picos de tráfego, mantendo um bom equilíbrio entre desempenho e atualização dos dados.
O que é Micro Caching?
Micro Caching é uma técnica de cache que armazena respostas por períodos muito curtos — normalmente de frações de segundo a poucos segundos, dependendo do caso de uso.
Essa janela é curta o suficiente para manter os dados próximos do estado atual, mas longa o suficiente para absorver rajadas de requisições simultâneas antes que cheguem ao servidor de origem.
Micro Caching não é o mesmo que cache tradicional.
Em estratégias tradicionais de cache, conteúdos estáticos e também algumas respostas dinâmicas podem ser armazenados por minutos, horas ou dias. Já o Micro Caching opera em escala muito menor, sendo útil quando a informação muda com frequência, mas ainda pode ser reutilizada por um intervalo muito curto.
Diferença entre estratégias de cache
É importante entender a distinção entre Micro Caching e outras estratégias de cache:
| Estratégia | Pergunta que responde | Foco |
|---|---|---|
| Micro Caching | Por quanto tempo reutilizar uma resposta? | TTL curto para dados dinâmicos |
| Tiered Caching | Em quantas camadas distribuir o cache? | Hierarquia entre pontos de presença e origem |
| Granular Caching | O que cachear e como segmentar? | Regras por cabeçalhos, cookies e parâmetros |
| Selective Caching | Quais respostas devem entrar em cache? | Seleção por rota, método, status ou contexto |
Todas essas estratégias são complementares — não excludentes.
Como funciona o Micro Caching
Quando uma requisição chega a um ponto de presença da infraestrutura distribuída, o sistema verifica se existe uma resposta em cache e se ela ainda é válida:
- Cache HIT: se o conteúdo está em cache e o TTL não expirou, a resposta é entregue imediatamente sem consultar a origem.
- Cache MISS: se o conteúdo não está em cache ou o TTL expirou, a requisição segue para a origem, e a resposta pode ser armazenada em cache pelo TTL configurado.
Mesmo um TTL de 3 segundos pode absorver centenas ou milhares de requisições idênticas durante um pico de tráfego, evitando sobrecarga na origem.
Requisição chega no ponto de presença ↓Verificar cache ↓Cache HIT (TTL válido) → Resposta imediataCache MISS → Requisitar origem → Armazenar resposta em cache (TTL: 5s) → RespostaO que pode e não pode ser cacheado com Micro Caching
A separação entre dados cacheáveis e não cacheáveis é a base de uma estratégia segura de Micro Caching.
Tabela de elegibilidade e TTL recomendado
| Recurso | Cacheável? | TTL recomendado | Justificativa |
|---|---|---|---|
| Cálculo de frete por faixa de CEP | ✅ Sim | 5 a 10 segundos | Muda pouco em intervalos muito curtos e costuma ser muito consultado em picos |
| Prévia de promoções e elegibilidade | ✅ Sim | 2 a 5 segundos | Regras promocionais geralmente permanecem estáveis durante a execução de campanhas |
| Nível de estoque para visualização | ⚠️ Depende | 1 a 5 segundos | Pode tolerar pequena defasagem em cenários de consulta, mas exige cuidado para não induzir decisões transacionais incorretas |
| Feature flags globais ou por segmento | ✅ Sim | 5 a 30 segundos | Baixa variação e alto volume de leitura |
| Fragmentos de catálogo e produto | ✅ Sim | 10 a 60 segundos | Dados de leitura com atualização controlada e alta taxa de reutilização |
| Resumo do carrinho | ⚠️ Com muito cuidado | 1 a 2 segundos, com chave por sessão ou usuário | Exige isolamento rigoroso, invalidação imediata e alto cuidado para evitar vazamento de dados entre usuários |
| Lista de métodos de pagamento | ✅ Sim | 30 a 60 segundos | Costuma mudar pouco durante uma sessão |
| Autorização de pagamento | ❌ Não | — | Operação transacional que deve ser processada diretamente pela aplicação |
| Finalização do pedido | ❌ Não | — | Operação de escrita irrepetível e sensível à consistência |
| Qualquer operação que altere estado | ❌ Não | — | Operações de escrita não devem ser respondidas a partir de cache compartilhado |
Regra prática: se o dado é de leitura e pode ser compartilhado entre múltiplos usuários sem risco de exposição de contexto, ele provavelmente pode se beneficiar de Micro Caching.
TTL extremamente baixo: quando a janela precisa ser mínima
Em alguns cenários, o TTL precisa ser muito baixo — às vezes menor que 1 segundo — para absorver rajadas curtas de tráfego sem manter respostas por tempo suficiente para gerar inconsistência perceptível.
Esse cenário costuma aparecer quando:
- os dados mudam com muita frequência;
- existe alta concorrência sobre o mesmo recurso;
- uma pequena janela de reutilização já é suficiente para aliviar a origem.
Importante: TTL muito baixo não é o mesmo que bypass de cache
Bypass ignora o cache completamente e envia cada requisição para a origem.
Já um TTL muito baixo ainda permite algum nível de reutilização por uma janela mínima, desde que a plataforma suporte esse comportamento. Em muitos cenários de alta concorrência, mecanismos como request coalescing, collapsed forwarding ou stale serving são mais relevantes do que tentar operar com TTL igual a zero.
Atenção: em várias implementações, um TTL exatamente igual a zero significa expiração imediata e pode não gerar benefício real de reutilização. Por isso, é mais seguro pensar em TTL extremamente baixo do que em “Zero TTL” como estratégia universal.
Micro Caching e Granular Caching
Se o Micro Caching define por quanto tempo uma resposta pode ser reutilizada, o Granular Caching define o que cachear — e como diferenciar versões distintas do mesmo recurso.
Usando chaves de cache avançadas (advanced cache keys), é possível armazenar versões diferentes de uma mesma resposta com base em atributos específicos da requisição HTTP.
Segmentação por cookie Permite isolar respostas personalizadas quando isso for realmente necessário, desde que a chave seja cuidadosamente configurada para evitar vazamento de dados entre usuários e explosão de cardinalidade no cache.
Segmentação por cabeçalho
Serve diferentes versões de API com base em cabeçalhos como Device-Type, Accept-Language ou User-Segment, sem duplicar lógica na aplicação.
Segmentação por query string É útil para APIs de recomendação, filtros de busca e parâmetros de campanha que geram URLs dinâmicas.
Como combinar Micro Caching e Granular Caching
A combinação funciona assim:
- Micro Caching define a janela de tempo — por quantos segundos uma resposta pode ser reutilizada
- Granular Caching define a chave — qual combinação de cabeçalhos, cookies ou query strings identifica corretamente aquela resposta
- Bypass seletivo define o limite de segurança — operações críticas, como pagamento e confirmação de pedido, devem ignorar completamente o cache
Requisição de frete ↓[Chave granular: prefixo de CEP + Device-Type] ↓[Micro Cache TTL: 5 segundos] ↓Cache HIT → resposta imediataCache MISS → origem → popula cache → respostaBypass seletivo: protegendo operações críticas
Não basta saber o que cachear. Também é preciso garantir que operações que não devem ser cacheadas nunca passem pelo cache, independentemente da configuração geral.
O bypass seletivo aplica uma regra explícita por endpoint, método ou tipo de operação:
| Operação | Comportamento correto |
|---|---|
GET /api/shipping-options | Micro Caching com TTL de 5s |
GET /api/promotions/eligibility | Micro Caching com TTL de 3s |
POST /api/cart/update | Bypass total — sempre para a origem |
POST /api/payment/authorize | Bypass total — sempre para a origem |
POST /api/order/confirm | Bypass total — sempre para a origem |
O limite entre o que é acelerado e o que é transacional deve ser explícito na configuração — não presumido.
Stale-While-Revalidate e purge por chave
Duas técnicas complementam o Micro Caching na prática:
Stale-while-revalidate Com stale-while-revalidate, uma resposta ligeiramente desatualizada pode continuar sendo servida por uma janela controlada após o vencimento do TTL principal, enquanto a atualização acontece em background. Durante picos de tráfego, isso ajuda a preservar a disponibilidade mesmo quando a origem começa a degradar.
Purge por chave Quando um preço muda, uma promoção expira ou um fragmento específico precisa ser atualizado, a invalidação ideal é cirúrgica: remove apenas a chave afetada, sem invalidar desnecessariamente outros objetos em cache.
Cache programável: da configuração estática para lógica contextual
O avanço do Micro Caching está em ir além de regras estáticas de TTL. Em plataformas com lógica programável na camada de entrega, é possível definir por código como cada requisição deve ser tratada na infraestrutura distribuída.
Isso permite que os times:
- testem novas estratégias de cache sem reestruturar toda a arquitetura;
- ajustem TTL por segmento de usuário ou contexto de tráfego;
- preaqueçam caches antes de grandes campanhas;
- automatizem invalidações com base em eventos de estoque ou promoção;
- integrem regras de cache a workflows de aplicação via APIs.
Durante uma flash sale, por exemplo, regras de Micro Caching podem ser ativadas para endpoints de alta concorrência e depois reduzidas ou removidas quando o pico passa.
Exemplo prático: Marisa
A Marisa ilustra como estratégias avançadas de cache e entrega distribuída podem transformar a relação entre performance, estabilidade e custo em operações de e-commerce.
Com a infraestrutura distribuída da Azion, a Marisa passou a entregar mais de 85% dos seus dados diretamente em camadas distribuídas, sem consultar a origem na maior parte das requisições.
O resultado foi:
| Métrica | Resultado |
|---|---|
| Dados entregues em infraestrutura distribuída | 85% |
| Economia de banda por dia | 4,3 TB |
| Estabilidade durante períodos de alta demanda | ✅ Mantida |
| Páginas mais rápidas com menores custos | ✅ Confirmado |
Embora esse resultado não represente exclusivamente Micro Caching, ele mostra o impacto que uma estratégia madura de cache pode gerar em desempenho, escalabilidade e eficiência operacional.
FAQ
O que é Micro Caching?
É a técnica de armazenar respostas por janelas de tempo muito curtas — normalmente de frações de segundo a poucos segundos — para reduzir a pressão na origem sem prejudicar significativamente a atualização percebida dos dados.
Qual a diferença entre Micro Caching e TTL extremamente baixo?
Micro Caching é a estratégia de reutilizar respostas por um intervalo muito curto. Um TTL extremamente baixo é apenas uma forma de implementá-la em cenários de alta atualização ou alta concorrência. Já um TTL exatamente igual a zero pode significar expiração imediata, dependendo da plataforma.
Micro Caching pode comprometer dados transacionais?
Não, desde que a estratégia seja bem delimitada e operações transacionais fiquem explicitamente fora do cache. Pagamento, confirmação de pedido e qualquer operação que altere estado devem ir diretamente para a aplicação.
Como definir o TTL correto para cada recurso?
O TTL ideal depende principalmente de dois fatores: a frequência de atualização do dado e o impacto de exibir uma versão levemente desatualizada. Frete por faixa de CEP pode tolerar alguns segundos. Já dados personalizados, como carrinho, exigem muito mais cuidado.
Qual a diferença entre Micro Caching e Tiered Caching?
Micro Caching define por quanto tempo uma resposta pode ser reutilizada. Tiered Caching define em quantas camadas o cache será organizado entre pontos de presença e origem. As duas estratégias são complementares.
Quando usar Granular Caching com Micro Caching?
Quando o mesmo recurso precisa de versões diferentes por idioma, dispositivo, localização ou segmento de usuário. Granular Caching define a chave; Micro Caching define a janela de reutilização.
Cache programável substitui configuração estática de TTL?
Não substitui — expande. A configuração estática define o comportamento padrão. O cache programável adiciona lógica contextual, como TTL variável por segmento, invalidação orientada a eventos e ativação temporária em períodos de pico.
Conclusão
Micro Caching ajuda a acelerar conteúdo dinâmico com precisão: janelas de TTL curtas o suficiente para manter um bom nível de atualização dos dados e longas o suficiente para absorver picos de tráfego antes que sobrecarreguem a origem.
Com Granular Caching como complemento, bypass seletivo como proteção e técnicas como stale-while-revalidate e invalidação seletiva, é possível melhorar a performance sem comprometer operações críticas.
Próximos passos
Conheça a solução de Cache da Azion e veja como ela aplica estratégias avançadas de cache para garantir performance, resiliência e liberdade arquitetural em operações globais.
Quer implementar Micro Caching com segurança?
Fale com um especialista Azion