1 of 20
2 of 20
3 of 20
4 of 20
5 of 20
6 of 20
7 of 20
8 of 20
9 of 20
10 of 20
11 of 20
12 of 20
13 of 20
14 of 20
15 of 20
16 of 20
17 of 20
18 of 20
19 of 20
20 of 20

site

doc

blog

success stories

Blog

A anatomia da infraestrutura de edge computing

Introdução

Recentemente, o edge computing surgiu como o próximo passo, certo e natural, no campo da tecnologia e inovação para impulsionar uma economia hiperconectada. No entanto, entender esses conceitos abstratos, como edge ou computação serverless, pode ser difícil para algumas organizações, especialmente se a tecnologia não for seu principal negócio. Considerando esse cenário, iniciamos uma série de blog posts para explicar os fundamentos do modelo de edge computing para iniciantes.

Em outro post, falamos sobre as diferenças entre cloud computing e edge computing e qual delas é melhor para seu negócio. Nesse artigo, vamos explicar o que é o edge, onde ele fica, como funciona, sua relação com o modelo serverless e como a Azion pode ajudá-lo a migrar para o edge.

O que é o edge?

Para entendermos melhor, vamos fazer uma analogia do edge com o processo de comunicação. Qualquer processo de comunicação precisa de um emissor e de um receptor, além da mensagem e do canal. Cada parte envolvida também deve falar a mesma linguagem e fornecer feedback para concluir este processo. E para uma comunicação eficaz, este ciclo se repete, se for necessário. Além disso, fatores como ruídos, qualidade do canal e outros podem afetar a comunicação.

Se entendermos o funcionamento das redes como um processo de comunicação, podemos usar esse modelo para explicar como funciona uma requisição na internet. Por exemplo, vamos imaginar que você precisa encontrar a letra de uma nova música da qual você gosta. Com certeza, você vai abrir seu navegador, digitar o nome da música e enviar a requisição. Imediatamente, você receberá uma página de resultados. Parece rápido e fácil, certo? Pois bem, vários processos e equipamentos são necessários para realizar esta tarefa, ou como preferimos chamá-la: a jornada da requisição. De modo bastante simplificado, é isso que acontece:

  • O usuário (emissor) faz uma requisição ou envia informações por meio de um dispositivo eletrônico.
  • A mensagem é codificada e criptografada em uma linguagem que o equipamento pode entender.
  • A mensagem é recebida e processada por um servidor (receptor), que cria uma resposta útil e envia uma mensagem de volta para o usuário (feedback), seguindo o mesmo caminho, mas na direção oposta.
  • O usuário poderia fazer uma nova requisição, o que reinicia o processo.
  • Durante o processo, fatores como latência, conexão ruim ou problemas com o tipo de dispositivo ou com a rede do fornecedor de internet podem dificultar a comunicação.

Na infraestrutura atual da internet, os servidores geralmente estão localizados dentro de data centers. O principal problema é que esses data centers são centralizados e localizados geograficamente longe dos usuários finais. Isso gera uma série de problemas relacionados à velocidade de resposta, interferindo na qualidade da experiência do usuário, que deve esperar para obter uma resposta ou concluir qualquer tarefa online, aumentando o risco de abandono.

Voltando para o conceito de comunicação, se o emissor e o receptor estão mais perto, o processo definitivamente terá melhorias e será mais eficiente e rápido. Isso é o que acontece se os servidores estiverem localizados fisicamente perto dos usuários finais e dos seus dispositivos: o tempo de resposta é ainda mais rápido, com um número mínimo de problemas, maior qualidade e menos uso de largura de banda. Esta é a diferença entre edge computing e a infraestrutura tradicional de internet.

No relatório Edge Networking: An Introduction, a Linux Foundation explica que o edge se refere a um novo paradigma computacional caracterizado por completar o processamento e o armazenamento o mais próximo possível do local onde os dados são gerados e coletados. Complementando essa ideia, a instituição também define edge computing como “a entrega de recursos de computação aos extremos lógicos de uma rede para melhorar o desempenho, os custos operacionais e a confiabilidade de aplicações e serviços”. Se considerarmos os servidores e os usuários como nossos dois extremos, isso nos leva à nossa seguinte pergunta…

Onde fica o edge?

Fisicamente, o edge poderia estar em qualquer lugar: em um micro data center, em uma torre de celular, em um dispositivo especializado ou dentro das instalações de uma empresa, mas o que realmente importa é onde está localizado dentro da infraestrutura da rede. E para isso, a sua localização deve seguir três princípios básicos:

  • estar em frente da cloud;
  • mais perto do usuário final;
  • dentro de uma infraestrutura descentralizada e distribuída geograficamente.

Vamos representar o que dissemos com um gráfico[1] [2]:


A primeira camada inclui todos os dispositivos capazes de gerar e processar dados, assim como de se conectar com a infraestrutura de edge computing. A camada da rede edge inclui todo o hardware e o software implementado (explicaremos mais sobre isso posteriormente). Os gateways são todos os recursos que permitem a comunicação entre dois dispositivos no edge com servidores distantes ou serviços de cloud, se necessário. Por exemplo, servem para verificar algumas informações que não estão armazenadas no edge node porque são dados confidenciais, tarefas de autenticação ou quando o cache do edge node foi purgado e precisa recuperar os dados originais desde a fonte de origem. Por fim, a camada da cloud é composta por data centers distantes e centralizados, com recursos para armazenar e processar dados em maiores quantidades, conceito com o qual já estamos familiarizados.

Como funciona o edge?

Um relatório recente do Statista mencionou que “se espera que a quantidade total de dados criados, capturados, copiados e consumidos globalmente continue aumentando rapidamente, atingindo 64,2 zetabytes em 2020”. Inicialmente, esse contexto forçou a migração de mais aplicações e serviços web para a cloud. No entanto, o número crescente de dispositivos disponíveis e conectados, e o volume de dados gerados por eles, não podem ser gerenciados de forma eficiente pelo modelo centralizado tradicional. O modelo de edge computing surgiu como a resposta para resolver muitos problemas e limitações, proporcionando melhor experiência de usuário, performance, segurança e serviços. Mas, vamos descobrir sua infraestrutura primeiro.

Uma rede edge é composta por vários edge nodes distribuídos geograficamente. Cada edge node é implementado para receber e entregar conteúdo como solicitado, além de contar com hardware e software que habilitam suas funcionalidades:

  • Hardware: geralmente, a infraestrutura inclui racks onde se colocam os servidores (de acordo com as capacidades de processamento e rede planejadas, assim como do volume de tráfego que gerenciará o node), capacidade de armazenamento, switches e routers que permitem se conectar com outras redes. Esse tipo de implementação é bem menor e usa menos recursos se comparado aum cloud data center.
  • Software: refere-se aos programas, protocolos e funções, incluindo business logic, análise de dados e parâmetros de segurança.

Por estar localizada em frente da cloud, a infraestrutura de edge computing permite que os recursos de processamento e armazenamento estejam mais próximos dos usuários. Você se lembra dos comentários sobre o processo de comunicação? Agora, esse processo pode ser completado de forma mais rápida e eficiente, uma vez que as requisições são atendidas no edge – os dados fazem viagens mais curtas – e não na infraestrutura de origem ou na cloud.

Como SDN e NFV habilitam o edge?

Para oferecer seus serviços, edge computing usa duas importantes ferramentas para administrar e organizar sua infraestrutura: Software-defined Networking (SDN, ou redes definidas por software) e Network Functions Virtualization (NFV, ou virtualização de funções de rede).

SDN é uma abordagem que permite o controle e o gerenciamento da rede de forma inteligente e automatizada, por meio de aplicativos de software usando APIs. Ao serem definidas por software, as regras são criadas para indicar o que a rede deve fazer automaticamente em certas situações. Por exemplo, para evitar sobrecarregar um edge node, criar uma regra que direcione o tráfego para o edge node disponível, saudável e mais próximo pode ser a solução ideal, fornecendo resiliência e escalabilidade. Essa automação ajuda a simplificar o provisionamento de recursos; ao mesmo tempo, também reduz os custos operacionais e os esforços dos desenvolvedores.

Por sua vez, o Open Glossary of Edge Computing descreve a NFV como “a migração de funções de rede incorporadas em dispositivos de hardware proprietários para Virtualized Network Functions (VNF, ou funções de rede virtualizadas) baseadas em software”. Em palavras mais simples: usando NFV, um desenvolvedor pode criar dispositivos de rede que funcionam como elementos virtuais em servidores, como máquinas virtuais e containers, em vez de ter que comprar e implementar um novo hardware. Cada VNF tem sua própria finalidade e está programada para funcionar como router, firewall, load balancer ou outros, dentro de um entorno virtualizado definido pela NFV.

O modelo serverless

As empresas costumam reclamar das desvantagens e das limitações dos serviços de computação tradicionais. Os pontos mais comuns no nível corporativo são:

  • alta latência;
  • infraestrutura não confiável e inflexível;
  • baixa performance e experiência do usuário ruim;
  • serviços custosos;
  • complexidade operacional.

Portanto, o edge pode oferecer melhorias para cada um desses problemas. Devido à proximidade do edge com os usuários e a distribuição de seus elementos, essa implementação proporciona os seguintes benefícios:

  • Baixa latência e menor uso de largura de banda: resposta mais rápida já que as viagens para resolver as requisições são mais curtas.
  • Resiliência: mesmo quando um node ou um equipamento específico falha, o sistema continua operando, utilizando outros recursos da rede que garantem sua disponibilidade permanente.
  • Escalabilidade: a infraestrutura pode ser expandida ou reduzida automaticamente para atender o nível de demanda, reduzindo os custos relacionados ao provisionamento ou à falta de recursos.
  • Custos operacionais reduzidos: com menos viagens até a infraestrutura de origem, os custos de uso de serviços de cloud diminuem.
  • Novos casos de uso: a infraestrutura de edge computing facilita o desenvolvimento de projetos com tecnologia moderna, como inteligência artificial, realidade virtual, realidade aumentada, machine learning, IoT, streaming de dados e vídeo, 5G e muito mais.

Os serviços no edge também utilizam um modelo serverless que podem incrementar esses benefícios e adicionar mais vantagens. A Cloud Native Computing Foundation em um whitepaper sobre serverless descreve a computação serverless como “um modelo de implementação refinado, onde as aplicações, agrupadas como uma ou mais funções, são implementadas na plataforma e depois são executadas, escaladas e cobradas de acordo com a demanda necessária no momento”.

A origem deste conceito remonta a 2012, quando Ken Fromm o usou pela primeira vez em seu artigo “The Future of Computing is Serverless”. Fromm explicou que isso não significa que não há servidores envolvidos, mas que os desenvolvedores não têm que implementá-los e gerenciá-los, nem mesmo provisionar recursos, porque os fornecedores assumem essas responsabilidades. Ele também afirmou que usar o modelo serverless “permite que os desenvolvedores mudem o foco dos servidores para as tarefas”.

Dessa forma, serverless é um modelo que abstrai o provisionamento e o gerenciamento da infraestrutura de servidores, assim como as capacidades de processamento e escalabilidade, automaticamente, de acordo com a demanda. Isso significa que, como desenvolvedor ou operador, você não deve gerenciá-los, configurá-los, executá-los ou mantê-los. Além disso, com os serviços serverless, você apenas paga pelos recursos que consumiu. Com a união do serverless com o modelo de edge, os servidores estão disponíveis em “qualquer lugar”, perto de onde seus serviços são necessários e prontos para serem utilizados no desenvolvimento, na criação ou na execução de aplicações e funções, com custos reduzidos e sem a responsabilidade do gerenciamento da infraestrutura.

Quais são as vantagens do edge?

  • Descentralização: com os edge nodes distribuídos geograficamente, a rede de edge abrange mais territórios e pode estar presente em mais locais, em comparação com cloud data centers centralizados.
  • Escalabilidade: o tamanho da rede e os recursos utilizados podem ser adaptados automaticamente, de acordo com a demanda.
  • Virtualização: os recursos podem ser virtualizados no edge, usando NFV, o que reduz custos, assim como a necessidade de gerenciar uma estrutura física.
  • Orquestração: os desenvolvedores podem implementar, gerenciar, controlar, monitorar e atualizar recursos no edge em tempo real, sem a necessidade de provisionamento, além de poder integrar outros serviços.
  • Automação: o uso de SDN facilita esses recursos, de modo que os desenvolvedores só precisam se preocupar com a criação e a execução de código e workloads no edge; sem provisionamento, manutenção ou tarefas operacionais.
  • Transmissão de dados e observabilidade: o modelo de edge computing oferece ferramentas para rastrear e monitorar todos os eventos e os comportamentos registrados em aplicações e redes. Isso permite melhores business insights e melhor entendimento do comportamento dos usuários.
  • Segurança: o provedor é capaz de criar um plano que inclui um perímetro de segurança multicamada, usando recursos como Web Application Firewall, Network Layer e DDoS Protection.
  • Padrões abertos: idealmente, uma plataforma de edge computing deve ser compatível com diferentes recursos, linguagens, equipamentos e que possa ser integrada com soluções de terceiros.
  • Modelo serverless: o provedor executa e gerencia os servidores e toda a infraestrutura, além dos recursos, o que elimina as tarefas de escalabilidade, planejamento e manutenção para desenvolvedores ou operadores.

A Plataforma de Edge Computing da Azion

A Plataforma de Edge Computing da Azion é composta por um amplo catálogo de produtos e módulos que oferecem a infraestrutura serverless que os desenvolvedores precisam para criar, executar e migrar suas aplicações para o edge, sem se preocupar com o gerenciamento. Além disso, tem alta disponibilidade, é tolerante a falhas, aberta, extensível e fácil de se conectar a qualquer serviço de cloud.

As funcionalidades da plataforma incluem todos os benefícios e vantagens de usar edge computing:

  • A Edge Network da Azion tem mais de 65 edge locations altamente distribuídas em todo o mundo.
  • Com Edge Functions, os desenvolvedores podem criar, gerenciar, configurar e executar suas aplicações serverless no edge da rede e permitir que a Azion escale automaticamente os recursos necessários.
  • Por meio do Load Balancer, você pode escolher entre vários algoritmos de distribuição e customizar regras para o balanceamento do tráfego, prevenindo a congestão da rede e o sobrecarregamento do servidor.
  • O Application Acceleration aprimora a performance das suas aplicações e APIs, sem ter que mudar sua infraestrutura.
  • Você também pode melhorar suas práticas de observabilidade com nossas ferramentas: Data Streaming, Edge Pulse, Real-Time Metrics, Real-Time Events.
  • Proteja suas aplicações, servidores e recursos contra inúmeros riscos, desde ameaças OWASP Top 10 até bad bots e ataques zero-day com o Edge Firewall.
  • Nosso perímetro de segurança multicamada e nosso Security Response Team (SRT) são as ferramentas adicionais que lhe oferecemos para impulsionar sua estratégia de segurança.

Você quer experimentar os benefícios da computação serverless agora mesmo? Tudo o que você precisa fazer é criar uma conta gratuita em nosso website para ganhar $300 em créditos para usar com qualquer produto da Azion.

Referências:

[1]Hopkins, B. & Staten, J. (2019) A Decoder Ring For Edge Computing: How To Interpret What “Edge Computing” Is And How It Creates Value. Cambridge, MA: Forrester Research.

[2]The LF Edge (2020) The New Open ”Edge”. San Francisco, CA: The Linux Foundation.