Gerenciar grandes redes de computadores é uma tarefa que demanda tempo e planejamento. Quem é administrador de redes sabe o que é isso. Inserir novos ativos na rede e alinhar VLANs, ACLs, QoS, etc, requer, em grande parte dos casos, configurar múltiplos switchs e roteadores. Este gerenciamento vai ficando cada vez mais difícil e com respostas mais lentas à medida que a rede cresce.
Uma estratégia para tentar contornar a situação é automatizar o controle sobre estes equipamentos. Esse controle pode ser feito com aplicações que exigem investimento em desenvolvimento, já que não há uma padronização na forma de configuração e devido aos infinitos cenários que existem. Além dos problemas na gerência da rede, cada máquina possui o seu próprio software de configuração com os seus protocolos proprietários, fazendo com que empresas fiquem presas em alguma marca só para que o sistema interno consiga “conversar” com o hardware.
Em 2011, empresas como Google, Deutsche Telekom, Facebook, Microsoft, Verizon e Yahoo! criaram a “Open Networking Foundation” (ONF), uma instituição que tem o objetivo de se encarregar do avanço tecnológico de uma nova arquitetura de rede e de um novo protocolo de comunicação: SDN e OpenFlow.
As Redes Inteligentes ou SDN (Software-Defined Networking) permitem que a gerência da rede seja centralizada. Assim, a aplicação que controla a rede conhece toda a topologia, fazendo com que as decisões levem em consideração todo o conjunto.
A comunicação entre o controlador da rede e os ativos são feitas por meio do protocolo aberto de comunicação OpenFlow. Caso o ativo de rede possua suporte ao protocolo, é possível configura-lo remotamente. Esse procedimento acaba com um grande problema das empresas: a escravidão das marcas. A compra de um novo equipamento tem como pré-requisito (além das configurações de hardware para atender o fluxo de dados) a compatibilidade com o OpenFlow.
A arquitetura da SDN é separada em 3 camadas: Application, Control e Infrastructure.
Na Application Layer, a visão global da rede é abstraída, tornando a gerência em um nível mais de negócios do que técnico. Um exemplo de configuração nesta camada é do tipo “entre o host A e o host B deve haver comunicação com 20Mbps”. Ponto. Como isso vai acontecer? Isso não é tratado nesta camada. A Application Layer, por meio de APIs, envia seu pedido para a Control Layer.
Dentro da Control Layer, sistemas como o HP VAN, Floodlight, NOX, etc., tomam decisões baseado em um grafo da rede, diferente dos controles distribuídos comumente encontrados nas redes convencionais. Estes sistemas recebem os desejos da camada de aplicação, processa a informação e, conforme a visão global do grafo da rede, sabe quais são os switchs e/ou roteadores da rede que precisam de novas instruções. Neste momento, entram os protocolos de comunicação, como OpenFlow. Ele pode ser considerado, para fins didáticos, uma camada entre a Control Layer e a Infraestructure Layer, “traduzindo” os comandos do sistema operacional de rede para o protocolo OpenFlow e repassando as instruções para cada equipamento. A informação que é repassada tem a característica de uma tabela de roteamento.
A Infrastructure Layer contém os switchs e roteadores que recebem as instruções da Control Layer. Estes equipamentos são diferentes dos switchs e roteadores convencionais. A parte inteligente do equipamento é desacoplada, ficando somente o data plane, ou seja, somente a parte “mecânica” do redirecionamento. Podemos comparar o equipamento com um disco formatado. Há somente um pequeno sistema responsável por receber as instruções e aplica-las. Esta separação reduz o custo do equipamento, já que os diversos protocolos, proprietários ou não, ficam na Control Layer. Outro benefício deste tipo de equipamento é que como o protocolo é aberto (no caso do OpenFlow), não interessa mais a marca do equipamento, somente as características do hardware.
Esta nova arquitetura de rede permite não só o gerenciamento centralizado, mas também a automatização de processos. O processo de criação de máquinas virtuais pode criar também vlans, acls, rotas, etc., tudo de forma automatizada.
Mas nem tudo são mil maravilhas. Caso um hacker tome conta do servidor que controla a rede, ele pode fazer qualquer coisa com o fluxo de dados. Esta brecha na topologia pode ser mitigada, mas é necessário levar em consideração na hora do planejamento. A parte de segurança da rede as vezes é deixada de lado quando os prazos não são definidos por quem coloca a mão na massa.
Existe também uma sutileza nas SDNs que é o conceito de fluxo. As redes convencionais são mais atreladas aos pacotes e frames, não ao fluxo. Podemos comparar esta evolução da rede com o uso do IPv6. É muito comum ver engenheiros de rede planejando o uso do IPv6 igual ao seu antecessor IPv4, mas não aplicam outros benefícios que o IPv6 traz. É fácil encontrar, por exemplo, tentativas de se usar NAT, quando um dos focos do novo protocolo é a conexão fim a fim. Análogo a isso, haverá muitos esforços para se deixar a rede exatamente como era, só que com o controle centralizado. É comum, mais cômodo e também funciona, mas a tecnologia precisa ser, no mínimo, estudada e compreendida por completo.
E o administrador de redes? Onde ele fica agora? Bem, o profissional responsável pela rede precisa também de um treinamento. Neste novo cenário, ele é também um programador e o seu papel pode ser moldado de acordo com a infraestrutura do local.
O uso das SDNs e todos os benefícios que elas trazem vão ofuscando e resolvendo problemas que vão surgindo à medida em que se vai usando. Não há tecnologia que surja e não tenham uma evolução à medida em que o mercado absorve.
Eduardo Fontinelle é graduado em Ciência da Computação pela Universidade Federal de Lavras (UFLA). Trabalha na Efí desde 2012, onde já desempenhou as funções de desenvolvedor web, suporte técnico e administrador de redes. Possui experiência em servidores linux, redes de computadores, segurança computacional, virtualização e base de dados. Atualmente, coordena a equipe de TI e é membro do CSIRT interno.
Escrito por
Eduardo FontinelleEduardo Fontinelle é graduado em Ciência da Computação pela Universidade Federal de Lavras (UFLA). Trabalha na Gerencianet desde 2012, onde já desempenhou as funções de desenvolvedor web, suporte técnico e administrador de redes. Possui experiência em servidores linux, redes de computadores, segurança computacional, virtualização e base de dados. Atualmente, coordena a equipe de TI e é membro do CSIRT interno.
Ver mais postagens deste autorCompartilhe nas redes:
Cadastre-se para receber os melhores conteúdos exclusivos sobre tecnologia de pagamentos e gestão, para alavancar de vez os seus negócios.