ANIC - Angie Ingress Controller#
Hoje vamos falar sobre o Angie Ingress Controller (ANIC) - uma solução da Web Server para simplificar o gerenciamento de tráfego no Kubernetes.


O Kubernetes é um sistema popular de orquestração de contêineres. Uma de suas tarefas é rotear solicitações para aplicações dentro deste sistema. Isso é realizado usando dois componentes: Ingress e Ingress Controller. O Ingress é um ponto de entrada para solicitações que ajuda a rotear e balancear o tráfego. No entanto, para que funcione, é necessário um Ingress Controller. Explicamos como o novo produto da Web Server, Angie Ingress Controller (ANIC), ajuda a simplificar o gerenciamento de tráfego no Kubernetes.
O Ingress Controller permite gerenciar proxy e balanceamento de carga de acordo com configurações especificadas. Quando as configurações mudam, o Ingress Controller recebe um sinal e reconfigura o Ingress com base nos novos dados. Assim, ganhamos a capacidade de gerenciar solicitações externas para aplicações executando no cluster Kubernetes modificando as configurações. O Ingress pode ser configurado para vincular URLs externas a serviços internos, fornecer balanceamento de tráfego e lidar com conexões SSL/TLS. Tipicamente, um servidor de proxy reverso é usado como Ingress.
Angie Ingress Controller (ANIC) suporta dois tipos de instalações: DaemonSet e Deployment.
Use Deployment se você precisar instalar uma única instância do Ingress Controller e alterar dinamicamente o número de instâncias. Use DaemonSet se você precisar instalar o Ingress Controller em cada nó do cluster.
O ANIC usa o servidor web Angie PRO como Ingress. É um dos servidores web mais poderosos do mundo. O Angie PRO aborda efetivamente as tarefas principais atribuídas ao Ingress. Uma multitude de configurações permite proxy flexível e a capacidade de gerenciar dinamicamente as configurações do grupo upstream via interface REST. Além disso, o Angie PRO atua como um balanceador de carga L4-L7.
Além dos recursos padrão do Angie PRO:
Permite a criação de servidores virtuais e possui numerosas configurações flexíveis.
Suporta o protocolo HTTP/2, permitindo aceitar conexões HTTP/2 no socket de escuta.
Suporta persistência de sessão (sticky sessions), garantindo que todas as solicitações dentro de uma sessão de cliente sejam vinculadas a um único servidor no grupo upstream.
A divisão de tráfego permite testes A/B e implantações canário.
Fornece estatísticas extensas e monitoramento em tempo real usando uma interface RESTful. Informações básicas do servidor são fornecidas em formato JSON, juntamente com estatísticas sobre conexões de cliente, zonas de memória compartilhada, consultas DNS, solicitações HTTP, caches de resposta HTTP, sessões do módulo stream, http_upstream e zonas de outros módulos.
Permite o gerenciamento dinâmico das configurações do grupo upstream via interface REST.
Para mais detalhes, você pode ler em nosso site.