78 minute read
ISP em Foco
SCM x SVA
O tema SCM – Serviço de Comunicação Multimídia x SVA –Serviço de Valor Agregado fez parte de um relatório que apresentei em 9 de agosto de 2021 na reunião do CPPP – Comitê de Prestadoras de Pequeno Porte na Anatel. O grupo em questão reúne diversas associações de operadores de SCM, além de técnicos da Anatel e do Ministério das Comunicações.
A apresentação de um tema tão importante no modelo de negócios dos provedores de acesso à Internet causou repercussão na equipe do Ministério das Comunicações, o que gerou uma outra reunião com o Ministério e parceiros como a Teleco e o BID - Banco Interamericano de Desenvolvimento, que estavam em um processo de entrarem em um parecer definitivo do tema.
O significado e a abrangência do SCM são relativamente pacíficos. Ele é a parte de telecomunicações necessária para servir de base ao acesso à Internet. Ainda assim, alguns têm dúvidas, especialmente depois de editada a Resolução da Anatel 614/2013, onde inseriram que o SCM também pode prestar o serviço conhecido como PSCI Provedor de Serviço de Conexão à Internet, o que é redundante, pois nunca uma empresa prestadora de SCM foi proibida de prestar qualquer outro tipo de SVA.
A inclusão na Resolução 614/2013 tinha um outro propósito, que era obrigar as grandes operadoras PMS – Prestadoras com Poder de Mercado Significativo, na realidade três empresas apenas, a prestar o serviço de PSCI de forma gratuita. No entanto, isso somente seria possível se estivesse declarado nas possibilidades de prestação do SCM, uma vez que a Anatel não legisla sobre SVA, e a única forma de obrigar essa gratuidade era inserir um tipo de SVA dentro do SCM.
Apesar de a Resolução 614/2013 ser bastante clara ao determinar que o SCM podia inclusive prestar PSCI, não dizia que o PSCI agora faria parte do SCM, mas que se o prestador de SCM quisesse poderia também prestar o PSCI. Outro efeito perverso dessa resolução foi dar a impressão de que o PSCI não valia nada, uma vez que podia ser fornecido de graça por conta da mesma resolução.
Afinal de contas, o que é o PSCI? Ele realmente existe? A resposta é sim, e vou explicar em detalhes técnicos logo abaixo.
Funcionamento do PSCI
Autenticação
Na época do acesso discado, após o processo de discagem efetuado pelos programas discadores embutidos desde o Windows 98, os modems de ambas as pontas (assinante e provedor) estabeleciam a comunicação básica (chamada de handshake, ou “aperto de mãos”), o sistema operacional do computador do cliente (Windows em sua maioria) iniciava a negociação de um protocolo ponto a ponto com o equipamento atendedor do provedor chamado de RAS Remote Access Server, também conhecido como PPP - Point-toPoint Protocol.
Durante a negociação do protocolo ponto a ponto, o RAS recebia do discador do cliente os dados de usuário e senha e os encaminhava para um sistema de gestão, geralmente utilizando programas de autenticação, cujo nome ficou mundialmente conhecido na comunidade técnica de provimento de acesso à Internet por seu acrônimo RADIUS - Remote Authentication Dial In User Service, cuja finalidade é validar as credenciais de um determinado usuário (login + senha) e responder ao RAS com os parâmetros necessários ao processo de autenticação, seja a negativa ou a positiva, com parâmetros necessários à configuração da conexão, tais como endereço IP a ser utilizado, velocidades de downlink e uplink, rotas específicas, etc.
Nada mudou no processo de discagem com os acessos banda larga. No caso de conexões diretas via computadores ou notebooks, ambos continuam “discando” para obter a conexão com a Internet através dos mesmos programas discadores, porém ao invés de utilizarem um modem para fazer a “discagem”, o protocolo ppp evoluiu e passou a ser encapsulado em outra camada para ser transportado pelas conexões de rede Ethernet (placa de rede) ou Wi-Fi do computador. Essa nova versão do protocolo ponto a ponto sobre a Ethernet é denominada PPPoE - Point-to-Point Protocol over Ethernet, exatamente a mesma conexão ppp utilizada nos tempos da linha discada, com os mesmos protocolos internos de controle, compressão, encriptação, etc., com a diferença que passou a ser executado sobre a porta de rede ao invés da serial onde o modem estava conectado.
Na ponta do provedor, da mesma forma que o antigo RAS era conectado aos modems de linha telefônica, existe também um RAS para “atender” as solicitações PPPoE do discador do cliente, que por sua vez envia as credenciais de autenticação para o mesmo software RADIUS que faz os mesmos processos de validação do usuário e responde igual a forma anterior. O processo de conexão via roteador no cliente é idêntico ao descrito acima.
Utilização do serviço
Para a “navegação” na Internet é preciso primeiramenteque o PSCI tenha conectividade com a rede
mundial de Internet. Em suma, que o PSCI tenha adquirido no atacado conexões à Internet para poder oferecê-las no varejo para seus usuários.
A Internet, para que possa efetivamente ser utilizada, não basta apenas ter feito a autenticação do usuário e ter conexões contratadas para permitir o acesso ao restante da rede mundial; existem muitos outros serviços técnicos fundamentais para que tudo funcione.
Um dos principais recursos é o roteamento de pacotes, efetuado através de roteadores de grande capacidade, que permite direcionar as rotas que os pacotes devem seguir, determinando por onde deve sair e as regras de preferências. Esse recurso permite, por exemplo, que o usuário acesse o conteúdo de streaming do servidor de CDN mais próximo (que pode ser até dentro do PSCI) e não de um servidor localizado no outro lado do planeta.
Além desses recursos, o PSCI também precisa de sistemas administrativos e bancos de dados inclusive para manter logs de conexão e atender a legislação existente. O PSCI é apenas um dos possíveis serviços de SVA que pode ser prestado. Pela descrição acima, nota-se que é um serviço efetivo, tem um custo considerável e não deveria ser menosprezado.
Basílio Rodriguez Perez é conselheiro de administração da Abrint, presidente do LACISP, membro do Comitê de Prestadoras de Pequeno Porte, Conselheiro Deliberativo do Atacado e Diretor de Operações em Provedor de Acesso à Internet.
Impactos da Covid-19 na operação e manutenção de data centers
A pandemia da Covid-19 mostrou que os planos de contingência, continuidade de negócios e recuperação de desastres dos data centers devem passar a considerar também questões sanitárias, incluindo seus efeitos e as ações necessárias para o caso de novos lockdowns. As lições do momento atual servem para preparar os data centers para enfrentar crises futuras, corrigir falhas e implementar melhorias na operação e manutenção.
Lucas Cusinato, engenheiro de infraestrutura em data center
Vivemos em um mundo onde quase todo modelo de negócio é baseado, ao menos parcialmente, no uso da Internet. No Brasil, de 2000 a 2018, o percentual da população com acesso à Internet passou de 3% a 70%, conforme pesquisa da Statista [1]. A Ericsson, por sua vez, estima que, com a consolidação da tecnologia 5G, a quantidade de dados utilizados por dispositivos móveis no mundo irá crescer cinco vezes até 2025 [2].
Todas as operações citadas são sustentadas e abrigadas por data centers, que hospedam serviços cujos prejuízos decorrentes de downtimes são enormes, justamente pela crescente demanda de usuários por serviços online. Essa estrutura física é tão importante quanto os próprios servidores, pois determina grande parte do nível de disponibilidade e resiliência do site.
Segundo Paulo Marin, por serem responsáveis pelo processamento de informações cruciais para a continuidade dos negócios, data centers são considerados ambientes de missão crítica. As condições de operação devem ser mantidas ininterruptamente a fim de não causar paradas dos serviços [3].
Os data centers ganharam ainda mais importância em 2020, visto que a pandemia de Covid-19 obrigou o mundo inteiro a se recolher e fez crescer de forma súbita e significativa o uso da Internet para manter os demais negócios em operação. Atividades como reuniões por teleconferência, aulas online e acessos a servidores remotos aumentaram o uso das redes de comunicação e, por consequência, a necessidade de alta disponibilidade dos sites onde são hospedados esses serviços. Com as atividades econômicas sustentadas por trabalho remoto, um data center em operação adequada se tornou crucial à manutenção da economia em muitos setores.
Evidentemente, o nível de manutenção e operação de facilities em uma situação de crise deve estar de acordo com o plano de negócio que o rege. Conforme apontado anteriormente, um período de downtime implica prejuízos consideráveis para alguns dos clientes desses serviços.
Dessa forma, os trabalhadores dos data centers pertencem ao grupo cujos serviços podem ser considerados essenciais. Por ser de missão crítica, o setor não pode abrir mão de seus técnicos e operadores em campo, especialmente os responsáveis pela manutenção e operação de facilities ou instalações, pois o trabalho é diretamente na infraestrutura física, a fim de manter os serviços prestados em plena operação.
Ambientes de missão crítica têm, por padrão, procedimentos emergenciais e planos de continuidade de negócio bem definidos. Porém, a crise sanitária trouxe efeitos inéditos, para os quais
gestores e seus planos de contingência não estavam plenamente preparados. A capacidade exemplar de recuperação de desastres e de resiliência, não se aplica diretamente à situação em questão: a necessidade de quarentena em massa para evitar a propagação descontrolada da doença. Proteger os seus trabalhadores, famílias e a população local e, concomitantemente, manter o nível do serviço prestado pelas instalações críticas, se tornou um dilema inexistente até então.
Os serviços de operação e manutenção tornaram-se um ponto ainda mais crucial no gerenciamento dos sites, uma vez que a estratégia de manter a equipe técnica no local, que sempre foi priorizada, sofreu um impacto grande. A conciliação dos planos de atividades presenciais e contingência para redução de pessoal é o ponto a ser primeiramente avaliado, visto que os trabalhadores são os agentes mais diretos do funcionamento adequado desse tipo de instalação.
Além disso, a própria organização dos data centers deve ser alvo de uma revisão emergencial, permitindo desde uma avaliação da documentação de processos até as próprias instalações e procedimentos mais diretamente ligados aos serviços de manutenção e operação, como projeção de orçamentos, falhas de cadeias de fornecedores, capacidade de atendimento de assistência técnica e análise de níveis de redundância, considerando alterações temporárias e paliativas diversificadas.
Por fim, é importante estudar mudanças organizacionais e contratuais, além de incluir na avaliação novos investimentos e tecnologias que permitam uma melhor resposta das equipes de gestão e atuação dos responsáveis diretos pela manutenção de operação durante um novo período de crise.
É preciso, portanto, avaliar os impactos imediatos nos processos atuais da organização e possíveis melhorias em relação a diversos aspectos que fazem parte da operação do data center, além de aproveitar o momento de mudança para promover alterações mais profundas no negócio a fim de preparar os ambientes para manter a alta disponibilidade em desafios futuros. Desenvolvimento
Data centers hoje são a base da comunicação entre as mais diversas localidades do mundo e sustentam praticamente todo tipo de negócio. Portanto, sua operação afeta não somente a sua própria organização, mas toda uma cadeia de valores que torna muito altos os custos de um downtime
Segundo a IBM, um plano de continuidade é o documento que descreve como o negócio poderá se manter operacional em caso de algum incidente, norteado por três pontos principais: alta disponibilidade, operação contínua e recuperação de desastre. Com maior ou menor impacto, um aspecto comum a todos os itens é a necessidade de ter uma equipe de operação e manutenção residente no site para garantir que os serviços operem normalmente.
Assim, fica ainda mais clara a importância da qualificação e capacitação adequada das equipes responsáveis por data centers. Conforme colocado por Eduardo Sousa [4], um levantamento do Uptime Institute mostrou que, até março de 2015, quase um terço dos
incidentes foram evitados pela presença de uma equipe técnica no local. Ao considerar o programa de manutenção, executado pela equipe técnica especializada, a parcela de incidentes evitados sobe para 42% [5] (figura 1). Contudo, a atual conjuntura de pandemia trouxe um complicador, com o confinamento das pessoas em casa. A medida vai no sentido oposto aos planos de contingência dos data centers, que demandam pessoas no local para mantê-los em operação. Impactos na equipe Um time bem treinado e capacitado é essencial para a manutenção e operação de ambientes críticos como data centers. Seus trabalhadores podem, na maioria dos casos, ser classificados como funcionários de atividade essencial, principalmente considerando o crescimento da importância deste ramo, e o aumento do tráfego da Internet para a manutenção dos diversos negócios ao longo da pandemia. A força de trabalho profissional de data centers deve, pois, ser mantida em trabalho presencial na maioria dos casos. Justamente devido à importância das pessoas para Fig. 1 – Causa raiz de incidentes [4] a continuidade do negócio. Uma série de medidas podem garantir um nível de segurança adequado aos empregados, manter a equipe disponível para o serviço e proteger todos os indivíduos direta ou indiretamente relacionados com o espaço de trabalho. Conforme citado por Oliver Schmidt [6], é importante que a equipe tenha a percepção de que é valorizada, principalmente no momento delicado da pandemia. As necessidades pessoais devem ser consideradas para permitir que o corpo técnico se sinta seguro. Também é crucial uma comunicação adequada tanto com as equipes de manutenção e operação quanto com clientes, fornecedores e demais
parceiros, conforme orientação do artigo Pandemic Planning, do Uptime Institute [7]. Sempre com informações oficiais de fontes confiáveis, os funcionários devem ser mantidos atualizados acerca das situações local e global envolvendo a pandemia, evolução dos planos de contingência e recuperação da organização em relação ao negócio e à operação do data center.
Riscos desnecessários devem ser evitados para garantir a segurança da equipe. Atividades que não sejam indispensáveis e com potencial de aumentar o risco de contaminação devem ser canceladas ou postergadas até um momento mais seguro ou até que o serviço seja imprescindível. Porém, como o trabalho é contínuo, manter o ambiente físico seguro também é essencial para garantir condições adequadas, pois oferece maior tranquilidade ao pessoal para exercer as atividades necessárias e reduz o risco de erro humano nos procedimentos. Para isso, a principal medida é manter ou, se possível, melhorar a higiene geral dos ambientes e garantir um nível elevado de conscientização dos empregados quanto aos procedimentos recomendados. Além disso, trânsito de pessoas que não tenham relação com o trabalho de manutenção ou operação do data center deve ser evitado ao máximo e, para isso, a política de controle de acesso deve ser revisada para garantir um rigor maior nesse aspecto.
Em muitos lugares, houve períodos de reclusão obrigatória da população por decreto dos governos locais, o chamado lockdown. Nesses momentos, os trabalhadores de serviços considerados essenciais possuem autorização especial para transitar em função do trabalho. Em casos assim é importante que a organização garanta, junto à administração local, a permissão para o deslocamento dos seus funcionários.
Impactos no negócio
Apesar das reconhecidas resiliência e capacidade de recuperação de disrupturas dos data centers, é inegável que a pandemia de Covid-19 tem tido impactos expressivos nos serviços prestados. Até mesmo pela possibilidade de novas ondas de contágio da doença atingirem o planeta em locais que já haviam relaxado suas restrições, a chave para manter o nível de serviço padrão é estar preparado. Dessa forma, algumas medidas ainda podem ser implementadas para que as consequências sejam minimizadas para os serviços de data center, principalmente enquanto o período ainda é de incertezas quanto à longevidade da doença e das medidas restritivas de combate.
A primeira recomendação mais importante [7] é a de procedimentos e políticas que determinam as diretrizes da organização, para garantir que a documentação esteja completa, assertiva e atualizada, como regras de operação básicas e emergenciais, plano de recuperação de desastre e continuidade de negócio e acordos de nível de serviço. Também é preciso considerar a possibilidade de elaborar novos processos para treinar a equipe residente e os fornecedores que atendam o site de forma presencial em virtude das restrições sanitárias temporariamente impostas. Outra medida do documento do Uptime Institute é a de avaliar a possibilidade de ocorrência de interrupções nos serviços de apoio às operações do data center, tanto interna como externamente.
Internamente, deve ser considerada, além da atenção à saúde e às condições de trabalho das equipes residentes, a possibilidade de cortes no orçamento da organização, pois durante a pandemia muitas receitas podem ser reduzidas.
Deve-se, portanto, revisar o plano de compras da área, priorizando as aquisições destinadas à manutenção dos sistemas críticos existentes ou à implantação de procedimentos emergenciais.
Externamente, a cadeia de fornecimento também pode ser afetada por fatores como baixa produção, dificuldade de escoamento ou até mesmo falta de produtos pela elevação do nível de estocagem dos demais compradores, como apontou Simon Harris [8]. Assim, é importante deixar aberto um canal de comunicação com os principais fornecedores para manter atualizadas as informações e avaliar a possibilidade de antecipar aquisições consideradas críticas para o site. Aumentar temporariamente o estoque de combustível para geradores e de peças de equipamentos essenciais, por exemplo, é uma ação que deve ser considerada.
Segundo o Uptime Institute [7], pode ser interessante revisar o calendário de manutenções dos sistemas críticos do data center. Pelo risco de falta de suprimentos, é importante antecipar os serviços em sistemas essenciais à operação do site e reordenar o plano de atividades, priorizando aquelas que envolvam maior criticidade à organização.
Concomitantemente, deve-se certificar de que as redundâncias projetadas para os diversos sistemas do data center estejam operacionais e que sejam suficientes para manter o nível de serviço proposto. Em caso negativo, recomenda-se tomar ações alternativas que possam assegurar a disponibilidade dos serviços.
Ademais, é importante investir em um nível adequado de monitoramento ou gerenciamento remoto. Um sistema de controle automatizado remoto é capaz de reduzir significativamente a presença de pessoal técnico no site, mitigando ainda mais o risco de contaminação da equipe. Não sendo possível, recomenda-se implantar algum método que permita o acompanhamento dos sistemas de fora do data center, para que as informações mais relevantes sejam acessíveis aos profissionais interessados, garantindo uma diminuição importante na circulação de pessoas. Contudo, convém considerar que a comunicação via Internet também pode sofrer interrupções e, portanto, deve haver planos de contingência adequados em caso de suspenção do trabalho remoto.
Outra sugestão é pesar o custo das medidas para manter o data center em plena operação em relação aos benefícios de migrar os serviços para outro tipo de solução tecnológica, principalmente para organizações menos resilientes e mais suscetíveis aos impactos das medidas restritivas. No caso, a troca de um site proprietário por alternativas como colocation ou nuvem pode ser vantajosa.
Conforme descrito por Daniel Reck [9], enquanto data centers tipo enterprise têm
implicações orçamentárias diretas e indiretas, como a preocupação com segurança patrimonial e da informação, manutenção e operação, equipamentos caros e peças, pessoal técnico qualificado e o gerenciamento de todas as atividades em conjunto, o uso de soluções de nuvem e serviços como SaaS – Software as a Service, PaaS – Platform as a Service ou até IaaS– Infrastructure as a Service podem transferir essas execuções, em maior ou menor parte, para terceiros mais preparados para atender as demandas.
Planejamento de longo prazo
A Covid-19 é a primeira doença a causar, em cerca de um século, uma crise sanitária mundial cujas consequências têm sido disruptivas para a sociedade, como aponta Simon Harris [8], e para as quais a maioria das organizações não estava preparada. Segundo ele, as medidas adotadas para conter o avanço do vírus, apesar de necessárias, provocaram graves resultados em diversos setores econômicos e salientaram a importância da Internet e das diversas plataformas baseadas em web, essenciais para comunicação e a continuidade dos negócios. Como exemplo, o Microsoft Teams registrou um salto no número de usuários de 20 milhões em novembro de 2019 para 75 milhões em abril de 2020 e para 115 milhões em outubro de 2020, um crescimento de 475% em menos de um ano.
Ainda segundo Harris [8], a demanda por capacidade de data center é crescente, independentemente do impulso causado pela pandemia. A transformação digital dos negócios, acelerada pela crise, já estava em curso, e aplicações como IoT - Internet das Coisas e IA - Inteligência Artificial também têm se difundido, aumentando o tráfego de dados na rede e o nível de processamento dos dispositivos. A necessidade por instalações resilientes e de alta disponibilidade continuará crescendo. Dessa forma, é preciso estar preparado para outras eventuais crises que possam impactar ainda na economia global. É possível que a Covid-19 se torne endêmica e sazonal, ou seja, localizada em certas regiões e com ondas de contaminação mais determinadas, por um período considerável [7]. Além disso, a crescente globalização sinaliza que outras pandemias e crises mundiais podem ocorrer com uma frequência maior. Se essa pandemia foi a primeira em 100 anos, é importante observar as lições do momento para se preparar para as possíveis crises futuras, corrigindo as falhas observadas e implementando melhorias.
Toda a documentação de procedimentos, planos, políticas e diretrizes das organizações deve ser revisada para o longo prazo, assim como sugerido para o enfrentamento imediato da crise, porém com maior profundidade e uma visão de futuro
HIPERCONVERGÊNCIA NA INTERNET RURAL
Parceria entre Norte.Net, ID Corp, Cisco e ScanSource impulsiona mercado de ISPs.
Santana do Araguaia, cidade localizada no Estado do Pará, é onde fica a sede da empresa Norte.Net, referência na região quando se fala em ISPs. Pensando em levar internet para regiões de mais difícil acesso, o segmento do agronegócio sempre foi o foco da empresa.
Desde 2015, a Norte.Net leva internet por radiofrequência ao segmento B2B, focando em lugares onde as grandes operadoras não enxergavam oportunidade. Foi através desses serviços e desse olhar abrangente, que a Norte.Net impulsionou o agronegócio local, desde o pequeno produtor até usinas e fábricas.
Há dois anos, em 2019, foi identificada uma necessidade de novas tecnologias para entrega de Wi-Fi aos assinantes e uma atualização dos servidores do Data Center, então se iniciou uma parceria com a ID CORP.
Atualmente, é a ID Corp quem gerencia toda a rede centralizada em Santana do Araguaia e, visando melhorias nas entregas, apresentou as soluções disponíveis e, entre elas, a Hiperconvergência Cisco – onde foi constatado que teria melhor custo-benefício. Assim, juntamente com a ScanSource, que já era parceira da ID CORP, foi desenhado um projeto que se adequou bem à necessidade da Norte.Net.
O projeto
Um dos maiores problemas era o gerenciamento descentralizado, falta de espaço para armazenamento de log, servidores antigos e alto gasto com consumo de energia. Além de muitos chamados por instabilidade na rede e lentidão. Com a solução de Hiperconvergência Cisco, houve uma queda drástica nos números de chamados de manutenção para o provedor, redução do custo com energia elétrica e diminuição de suporte aos servidores. O que encantou a empresa foi o fato do gerenciamento da ferramenta ser simples e centralizada para melhor visualização da operação através dos relatórios de gerência.
“Foi visível a evolução nos serviços após a implementação da solução que foi feita rapidamente em três dias. O negócio cresceu de forma geral, pois a qualidade na prestação do serviço aos clientes melhorou muito e, consequentemente, o custo da operação diminuiu. Assim, foi possível focar na ampliação da rede disponibilizando novos serviços como o sistema de TV, ao invés de resolução de problemas internos e suporte ao cliente”, afirma Jakson Ribeiro, CEO da Norte.Net Telecom. A Norte.Net é uma das primeiras empresas da região a ofertar esse tipo de solução inovadora de ISPs, onde o gerenciamento de rede é detalhado e os clientes ganham tempo e otimização nos serviços.
Sobre a Solução Cisco Hyperflex
A Hiperconvergência Cisco que foi implementada na Norte.Net em parceria com a ID CORP e ScanSource, coloca em uma rede integrada servidores de diferentes localizações físicas, com uma única gerência de software. É a primeira plataforma de hiperconvergência do mercado projetada com uma infraestrutura definida por software de ponta a ponta que elimina os comprometimentos encontrados em produtos da primeira geração. Tornando assim, a resolução de chamados muito mais rápida, pois o cliente consegue atender da matriz os chamados de diferentes sites.
Confira o conteúdo completo: www.youtube.com/watch?v=KEyx7_hKago
Entre em contato com a ScanSource: bianca.andako@scansource.com
mais abrangente. Planos de contingência, de continuidade de negócios e recuperação de desastre dos data centers devem passar a considerar questões sanitárias, incluindo o efeito esperado e as ações necessárias para o caso de novos lockdowns e surtos endêmicos em suas instalações. Esses fatores também devem ser considerados nos contratos firmados com clientes e fornecedores, principalmente no que se refere ao nível de serviço acordado.
O nível de resiliência e disponibilidade é outra recomendação importante. Apesar de incorrer em elevação de custos, a crise atual demonstrou na prática a importância de uma instalação bem mantida, operada e com nível de disponibilidade adequado ao negócio. Elevar o nível de redundância das instalações, como uso de fontes duais, dispositivos redundantes e maior estoque local de spare parts, é uma medida importante para os gestores de ambientes de missão crítica.
Outro ponto que se mostrou bastante relevante no período mais crítico da pandemia, devido à necessidade de reclusão e isolamento sociais, foi o uso de ferramentas de monitoramento, operação e gerenciamento remoto, o que permitiu a implantação de teletrabalho para parte das equipes responsáveis pelos data centers. Juntamente com operadores bem treinados e qualificados, o controle a distância é capaz de garantir a execução de boa parte da coordenação do data center sem a necessidade da visita presencial. O que inicialmente pode ser considerado um custo elevado e secundário pode fazer grande diferença para manter o funcionamento adequado dos sistemas e a equipe presencial segura, permitindo ainda corte de gasto com ambiente de escritório e deslocamentos.
Por fim, se a migração de serviços para nuvem não for considerada viável no período de pandemia, é válido retornar a essa avaliação num momento posterior. As medidas de contingência e de enfrentamento de crises tendem a ser mais rigorosos no futuro. É um movimento que deve ser bem estudado e planejado de acordo com as diretrizes da organização e em consonância com as tecnologias e métodos atualmente utilizados na operação e gerenciamento do site [10]. Por enquanto, apenas 20% dos gestores de data center pretendem acelerar o processo de mudança para nuvem pública devido à pandemia.
Conclusão
A importância econômica e social dos data centers ficou ainda mais evidente com as medidas de isolamento e quarentena impostas pela pandemia da Covid-19. Os negócios se tornaram ainda mais dependentes da Internet para continuar em operação.
Os data centers passaram a demandar maior responsabilidade também para as equipes responsáveis pela manutenção e operação desses ambientes. Assim, mesmo em um período de restrição social, os colaboradores devem ser mantidos, ao menos em um quantitativo mínimo, para continuar oferecendo serviços com qualidade. Diversas medidas de proteção das pessoas e do ambiente devem ser tomadas para que as equipes possam exercer suas funções com segurança e garantir a operação do data center.
As diretrizes e a infraestrutura têm também grande importância para a disponibilidade do data center. Em momentos de crise, a documentação é essencial para o direcionamento das ações e medidas a serem executadas. Por se tratar de um momento sem precedentes no setor de TI, poucas organizações se encontravam preparadas para uma crise sanitária, o que demanda uma revisão dos planos, políticas e procedimentos.
Revisar também as instalações físicas para garantir os níveis de resiliência e disponibilidade esperados é uma recomendação essencial para que o site se mantenha operacional em caso de cortes, que podem ser de pessoal qualificado, orçamento ou fornecimento de suprimentos. Uma medida bastante eficiente para suportar lockdown ou afastamentos por saúde é implementar um sistema de monitoramento ou gerenciamento remoto, facilitando inclusive a implantação do teletrabalho para as funções adequadas.
O cenário atual deve, também, servir de inspiração para melhorias nas
organizações. Assim como esta, outras crises de natureza inesperada podem ocorrer, inclusive com maior frequência, devido à globalização. Portanto, é interessante repensar as políticas e diretrizes das organizações e reavaliar termos de contratos de fornecimento e os acordos de nível de serviço para que, em caso de novas interrupções tão repentinas e severas, todas as partes estejam minimamente resguardadas.
Aumentar a resiliência e a disponibilidade das instalações também é uma recomendação pertinente, assim como o investimento em soluções de gerenciamento remoto já citadas. Juntamente com a equipe adequada e bem qualificada, esses cuidados são essenciais para manter a operação do data center nos piores períodos de crise. Até mesmo a migração de dados ou serviços para colocation ou nuvem pode ser uma estratégia interessante para cortar gastos e preocupações com os próprios sites.
Mesmo sendo um setor reconhecido pela capacidade de resiliência, a indústria de data centers não estava completamente preparada para uma crise sanitária global como a pandemia de Covid-19. Contudo, ao enfrentá-la, as organizações podem transformar as dificuldades em lições aprendidas, reavaliar suas políticas e se antecipar tanto a novas crises quanto ao já previsto aumento da demanda de capacidade pela evolução tecnológica.
REFERÊNCIAS
[1] Statista. Percentage of Populations Using the Internet in Brazil from 2000 to 2018. Disponível em: https://bit.ly/3BdFSkk. [2] Ericsson. Mobile Data Traffic Outlook In: Ericsson Mobility Report [S.1]. Disponível em: https://bit.ly/3FmfJCw. [3] Marin, Paulo Sérgio. Data Centers Engenharia: Infraestrutura Física. PM Books, 2016. [4] Sousa, Eduardo. Os Benefícios do Investimento na Capacitação Profissional da Equipe de Manutenção e Operação de Data Center. Disponível em: https://bit.ly/3oBSNHK. [5] Van Loo, Richard. Proper Data Center Staffing is Key to Reliable Operations. Uptime Institute. Disponível em: https://bit.ly/ 3a7uCu7. [6] Schimidt, Oscar. Crisis Communnication - Effective Employee Communication in the Time of Covid-19. Seminário virtual. 24 de Agosto de 2020. [7] Uptime Institute. Pandemic Planning and Response: A Guide for Critical Infrastructure. UI Intelligence Report, [S. l.]. [8] Harris, Simon. The Future of Data Centers in a Post Covid-19 World. Datacenter Dynamics. Disponível em: https://bit.ly/ 3BqRAbi. [9] Reck, Daniel. Data center ou cloud? O que muda para a sua empresa em meio à pandemia de Covid-19. O Povo. Disponível em: https://bit.ly/3mqcuRQ. [10] Lawrence, Andy. Will the Pandemic Accelerate the Move to Public Cloud?. Journal Uptime Intitute. [S.l.],. Disponível em: https://bit.ly/3iwqTun.
Artigo resumido e adaptado do TCC - Trabalho de Conclusão do Curso de Especialização em Datacenter: Projeto, Operação e Serviços, da Universidade do Sul de Santa Catarina. Orientador: Prof. Djan de Almeida do Rosário.
O que é a SD-WAN? Definição e soluções
Até recentemente, o MPLS tem sido a principal solução para conectar filiais à rede central das empresas. Mas para um cenário com transformação digital em curso, as conexões MPLS são muito rígidas e não se adaptam bem às redes dinâmicas e virtuais de hoje. A SD-WAN, ao contrário, permite a criação de uma rede flexível, resiliente e segura que os negócios digitais de hoje exigem.
As soluções de rede de área ampla definidas por software (SD-WAN) transformam os recursos da empresa utilizando a WAN corporativa e também a conectividade multinuvem para oferecer um desempenho de alta velocidade para as aplicações na borda WAN das filiais. Um dos principais benefícios da SD-WAN é que ela oferece uma seleção dinâmica de caminhos entre as opções de conectividade, MPLS, 4G/5G ou banda larga, permitindo que as organizações acessem, com rapidez e simplicidade, as aplicações de nuvem vitais para os negócios.
As soluções de SD-WAN têm se tornado cada vez mais populares à medida que as organizações buscam conectividade rápida, escalável e flexível entre diferentes ambientes de rede, e tentam reduzir o TCO - custo total de propriedade, preservando a experiência do usuário. No entanto, a solução errada pode inibir muito a capacidade de adaptação rápida da organização às mudanças nas demandas comerciais, até porque gera novos problemas de segurança.
Como funciona a SD-WAN
A solução de SD-WAN conecta o usuário a qualquer aplicação, onde quer que ela esteja, do data center à nuvem. Define de forma inteligente qual caminho melhor atende às necessidades de desempenho ideais de um aplicativo específico. Então, ela roteia o tráfego através do caminho ideal pela WAN, enquanto as arquiteturas de WAN tradicionais só têm a capacidade de rotear todos os aplicativos por MPLS. Veja a seguir algumas características que definem como uma solução de SD-WAN funciona e evoluiu a partir da infraestrutura de WAN. Reconhecimento de aplicativos
Com as soluções de WAN tradicionais, as empresas obtêm uma experiência com qualidade inferior e têm dificuldades para fornecer um alto desempenho de largura de banda para os aplicativos essenciais. Como as arquiteturas de WAN antigas dependem do roteamento de pacotes, falta a elas uma visibilidade mais aprofundada dos aplicativos. As soluções de SD-WAN, por outro lado, identificam os aplicativos de forma inteligente já no primeiro pacote de tráfego de dados. As equipes de rede obtêm visibilidade no que diz respeito a quais aplicativos são usados mais amplamente por toda a empresa, o que as ajuda a tomar decisões e criar políticas de forma mais inteligente e bem informada.
Seleção de caminho dinâmico
As soluções de SD-WAN viabilizam a seleção dinâmica de caminhos para o fluxo de tráfego: uma conexão MPLS, uma conexão de banda larga e um LTE. Essas soluções são capazes de identificar aplicativos de forma inteligente e determinar o melhor caminho a ser seguido para maximizar a funcionalidade. Além disso, o recurso de autorrecuperação direciona o tráfego automaticamente para o próximo melhor link disponível, caso ocorra alguma falha no link principal. Além de reduzir a complexidade da rede, esse recurso automatizado proporciona também uma melhor experiência do usuário e aumenta o desempenho das aplicações.
Implantação de toque zero
As soluções de SD-WAN proporcionam controle e segregação do plano de dados, para garantir gerenciamento e organização centralizados. Viabilizam implantações
Fortinet
mais rápidas, com recursos de provisionamento de toque zero e fazendo isso, simultaneamente, em escala. Além disso, o console de gerenciamento unificado para operações de rede e segurança ajuda a simplificar as operações na borda WAN.
Orquestração centralizada
O orquestrador da SD-WAN permite às organizações simplificar a implantação centralizada e estabelecer a automação para economizar tempo e atender, com maior rapidez, às exigências da empresa. O orquestrador centralizado pode oferecer um fluxo de trabalho intuitivo para as políticas empresariais, de forma a traçar estratégias para a distribuição de aplicações, e outro tráfego, pelas e entre as filiais. Com a sobreposição automatizada da VPN, a conectividade em malha entre os hubs regionais e as filiais, especialmente em implementações de SD-WAN de grande porte, é facilmente gerenciada com o mínimo de despesa. Melhores análises para disponibilidade de links de WAN, SLAs de desempenho e tráfego de aplicações no tempo de execução e estatísticas históricas permitem que a equipe de infraestrutura encontre e resolva rapidamente os problemas de rede. História e evolução da SD-WAN
A moderna tecnologia de SD-WAN evoluiu de soluções de rede anteriores como as linhas dedicadas ponto a ponto (PPP), Frame Relay e MPLS. O PPP era o modo original para conexão de diversas redes locais (LANs) antes de o Frame Relay acabar com a necessidade de comprar e gerenciar links de conexão individuais entre vários locais corporativos. O MPLS promoveu melhorias trazendo funções que antes eram separadas, como voz, vídeo e redes de dados para a mesma rede usando tecnologia baseada em IP - protocolo de Internet.
O switching de rótulos multiprotocolo (MPLS) ganhou popularidade nos anos 2000. O MPLS logo ultrapassou a popularidade do Frame Relay, pela forma como utiliza a tecnologia baseada em IP, para trazer funções que antes eram separadas, como voz, vídeo e redes de dados para a mesma rede. MPLS é, atualmente, a tecnologia mais comum em uso para WANs empresariais e ainda é mantida pelos benefícios de baixa latência e qualidade de serviço (QoS) que proporciona.
Nos anos 2010, especificamente em 2013, nasceu a SD-WAN, e com um número maior de tecnólogos examinando seus benefícios, perceberam que a tecnologia oferecia muitas das mesmas vantagens que a SD-WAN oferece em relação ao MPLS, da mesma forma como o MPLS trouxe mais vantagens do que o Frame Relay. Para simplificar a explicação, a SD-WAN oferece uma QoS no nível do MPLS, além de ser muito menos onerosa e muito mais fácil de escalonar.
A SD-WAN pode lidar com uma variedade de conexões e transferir o tráfego de maneira dinâmica para o melhor transporte disponível, proporcionando redundância e muito mais capacidade usando links mais econômicos. De maneira geral, as soluções de SD-WAN são muito mais econômicas do que o MPLS quando se leva em consideração o tempo para instalação e o tempo para entrega. As melhores soluções de SD-WAN oferecem o provisionamento de toque zero, permitindo que os sites sejam apresentados rapidamente, sem necessidade de especialistas em rede ou segurança para instalação no local.
SD-WAN versus MPLS: Qual é melhor?
Diversos fatores devem ser considerados para que a empresa possa migrar de um ambiente MPLS tradicional para uma solução de SD-WAN, como apresentado na tabela I.
Tab. I – SD-WAN versus MPLS
SD-WANSD-WAN SD-WANSD-WAN SD-WAN MPLSMPLS MPLSMPLS MPLS
Complexidade Se a segurança não tiver integração automática, O tráfego da Internet é retornado para o centro de dados por backhaul
Visibilidade as equipes precisarão de opções adicionais Ampla visibilidade dos aplicativos
O roteamento de pacotes limita a visibilidade Custo Serviços consolidados reduzem consideravelmente o TCO Construção e manutenção dispendiosas Desempenho e Disponibilidade Habilita MPLS, banda larga e LTE para altas velocidades O MPLS oferece largura de banda limitada e um único ponto de falha Escalabilidade Expandir para adicionar conectividade segura com malha completa Um processo demorado que, muitas vezes, tem duração de meses
SD-WAN versus Internet pública
A Internet de banda larga disponível publicamente é onipresente e econômica. A Internet, no entanto, pode dificultar o desempenho dos negócios porque, basicamente, pede aos clientes que confiem na Internet pública, concorrida e congestionada, como conectividade sempre confiável. Normalmente, a Internet de banda larga é também insegura e os dados podem ser comprometidos se os usuários, especialmente os remotos, acessarem as redes usando uma conexão insegura. A SD-WAN dá uniformidade à experiência geral, tornando-a mais ágil e mais segura (se a segurança for integrada corretamente).
Por que usar a SD-WAN? Benefícios e vantagens
Segundo a empresa de pesquisas IDC, o mercado de SD-WAN continuará crescendo a uma taxa superior a 30% nos próximos anos, aproximando-se dos US$ 5,3 bilhões em 2023. Muitas organizações estão adotando soluções de SD-WAN para terem uma série de benefícios importantes, incluindo os seguintes: Melhor experiência do usuário. A tecnologia subjacente na SD-WAN facilita a conexão dos locais remotos às redes, com menor latência, melhor desempenho e conectividade mais confiável. Na era em que os usuários mais exigem das suas aplicações e infraestruturas, a uma velocidade e dimensão sem precedentes, uma experiência do usuário atrativa pode ser decisiva.
TCO - custo total de propriedade mais baixo. Além de ultrapassadas, o MPLS e outras tecnologias de conectividade são também mais onerosas quando se leva em consideração o TCO. A SD-WAN reduz muito os custos da largura de banda e quando pode oferecer benefícios como o rápido provisionamento, automatiza melhor determinados processos e reduz a quantidade de hardware e gerenciamento manual necessários para o sucesso. Simplicidade. Com a evolução das infraestruturas de rede, a dispersão de produtos pontuais utilizados nas redes e na segurança pode dificultar muito todo o processo. A SD-WAN emprega a automação e outros benefícios para simplificar o processo de conectividade em ambientes mistos, inclusive no local, híbridos e de nuvens.
Prontidão para a multinuvem. Com mais de 90% das empresas investindo atualmente em estratégias de multinuvem, a solução de SD-WAN adequada facilita o gerenciamento desse ambiente. Multinuvem não é o mesmo que nuvem híbrida, na qual há integração de nuvens públicas e privadas para otimizar o
desempenho, a segurança e a flexibilidade. Multinuvem significa simplesmente que as organizações têm flexibilidade para selecionar o melhor fornecedor de nuvens para cada uma de suas várias necessidades de infraestrutura e aplicações. Devido aos seus recursos de automação e também a onde ela reside estrategicamente na rede, a SD-WAN tornou-se a solução preferida para inovações de redes em nuvem em rápida evolução (incluindo a multinuvem). Melhor segurança geral. É necessário que a solução de SD-WAN tenha segurança integrada. Caso contrário, será apenas mais uma opção de conectividade que, infelizmente, se transforma em um vetor de ataque. Quando devidamente implementada, a SD-WAN aumenta a segurança da empresa de forma geral.
Dar prioridade à segurança de SD-WAN
A maioria das soluções de SD-WAN não é isenta de desafios de segurança, e uma das principais necessidades para o sucesso da SD-WAN é a segurança totalmente integrada. Sem isso, a SDWAN não passa de mais um canal para malware e cibercriminosos atacarem a rede.
A solução projetada para operar conjunta, como oferta única, permite que todos os elementos sejam executados no mesmo sistema operacional e gerenciados por meio de uma interface com painel de controle único. Isso garante que todas as transações sejam vistas e inspecionadas, e que todas as ameaças ou comportamentos anômalos sejam compartilhados entre todas as soluções, para a máxima proteção. Como parte desse sistema integrado, os recursos de rede e conectividade da SD-WAN deixam de ficar estritamente associados às soluções de segurança instaladas na plataforma. Tudo passa a ser uma coisa só.
Proporcionar segurança de forma fragmentada também não é sensato. Devido à natureza dinâmica e à alta escalabilidade da SD-WAN, além da implementação e da manutenção de uma segurança sobreposta ser muito onerosa, geralmente gera atrasos na reação a mudanças na conectividade, deixando vulneráveis as conexões e dados vitais. O sistema integrado oferece a conectividade de SD-WAN, as funções de gerenciamento de tráfego e a função de segurança avançada como uma solução única e holística.
O NGFW, firewall de próxima geração, cujos principais componentes incluem IPS - intrusion prevention, web filtering, inspeção da camada de soquete seguro (SSL) e antimalware, é um exemplo de solução integrada. Soluções que combinam recursos de SD-WAN e NGFW em ofertas únicas satisfazem os principais requisitos para uma SD-WAN segura e garantem a segurança e a confiabilidade das conexões e para a organização como um todo.
Proteção contra entrada de água em data centers
Com a maior ameaça de eventos meteorológicos extremos e elevação do nível do mar causada por mudanças climáticas, as inundações podem afetar a disponibilidade da infraestrutura de missão crítica. Além do incômodo, a água e umidade levam a falhas de longo prazo ou diminuição da confiabilidade operacional. Mas certas considerações de projeto evitam esses riscos, como o uso de sistemas de vedação eficazes nas aberturas das instalações.
Jason Hood, da Roxtec International
Segundo uma pesquisa conduzida pelo Uptime Institute, entre 25% e 46% dos operadores e profissionais de TI de data centers globais relataram pelo menos uma interrupção em 2014 [1]. A mesma pesquisa mostrou que de 3% a 7% dos profissionais passaram por cinco interrupções no ano.
A interrupção tem um custo elevado, de US$ 740.357 por hora parada, de acordo com o Ponemon Institute [2]. O estudo foi realizado com 63 data centers de vários setores (e-commerce, financeiro, colocation, saúde, etc.) e fornece uma estimativa alta de tempo de inatividade para um data center de porte médio (1300 m2). Outras pesquisas relataram uma médio de custo superior a US$ 300 mil por hora parada [3].
Causas do tempo de inatividade
De acordo com a pesquisa do Ponemon Institute, a falha da bateria do UPS (65%) foi relatada como a causa mais comum de interrupções do data center, com três das quatro principais causas relacionadas ao UPS [4]. O erro humano também foi relatado como causa das interrupções (figura 1).
Mais recentemente, o estudo de 2016 do Ponemon Institute também relatou falha do UPS como a causa mais comum de interrupções do data center [2]. O mesmo relatório mostra que o erro humano é a principal causa (figura 2).
Ambas as pesquisas mostram que o erro humano é um causa comum de interrupções do data center, com um valor tão alto quanto 51%. Outras fontes afirmam que erro humano é responsável por 70% das interrupções [5]. A partir desses dados, fica claro que as causas mais comuns de tempo de inatividade são erro humano e problemas mecânicos. Contudo, eventos relacionados ao clima também são citados como uma causa de tempo de inatividade. Embora existam muitos tipos de eventos relacionados ao clima, em algumas áreas, como os Estados Unidos, 90% dos desastres naturais envolvem inundações e causam mais danos econômicos e perda de vidas e bens do que qualquer outro perigo natural [6].
Embora eventos relacionados ao clima possam causar menos interrupções, eles ocorrem, e o efeito pode ser significativo. O dano causado pelo furacão Sandy em 2012 foi extenso. Vários data centers em Manhattan sofreram interrupções, com necessidade de bombeamento de porões, salas de geradores e substituição do quadro de distribuição [7]. O tempo de inatividade da Internet dobrou e as instalações levaram quase quatro dias para se recuperar [8].
Da mesma forma, em 2015, o Reino Unido foi atingido por uma chuva extrema que fez o rio Aire inundar e chegar a uma instalação da Vodafone
Fig. 1 - Causas de paradas em data centers [4]
em Leeds, causando uma interrupção de vários dias [9]. Embora esses sejam exemplos extremos, inundações podem ser uma ocorrência mais frequente do que comumente se acredita. Por exemplo, em uma pesquisa de 2015 realizada pela Zenium, 60% dos entrevistados afirmaram que seus data centers eram localizados em áreas de baixo risco, com 40% das instalações no Reino Unido consideradas resistentes a inundações [10]. No entanto, a pesquisa mostrou que um em cada dois data centers tiveram interrupções de serviços causadas por desastres naturais, incluindo atividades sísmicas e inundações.
Mesmo que o tempo de inatividade do data center seja mais comumente associado a problemas mecânicos ou erro humano, eventos relacionados ao clima e inundações também causam interrupções e o planejamento deve ser feito para mitigar possíveis riscos.
Seleção do local
Durante o processo de seleção do local, são avaliados fatores como meio ambiente, clima, confiabilidade de energia, conectividade de fibra, mão de obra e impacto financeiro (impostos, incentivos). Também é importante checar o risco de desastres naturais, como clima extremo e inundação [11, 12, 13]. A localização do data center é indiscutivelmente a melhor defesa contra desastres naturais. Existem padrões da indústria para ajudar a orientar a seleção do local para mitigar o risco de inundações. Por exemplo, a TIA 942 fornece diretrizes com base na classificação de nível do data center [14] (tabela I).
Para riscos ambientais, dados históricos e tendências podem ser analisados para ajudar a identificar áreas propensas a desastres naturais.
O risco de inundações ainda pode ser possível se fatores adicionais não são considerados. Especificamente, aspectos específicos do site, como elevação, inclinação e lençol freático devem ser avaliados, uma vez que a entrada de água e inundação ainda podem ocorrer, mesmo fora de uma zona de inundação e sob períodos de chuvas moderadas a intensas, onde o nível do lençol freático pode se tornar uma preocupação. A ANSI/BICSI 002-2014 fornece boas recomendações para mitigar riscos de entrada de água devido aos níveis de água subterrânea [16] e aponta possíveis problemas de ter data centers em áreas baixas.
As seções 5.7.1.6.3 (elétrica) e 5.7.2.4.2 (comunicação) recomendam que as entradas de serviço sejam subterrâneas. Embora isso possa mitigar os riscos de danos a linhas aéreas, a distribuição subterrânea não é livre de ameaças. Os efeitos de chuvas
Fig. 3 - Exemplos de entrada de água no isolamento de cabos de alimentação
fortes ou um lençol freático alto podem ser agravados com base em locais específicos de galerias, dutos e equipamentos elétricos. A ANSI/ BICSI 002 reconhece isso e aponta que os furos de manutenção em dutos de serviços da concessionária podem causar a entrada de água com base em sua localização.
Esses padrões e diretrizes destacam a importância de uma estratégia de mitigação de água para data centers. Colocar data centers em áreas de baixo risco é uma ótima abordagem para mitigação de riscos causadas por desastres naturais, mas mesmo com condições menos onerosas, a água pode ser uma ameaça com que proprietários, projetistas e operadores de data centers devem lutar para mitigar o risco de tempo de inatividade.
A verdadeira ameaça - água
Com seleção adequada de local e considerações de projeto, o risco de inundação pode ser minimizado. No entanto, problemas relacionados a água podem existir mesmo sem extremas condições de inundações. Sob eventos de chuva moderada, a inundação do data center pode não ocorrer, mas a fibra subterrânea, os dutos de distribuição de energia e galerias podem se encher de água. Além do incômodo (a água deve ser bombeada para manutenção), a ocorrência também pode levar a altos níveis de umidade e representa uma ameaça aos sistemas de distribuição de energia. Por exemplo, as falhas de modo comum de equipamentos elétricos incluem excesso de temperatura, descarga parcial e umidade.
A umidade também pode aumentar a descarga parcial [18] e levar a falhas de bucha [19] e a longo prazo danos de isolamento [20]. O IEEE 493-1997 - Prática Recomendada IEEE para Projeto de Sistemas Confiáveis de Energia Industrial e Comercial também documenta as principais causas de falha do painel de distribuição com base em dados coletados em pesquisas de usuário final [21]. O Apêndice E dessa pesquisa relata que os principais causas para a falha do barramento do comutador são a exposição a umidade (30%) para barramento isolado. Embora possa não causar diretamente uma falha, a umidade facilita a deterioração do sistema de isolamento, levando a uma falha [22]. A pesquisa também mostra que o “Exposição à poeira ou outros contaminantes” era o segundo maior contribuinte para falha do barramento. É importante observar isso, pois a umidade na presença de contaminantes também pode aumentar a descarga parcial [23].
As fontes mais comuns de umidade em subestações são vazamentos e água nas valas dos cabos [18]. A entrada de água pode causar problemas instantâneos como curtos-circuitos. No entanto, os efeitos da água e umidade também podem ocorrer a longo prazo. O resultado são danos à isolação, corrosão, cabos e falhas de equipamentos. Um dos exemplos mais comumente documentados de danos ao isolamento no longo prazo por água em cabos de média tensão é o water treeing [24], uma propagação de microfissura de isolamento degradado (figura 3).
Essas microfissuras crescem a partir de pontos de tensão na presença de água e podem levar a falhas do cabo. Esses pontos são geralmente causados pela fabricação, transporte e puxamento de cabos.
Embora os projetos de dutos típicos tenham inclinação para direcionar a água para fora dos edifícios e equipamentos, a umidade ainda pode estar presente dentro das galerias ou dutos de geradores, comutadores, bancos de carga e transformadores. Essa umidade pode causar danos de longo prazo ao facilitar a quebra do isolamento. Usar cabos otimizados para esses ambientes (por exemplo, TR-XLPE ou LC) reduz o risco, mas nem todas as falhas de cabos são causadas por avaria no seu isolamento. Emendas e terminações também são potenciais elos mais fracos, pois uma mão de obra de má qualidade pode levar à entrada de água. Os efeitos podem não ser imediatos, mas a longo prazo a água em torno de dutos e equipamentos de distribuição de energia leva à falha prematura do cabo.
Tab. I - Guia de seleção de sites para classificações de nível. Fonte: TIA 942
Tier 1 (A1) Tier 2 (A2) Tier 3 (A3) Tier 4 (A4)
Arquitetura
Seleção do local Proximidade a área com Não requerido não dentro da não dentro da área de Maior que 91 m risco de enchente como área de risco de risco de inundação de da área de risco mapeado em um inundação de 100 anos e maior que de inundação limite federal de 50 anos 91 m da área de risco de de 100 anos
Risco de Enchente inundação de 50 anos
Proximidade da Não requerido Não requerido Maior que 91 m Maior que 0,8 km costa ou navegação por vias navegáveis interiores
Não apenas os cabos de alimentação, mas cabos subterrâneos de fibra óptica também são ameaçados por umidade [25, 26, 27, 28]. Alguns dos efeitos são a atenuação do sinal devido a moléculas de água incorporadas em microfissuras, corrosão de conectores, perda de sinal e danos mecânicos devido ao congelamento [29]. Os efeitos da água podem ser minimizados usando o tipo correto de cabo, como os geleados. Como é o caso dos cabos de energia, mesmo com a seleção adequada, as conexões podem ser o elo mais fraco. Usar os materiais corretos reduz os danos de umidade, mas evitar a entrada de água e minimizar a umidade, onde possível, proporcionará a proteção ideal da fibra óptica.
Alterações climáticas
Mesmo com a seleção adequada do local, isso será suficiente no futuro? As alterações climáticas parecem estar mudando as regras e podem potencialmente ser a maior ameaça para a infraestrutura. Por exemplo, no Reino Unido, o aumento na frequência de inundações em localidades próximas a costas, rios ou causadas por chuvas pode danificar os principais ativos de TI, como cabos, mastros, postes, data centers, centrais telefônicas, estações base ou centros de comutação [30, 31]. O relatório Adaptando o Setor de TIC aos Impactos de Mudanças Climáticas produzido pela AEA para o DEFRA Departamento de Meio Ambiente, Alimentação e Assuntos Rurais fornece informações para o subsolo e infraestrutura acima do solo [32]. Os seguintes pontos resumem alguns dos impactos potenciais de inundação: • Elementos de infraestrutura abaixo do solo são vulneráveis a inundações, elevação de lençóis freáticos, entrada de água. • Acima do solo - há riscos de precipitação, solo instável e umidade. • Inundação de dutos, maior risco de inundação de áreas baixas, valas de acesso e instalações subterrâneas.
Nos EUA, o relatório Climate Change Impacts in the United States: The Third National Climate Assessment, do U.S. Global Change Research, relata informações semelhantes: • A infraestrutura está sendo danificada pelo mar devido ao aumento de nível, chuvas pesadas e calor extremo; danos devem aumentar com a continuação da mudança do clima. • Ao longo do século passado, a média global do nível do mar subiu 20 cm. • Desde 1992, o aumento do nível do mar tem sido quase o dobro da taxa observada no século passado. • A elevação do nível do mar, em combinação com as tempestades, aumentou os riscos de erosão, danos e inundações para comunidades costeiras.
Fig. 4 - Os dutos não vedados se enchem rapidamente com água e detritos
• O nível do mar deverá aumentar de 30 cm a 1,2 metros ao longo deste século. • As comunidades costeiras correm o maior risco de tempestades e aumento do nível do mar. O nível das marés e o aumento do nível do mar já estão contribuindo para inundações crônicas em muitas cidades dos EUA. Embora seja incerto saber exatamente quanto o nível do mar aumentará no futuro, projeções moderadas para o aumento do mar prevêem quase 490 comunidades nos EUA enfrentarão doenças crônicas por inundação no final do século [34].
Embora a maioria das comunidades sejam pequenas, cidades maiores serão afetadas, como Boston, Nova York, Miami, San Mateo e Newark. Os data centers já estão localizados nessas cidades e, sem dúvida, algumas poderiam estar em risco de inundação.
Um artigo recente, Lights Out: Climate Change Risk to Internet Infrastructure, prevê que em 2030, com um aumento de 30 cm no nível do mar, 235 data centers podem ser afetados, bem como 771 POPs, 53 desembarque estações e 42 IXPs [29]. A seguir estão os pontos-chave deste artigo:
• O aumento do nível do mar é projetado em 30 cm – 1,80 m no ano 2100. • Sob a projeção mais modesta, 6545 km de dutos de fibra estarão embaixo d´água. • A infraestrutura de Internet foi projetada para ser resistente às intempéries, mas não para ser cercada por água ou ficar submersa. • Os riscos incluem danos físicos em landing stations, danos físicos via inundações de maré e Fig. 5 - Silicone e espuma usados para impedir a entrada de água corrosão levando à perda de sinal. • Os dutos enterrados ficarão submersos. Grande parte da infraestrutura foi implantada nos últimos 20 anos e está envelhecendo, o que significa que todos os selos e revestimentos são suscetíveis a danos se estiverem debaixo d’água. Para novos data centers, construir fora das áreas costeiras parece uma opção mais segura, mas não é isenta de riscos. Eventos de chuva forte estão aumentando, o que
Fig. 6 - Selos mecânicos para fibra e galerias de energia. Vedações específicas fornecem proteção de longo prazo contra entrada de água
também pode aumentar o risco de inundação. Parte da razão para um aumento nas pesadas chuvas pode ser atribuída ao aquecimento global. Para cada 1 grau Celsius, há 7% mais umidade no ar [36]. Com base no aumento previsto da temperatura global de 3 – 5 graus, fortes chuvas podem se tornar mais frequentes no futuro, causando inundações e alteração dos limites das inundações. Mesmo com dados como esses, em uma recente pesquisa com 867 profisisonais de data centers e TI, apenas 14% relataram levar em consideração as mudanças climáticas, reavaliação da seleção do local com base em temperaturas, aumento de enchentes ou escassez de água [37]. Na mesma pesquisa, apenas 11% relataram que estão tomando medidas para mitigar os risco de inundação. Embora esses números sejam baixos, eles mostram que a ameaça de mudança climática e inundações estão começando a ser reconhecidas e que alguns operadores de data centers irão implementar uma estratégia proativa de mitigação de água. Mitigação de água
Padrões como ANSI/BICSI 002-2014 e TIA 942 fornecem algumas diretrizes para mitigar os riscos. A TIA 942 recomenda que um dreno de piso seja colocado em áreas onde haja risco de entrada de água. Todos os equipamentos do data center e de suporte devem ser localizados acima dos maiores níveis de enchente. Nenhum equipamento elétrico, mecânico ou eletrônico deve estar localizado no nível do subsolo. Em termos práticos, isso não é sempre o caso. Mesmo se o equipamento estiver no nível do solo, os alimentadores muitas vezes entram nas subestações abaixo do solo e podem se tornar um caminho para a água e umidade. Nessas áreas, é comum utilizar bombas e desumidificadores para remover água e umidade. Tudo isso tem boas práticas de projeto, mas uma área frequentemente esquecida é a de dutos de concessionárias e galerias de distribuição como fonte de água e umidade.
Normalmente, as especificações apontam para alguns tipos de selantes para dutos, mas muitas vezes, há não há nada instalado e os dutos são deixados abertos (figura 4).
Nesse cenário, dutos, galerias e espaços para manutenção se enchem de água e detritos, onde os cabos e equipamentos podem ser expostos a altos níveis de água e umidade. Este é o cenário de maior risco e é muito comum quando as especificações de construção não incluem detalhes para vedação de dutos e entradas de edifícios. Em muitos casos, o procedimento de manutenção é estabelecido somente após a descoberta de algum problema com água de entrada.
As medidas de contenção no local variam, mas mais comumente são usados espuma ou silicone (figura 5). Embora forneçam algum nível de proteção, elas não são eficazes a longo prazo em interromper a pressão da água que se acumula atrás da vedação.
Soluções de vedação mecânica construídas especificamente para dutos subterrâneos fornecem o mais alto nível de proteção. Essas soluções são normalmente uma solução de borracha comprimida com tolerâncias estreitas que, quando comprimidas, fornecem uma vedação à prova d’água que conterá um alto nível de pressão da água por longo prazo (figura 6). Essas soluções são projetadas para a vida útil da construção ou cronograma de manutenção.
A vedação dos cabos de energia subterrânea e dutos de fibra é um método eficaz e menos oneroso para proteger a infraestrutura crítica da água e umidade. Sem soluções capazes de interromper o fluxo de água, os dutos podem se tornar um caminho para a entrada de água durante uma inundação.
Mesmo em condições climáticas menos severas, os dutos são uma fonte de umidade que pode afetar a confiabilidade operacional de curto e longo prazos de fibra e sistemas de energia.
Outras áreas que são potenciais pontos de ingresso de água incluem entradas de cabos e tubos para: • Entradas de sistema de climatização/ rooftop de data center (figura 7) • Parede externa de sistemas de energia (gerador/banco de carga,transformador/ painéis de distribuição) (figura 8)
Fig. 8 - Entrada de cabos em edifícios de grandes áreas para sistemas de energia vedados contra a entrada de água Sala de fibra/rede
Todos esses são pontos comuns de entrada de água que precisam ser protegidos. No entanto, todas as penetrações através do invólucro do edifício devem ser avaliadas como um caminho potencial de vazamento. Uma solução apropriada deve ser aplicada para mitigar a entrada de água no data center.
Conclusão
Recentes pesquisas mostram que o tempo de interrupção de um data center ainda é uma preocupação para os proprietários e profissionais. Embora a maior parte do tempo de inatividade ocorra devido a erro humano ou problemas mecânicos, problemas relacionados à água causam consequências de curto e longo prazos. Com design adequado e seleção correta do local, questões relacionadas à água nos data centers podem ser minimizadas. No entanto, com projeções de mudanças climáticas, a infraestrutura de energia e fibra do data center se tornará mais ameaçada por inundações e entrada de água.
Construir longe de áreas costeiras e fora de zonas de inundação faz sentido, mas nem sempre possível. Medidas de proteção adequada podem ser tomadas para mitigar a entrada de água e proteção dos sistemas para garantir confiabilidade operacional. Para futuros data centers, projetar e implementar soluções de vedação oferecem a proteção contra ameaças de água a longo prazo.
REFERÊNCIAS
[1] Uptime Institute, & Heslin, K. (2014). Data Center Industry Survey. [2] The Ponemon Institute. (2016). Cost of Data Center Outages. [3] Information Technology Intelligence Consulting, & DiDio, L. (2017). Hourly Cost of Downtime and Minimum Reliability Requirements Survey. [4] The Ponemon Institute. (2010). National Survey on Data Center Outages. [5] Onag, G. (2016). Uptime Institute: 70% of DC Outages due to human error. [6] Department of Homeland Security. www.dhs.gov/natural-disasters. [7] Miller, R. (2012). New York Data Centers Battle Back from Storm Damage. [8] Heidemann, J., Quan, L., & Pradkin, Y. (2013). A Preliminary Analysis of Network Outages During Hurricane Sandy (USC/ISI Technical Report ISI-TR-685b). [9] Lima, J. (2016). Severe Floods in Leeds Hit Vodafone Data Centre. [10] Zenium Technology Partners Limited. (2015). Managing Growth, Risk and the Cloud (Executive Summary of Independent Market Research Commissioned by Zenium Data Centers). [11] Uptime Institute. (2010 – 2014). Data Center Site Infrastructure Tier Standard: Operational Sustainability. [12] Bowman, R. & Deneny, T. (2014). Data Centers: Site Selection 101 | Site Selection [13] Mena, M., Musilli, J., Austin, E., Lee, J., & Vaccaro, P. (2014). Selecting a Data Center Site: Intel’s Approach. [14] Telecommunications Infrastructure Association. (2012). Telecommunications Infrastructure Standard for Data Centers (TIA-942-A). [15] Uptime Institute. (2009 – 2018). Data Center Site Infrastructure Tier Standard: Topology. [16] BICSI. (2014). ANSI/BICSI 002-2014. Data Center Design and Implementation Best Practices.
REFERÊNCIAS
[17] Murray, J., & Andle, J. (2016). The Eye on Medium Voltage Switchgear. Protecting critical assets with wireless monitoring. [18] EA Technology, & Byrne, T. (2013). Humidity Effects in Substations. [19] van Heerden, C., & Rogerson, A. (n.d.). Bushing Failures in Medium Voltage Switchgear. [20] Genutis, D. (2010). Top Five Switchgear Failure Causes and How to Avoid Them. [21] IEEE. (1997). Recommended Practice for the Design of Reliable Industrial and Commercial Power Systems. IEE std 493 – 1997. [22] Paoletti, G., & Baier, M. (2002). Failure Contributors of MV Electrical Equipment and Condition Assessment Program Development. IEEE Transactions on Industry Applications, 38(6), 1668 – 1676. [23] Schneider Electric Industries. 2018. Medium Voltage Technical Guide, Basics for MV Cubicle Design. [24] Mecheri, Y., Nedjar, M., Lamure, A., Aufrey, M., & Drouet, C. (2010). Influence of Moisture on the Electrical Properties of XLPE Insulation. 2010. Annual Report Conference on Electrical Insulation and Dielectric Phenomena. (CEIDP). 1-4. [25] Datwyler. (2014). The Impact of Water on Fibre Optic Cable. [26] Grover, W. (2004). Fiber Cable Failure Impacts, Survivability Principles, and Measures of Survivability. InformIT. [27] Corning, & Jacobs, J. (2004). The Impact of Hydrogen on Optical Fibers. [28] Cisco, & Alwayn, V. (2004). Fiber-Optic Technologies. [29] Durairajan, R., Buford, C., & Buford, P. (2018). Lights Out: Climate Change Risk to Internet Infrastructure, ANWR. [30] Fu, G., Horrocks, L., & Winne, S. (2016) Exploring impacts of climate change on UK’s ICT Infrastructure. Proceedings of the ICE Infrastructure Asset Management, 3, 1,42-52. [31] Dawson, R.J., Thompson, D., Johns, D., Gosling, S., Chapman, L., Darch, G., Watson, G., Powrie, W., Bell, S., Paulson, K., Hughes, P., & Wood, R. (2016). UK Climate Change Risk Assessment Evidence Report: Chapter 4, Infrastructure. Report prepared for the Adaption SubCommittee of the Committee on Climate Change, London [32] Horrocks, L., Beckford, J., Hodgson, N., Downing, C., Davey, R., & O’Sullivan, A. (2010). Adapting the ICT Sector to the Impacts of Climate Change – Final Report, Defra contract number RMP5604. AEA group, published by Defra. [33] Melillo, J.M., Richmond, T.C., & Yohe, G.W., Eds. (2014). Climate Change Impacts in the United States: The Third National Climate Assessment. U.S. Global Change Research Program, 841 pp. doi:10.7930/J0Z31WJ2. [34] Spanger-Siegfried, E., Dahl, K., Caldas, A., Udvardy, S., Cleetus, R., Worth, P., Hernandez Hammer, N. (2017). When Rising Seas Hit Home. Hard Choices Ahead or Hundreds of US Coastal Communities. Union of Concerned Scientists. [35] Karl, T.R., Melillo, J.T., & Peterson, T.C., Eds. (2009). Global Climate Change Impacts in the United States. Cambridge University Press. [36] Carey, J. (2011, June 29). Global Warming and the Science of Extreme Weather. [37] Uptime Institute. (2018). Uptime Institute Global Data Center Survey, Operators struggle with constraints, change, and complexity.
Desafios da implantação da tecnologia 5G no Brasil
Haroldo Zattar e Saulo Reis, Laboratório de Sistemas de Telecomunicações, Departamento de Engenharia Elétrica da UFMT Universidade Federal de Mato Grosso
O leilão do 5G foi realizado pela Anatel no início de novembro, que licitou as radiofrequências nas faixas de 700 MHz, 2,3 GHz, 3,5 GHz e 26 GHz. A tecnologia possibilitará novos serviços e modelos de negócios com soluções inteligentes que mudarão o mundo no decorrer deste século, mas ainda há muitos desafios para a implantação da rede, como mostra o artigo a seguir.
O5G é uma tecnologia de telecomunicação móvel de banda larga que opera em altas frequências, capaz de oferecer conectividade por meio de ondas eletromagnéticas com curtas distâncias entre antenas. Além de proporcionar alta velocidade de transmissão de dados e baixa latência, o 5G possibilita modelos de negócios com soluções inteligentes que mudarão o mundo no decorrer deste século, em especial com o avanço da inteligência artificial. O futuro das comunicações se baseará na oferta de soluções completas de hardware e software para atender de modo exclusivo às necessidades de indústrias, agricultura, saúde, portos e aeroportos, comércio, órgãos públicos, bancos e automação, entre outras, por meio da IoT - Internet das Coisas. Espera-se que, na próxima década, com o 6G, seja possível implantar as verdadeiras cidades inteligentes.
A tecnologia 5G promete agilizar de forma significativa a transmissão de informações pelas redes sem fio, trazendo eficiência, economia, controle, segurança e rapidez na execução das atividades. A rede 5G que já está disponível em 65 países e mais de 1600 cidades é uma plataforma transformadora em todas as indústrias, possibilitando modelos de negócios com soluções inteligentes para cada tipo de cliente e novas fontes de receita. As empresas poderão ter mais produtividade e obter resultados de desempenho em tempo real. A sua implantação, evidentemente, irá remodelar cadeias de valor e otimizar operações com sucesso. O mais desafiador será a competição pelo grau de inteligência desenvolvida para cada cliente e a evolução dos sistemas não terá fim.
A tecnologia 5G tem o intuito de revolucionar a economia e pode trazer um valor incremental de US$ 1,2 trilhão ao PIB brasileiro até 2035, segundo
uma pesquisa realizada em maio de 2021, mesmo com a previsão do 6G no Brasil para 2032. Nos setores econômicos, o aumento significativo do PIB deve ser maior na área de tecnologia, com investimentos de 25%; para o governo, de 20%; na manufatura, de 18%; nas empresas de serviços, de 15%; no varejo, de 10%; na agricultura, de 8%; e na mineração, de 4%.
O leilão do 5G foi realizado pela Anatel no início de novembro, que licitou as radiofrequências nas faixas de
700 MHz, 2,3 GHz, 3,5 GHz e 26 GHz. Os lotes arrecadados somam o valor econômico de R$ 47,2 bilhões, considerando todos os compromissos ao longo da década. Os lotes ainda não arrecadados poderão ser novamente colocados à venda, com mais R$ 7 bilhões e R$ 8 bilhões que serão comercializados. Além dos R$ 4,8 bilhões do ágio que serão transferidos ao Tesouro, o governo ganhará com o aumento na arrecadação de impostos pagos pelos usuários. A taxa aproximada de impostos pelo uso do serviço celular é de 40%, como veremos a seguir com mais detalhes.
O processo para implantação do 5G é dividido em três partes: regulatória; políticas públicas; e implementação. Dois questionamentos norteiam essa implantação: • O que isso vai significar para o assinante do sistema celular? • O que vai significar para as empresas brasileiras com relação ao desenvolvimento econômico?
No Brasil, algumas considerações devem ser observadas, como os problemas sociais e econômicos, baixa participação de engenheiros, professores, estudantes, cientistas e pesquisadores da área tecnológica nos procedimentos de regulação, testes, certificações e implantação do 5G. Além disso, há necessidade de mais investimentos, por parte do governo, no setor tecnológico, em especial nas universidades públicas, pois a pesquisa dedicada a comunicações móveis não vai
ter fim. Muitos consideram que a segurança nas comunicações deve ser tratada como soberania nacional.
Antena para estação radiobase 5G
Desafios para a implantação do 5G
Diversas atividades, leis, decretos, normativas e protocolos devem ser desenvolvidos para implantar o 5G no Brasil com qualidade, segurança e bom desempenho, inclusive em locais remotos. Entre os desafios pode-se citar: • Instalar e operar uma tecnologia com qualidade, operando com o 5G puro (standalone ao invés do 5G DSS). • Fazer a substituição da frequência de alguns satélites utilizados no Brasil, como por exemplo, o sinal do SGDC - Satélite Geoestacionário de Defesa e Comunicações, lançado pela Telebrás em 2017, que utiliza as faixas de frequências do 5G. • Substituição do kit parabólico da TV aberta em todas as residências que utilizam esse sistema. A empresa vencedora deverá ficar responsável pela substituição e instalação gratuita de receptores mais modernos em locais onde brasileiros ainda dependem das antenas parabólicas para assistir à programação da TV aberta. Isso porque a frequência utilizada por esses equipamentos pode sofrer interferência do sinal do 5G e a substituição será mais adequada que a aplicação de sistemas de filtro. O custo estimado de troca é de aproximadamente US$ 600 milhões.
• Implantação da fibra óptica de qualidade nas cidades, rodovias federais e estaduais, zona rural e no campo para levar o 5G com qualidade e menor latência. • Garantir que a Lei Geral das Antenas e a Lei Geral de Telecomunicações sejam respeitadas pelas empresas vencedoras, operadoras de celular, órgãos municipais e estaduais. • Melhorar as leis estaduais e municipais para a implantação da infraestrutura e redução de custo de taxas e de licenças. • Instalação de estações radiobase e equipamentos 5G em quantidade satisfatória para garantir QoS - qualidade de serviço com alta velocidade e baixa latência.
Aparelhos
Os assinantes deverão substituir os celulares. Atualmente o preço médio estimado de aparelhos é de R$ 6000. Os modelos chineses em breve estarão disponíveis num valor médio de R$ 3000. Com a escala, devem chegar na
faixa de R$ 1000 no final de 2022. Considerando os preços de aparelhos disponíveis com o 5G, é provável que grande parte da população brasileira não poderá comprar os modelos de imediato. A proposta das operadoras é que os planos de pacotes de dados sejam ilimitados. Ofertas de preços baseadas na velocidade e de conteúdo com aplicativos e serviços agrupados serão parte do novo portfólio das empresas de telecomunicações, contribuindo para um modelo baseado no melhor custo/ benefício de aquisição por assinante.
Com relação à tecnologia dos processadores para os celulares, a Qualcomm é a empresa responsável por metade de todos os chips de conexão a redes em smartphones, com um papel importante em comunicações móveis. A maioria dos outros chips de conexão de rede vem da Ásia, como da MediaTek, de Taiwan, que tem presença em 25% do mercado. A Samsung Electronics e Huawei disputam 25% do mercado mundial.
Os serviços de telecomunicações têm um alto custo no Brasil devido à carga tributária, em especial do ICMS. A tabela I apresenta os impostos pagos por usuários de celulares no Brasil. No Mato Grosso, por exemplo, o ICMS é de 32%.
Além desses tributos, incidem também sobre as empresas de serviços de comunicações: • IRPJ - Imposto de Renda sobre Pessoas Jurídicas - 15% • CSSL - Contribuição Social Sobre o Lucro Líquido - 9% • IOF - Imposto sobre Operações Financeiras • Outras contribuições (CIDE - Contribuição de Intervenção do Domínio Econômico) • Encargos trabalhistas
Existe ainda a cobrança de tributos relativos aos direitos de passagem e à implantação de infraestrutura por parte das prefeituras.
A maior parte da receita das taxas de fiscalização é relativa aos telefones celulares ativos nas operadoras, com existência das taxas de instalação e de funcionamento pagas anualmente. A Lei 12.715, de 17/09/2012, estipulou a TFI (Taxa de Fiscalização de Instalação) de terminais móveis pela Anatel e a TFF (Taxa de Fiscalização de Funcionamento).
A Lei 12.485 de 2011, que institui o SeAC - Serviço de Acesso Condicionado, destinou uma nova taxa em relação ao total pago anualmente por celular ativo pelas operadoras de celular ao Condecine. O SeAC é o serviço de telecomunicações de interesse coletivo, prestado no regime privado, cuja recepção é condicionada à contratação remunerada por assinantes e destinada à distribuição de conteúdos audiovisuais na forma de pacotes, de canais de programação nas modalidades avulsa de programação e avulsa de
conteúdo programado e de canais de programação de distribuição obrigatória, por meio de tecnologias, processos, meios eletrônicos e protocolos de comunicação.
Até julho de 2022 o 5G deve estar ativo de modo oficial em algumas localidades no Brasil. Entretanto, a tecnologia já está operando em bairros de algumas cidades em caráter experimental. Uma das obrigações do edital é colocar o 5G em operação inicialmente nas 27 capitais até julho de 2022. Entretanto, é possível ter até o final de 2021 algumas capitais como Brasília, Rio de Janeiro e São Paulo com o 5G standalone começando a operar.
Para trabalhar em ultravelocidade, com baixa latência e uma cobertura com lacunas menores, o padrão de tecnologia de quinta geração para redes móveis e de banda larga necessita superar os obstáculos existentes de infraestrutura em áreas que exigem muito tráfego de informações, como grandes cidades e distritos comerciais. Também será necessário enfrentar os desafios regulatórios das autoridades locais, que incluem taxas excessivas, restrições e até mesmo movimentos que proíbem as instalações de ERBs em locais com maior demanda.
As redes 5G precisarão que a infraestrutura de pequenas áreas geográficas seja implementada em mais locais com o propósito de aumentar a capacidade em áreas urbanas densamente povoadas e estender a cobertura para áreas rurais. Esse processo demandará a aprovação, o que poderá levar anos até ser concretizada se não houver novas leis municipais.
Os aspectos regulatórios são condições fundamentais para as empresas colocarem em prática a nova tecnologia. Entre eles, estão a avaliação e interpretação das leis federais, estaduais e municipais e possíveis barreiras para implementação do 5G como monitoramento dos riscos relacionados ao uso de infraestrutura de terceiros; análise, modelagem e gestão das obrigações legais; monitoramento dos riscos relacionados ao licenciamento de infraestrutura e seu uso por terceiros; e suporte jurídico obrigatório em questões relacionadas ao uso eficiente da radiofrequência.
A rede 5G vai permitir conexão quase instantânea e promete abrir caminho para aplicações que ainda engatinham, como IoT, carro autônomo e cirurgias a distância. O Brasil, que tem mais celulares do que cidadãos, com uma base atual de 225 milhões de aparelhos, é um mercado cobiçado para quem quer vender qualquer serviço de telecomunicação.
Os desafios com relação à certificação dos equipamentos móveis celulares estiveram em consulta pública até 25 de setembro de 2021. As propostas da Anatel tratam da atualização dos requisitos voltados à avaliação da conformidade técnica dos smartphones e de ETA - Estação Terminal de Acesso
Tab. I - Tributos dos serviços de telecomunicações no Brasil
Tributos Cofins PIS/Pasep ICMS Fust Funttel Total
Alíquota 3% 0,65% 25% a 37% 1% 0,5% 29,2% a 41%
com o objetivo de incluir parâmetros de testes para esses equipamentos com a tecnologia 5G.
Por meio da Consulta Pública 37/ 2021, a Anatel recebe contribuições para a atualização dos requisitos voltados à avaliação da conformidade técnica de terminais celulares (smartphones). Atualmente, estão definidos pela agência os requisitos para certificação de telefones celulares que operam com tecnologia 5G na faixa de frequência 1 (FR 1 – faixas de frequências abaixo de 7125 MHz). Além de introduzir parâmetros de testes para a certificação de equipamentos com a tecnologia 5G que operam em ondas milimétricas FR 2 (24,25 a 52,6 GHz), as duas consultas propõem a atualização das referências normativas do release 16 do 3GPP/ETSI para a versão mais recente. No caso da Consulta Pública 37/ 2021, a proposta da agência sugere, ainda, a implementação de medidas de avaliação para a funcionalidade de recepção do serviço de radiodifusão sonora em frequência modulada (FM) nos equipamentos terminais, de forma a garantir que todos os telefones celulares que possuem capacidade de hardware para recepção FM sejam homologados com essa funcionalidade ativa. A Consulta Pública 38/2021, por sua vez, propõe a atualização dos requisitos voltados à avaliação da conformidade técnica de Estação Terminal de Acesso (ETA).
As ETAs do Serviço Móvel Pessoal são equipamentos não classificados como telefone celular, mas que possuem a capacidade de se conectarem às redes móveis, tais como tablets, rastreadores veiculares, equipamentos para IoT com SIM card ou qualquer outro equipamento. Atualmente, estão definidos pela agência os requisitos para certificação de ETAs que operam com tecnologia 5G no (FR 1). Com relação ao desafio de novos equipamentos para o 5G, será desejável nova rede de rádio 5G. Esses equipamentos de telecomunicações devem possuir módulos de rádio e antenas inteligentes montadas em uma torre de metal. Os novos equipamentos de acesso à rede 5G devem oferecer larguras de banda mais amplas, frequências mais altas, latências mais baixas e possibilitar a comunicação máquina a máquina necessária para propiciar IoT massivamente conectada.
Atualmente, existem poucos fabricantes no mundo que detêm a tecnologia. Um deles é a chinesa Huawei, com mais de 1 milhão de antenas radiobase 5G instaladas na China e mais de 280 mil em operação na Europa. A sueca Ericsson é pioneira no lançamento do 5G na Europa, com presença forte no Japão, Austrália e Estados Unidos. Também se destacam a finlandesa Nokia e a Samsung, que possui mais de 180 mil ERBs 5G em uso na Coreia. Para ter uma ideia, o Brasil tem aproximadamente apenas 100 mil antenas 4G.
Edge data center
Com o 5G, a quantidade de informações geradas, armazenadas e processadas crescerá exponencialmente. A grande maioria dessas cargas passa pelos data centers. Com o 5G, esse nível de dados irá aumentar, visto que entregará uma largura de banda até 1000 vezes maior, com latência cinco vezes menor. O primeiro grande desafio das operadoras será monitorar com qualidade esse alto tráfego de dados. Para isso, precisarão modernizar seus data centers. Para suportar as novas tecnologias e aplicações avançadas com o 5G, será necessário instalar sites menores, mais próximos dos usuários e das torres de telecomunicações que
transmitem o sinal. Com mais data centers distribuídos, menor será o tempo de transmissão dos dados e, consequentemente, maior a velocidade.
Portanto, a expectativa é que as empresas utilizem, em vez de enormes centros de dados, micro data centers com processadores muito velozes capazes de operar melhor a tecnologia 5G. Além disso, as empresas precisarão contar com novas soluções para alocar energia elétrica de forma inteligente, reduzindo a necessidade de ficar próximo a geradores de energia. Devido ao crescimento dos volumes de dados com a chegada do 5G, a fibra óptica se tornará fundamental. Muitos data centers corporativos ainda utilizam o tradicional cabeamento de cobre, o qual deverá ser substituído para que as operadoras consigam lidar com a imensa taxa de dados que o 5G vai requerer. Além de suportar grandes volumes de dados, a fibra possui taxa de erro de bit muito baixa (10-16), menor latência, além de imunidade a interferência eletromagnética. Consome cinco vezes menos energia para a transmissão de dados, tornando-se bem mais econômica a longo prazo.
Com a tecnologia 5G, as melhorias no data center corporativo não serão apenas estruturais, mas também em seus softwares. As empresas deverão investir em soluções de NFV - Network Function Virtualization (virtualização de funções de rede), que realizam a virtualização da arquitetura de rede. As empresas podem criar máquinas virtuais (VMs) para obter maior flexibilidade e redução de custos, capazes de executar todos os processos que antes eram feitos por switches, racks de armazenamento e servidores de alta disponibilidade. Desse modo, eliminam a necessidade de aquisição de hardware especializado, permitindo que a infraestrutura de rede seja realizada de acordo com os negócios de cada cliente.
A tecnologia 4G é voltada para uma metodologia “um para um”. Quando o dispositivo do ponto final do usuário está conectado a uma torre, ele faz a transição para a próxima torre mais próxima à medida que sua localização é alterada. Isso fornece ao usuário a experiência que eles esperariam de conexões 4G ou 4.5G LTE. De modo diferente, o 5G introduz a ideia “muitos para um” no que se refere à conectividade sem fio. O dispositivo do ponto final do usuário precisará se comunicar com muitas torres ou antenas ao mesmo tempo para fornecer velocidades mais altas e menor latência. Isso exigirá mais torres e antenas e, consequentemente, mais data centers.
A instalação de um data center de borda colocará as informações mais próximas do usuário e as processará
localmente para operar em alta velocidade e com baixa latência. Esse processo evita a necessidade de os conteúdos do usuário atravessarem a nuvem e retornarem, tornando muito apropriado para serviços de streaming.
A arquitetura de rede 5G core possibilita maior demanda de vazão, conforme definido pelo 3GPP, e utiliza uma arquitetura alinhada na nuvem baseada em serviço, que abrange todas as funções e interações 5G, incluindo autenticação, segurança, gerenciamento de sessão e agregação de tráfego dos dispositivos finais. O 5G core enfatiza mais ainda a NFV como um conceito de projeto integral com funções de software virtualizadas, capazes de serem implementadas usando a infraestrutura MEC, que é fundamental para os princípios arquitetônicos do 5G. A NFV permite virtualizar diversos tipos de funções dos nós da rede, de modo que eles possam se conectar para criar serviços de comunicação.
MEC
O MEC - Edge Computing de Múltiplo Acesso é um elemento importante da arquitetura 5G. É uma evolução da computação na nuvem que leva as aplicações de data centers centralizados para a periferia da rede e, portanto, para mais perto dos usuários finais e de seus dispositivos. Isto cria essencialmente um atalho no fornecimento de conteúdo entre o usuário, o host e o longo caminho da rede que antes separava as duas partes.
Com relação às antenas para 5G, além de obstruções como edifícios, morros e árvores, as altas frequências também são suscetíveis a fatores como temperatura, umidade e chuvas. Portanto, a cobertura, que é bem limitada, é ainda mais desafiada por condições atmosféricas fora do ideal. Se a solução óbvia para a cobertura limitada for mais antenas, os problemas estéticos e ambientais relacionados a essa propagação geram uma grande preocupação. Os conjuntos de antenas com ondas na faixa de milímetros são apenas um dos aspectos dos custos da implementação. Esses conjuntos requerem manutenção, reparo, revisão e atualização proporcional ao maior volume de hardware.
Para instalar as ERBs, as cidades precisam ter uma lei para o 5G. Afinal, elas podem interferir na comunicação, na paisagem e até na segurança das pessoas que vivem por perto. O Brasil precisa criar condições para consolidar a Indústria 4.0 visando implantar algumas tecnologias para automação e troca de dados e utiliza conceitos de sistemas ciberfísicos, IoT e computação em nuvem. O principal objetivo da quarta revolução industrial é a melhoria da eficiência e produtividade dos processos. Entre os desafios está a regulamentação da Lei de Antenas.
Até o momento é um grande desafio encontrar um consenso entre a Lei Geral de Antenas e as normas municipais. Muitas ainda se encontram inadequadas à realidade do 5G. A CNI – Confederação Nacional da Indústria defende que o texto faça valer a previsão da Lei de Antenas de criar uma janela única, ou seja, um órgão responsável por coordenar todo o processo de licenciamento nos municípios. É importante também que o decreto estabeleça a chamada autorização automática (silêncio positivo, como veremos a seguir), com prazo máximo de 60 dias para emissão de licenças de liberação para instalação de antenas. Assim, o município terá de analisar rapidamente os projetos solicitados. Se não houver respostas, entende-se que a autorização está concedida. Para a CNI, a regulamentação da lei vai contribuir para que o Brasil supere o desafio de incorporação e de desenvolvimento de novas tecnologias com relativa agilidade. Nesse sentido, é imprescindível o apoio a uma política pública capaz de ampliar e melhorar a infraestrutura de Internet de banda larga, facilitando o processo de licenciamento de estruturas de antenas.
O objetivo da Lei 13116/2015 é estabelecer normas gerais para implantação e compartilhamento da infraestrutura de telecomunicações. O conjunto de regras tem o objetivo de harmonizar normas, promovendo a expansão da cobertura das redes e a melhoria da qualidade dos serviços prestados à população, além de otimizar investimentos e reduzir custos das operadoras de telecomunicações.
As operadoras esperam que o Decreto 10480/2020 regulamente o chamado compartilhamento de infraestrutura. Shutterstock Trata-se do uso conjunto de instalações para servir de base à prestação de serviços públicos, implicando o uso compartilhado das estruturas físicas de uma prestadora de serviços públicos por outra. Isso será válido para equipamentos como postes, torres, dutos, subsolo urbano, condutores e outros. Nessas situações, o decreto visa regulamentar a implantação conjunta de redes de telecomunicações em obras de infraestrutura de interesse público. Além disso, ordena o relacionamento entre as prestadoras de serviços de telecomunicações e as gestoras das obras de infraestrutura de base. Com isso, o planejamento passa a contemplar a instalação de infraestrutura de redes de telecomunicações, compartilhada a quaisquer interessados, desde que o órgão ou entidade detentora seja remunerado. Dentre as principais medidas, o texto obriga ainda as pessoas físicas e jurídicas detentoras de infraestrutura de redes de telecomunicações a informar suas características técnicas e coordenadas de localização geográfica à Anatel. Com isso, será possível operacionalizar a implantação conjunta, além de subsidiar a formulação de políticas públicas, promovendo maior transparência.
A regulamentação da LGT deve reforçar também que o chamado direito de passagem não será pago. A lei informa que as operadoras não precisarão pagar ao poder público municipal pela instalação de infraestrutura de redes de telecomunicações em faixas de domínio, vias públicas e em outros bens públicos de uso comum da população. A medida dará mais segurança e estabilidade às operadoras do ponto de vista regulatório, diferenciando o compartilhamento de infraestrutura, que ocorre de forma remunerada, do mero direito de passagem.
Outro item importante na LGT é o chamado silêncio positivo, que implica a aprovação automática da licença para instalação de antenas no caso de vencido o prazo de 60 dias desde a apresentação do projeto, sem a manifestação de resposta do município. Sendo assim, se uma operadora deseja instalar uma antena em alguma região de uma cidade, solicita a licença ao poder público e, ao final de dois meses, caso as autoridades não se manifestarem com uma reposta, a LGT permite que a instalação seja feita mesmo sem a autorização formal. É importante mencionar, no entanto, que a instalação das antenas, mesmo sob o silêncio positivo, precisa estar em conformidade com as condições do requerimento apresentado e com as demais regras estipuladas na legislação vigente. Com isso, o processo de licenciamento tende a ser muito mais rápido e eficiente. A Lei das Antenas prevê, por exemplo, que as estações radiobase sejam instaladas em terrenos com “habite-se” (documento da prefeitura que autoriza a construção); em vias com 10 m de largura; em áreas com 8 m de largura; a uma distância de 12 m da via pública. Mesmo as mini ERBs, que podem ser instaladas no topo de prédios, precisam ter uma regulamentação bem definida, principalmente em áreas históricas da cidade e nas regiões que são protegidas por leis ambientais. A legislação do município precisa tratar de temas como de recuo, zoneamento, tratamento antirruído, definir os cuidados com a cidade, o tipo de licença, a medição de radiações não ionizantes e os documentos necessários para licenciamento. Além disso, o 5G exige uma ampla instalação de rede de fibra óptica e um rápido licenciamento permite a liberação de obras para criar estruturas de rede pela cidade. As redes 5G exigirão uma quantidade de antenas cinco a dez vezes maior se comparada à estrutura do 4G.
Para uma boa cobertura nesse padrão, será necessária, em média, uma antena a cada 100 metros. Em julho de 2020, o Brasil atingiu a marca de 100 mil antenas de telefonia e Internet móvel ativas em todo o território nacional. O número representa um crescimento de 6% em comparação a maio de 2019, o que significa a instalação de mais de 5600 antenas no período. No entanto, a quantidade de antenas ainda é considerada insuficiente para atender à demanda no país. Instalar antenas no Brasil, mesmo com investimentos disponíveis, não é tarefa fácil. Essa dificuldade não pode ocorrer com o 5G. Há mais de 300 leis municipais que dificultam a instalação dessa infraestrutura. Em muitos municípios faltam legislações mais modernas, o que impede o avanço ainda mais rápido das redes. Em algumas cidades o licenciamento ainda leva anos para sair. A Câmara de Deputados e o Senado ainda não aprovaram o novo decreto da LGA, parado desde 2020. Nas grandes metrópoles existem muitos pedidos de instalação de antenas apresentados pelas operadoras e aguardando licenciamento pelas prefeituras. O número de antenas, apesar do avanço expressivo, ainda está muito aquém da necessidade de cobertura no Brasil para promover uma maior inclusão digital. As diferenças entre a legislação federal e municipal ocasionam um atraso na instalação de novas antenas e equipamentos que poderiam estar gerando empregos e renda para o governo por meio de arrecadação de impostos. Hoje, a maior barreira na instalação de infraestrutura no Brasil é o ambiente legal e a insegurança jurídica por conta da variação de leis e diversidade de pensamentos, principalmente para casos ambientais. Conclusão
A tecnologia 5G possibilita acesso a dispositivos em tempo real com latência inferior a 1 ms e velocidades até 10 Gbit/s, ou seja, 100 vezes mais rápido que a atual 4G. Num futuro breve vai tornar realidade o controle de automóveis autônomos, dispositivos eletrônicos, cirurgias remotas e automação industrial, comercial e residencial.
Permitirá ainda a consolidação de modelos de negócio inovadores, que utilizarão esse serviço online de qualidade. Conhecer essas tendências e se preparar para o que está por vir é uma boa forma de gerar mais lucros, aproveitar oportunidades, se programar e correr menos riscos. O 5G fornecerá a conectividade necessária para realizar os serviços de IoT que dependerão de engenheiros, programadores e empreendedores para levar soluções otimizadas aos clientes, além do desenvolvimento de projetos de instalação de antenas, data centers e diversos equipamentos para o sucesso da tecnologia rumo ao 6G na próxima década.
REFERÊNCIAS
[1] Anatel - Agência Nacional de Telecomunicações: Qualidade da Telefonia Móvel. [2] Dias, Pedro Henrique Sales: Redes 5G I: A nova geração de redes celular. Seção Tutoriais Telefonia Celular. [3] Guimarães, Dayan Adionel: Introdução às Comunicações Móveis. [4] Site Teleco – Inteligência em Comunicações: Cobertura das operadoras e população atendida. [5] Lei Geral das Telecomunicações. Disponível em L9472 (planalto.gov.br). [6] Lei Geral das Antenas. Site: https://www.gov.br/mcom/pt-br/ acesso-a-informacao/acoes-e-programas/ lei-geral-das-antenas