introdução ao
cloud computing António Miguel Ferreira
FCA – Editora de Informática, Lda. www.fca.pt
Distribuição
SEDE R. D. Estefânia, 183, R/C Dto. – 1049-057 LISBOA Tel: +351 213 511 448 * Fax: +351 213 522 684 Revenda: revenda@lidel.pt Exportação: depinternacional@lidel.pt Venda online: livraria@lidel.pt Marketing: marketing@lidel.pt LIVRARIA Av. Praia da Vitória, 14 – 1000-247 LISBOA Tel: +351 213 511 448 * Fax: +351 213 173 259 livraria@lidel.pt EDIÇÃO
FCA – Editora de Informática Av. Praia da Vitória, 14 A – 1000-247 LISBOA Tel: +351 213 511 448 Email: fca@fca.pt Copyright © março de 2015 FCA – Editora de Informática, Lda. ISBN: 978-972-722-802-7 Capa: José M. Ferrão – Look-Ahead Pré-impressão: Magnetic – Design | Produção editorial Impressão e acabamento: Cafilesa – Soluções Gráficas, Lda. – Venda do Pinheiro Depósito Legal n.º 388733/15 Livro segundo o Novo Acordo Ortográfico Todos os nossos livros passam por um rigoroso controlo de qualidade, no entanto, aconselhamos a consulta periódica do nosso site (www.fca.pt) para fazer o download de eventuais correções. Os nomes comerciais referenciados neste livro têm patente registada.
Marcas Registadas de FCA – Editora de Informática, Lda. –
®
®
®
Reservados todos os direitos. Esta publicação não pode ser reproduzida, nem transmitida, no todo ou em parte, por qualquer processo eletrónico, mecânico, fotocópia, digitalização, gravação, sistema de armazenamento e disponibilização de informação, sítio Web, blogue ou outros, sem prévia autorização escrita da Editora, exceto o permitido pelo CDADC, em termos de cópia privada pela AGECOP – Associação para a Gestão da Cópia Privada, através do pagamento das respetivas taxas.
O Autor António Miguel Ferreira é um dos pioneiros da Internet em Portugal. Em 1991 rumou a França, onde se formou em Engenharia Informática pelo Institut National des Sciences Appliquées de Lyon (INSA). A rede de comunicações desta instituição encontrava-se ligada diretamente à Organização Europeia para a Pesquisa Nuclear (CERN) na Suíça, tendo sido em 1991 que se ligou pela primeira vez à Internet, um marco que definiria toda a sua vida profissional. Em 1995, lançou a Esoterica, o primeiro Internet Service Provider em Portugal. O crescimento que a empresa foi tendo levou a que fosse adquirida por uma multinacional americana. Depois de trabalhar vários anos ligado à multinacional, como Diretor de Operações no Sul da Europa e Diretor-Geral em Portugal, em 2005 passou a integrar o grupo inglês Claranet, que se foca nas áreas de redes, hosting e Cloud para empresas. A meio deste percurso, em 2004, fundou em Portugal a Amen, o maior fornecedor nacional de serviços de domínios e alojamento de sites, uns anos mais tarde vendido a um dos principais grupos mundiais do setor. Ligado ao hosting desde 1995 e à evolução da Cloud desde 2007, lançou em 2011 uma nova empresa, focada exclusivamente na prestação de serviços Cloud, a Lunacloud. Atualmente é também Diretor-Geral da Claranet Portugal, grupo presente em seis países europeus.
© FCA – Editora de Informática
É ainda autor de vários livros sobre a web não só em Portugal, como também nos EUA e no Brasil.
V
Índice Agradecimentos IX Prefácio XI 1 A Internet e as Tecnologias de Informação 2 Cloud Computing
1 11
3 Infrastructure as a Service 29 4 Platform as a Service 51 5 Software as a Service 65 6 Tecnologia: virtualização
79
7 Conceito: Cloud
89
8 Cloud para particulares
107
9 Cloud para empresas
119
10 Cloud para programadores
127
11 Fornecedores de Cloud
137
12 Benchmarking 147 13 Aplicações de sucesso
155
14 O futuro da Cloud
169
Glossário 179 183
© FCA – Editora de Informática
Índice remissivo
VII
prefácio O Cloud Computing é um modelo de disponibilização e utilização de Tecnologias de Informação e Comunicação (TIC) que representa um grande desafio para a gestão das organizações. Como é apresentado nos capítulos iniciais deste livro, o Cloud Computing não é um modelo completamente disruptivo, representando antes uma evolução de modelos TIC anteriores. Beneficiando do surgimento de condições tecnológicas únicas (Internet de banda larga, elevada capacidade de computação a baixo custo, entre outros), o Cloud Computing permite que as TIC sejam reposicionadas dentro das organizações, transformando-se em verdadeiros catalisadores do seu desenvolvimento – as tecnologias deixam de ser uma “preocupação” para passar a ser um instrumento ágil, fiável e com elevado impacto. Através de um modelo simples em camadas, que abrange as principais áreas de intervenção das TIC, e com capacidade de suportar múltiplos cenários de utilização, dando reposta às necessidades das pequenas, médias e grandes organizações, o Cloud Computing cria uma camada de abstração – a que podemos chamar nuvem –, que permite eliminar a complexidade tecnológica e potenciar o impacto das TIC nas organizações.
© FCA – Editora de Informática
No entanto, este processo de reposicionamento das TIC, seguindo o modelo Cloud Computing, obriga a uma alteração profunda na forma como as organizações fazem uso destas ferramentas, o modelo “utilizador pagador”, ou modelo de TIC como um serviço, e contribui para o surgimento de questões em áreas como a segurança e proteção de dados, a localização da informação, ou mesmo o desafio da utilização dos recursos internos em oposição, ou articulação, com recursos disponibilizados por um fornecedor externo. Como é apresentado na secção “Mitos sobre a Cloud”, e abordado em detalhe nos capítulos dedicados à utilização da Cloud pelos “utilizadores comuns”, como todos nós, pelas empresas em geral, e ainda pelos fornecedores, incluindo programadores, é possível comprovar, ou desmistificar, que a maioria destes receios e dúvidas não tem fundamento. Como é também salientado no decorrer deste livro, é ainda possível demonstrar que, na sua maioria, as soluções Cloud Computing apresentam desempenhos
XI
introdução ao cloud computing
consideravelmente superiores aos apresentados pelas soluções tradicionais implementadas nas nossas organizações. Poderá ser referido que há ainda um caminho longo a percorrer até que o modelo de Cloud Computing seja o modelo de eleição, ou a norma na maioria das organizações, no entanto, e como é apresentado de forma concreta, é possível afirmar que o caminho em direção a uma utilização plena do modelo de Cloud Computing está a ser percorrido de forma consistente. O enorme entusiasmo em torno do modelo, e a contínua procura por mais conhecimento sobre o tema, deverá ser acompanhado por ferramentas de apoio que nos apresentem uma visão abrangente e integrada, suportada por casos de estudo. Este livro propõe uma estrutura que contempla de forma detalhada todos esses aspetos, equilibrando de forma muito inteligente e completa a componente técnica, de suporte, de modelo de governação e negócio e, ainda, a sua utilização em casos concretos. Abordar um modelo como o Cloud Computing, considerado por muitos como uma verdadeira revolução industrial, tão importante como a revolução industrial do início do século xx, não poderia ser feito sem a experiência e conhecimento do panorama das TIC como a que o António Miguel Ferreira possui. Com uma ligação quase umbilical ao desenvolvimento das TIC em Portugal, possui o conhecimento e experiência resultante de mais de 20 anos de presença ativa nas grandes mudanças do setor. Iniciando este percurso de forma quase emblemática, com a “aventura” da criação do primeiro fornecedor privado de Internet em Portugal, a partir do Porto, o António Miguel Ferreira rapidamente se posicionou como um eixo fundamental nos grandes movimentos de disrupção, que lhe permite agora apresentar com inteligência, e segurança, esta visão prática sobre o Cloud Computing e o seu impacto nas nossas organizações. Paulo Calçada Presidente da Eurocloud Portugal Vice-presidente da Eurocloud Europa
XII
1
A internet e as tecnologias de informação Tecnologias de Informação Internet
Introdução As Tecnologias de Informação (TI) utilizam os computadores e equipamentos de telecomunicações para arquivar, transmitir e manipular dados. É a área do conhecimento que lida com os meios eletrónicos (computadores e redes de computadores), que tratam a informação. Uns anos após surgir o conceito de TI, apareceu algo revolucionário – a Internet – a rede das redes, uma interligação de redes a nível global, pública, que utiliza o protocolo de Internet (IP).
As Tecnologias de Informação Aquilo que entendemos por TI tem definições diferentes, mas que coincidem em três elementos essenciais: computadores, redes e informação. Nesta definição, entenda-se “computadores” no sentido lato, ou seja, de equipamentos eletrónicos que lidam com a informação, processando-a (analisando-a) ou arquivando-a. As “redes” são os meios de telecomunicações que permitem interligar os computadores e transferir informação entre si. Um computador por si só é um elemento importante e revolucionou a forma como tratamos a informação. Mas o seu poder aumenta exponencialmente a partir do momento em que o mesmo se encontra interligado, em rede, com outros computadores.
© FCA – Editora de Informática
Não há dúvida de que as TI são hoje uma das mais importantes áreas do conhecimento e da evolução da nossa sociedade, sendo um elemento essencial e transversal a praticamente toda a atividade humana. A Gartner1 estima que em 2012 o gasto em TI em todo o mundo excedeu os 3,6 triliões de dólares (3 600 000 000 000 000 000 dólares).
A Gartner (http://www.gartner.com) é a principal empresa mundial de consultoria, pesquisa e aconselhamento na área das TI.
1
3
introdução ao cloud computing
Hardware e Software De uma forma simplista, toda a atividade na área de TI assenta, além do conhecimento humano, em duas componentes: hardware e software. Estes dois termos, apesar de serem ingleses, tornaram-se comuns e são utilizados sempre da mesma forma na maioria das línguas. O hardware é o conjunto de elementos físicos de um sistema de computador como, por exemplo, o processador, motherboard, teclado, ecrã, chips de memória, etc., ou seja, tudo aquilo que se pode de facto “tocar”. Por outro lado, o software é “intocável”, não tem existência física. O software consiste nas ideias, aplicações, algoritmos, conceitos, dados, etc. O software é a lógica, é o conjunto de instruções que faz com que um computador desempenhe uma determinada tarefa. Num sentido mais restrito, o software designa apenas as aplicações instaladas num computador como, por exemplo, o Microsoft Word2. A combinação de hardware (equipamento) e software (aplicação) é o que permite formar um sistema de computador utilizável, para executar determinadas tarefas.
A Internet Uns anos após a conceção da expressão TI, foi criada a primeira interligação entre redes locais, a Arpanet3, precursora da Internet, a rede das redes. Inicialmente utilizada nos meios militares e académicos, só na década de 1990 é que a Internet se começou a tornar naquilo que é atualmente – uma rede global presente em todo o mundo, que interliga praticamente um terço da população mundial. O boom da Internet deu-se já no final da década de 1990, altura em que a maioria das pessoas se começou a ligar em casa, com ligações por modem4 e, mais tarde, através de ADSL5. O modem permitia inicialmente velocidades de acesso de 4800 bps (bits por segundo), depois 9600 bps, em 1992 permitia já 14.4 Kbps, em 1994 O Word, da Microsoft, é o processador de texto mais utilizado em todo o mundo e existe em diversas plataformas, como o PC e o Mac. 3 A Arpanet, precursora da Internet, foi criada em 1969 nos EUA e interligava inicialmente quatro locais: UCLA (Los Angeles), UCSB (Santa Barbara), SRIARC (Stanford), UU (Utah). 4 Um modem é um equipamento que permite a comunicação de dados numa linha telefónica tradicional, modulando e demodulando o sinal analógico característico das chamadas de voz, que essas linhas suportavam. 5 A tecnologia ADSL (Asymmetrical Digital Subscriber Line) permite utilizar um maior espectro de sinal, nas linhas telefónicas de cobre, através da utilização de frequências não utilizadas pelas chamadas de voz. Assim, na mesma linha telefónica, conseguiam-se transmitir dados a velocidades muito mais elevadas do que as permitidas pelos modems (que utilizavam apenas as frequências dedicadas à voz). 2
4
A Internet e as Tecnologias de Informação
28 Kbps, evoluindo até aos 56 Kbps (1996). Compare-se esta velocidade de acesso à Internet com a ADSL, que permitia desde os 256 Kbps, 512 Kbps ou 1 Mbps, até, mais tarde, 8 Mbps, 16 Mbps ou mesmo 24 Mbps. Hoje em dia os acessos por cabo ou fibra são uma opção já comum em todas as casas, podendo atingir velocidades que chegam até aos 100 Mbps ou mesmo 200 Mbps. A Internet revolucionou a indústria das telecomunicações, habituada aos faxes, linhas de dados X.25 ou linhas dedicadas de elevado custo, democratizando as comunicações de dados, tornando-as acessíveis às empresas e às pessoas em geral. A Internet revolucionou também a própria indústria das TI, ao criar um novo conjunto de áreas de especialidade, de serviços e produtos, novas formas de comunicar, tratar dados e realizar negócios.
Do mainframe, ao cliente-servidor e à Cloud
© FCA – Editora de Informática
Até aos anos 70 do século xx, e mesmo durante o início dos anos 80, as TI estavam apenas ao alcance das médias e grandes empresas, dos governos e das universidades. A forma tradicional de utilizar sistemas de computadores era através de mainframes – computadores de elevado porte e capacidade computacional –, que centralizavam a capacidade de processamento e armazenamento de dados. Como eram equipamentos caros e que requeriam manutenção e cuidados na sua gestão, estavam habitualmente instalados em salas de informática ou datacenters (centro de dados) reservados. Para aceder aos mesmos, os utilizadores usavam terminais chamados “estúpidos”, na medida em que não tinham capacidade de processamento, tinham apenas um ecrã e um teclado, que permitiam interagir com o sistema central. Esta arquitetura de mainframes e terminais estava assente em redes locais apenas, ou seja, redes de dados instalados no âmbito de uma empresa ou de uma universidade. Nos anos 80, com o aparecimento do computador pessoal, do IBM PC, do MS-DOS6, do Mac e, mais tarde, do Windows, a informática democratizou-se. Os computadores e a sua capacidade de processamento passaram a ficar disponíveis em múltiplos locais, do escritório à casa. Em muitos casos, a capacidade de memória e de processamento destes computadores começou a permitir o desenvolvimento de aplicações mais complexas, que substituíram muitas das funções antes O Microsoft DOS (MS-DOS) foi um sistema operativo desenvolvido pela Microsoft, para equipar os computadores pessoais da IBM. Surgiu em 1981 e foi o sistema operativo mais popular para computadores pessoais. Foi o antecessor do Windows, hoje em dia ainda o sistema operativo mais utilizado em todo o mundo.
6
5
introdução ao cloud computing
desempenhadas pelos mainframes. Os computadores de maior capacidade (os servidores) passaram a equipar a maioria das empresas, tendo os respetivos colaboradores acesso a computadores pessoais, estes também com capacidade de processamento, tratamento de gráficos, armazenamento de informação, ao contrário dos antigos terminais “estúpidos”. Eram os terminais “inteligentes”. Esta capacidade computacional mais difundida permitiu que a arquitetura passasse a ser menos centralizada, a chamada arquitetura de “cliente-servidor”. Em vez de terminais sem capacidade de processamento acederem a um computador de elevada capacidade, passámos a ter computadores com alguma capacidade de processamento a aceder a computadores de maior dimensão, onde se alojavam as aplicações e dados centrais, os chamados servidores. Mas a carga computacional, o trabalho de processamento, podia ser dividida entre estes dois tipos de equipamentos e não ficar apenas no computador central. A Internet permitiu, entretanto, interligar todos estes computadores, criando uma rede mundial com acesso a uma capacidade de processamento quase infinita. Era quase como se tivéssemos um único megacomputador mundial… não fossem as comunicações da Internet serem lentas, muito mais lentas do que as comunicações internas de cada computador. No entanto, o advento de novas tecnologias de telecomunicações permitiu uma evolução rápida das velocidades de acesso à Internet, até que hoje em dia é comum termos acesso à Internet a 10 Mbps, 20 Mbps, 100 Mbps ou mesmo 200 Mbps (sendo naturalmente acessível às empresas velocidades ainda mais elevadas). A fibra ótica, as redes avançadas de cabo, as ligações Wi-Fi7 e as ligações móveis 3G e 4G8 criaram uma enorme capacidade de transmissão de dados. De repente, as comunicações deixaram de ser o bottleneck9 que impedia um maior fluxo de dados. Este é um dos motivos que proporcionou o aparecimento do Cloud Computing, como veremos um pouco mais à frente.
O Wi-Fi (Wireless Fidelity) é uma ligação de dados sem fios, em redes locais, de curto alcance (algumas dezenas ou centenas de metros), permitindo velocidades até 54 Mbps ou mais, dependendo do standard implementado. Atualmente é muito comum haver ligações Wi-Fi em locais privados (empresas) ou públicos (escolas, aeroportos, etc.), que permitem uma ligação à Internet, sem necessidade de ligar qualquer cabo. 8 As ligações móveis 3G e 4G, de terceira e quarta geração, permitem velocidades de transmissão de dados de 384 Kbps a 42 Mbps (3G) ou até 400 Mbps (4G), associadas à liberdade de movimentos, tornando o acesso móvel cada vez mais popular. 9 Bottleneck é uma expressão inglesa, frequentemente utilizada, que significa “gargalo da garrafa”, ou seja, o ponto da garrafa onde o fluxo do líquido “se atrasa”, devido ao menor diâmetro. Serve para designar um ponto ou local onde as comunicações ou o processamento são mais lentos, por ser o ponto de menor capacidade. 7
6
A Internet e as Tecnologias de Informação
Aquisição de hardware e software A indústria de hardware e software movimenta biliões de dólares todos os anos. Além do valor associado à venda de um equipamento ou de uma aplicação, os fabricantes ainda cobram muitas vezes contratos de suporte e manutenção desses mesmos equipamentos e aplicações às empresas. Para uma empresa, a forma tradicional de montar uma plataforma informática era, e ainda é, adquirir servidores, adquirir computadores, adquirir sistemas operativos e aplicações, adquirir equipamentos de rede para realizar tarefas de switching e routing, e contratar diretamente, ou subcontratar a terceiros, técnicos para fazer as instalações de todos estes equipamentos. Adquirir, comprar, implica capacidade de investimento. Por outro lado, a evolução das tecnologias é tão grande, que passados cerca de três a quatro anos, os equipamentos adquiridos estão obsoletos e é muitas vezes necessário proceder à sua substituição ou, no mínimo atualização (upgrade), o que implica mais investimento, mais horas de técnicos para realizar as respetivas instalações, portanto, mais custos. A menos que uma empresa esteja na área das TI ou seja prestadora de serviços de informática, não tem muitos recursos humanos disponíveis para tratar destas tarefas. Mesmo as empresas da área das TI provavelmente têm enfoque em áreas distintas da instalação e manutenção de equipamentos informáticos, o seu core business pode ser, por exemplo, desenvolver software à medida, dar formação, ou prestar serviços de consultoria e não propriamente instalar e gerir equipamentos informáticos. Este fator, a necessidade de investimento, é um outro motivo que proporcionou o aparecimento do Cloud Computing.
© FCA – Editora de Informática
Sobre e subdimensionamento Invariavelmente, a aquisição de recursos informáticos, como capacidade de computação (processadores), de armazenamento (disco), de memória (RAM), de largura de banda (rede), entre outros, resulta num compromisso, num equilíbrio entre aquilo que se prevê ser necessário e aquilo que se pode adquirir. Quando alguém decide fazer um investimento num novo computador, tem à partida definida a função ou funções desse computador. Pode ser para instalar o ERP10, uma intranet
10
ERP (Entreprise Resource Planning) é a forma habitual de designar o conjunto de aplicações de software que permite gerir as várias áreas de uma empresa: contabilidade, recursos humanos, logística, etc.
7
introdução ao cloud computing
colaborativa, realizar testes de um novo sofware, ou para o serviço de email, entre outras infinitas funções possíveis. Além de prever o objetivo para o qual será utilizado esse computador, é feita também uma previsão dos recursos necessários: que tipo de sistema operativo, capacidade de RAM, tipo de processador, capacidade de armazenamento. Habitualmente, as estimativas são sempre arredondadas por excesso, para o tempo de vida útil do computador, ou seja, se prevemos necessitar de cerca de 5 TB de dados para o volume de informação que iremos tratar, colocamos 10 TB ou mais, para contemplar o crescimento desse mesmo volume de informação. Se o fabricante do software indica que é necessário ter 16 GB de RAM, para o conjunto de aplicações que iremos instalar, jogamos pelo seguro e colocamos 32 GB, pois certamente serão necessários para novas versões da aplicação, ou para que a capacidade acrescida de RAM nos permita otimizar a velocidade de execução do sofware. A falta de flexibilidade na gestão dos recursos – pois os upgrades poderão não ser possíveis ou, mesmo que o sejam, a sua realização pode ser morosa e implicar investimento adicional – faz com que habitualmente haja uma decisão no sentido de adquirir mais capacidade do que aquela que é necessária. Caso o planeamento não tenha sido correto, a decisão pode ter sido a de adquirir menos recursos do que os necessários. Porque é que adquirimos capacidade que não utilizamos? Porque é que investimos mais do que aquilo que seria realmente necessário? A razão prende-se com a pouca flexibilidade na gestão de recursos e a tentativa de evitar contratempos futuros. Mas, efetivamente, este sobredimensionamento significa desperdício de dinheiro, não só na aquisição, como na operação (mais recursos, significam maior consumo energético). A virtualização, uma das tecnologias subjacentes à Cloud, veio resolver este problema, ao permitir que a capacidade de recursos contratada por uma empresa ou particular seja alterável a qualquer momento de acordo com as necessidades. Deixa de ser necessário “adivinhar” a capacidade de que necessitamos, assumindo um compromisso ao realizar o investimento. Passa a ser possível adquirir apenas a capacidade que planeamos necessitar, adaptando-a (reduzindo ou aumentando), sempre que cheguemos à conclusão de que contratámos em excesso ou por defeito. A Cloud pública (ou de comunidade) – em que os recursos são partilhados por várias entidades, como veremos no capítulo seguinte – eleva os benefícios da virtualização a um outro patamar, pois permite otimizar a utilização de recursos. 8
A Internet e as Tecnologias de Informação
© FCA – Editora de Informática
A capacidade de armazenamento que uma empresa não necessita, num momento, poderá ser utilizada por outra empresa que dela necessite nesse instante. Aquilo que seria a sobrecapacidade ou a subutilização de recursos (e consequente desperdício) deixa, assim, praticamente de acontecer.
9