gestÃo da configuraÇÃo em ambientes...

76
UNIVERSIDADE DE BRASÍLIA FACULDADE DE TECNOLOGIA DEPARTAMENTO DE ENGENHARIA ELÉTRICA GESTÃO DA CONFIGURAÇÃO EM AMBIENTES VIRTUALIZADOS: UM ESTUDO APLICADO EM ORGANIZAÇÕES GOVERNAMENTAIS. FERNANDO PARENTE ANDRADE ORIENTADORA: ELIANE CARNEIRO SOARES MONOGRAFIA DE ESPECIALIZAÇÃO EM GESTÃO DE SEGURANÇA DA INFORMAÇÃO PUBLICAÇÃO: 12 /2012 BRASÍLIA / DF: DEZEMBRO/2012

Upload: dangkhuong

Post on 09-Nov-2018

216 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDADE DE BRASÍLIA

FACULDADE DE TECNOLOGIA

DEPARTAMENTO DE ENGENHARIA ELÉTRICA

GESTÃO DA CONFIGURAÇÃO EM AMBIENTES

VIRTUALIZADOS: UM ESTUDO APLICADO EM

ORGANIZAÇÕES GOVERNAMENTAIS.

FERNANDO PARENTE ANDRADE

ORIENTADORA: ELIANE CARNEIRO SOARES

MONOGRAFIA DE ESPECIALIZAÇÃO EM GESTÃO DE

SEGURANÇA DA INFORMAÇÃO

PUBLICAÇÃO: 12 /2012

BRASÍLIA / DF: DEZEMBRO/2012

ii

iii

UNIVERSIDADE DE BRASÍLIA

FACULDADE DE TECNOLOGIA

DEPARTAMENTO DE ENGENHARIA ELÉTRICA

GESTÃO DA CONFIGURAÇÃO EM AMBIENTES

VIRTUALIZADOS: UM ESTUDO APLICADO EM

ORGANIZAÇÕES GOVERNAMENTAIS.

FERNANDO PARENTE ANDRADE

MONOGRAFIA DE ESPECIALIZAÇÃO EM GESTÃO DE

SEGURANÇA DA INFORMAÇÃO SUBMETIDA AO

DEPARTAMENTO DE ENGENHARIA ELÉTRICA DA FACULDADE

DE TECNOLOGIA DA UNIVERSIDADE DE BRASÍLIA, COMO

PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO

GRAU DE ESPECIALISTA.

APROVADA POR:

ELIANE CARNEIRO SOARES, Mestre, SEDF

(ORIENTADOR)

LAERTE PEOTTA DE MELO, Doutor, UnB

(EXAMINADOR INTERNO)

EDNA DIAS CANEDO, Doutora, UNB

(EXAMINADOR EXTERNO)

DATA: BRASÍLIA/DF, 06 DE DEZEMBRO DE 2012.

v

FICHA CATALOGRÁFICA ANDRADE, Fernando Parente. Gestão da Configuração em Ambientes Virtualizados: Um Estudo

Aplicado em Organizações Governamentais. [Distrito Federal] 2012.

XVII, 59 p., 297 mm (ENE/FT/UnB, Especialista, Engenharia Elétrica, 2012).

Monografia de Especialização – Universidade de Brasília, Faculdade de Tecnologia. Departamento de

Engenharia Elétrica.

1. Virtualização 2. Governança

3. Gestão 4. Entidades Governamentais

I. ENE/FT/UnB. II. MFE.037 /2012

REFERÊNCIA BIBLIOGRÁFICA

Andrade, Fernando Parente. (2012). Gestão da Configuração em Ambientes Virtualizados: Um

Estudo Aplicado em Organizações Governamentais. Monografia de Especialização, Publicação

UnBLabRedes.MFE.037 /2012, Departamento de Engenharia Elétrica, Universidade de Brasília,

Brasília , DF, 59 p.

CESSÃO DE DIREITOS

NOME DO AUTOR: Fernando Parente Andrade

TÍTULO DA MONOGRAFIA: Gestão da Configuração em Ambientes Virtualizados: Um Estudo

Aplicado em Organizações Governamentais.

GRAU/ANO: Especialista/2012.

É concedida à Universidade de Brasília permissão para reproduzir cópias desta Monografia de

Especialização e para emprestar ou vender tais cópias somente para propósitos acadêmicos e

científicos. Do mesmo modo, a Universidade de Brasília tem permissão para divulgar este

documento em biblioteca virtual, em formato que permita o acesso via redes de comunicação e a

reprodução de cópias, desde que protegida a integridade do conteúdo dessas cópias e proibido o

acesso a partes isoladas desse conteúdo. O autor reserva outros direitos de publicação e nenhuma

parte deste documento pode ser reproduzida sem a autorização por escrito do autor.

Fernando Parente Andrade

Av. Central AE 19 lote A

CEP 71710585 – Brasília – DF - Brasil

vii

Dedico esse trabalho as pessoas que sempre estiveram junto a mim.

Em especial a minha esposa Patrícia, que me deu forças para continuar quando não mais as

havia, que está presente, que nunca duvidou do que existe entre nós, que me norteia, que

me auxilia e que me dá o prazer de tê-la em minha vida.

A minha filha Júlia, pois se não fosse ela, não estaria buscando novas formas de

aperfeiçoamento acadêmico para poder-lhe sempre dar-lhe o que mereces.

A minha mãe, meu refugio nos momentos difíceis, minha consciência quando me sinto

perdido, minha amiga quando necessito, meu puxão de orelha para lembrar-me de onde

vim.

Dedico esse trabalho a vocês, pois sem vocês eu não seria quem hoje eu sou.

ix

AGRADECIMENTOS

A minha orientadora Prof.ª Eliane Carneiro Soares, pelo apoio, paciência, incentivo,

dedicação e conhecimento, que contribuiu muito para que esse trabalho fosse finalizado.

Aos alunos companheiros do curso de Gestão em Segurança da Informação da UNB

Departamento de Engenharia Elétrica, por vencermos juntos este processo.

A Empresa Brasileira de Pesquisa Agropecuária – EMBRAPA, por acreditar que a

pesquisa leva o país a evoluir, e que seus funcionários são os maiores talentos para isso,

por seu apoio total, pelo custeio do curso.

A todos, os meus sinceros agradecimentos.

xi

RESUMO

O trabalho apresentado nesse estudo de caso visa discutir como gerenciar e melhorar

a gestão da configuração em ambientes virtualizados, embasados na pesquisa de

autores relativos aos temas virtualização, governança de TI e ferramentas de análise

na organização. De modo a apresentar melhores práticas para gestão de configuração

de ambientes virtualizados, com ênfase em entidades governamentais.

A evolução tecnológica apresentada nos últimos anos, aliada ao aumento do poder

computacional e novos temas de Ti, aliado ao fato de empresas governamentais serem

de grande infraestrutura de TI vem por necessidade se implementar a virtualização.

A gestão da configuração em ambientes virtualizados é um processo de administração

e gerência de TI crítico e deve ser tratado com maior atenção.

Implementar segurança e virtualização em conjunto com uma boa gerência de

recursos é a chave para o sucesso do tema.

O estudo aqui aplicado demonstra de forma teórica e pratica os pontos chaves, os

benefícios, as preocupações das empresas e gestores, os pontos negativos e de atenção

que devem ser levados em conta durante o processo de virtualização de servidores e

desktops. Visualizaremos todos os quesitos técnicos do tema virtualização, seus modos

de uso e aplicações, estudaremos a governança corporativa e a governança de TI,

aplicaremos os estudos em um ambiente totalmente configurado a partir do início e

aplicaremos todos os pilares de segurança e conformidade nesse ambiente, levando

assim a conclusão inevitável, a virtualização veio para ficar e seu futuro só promete

maior crescimento e integração com outros dispositivos.

Palavras chave: Governança, virtualização, VMWare, Desktops.

xii

xiii

ABSTRACT

The work presented in this case study is to discuss how to manage and improve

configuration management in virtualized environments, based on the research of

authors on topics of virtualization, IT governance and analysis tools in the

organization. In order to present best practices for configuration management of

virtualized environments, with emphasis on governmental entities.

Technological developments made in recent years, coupled with increased computing

power and new topics You, coupled with the fact companies are large government IT

infrastructure comes from necessity to implement virtualization.

The configuration management in virtualized environments is a process of

administration and management of critical IT and should be treated more carefully.

Implement security and virtualization together with good management of resources is

the key to the success of the theme.

The study applied here demonstrates the theoretical and practical key points,

benefits, and concerns of business managers, and the negative points of attention that

should be taken into account during the process of virtualizing servers and desktops.

We view all the technical issues of the theme virtualization, its applications and usage

modes we study corporate governance and IT governance, we will apply their studies

in a fully configured environment from the beginning and apply all pillars of security

and compliance in this environment, leading so the inevitable conclusion,

virtualization is here to stay and their future only promises greater growth and

integration with other devices.

Keywords: Governance, virtualization, VMWare, desktops.

xv

ÍNDICE

1. INTRODUÇÃO ................................................................................ 1

1.1. OBJETIVOS .................................................................................................................... 2

1.1.1. Objetivo Geral ........................................................................................................ 2

1.1.2. Objetivos Específicos ............................................................................................. 3

1.2. JUSTIFICATIVA ............................................................................................................. 3

1.3. METODOLOGIA ............................................................................................................ 4

1.4. ORGANIZACAO DO TRABALHO ..................................................................................... 5

2. REFERENCIAL TEÓRICO. .......................................................... 7

2.1. VIRTUALIZAÇÃO .......................................................................................................... 7

2.1.1. A virtualização para a arquitetura x86 ............................................................... 9

2.1.2. Conceitos de virtualização .................................................................................. 10

2.1.3. Máquinas virtuais ................................................................................................ 13

2.1.4. Virtual Machine Monitor (VMM) ...................................................................... 14

2.1.4.1. Propriedades do VMM ................................................................................. 15

2.1.4.2. Classificação das VMs .................................................................................. 17

2.1.4.3. Máquina virtual de aplicação ...................................................................... 18

2.1.4.4. VMs de linguagem de alto-nível .................................................................. 19

2.1.4.5. Máquina virtual de sistema ......................................................................... 20

2.1.5. Benefícios da Virtualização ................................................................................. 23

xvi

2.2. GOVERNANÇA ............................................................................................................ 25

2.3. CONTROL OBJECTIVES FOR INFORMATION AND RELATED TECHNOLOGY.............. 26

2.3.1. Critérios de Informação do CobiT ..................................................................... 28

2.3.2. Modelo de Maturidade ........................................................................................ 32

2.3.3. A Estrutura do modelo CobiT ............................................................................ 34

2.4. PROCESSO DO COBIT DS9 - GERENCIAR A CONFIGURAÇÃO ............................ 35

2.4.1. Objetivos de Controle Detalhados ...................................................................... 36

2.5. O AMBIENTE VMWARE ............................................................................................ 37

2.5.1. VSphere ................................................................................................................ 38

2.5.2. VMWare View ..................................................................................................... 40

3. GESTÃO DA CONFIGURAÇÃO EM AMBIENTES

VIRTUALIZADOS: UM ESTUDO APLICADO EM ORGANIZAÇÕES

GOVERNAMENTAIS. .............................................................................. 42

4. RESULTADOS ESPERADOS ...................................................... 51

5. CONCLUSÃO ................................................................................ 56

REFERÊNCIAS BIBLIOGRÁFICAS ...................................................... 58

xvii

1

1. INTRODUÇÃO

Com o aumento da capacidade computacional, dos recursos das estações de

trabalho, da capacidade de servidores e o mais recente tema a TI verde. A virtualização de

servidores e estações vem para maximizar o uso de recursos, reduzir gastos, e aumentar a

agilidade do manejo de recursos e configurações.

O tema proposto por este trabalho abordará uma estrutura de virtualização

utilizando uma nuvem privada com o uso de softwares da empresa VMWare e a utilização

do Control Objectives for Information and related Technology (COBIT) mais precisamente

do processo DS9 Gestão da Configuração.

O ambiente do projeto estudado aborda uma empresa governamental, nesse estudo,

o Ministério da Agricultura, Pecuária e Abastecimento (MAPA). Entidades

governamentais como MAPA são peças importantes na configuração do país como

gerenciador, normatizador e fiscal. O computador é uma das maiores ferramentas do

mundo moderno, porém em larga escala como nas redes governamentais, o gerenciamento

de segurança e recursos por muitas vezes se dá de forma incompleta, devido a diferentes

modelos e ou fornecedores de equipamentos, de características de rede, de versões de

sistemas operacionais, dentre outros. Alguns problemas relacionados à segurança da

informação são encontrados atualmente em diversas organizações governamentais, tais

como os citados.

A virtualização de servidores com foco em segurança, utilizando as melhores

práticas visa minimizar os impactos e a subutilização de recursos computacionais em

ambientes governamentais.

A grande questão circunda sobre do por que virtualização. De acordo com

(Tulloch) a virtualização vem porque os tempos mudaram. Com a economia global em

crise, a principal preocupação para muitas empresas é a sobrevivência, como manter as

luzes acesas. E virtualização com seus ganhos potenciais de eficiência e capacidade de

baixar custos, é vista por muitas empresas como uma estratégia-chave para permitir a sua

sobrevivência futura no mercado. A sobrevivência não é sua única preocupação, no

entanto. Com base em pesquisas realizadas pela Microsoft, algumas preocupações

específicas das empresas neste momento da história incluem:

2

Como controlar as despesas de capital (CAPEX) e fazer despesas

operacionais (OPEX) mais previsíveis;

Como agregar valor ao negócio, oferecendo serviços mais rápidos ainda

mais baratos;

Como tornar seu negócio mais "verde", evitando maiores custos de energia;

Como garantir a segurança, proteger a privacidade, e atender às normas de

conformidade e padrões.

Estas são algumas das principais preocupações que estão conduzindo as decisões de

gastos das empresas de hoje, e a virtualização pode resolver cada uma dessas

preocupações. Um estudo recente realizou uma pesquisa junto aos Chief Information

Officers (CIOs) e indicou que mais de um terço dos inquiridos identificaram servidor,

armazenamento e virtualização em nuvem como condutores de suas decisões de gastos

para 2009 e 2010, e quase um quarto dos entrevistados também identificaram a

virtualização de desktops como pontos semelhantes. O estudo indicou ainda que a

virtualização influencia suas decisões de gastar, mais do que questões como a otimização

de trabalho, de computação sem fio, computação verde, ou questões de segurança.

No ambiente governamental também existem as mesmas preocupações. Como

resultado dessas preocupações, as empresas mais do que nunca estão investigando como as

plataformas de virtualização, produtos e soluções podem ajudá-los a resolver as suas

preocupações. Em outras palavras, as empresas mais do que nunca estão se alinhando com

o conceito de TI Dinâmica, uma estratégia para a implementação de infraestruturas de TI

que podem automaticamente ajustar-se às mudanças nas condições dos cenários, alinhando

recursos de computação com os objetivos de negócios.

1.1. OBJETIVOS

1.1.1. Objetivo Geral

Oferecer um ambiente mais seguro por meio da gestão da configuração em

ambientes virtualizados com foco em segurança e no uso de servidores virtuais em

entidades governamentais.

3

1.1.2. Objetivos Específicos

Implementar o uso de servidores virtuais para o estudo de caso com foco em

gestão de configuração em comparação com o modelo tradicional de

servidores através do uso de softwares especializados em virtualização.

Aplicar os pilares da segurança nos servidores e estações virtualizados.

Desenvolver a gestão da configuração em ambientes virtualizados orientada

pelo processo DS9 (Gerenciar a Configuração) do COBIT.

Analisar o uso dos servidores virtualizados nos quesitos de manutenção e

disponibilidade.

Demostrar a dinamicidade da virtualização ao usuário por meio dos

processos de gestão de configuração.

1.2. JUSTIFICATIVA

Com o passar dos anos estamos vivendo uma atualização tecnológica jamais vista

em outros tempos. Nos últimos 50 anos o homem evoluiu como nunca antes na história da

humanidade. Se voltarmos a 15 ou 20 anos atrás, os computadores ainda estavam

engatinhando na sociedade ao qual vivemos. Porém nos últimos cinco anos essa ferramenta

poderosa para o trabalho evoluiu muito e se difundiu de maneira assustadora.

Basicamente tudo hoje em dia é controlado por algum tipo de computador, desde o

seu aparelho de celular, até as centrais de energia nuclear que gerem todo o processo de

energia elétrica oriundo desse material. Os computadores estão cada vez mais rápidos e

mais utilizados em nossa vida.

O aumento do poderio computacional e a diversidade de sistemas e aplicações

exigem que medidas sejam tomadas para diminuir o uso de recursos para aquisição e

manutenção de redes e sistemas de computadores.

O governo aqui citado e representado pelo MAPA também tem como missão

“Promover o desenvolvimento sustentável e a competitividade do agronegócio em

4

benefício da sociedade brasileira.” E para isso utiliza de uma extensa rede de computadores

e diversos sistemas, para atingir sua missão para o cliente dele, nesse caso o Brasil como

um todo.

A virtualização vem para minimizar impactos e maximizar os resultados obtidos

com sua aplicação. Hoje o governo tem que demonstrar e explicar o que está sendo gasto e

como está sendo gasto. Na maioria das entidades de governo, ministérios por exemplo,

existe algum tipo de virtualização de servidores ou desktops, seja de um ou de vários

fornecedores diferentes. A virtualização é um caminho sem volta a tendência é de um

crescimento cada vez maior em sua utilização.

Esse estudo de caso visa abordar como gerir ambientes virtualizados para que se

obtenha o melhor aproveitamento da infraestrutura existente.

1.3. METODOLOGIA

A pesquisa abordará o uso de servidores virtuais e a gestão de configuração em uma

nuvem privada, podendo então ser caracterizada como pesquisa aplicada, aonde objetiva

gerar conhecimentos para aplicação prática dirigida à solução de problemas específicos.

Envolvendo verdades e interesses locais.

Como método escolhido foi o indutivo, método proposto pelos empiristas Bacon,

Hobbes, Locke e Hume. Que considera que o conhecimento é fundamentado na

experiência, não levando em conta princípios preestabelecidos. No raciocínio indutivo a

generalização deriva de observações de casos da realidade concreta. As constatações

particulares levam à elaboração de generalizações.

Para isso será configurado o ambiente para a execução do estudo de caso que

deverá estudar os servidores virtuais, a gestão de configuração, a segurança nos canais de

rede e a disponibilização de servidores virtuais aos usuários.

Essas configurações serão realizadas em paralelo a estrutura já existente para efeito

comparativo e de análise.

Serão analisados dados de ferramentas de gestão de configuração tais como

Windows Server Update Services (WSUS), Microsoft System Center Configuration

5

Manager (SCCM), VMWare View (VDI) com os obtidos na implantação das ferramentas

para o estudo de caso.

Os dados colhidos por essas ferramentas serão analisados de forma textual para um

bom entendimento de todo o processo e as melhorias por ele descritas.

1.4. ORGANIZACAO DO TRABALHO

O presente trabalho foca em gestão da configuração em ambientes virtualizados em

entidades governamentais e foi divido em capítulos para melhor apresentação do conteúdo.

Neste primeiro capítulo foi feita uma introdução ao assunto a ser tratado,

apresentando o contexto ao qual se insere o estudo de caso, as motivações do trabalho

nesta área e os objetivos que este trabalho espera alcançar.

O capítulo 2 tem por objetivo apresentar a evolução da virtualização e como foram

inicialmente concebidas. Além disso, mostrar como a virtualização passou do contexto dos

mainframes e acabou seguindo para a arquitetura x86. Apresenta também as máquinas

virtuais, com suas classificações e tipos. Serão abordadas as técnicas de virtualização,

passando pelos desafios que a arquitetura x86 apresenta para a virtualização, a

virtualização clássica e demais técnicas. Neste capítulo serão apresentados também

exemplos de máquinas virtuais. Discute ainda, o conceito e a classificação da virtualização

de aplicação, apresentando também exemplos de soluções já existentes com suas

características. Apresenta ainda em forma de tópicos os benefícios das empresas ao

adotarem a virtualização. Introduz o conceito de governança e o que representa o

alinhamento da TI com o negócio. Demostra como o Control Objectives for Information

and related Technology (COBIT) é estruturado, mostrando seus domínios, processos, os

critérios de informação e o modelo de maturidade. Mostra em específico o processo DS9

do COBIT, a gestão da configuração, descrevendo o que deve e como deve ser

implementado e suportado na organização. Descreve os softwares utilizados neste trabalho

e demostra a empresa e sua relevância no mercado.

O capítulo 3 descreve o ambiente governamental escolhido, as opções por

virtualização e a preparação do ambiente de estudo realizando as instalações dos softwares

analisados.

6

O capítulo 4 descreve o que pretende ser alcançado e o que deve ser implementado

para que os resultados possam ser atingidos de forma a alinhar a virtualização e a

governança.

O capítulo 5 conclui o trabalho, fazendo um comparativo com a introdução,

demonstra a integração do processo escolhido com o tema proposto e mostra uma visão do

que se espera do futuro com virtualização.

7

2. REFERENCIAL TEÓRICO.

2.1. VIRTUALIZAÇÃO

Desde a criação dos computadores eletrônicos por Von Neumann na década de 40,

até os dias atuais, os sistemas computacionais vêm sofrendo constante evolução. Até o

início da década de 80, os computadores eram grandes e caros. Segundo a lei de Grosch, o

poder computacional de uma CPU era proporcional ao quadrado de seu preço (EIN-DOR,

1985). Desta forma, as empresas tinham um elevado custo com enormes máquinas para

terem seus requisitos computacionais atendidos.

A partir da segunda metade da década de 80, o desenvolvimento de

microprocessadores e avanços nas tecnologias de redes de computadores mudou esta

situação e possibilitaram o surgimento de técnicas de compartilhamento de recursos das

máquinas.

A origem das máquinas virtuais remonta ao início dos anos 70. Nessa época, era

comum que cada computador (mainframe), mesmo de um único fabricante, tivesse seu

próprio sistema operacional, e isso se tornou uma das principais razões para o

aparecimento das máquinas virtuais: permitir que software legado executasse nos caros

mainframes. Na prática, o software não incluía apenas a aplicação, mas sim todo o

ambiente operacional sobre o qual ele executava. Essa abordagem foi usada com sucesso

pela IBM que, na linha de mainframes 370 e seus sucessores, oferecia uma máquina

virtual, portada para várias de suas plataformas, sobre a qual as aplicações executavam.

Dessa forma era possível executar, ou migrar, uma aplicação de uma plataforma para outra

desde que houvesse uma versão de máquina virtual para a plataforma alvo. Uma máquina

virtual nada mais é que uma camada de software que oferece um ambiente completo muito

similar a uma máquina física. Com isso, cada máquina virtual pode ter seu próprio sistema

operacional, bibliotecas e aplicativos.

Hoje, computadores baseados na arquitetura x86 estão frentes ao mesmo problema

do subaproveitamento de recursos que os mainframes encontraram naquela época. Várias

empresas como VMWare e Microsoft a partir da década de 90 visualizaram essa

oportunidade e entraram no mercado desta arquitetura.

8

O conceito de multiprogramação para spooling de aplicações pôde ser observado no

começo da década de 60 com o projeto ATLAS. Este projeto foi um esforço entre a

universidade de Manchester e a companhia Ferranti Ltda. De acordo com os projetistas, o

ATLAS era formado por um supervisor de rotinas, que era ativado por interrupções ou por

instruções nos programas em execução. Uma espécie de precursor da “máquina virtual”

como conhecemos hoje foi utilizado para o supervisor e outra usada para executar os

programas.

Na metade da década de 60, o conceito de máquina virtual foi utilizado pela IBM

como uma forma de dividir recursos dos mainframes através de máquinas virtuais

separadas de forma lógica. Essas partições permitiam aos mainframes trabalharem de

forma multitarefa, ou seja, executando múltiplas aplicações e processos ao mesmo tempo.

O projeto M44/44X teve sua arquitetura baseada em máquinas virtuais, a máquina

principal foi a IBM7044 (corresponde a M44 do nome do projeto) e as máquinas adjacente,

uma cópia da principal, operando no mesmo espaço de memória do M44, implementado

através de memória virtual e multiprogramação.

Nesta época a IBM proveu um IBM 704, uma série de atualizações de hardware e

acesso para alguns de seus engenheiros de sistema para o MIT (Massachusetts Institute of

Technology). Sobre as máquinas da IBM foi que o MIT desenvolveu o CTSS (Compatible

Time Sharing System), onde o programa supervisor agora tratava I/O dos consoles,

agendamento das tarefas, armazenamento temporário e recuperação de programas durante

o swap, monitoramento de discos e etc. O supervisor tinha controle total sobre todas as

interrupções das máquinas virtuais em execução. Durante essa época a IBM trabalhava na

montagem da família de computadores 360. O MIT no final de 1963 desenvolveria o

projeto MAC baseado nos avanços em time sharing do CTSS, que mais tarde originaria o

Multics. Multics (Multiplexed Information and Computing Service), que era um conceito

muito adiante do seu tempo, foi o primeiro sistema operacional de tempo compartilhado. A

última instalação operacional do Multics foi desligada apenas em 31 de outubro do ano de

2000. Neste projeto o MIT foi apoiado pela General Electrics usando o GE645 ao invés das

máquinas da IBM.

Sem levar em consideração essa “perda”, a IBM foi uma importante força no

campo de pesquisa de virtualização. Um grande número de sistemas virtualizados foram

inventados com base nas pesquisas executadas pela IBM. Tipicamente as máquinas virtuais

da IBM eram cópias idênticas do hardware base. Um componente chamado Virtual

9

Machine Monitor (VMM), executava diretamente sobre o hardware real. Múltiplas

máquinas virtuais podiam ser criadas através do VMM e cada uma dessas instâncias

executava seu próprio sistema operacional. A herança hoje deixada pelas máquinas virtuais

da IBM é muito respeitada e considerada plataformas robustas de computação (Singh,

2008).

2.1.1. A virtualização para a arquitetura x86

Durante a década de 80, a virtualização foi esquecida quando aplicações cliente-

servidor, os ainda inexpressivos servidores na arquitetura x86 e os computadores desktop,

estabeleceram um novo modelo de computação distribuída (VMWare Inc, 2008). As

empresas e organizações utilizaram o baixo custo dos sistemas distribuídos para montar

suas infraestruturas ao invés de compartilhar os recursos utilizando dos modelos de

mainframes. À medida que os computadores começaram a se tornar mais comuns, a

quantidade de sistemas operacionais convergiu para algumas poucas famílias (Unix,

Macintosh e Microsoft), cada uma com seu público-alvo e seu conjunto de aplicativos,

consolidaram praticamente para todo o futuro o uso da arquitetura x86 em pequenas,

médias empresas e nos lares em geral.

O crescente uso dessa arquitetura introduziu novos desafios operacionais para a

infraestrutura de TI, dentre eles:

Subutilização da Infraestrutura: Servidores x86 tipicamente atingiam

somente de 10 a 15% do total de sua capacidade, de acordo com o IDC

(Internantional Data Corporation). Tipicamente as organizações

executavam apenas uma aplicação por servidor, para evitar o risco de uma

aplicação afetar a disponibilidade da outra.

Alto custo no crescimento da infraestrutura: O custo para se aumentar a

infraestrutura começava a aumentar rapidamente. O aumento implicava na

estrutura física, resultando em consumo de energia, sistemas de refrigeração

e etc. O custo era maior se levarmos em consideração que o nível de

complexidade dos sistemas tornava-se cada vez mais necessitado de pessoas

especializadas e experientes, elevando ainda mais o custo do gerenciamento

de TI.

Devido ao constante uso da arquitetura x86 como servidor, a virtualização foi

novamente colocada como estratégica, e necessária para resolver problemas desta nova

10

infraestrutura. A partir daí, rapidamente técnicas de virtualização foram aprimoradas e

desenvolvidas.

2.1.2. Conceitos de virtualização

Sistemas de computadores são projetados com basicamente três componentes assim

denominados: hardware, sistema operacional e aplicações, como mostra a Figura 1.

Figura 1 – Principais componentes de um sistema computacional

Fonte: Laureano (2006)

Estes sistemas são projetados em interfaces bem definidas que criam diferentes

níveis (SMITH & NAIR, 2005) permitindo que diferentes equipes desenvolvam ao mesmo

tempo software e hardware. O conjunto de instruções da arquitetura Instruction Set

Architecture (ISA) simplifica os detalhes de implementação de baixo nível e reduz a

complexidade do processo de criação. Programadores podem criar seus programas sem

conhecer a organização física e lógica do hardware. Por exemplo, Intel e AMD

programaram seus processadores sobre o conjunto de instruções Intel IA-32 (x86),

enquanto os desenvolvedores da Microsoft desenvolveram o sistema operacional sobre esta

especificação ISA, sendo, portanto compatível com ambos os processadores.

Um exemplo típico dessa estrutura em níveis, separados por interfaces bem

definidas, são os subsistemas de rede e de disco em um sistema operacional convencional.

No subsistema de arquivos, cada nível abstrai um problema, como por exemplo,

escalonamento de acesso ao disco e gerencia de buffers e cache, como mostra a Figura 2:

11

Figura 2 - Níveis de um subsistema de disco.

Fonte: Laureano (2006)

As interfaces existentes entre os diferentes componentes de um sistema

computacional são:

Conjunto de instruções (ISA – Instruction Set Architecture): é a interface

básica entre o hardware e o software, sendo constituída pelas instruções em

código de máquina aceitas pelo processador e todas as operações de acesso

aos recursos do hardware (acesso físico à memória, às portas de I/O, etc.).

Essa interface é subdividida em duas partes:

o Instruções de usuário (User ISA): compreende as instruções do

processador e demais itens de hardware acessíveis aos programas do

usuário, que executam com o processador operando em modo não

privilegiado;

o Instruções de sistema (System ISA): compreende as instruções do

processador e demais itens de hardware, unicamente acessíveis ao

núcleo do sistema operacional, que executa em modo privilegiado;

Chamadas de sistema (syscalls): é o conjunto de operações oferecidas pelo

núcleo do sistema operacional aos processos dos usuários. Essas chamadas

permitem um acesso controlado das aplicações aos dispositivos periféricos,

à memória e às instruções privilegiadas do processador.

12

Chamadas de bibliotecas (libcalls): bibliotecas oferecem um grande número

de funções para simplificar a construção de programas, além disso, muitas

chamadas de biblioteca encapsulam chamadas do sistema operacional, para

tornar seu uso mais simples. Cada biblioteca possui uma interface própria,

denominada Interface de Programação de Aplicações (API – Application

Programming Interface). Exemplos típicos de bibliotecas são a LibC do

UNIX (que oferece funções como fopen e printf), a GTK+ (Gimp ToolKit,

que permite a construção de interfaces gráficas) e a SDL (Simple

DirectMedia Layer, para a manipulação de áudio e vídeo).

A Figura 3 apresenta uma visão conceitual da arquitetura de um sistema

computacional:

Figura 3 - Componentes e interfaces de um sistema computacional

Fonte: Laureano (2006)

Infelizmente, estas interfaces bem definidas também têm suas limitações.

Subsistemas e componentes projetados para uma interface, não irão trabalhar com outra.

Aplicações são distribuídas e compiladas respeitando o conjunto de instruções do

processador em modo usuário (User ISA) e o conjunto de chamadas de sistemas oferecido

pelo sistema operacional (syscalls), tendo a visão conjunta dessas duas interfaces (User

ISA + syscalls) denominada de Interface Binária de Aplicação (ABI - Application Binary

Interface). Da mesma maneira, um sistema operacional só pode ser executado respeitando

a interface ISA (User/System) do hardware para o qual foi projetado. A figura 4 mostra as

interfaces ISA e ABI (SMITH & NAIR, 2005):

13

Figura 4 - Interfaces ISA e ABI

Fonte: Smith & Nair (2005)

A definição de interfaces, mesmo que útil, por facilitar o desenvolvimento, torna

pouco flexível as interações entre eles. Um sistema operacional só funciona sobre o

hardware (ISA) a qual foi projetado e uma biblioteca só trabalha sobre a ABI estabelecida.

Virtualização provê um caminho para resolução desses problemas. Virtualizar um

sistema ou componente do mesmo, como um processador, memória ou dispositivo de I/O,

pode mapear as interfaces e os recursos de um sistema para outro. Diferente da abstração, a

virtualização não ajuda necessariamente a simplificar ou esconder detalhes de

implementação. A abstração provê uma interface simplificada para atingir os recursos,

como um disco de armazenamento, por exemplo. A virtualização provê uma interface

diferente ou diferentes recursos no mesmo nível de abstração, proporcionando uma camada

de compatibilidade entre a aplicação (ou sistema operacional inteiro) e o hardware ou

subsistema hospedeiro.

2.1.3. Máquinas virtuais

O conceito de máquina virtual ou simplesmente VM (sigla em inglês para virtual

machine), foi concebido pela IBM na tentativa de compartilhar tempo e recursos dos caros

14

mainframes da época (Rose, 2004). Na década de 60 e 70, a máquina virtual era definida

como uma cópia perfeita e isolada de uma máquina. O termo virtual foi descrito na década

de 1960 como uma abstração de software para um sistema físico (máquina virtual)

(Laureano, 2006).

As interfaces padronizadas entre os componentes do sistema computacional

permitem o desenvolvimento facilitado, mas também apresentam problemas de

interoperabilidade, por exemplo, não é possível executar um programa compilado para um

processador ARM num processador Intel, as instruções entre os dois processadores são

diferentes, da mesma forma uma aplicação Windows não executará no Linux.

Para superar este problema é possível criar um ambiente virtual (camada de

virtualização) construída em software. Este software será responsável por oferecer os

serviços de uma determinada interface de uma forma com que seja compreendido pelo

componente subsequente.

Usando serviços oferecidos por uma determinada interface de sistema, a camada de

virtualização constrói outra interface de mesmo nível, de acordo com as necessidades dos

componentes de sistema que farão uso dela. A nova interface do sistema vista através dessa

camada de virtualização é denominada máquina virtual

Um ambiente virtualizado por uma máquina virtual pode ser dividido em três partes

básicas: o sistema real, nativo ou hospedeiro (host system) onde existem os recursos reais

de hardware e software do sistema; o sistema virtual, que é executado sobre o sistema

computacional virtualizado, sendo que vários sistemas virtualizados podem coexistir,

estando em execução simultânea no mesmo sistema real; e a camada de virtualização,

denominada hypervisor ou monitor de máquina virtual (VMM – Virtual machine monitor),

que é responsável por criar a compatibilidade entre as interfaces.

2.1.4. Virtual Machine Monitor (VMM)

O VMM é o componente de software que hospeda o sistema convidado. De fato, o

VMM é conhecido com o hospedeiro (host) e as máquinas virtualizadas como convidados

(guest). O VMM é uma camada de software que abstrai a camada física de recursos para

ser usada pelas máquinas virtualizadas (XenSource, 2007). O VMM provê um

“processador virtual” e outras versões virtualizadas dos dispositivos do sistema como

dispositivos de I/O, armazenamento, memória e etc. O VMM ainda proporciona um

15

isolamento entre a máquina virtual e seu hospedeiro, como mostra a Figura 5, para que

falhas não venham a afetar uma a outra.

Figura 5 - VMM ou hypervisor: camada de virtualização

Fonte: Adams & Agesen (2006)

2.1.4.1. Propriedades do VMM

Para atender de forma eficiente o sistema hóspede, um hypervisor precisa atender a

alguns requisitos básicos, que são: prover um ambiente de execução idêntico a uma

máquina real no ponto de vista lógico, e ter controle completo sobre os recursos do sistema

real (host). Para isso necessita ter ao menos esses recursos:

Equivalência: prover um ambiente de execução idêntico ao da máquina real

original. Todo programa executando em uma máquina virtual deve se

comportar da mesma forma que o faria em uma máquina real;

Controle de recursos: possuir o controle completo dos recursos da máquina

real: nenhum programa executando na máquina virtual deve ter acesso a

recursos que não tenham sido explicitamente alocados a ele pelo hypervisor,

16

que deve intermediar todos os acessos. Além disso, a qualquer instante o

hypervisor pode resgatar recursos alocados.

Eficiência: grande parte das instruções do processador virtual (provido pelo

hypervisor) deve ser executada diretamente pelo processador da máquina

real. As instruções da máquina virtual que não puderem ser executadas pelo

processador real devem ser interpretadas pelo hypervisor e traduzidas em

ações equivalentes no processador real, caso contrário, devem ser

executadas diretamente no hardware.

Isolamento: garantir que um software em execução em uma máquina virtual

não possa ter influencia ou modificar outro software em execução no

hypervisor ou em outra máquina virtual. Garante que erros de software ou

aplicações maliciosas possam ser contidos.

Inspeção: o hypervisor tem acesso e controle sobre todas as informações do

estado interno da máquina virtual, como registradores do processador,

conteúdo de memória, eventos etc.

Gerenciabilidade: como cada máquina virtual é uma entidade independente

das demais, o hypervisor deve ter mecanismos para gerenciar o uso dos

recursos existentes entre os sistemas convidados.

Encapsulamento: como o hypervisor tem acesso e controle sobre o estado

interno de cada máquina virtual em execução, ele pode salvar checkpoints

de uma máquina virtual, periodicamente ou em situações especiais (por

exemplo, antes de uma atualização de sistema operacional). Esses

checkpoints são úteis para retornar a máquina virtual a estados anteriores

(rollback), para análises post-mortem em caso de falhas, ou para permitir a

migração da máquina virtual entre hypervisors executando em

computadores distintos.

Recursividade: deve ser possível executar um hypervisor dentro de uma

máquina virtual, produzindo um novo nível de máquinas virtuais, mostrado

na Figura 6. Neste caso, a máquina real é normalmente denominada

máquina de nível 0.

17

Figura 6 - Níveis de virtualização

Fonte: Laureano (2006)

2.1.4.2. Classificação das VMs

De acordo com Smith &Nair (2005) as máquinas virtuais podem ser divididas em

duas grandes famílias.

Máquinas virtuais de aplicação (Process Virtual Machines): ambientes de

máquinas virtuais destinados a suportar apenas processos ou aplicações convidadas

específicas. A máquina virtual Java é um exemplo desse tipo de ambiente.

Máquinas virtuais de sistema (System Virtual Machines): ambientes de máquinas

virtuais construídos para suportar sistemas operacionais convidados completos, com

aplicações convidadas executando sobre eles. Exemplos: VMWare, VirtualBox, VirtualPC,

HyperV, RHEV, entre outros.

A Figura 7 mostra estes dois tipos de ambientes:

18

Figura 7 - Máquinas virtuais de aplicação (A) e de sistema (B)

Fonte: Smith &Nair (2005)

2.1.4.3. Máquina virtual de aplicação

Máquina virtual de aplicação ou de processo (Process Virtual Machine) proveem

um ABI ou API (Application Binary Interface e Application Programming Interface,

respectivamente) para aplicações usuário. Em suas várias implementações, uma VM de

aplicação oferece replicação, emulação e otimização (SMITH & NAIR, 2005).

A VM de aplicação mais comum é tão ambígua que pouco é lembrada como uma

VM. Muitos sistemas operacionais podem executar diversas aplicações e processos ao

mesmo tempo através da multiprogramação, que dá a ilusão ao processo de ter uma

máquina completa para ele: cada processo tem seu próprio espaço de endereço,

registradores, nível de isolamento e estrutura de arquivos. O sistema operacional gerencia e

compartilha o tempo de uso dos recursos do hardware. De fato o sistema operacional

provê em certo nível uma VM de aplicação para cada um dos processos executando

simultaneamente.

19

2.1.4.4. VMs de linguagem de alto-nível

Para VMs de processo, portabilidade de plataforma é um objetivo claro. Entretanto,

emular uma arquitetura convencional em outra exige um estudo caso-a-caso e um esforço

de programação. Uma portabilidade completa de plataforma é mais prontamente atingida

projetando uma VM como parte do ambiente de desenvolvimento de uma aplicação de

linguagem de alto-nível (HLL – High level Language). A VM HLL resultante não

corresponde a uma plataforma real, ao contrário, é projetada para prover portabilidade.

A Figura 8 mostra a diferença entre uma compilação numa plataforma

convencional e um ambiente de VM HLL:

Figura 8 - VM de linguagem de alto-nível

Fonte: Smith &Nair (2005)

Num sistema convencional (A), um compilador front-end primeiramente gera um

código intermediário que é similar ao código de máquina. Então um gerador de código

back-end usa esse código intermediário para gerar um binário contendo códigos de

máquina para uma específica ISA e sistema operacional. Este arquivo binário é distribuído

e executado somente sobre a plataforma que possui a combinação ISA/OS correta.

20

Em um ambiente VM HLL (B), um compilador front-end gera um código de

máquina abstrato em uma ISA virtual especificada pela interface da VM. Este código

virtual, junto com um metadado associado contendo informações sobre ele, é distribuído

para ser executado em diferentes plataformas. Cada plataforma host implementa uma VM

capaz de carregar e executar a ISA virtual e um conjunto de rotinas especificada por uma

API padronizada. VM HLL mais sofisticadas recompilam o código virtual para máquina

host para ser executado diretamente sobre a plataforma.

Uma vantagem da VM HLL é que a aplicação de software pode ser facilmente

portada para outra plataforma, uma vez que a VM e bibliotecas são implementadas para

várias plataformas. A arquitetura Sun Microsystems Java VM e a Microsoft .Net

Framework, são exemplos de VM HLL largamente utilizadas em todo mundo.

2.1.4.5. Máquina virtual de sistema

Uma VM de sistema provê um completo ambiente em que um sistema operacional

e muitos processos possivelmente pertencentes a múltiplos usuários podem coexistir

(SMITH & NAIR, 2005). Usando uma VM de sistema, um único hardware host pode

suportar múltiplos, isolados e protegidos sistemas operacionais simultaneamente. A VM de

sistema emergiu durante a década de 60 e inicio da década de 70, e foi a origem do termo

virtual.

Em uma VM de sistema, o hypervisor (VMM) primariamente provê a replicação de

plataforma. O ponto central é a divisão de um conjunto de recursos de hardware entre

múltiplos ambientes convidados cada um com seu sistema operacional. O guest (sistema

operacional convidado) e suas aplicações são gerenciados de forma oculta pelo hypervisor.

Quando um SO guest realiza uma instrução privilegiada ou operação que diretamente

interage com o hardware compartilhado, o hypervisor intercepta a operação, checa por

concorrência, e então realiza a operação requisitada pelo guest, sendo que ele (guest) não

sabe deste processo.

As VMs de sistema podem ser divididas em dois tipos:

Modelo clássico: (ou nativo) Da perspectiva do usuário, as VMs de sistema

provêm essencialmente a mesma funcionalidade, mas difere em seus

detalhes de implementação. A abordagem clássica coloca o hypervisor

21

diretamente sobre o hardware e a VM no topo dessa estrutura, sendo que o

hypervisor é executado no modo mais privilegiado, enquanto todos os

outros sistemas têm privilégios mais reduzidos.

Modo hospedado: Uma implementação alternativa coloca o sistema

virtualizado sobre o topo de um sistema operacional hospedeiro (este passa

a ser o host), passando então para uma VM hospedada. Uma vantagem

desse modelo é que a VM é instalada como uma aplicação típica. O

software virtualizado pode ainda utilizar recursos do sistema operacional

host desde que este compartilhe tais recursos.

A Figura 9 ilustra esses dois modelos de virtualização:

Figura 9 - VMs de sistema: (a) modelo clássico (ou nativo), (b) modelo hospedado

Fonte: Laureano (2006)

Estes dois tipos de VM de sistema, são raramente utilizados em sua forma

conceitual em implementações reais (Laureano, 2006). Na prática abordagens híbridas, são

inseridas nas arquiteturas para aperfeiçoar e aumentar o desempenho do sistema,

principalmente em relação às operações que envolvem dispositivos de I/O.

No modelo clássico (ou nativo) de VMs de sistema, o sistema convidado (guest)

pode acessar diretamente o hardware. Essa forma de acesso é implementada no núcleo do

hypervisor. Essa otimização ocorre, por exemplo, no subsistema de gerência de memória

do Xen, como mostra a Figura 10.

22

Figura 10 - Abordagem híbrida do modelo clássico da VM de sistema: o sistema guest pode

acessar diretamente o hardware

Fonte: Laureano (2006)

No modelo hospedado de VM de sistema Figura 11, as otimizações podem ser:

Figura 11 - Otimizações no modelo hospedado de VM de sistema

Fonte: Laureano (2006)

Onde o sistema convidado (1) acessa diretamente o sistema hospedeiro. Essa

otimização é implementada no hypervisor, oferecendo partes da API do sistema hospedeiro

ao sistema convidado, exemplo: VMWare pode utilizar o sistema de arquivos direto do

hospedeiro, ao invés de virtualizar o sistema de arquivos.

O Sistema convidado (2) acessa diretamente o hardware. Essa otimização deve ser

implementada no hypervisor e parcialmente pelo sistema hospedeiro, devido ao fato de

23

poder usar algum driver específico, um exemplo é o acesso direto ao drive de CD

implementado pelo VirtualPC e outros.

O monitor (3) acessa diretamente o hardware. Neste caso, um driver específico é

instalado no sistema hospede para que o hypervisor possa ter acesso ao hardware.

2.1.5. Benefícios da Virtualização

Há vários benefícios na implementação da virtualização na TI da empresa. Entre

eles:

Redução de custos - consolidando várias instâncias de servidores (virtualizados) em

um servidor físico, as empresas reduzem seus gastos com hardware. Além de

reduzir gastos de capital, os ambientes virtualizados permitem que as empresas

economizem em manutenção e energia, geralmente resultando na redução do custo

total de propriedade (TCO).

Automação - a tecnologia permite que alguns ambientes virtualizados sejam

fornecidos conforme a necessidade e dinamicamente, facilitando, assim, a

automação de processos de negócios e eliminando a necessidade de continuamente

prover recursos e gerenciar partes do ambiente técnico que oferecem suporte a

necessidades comerciais esporádicas. Algumas tecnologias de virtualização

facilitam a alocação automática de um processo para seu desempenho ideal em um

conjunto de ambientes virtualizados.

Rapidez de resposta - como o ambiente virtual tem a capacidade de provisionar a si

mesmo para obter o melhor dos recursos disponíveis, os tempos de resposta são

mais rápidos e os tempos de inatividade podem ser reduzidos a quase zero,

melhorando a agilidade e o desempenho.

Dissociação - processos que antes precisavam estar em uma mesma máquina física

agora podem ser facilmente separados, embora ainda preservando a solidez e a

segurança necessárias. Os diferentes universos virtualizados (rede, sistema

operacional [SO], banco de dados, aplicativos, etc.) podem ser dissociados (até

distribuídos em localizações geográficas distintas) sem ameaçar a integridade do

processo.

24

Flexibilidade - a criação ou a preparação relativamente fácil do ambiente adequado

para o aplicativo correto permite que as empresas ofereçam flexibilidade à

infraestrutura, não apenas nas fases de teste ou pré-produção, mas também na área

de produção. Quando surge um novo procedimento ou requisito técnico/comercial,

a capacidade da virtualização de permitir uma criação rápida do ambiente

possibilita às empresas testar o ambiente sem ter que esperar que o processo de

fornecimento regular seja executado e fornecido.

Agilidade - a agilidade facilita a adaptação rápida às necessidades do negócio, por

exemplo, quando ocorre um pico de pedidos e se faz necessária potência em

computação. Uma empresa pode até mesmo optar por comprometer em excesso os

recursos de uma máquina física, uma vez que a virtualização facilita a

movimentação rápida dos diversos recursos “que habitam” em uma máquina física

para outras máquinas virtuais. Dessa forma, a virtualização oferece suporte de

alinhamento às necessidades do negócio.

Balanceamento de carga de trabalho - a implantação de vários ambientes virtuais

garante as práticas recomendadas de alta disponibilidade, redundância e failover,

pois cargas de trabalho podem seguir para onde são mais eficientes. Assim, a

virtualização se concentra não apenas na eficácia (fazendo as coisas corretamente),

mas também na eficiência (fazendo as coisas de maneira mais rápida, mais barata e

mais confiável).

Simplificação - a TI virtual é ainda TI, portanto, algumas das dificuldades típicas

de TI estão presentes mesmo em um ambiente virtual. No entanto, reduzir o

número de servidores físicos reduz significativamente a probabilidade de falha e os

custos de gerenciamento e resultados em simplificação, uma das promessas da

virtualização.

Utilização de espaço - a consolidação de servidor economiza espaço na central de

dados e facilita a escalabilidade, pois há vários servidores em um servidor.

Sustentabilidade - ambientes virtualizados usam menos recursos ambientais. É

comum o desperdício no consumo de energia nas centrais de dados em máquinas

que não são aproveitadas de maneira consistente. Como a virtualização permite que

25

várias máquinas virtuais sejam executadas em uma máquina física, é necessário

menos energia para ligar e resfriar dispositivos.

A Figura 12 mostra os cinco principais motivos para virtualizar.

Figura 12 - Os benefícios da virtualização para o negócio.

Fonte: VMWare (2010)

2.2. GOVERNANÇA

Governança corporativa é o conjunto de responsabilidades e práticas exercidas pela

administração da empresa, com o objetivo de fornecer orientação estratégica, garantindo

que os objetivos sejam alcançados, verificando que os riscos são geridos adequadamente e

ainda que os recursos da empresa são utilizados de forma responsável. (CHALARIS,

LEMOS & CHALARIS).

Em nível simplificado, a governança de TI corporativa pode ser definida como o

processo que garante que a TI se alinhe com a estratégia de negócios e promova com

eficácia os objetivos organizacionais. Assim como a impacta o cenário geral de tecnologia,

seu uso crescente também impacta a governança de TI corporativa de várias áreas críticas.

Esse impacto pode ser melhor compreendido considerando-se as várias características de

virtualização e seus impactos potenciais positivos ou negativos.

Um objetivo comum de esforços para administrar a TI de uma empresa é garantir

que a TI possa oferecer, rápida e flexivelmente, soluções tecnológicas que deem suporte à

realização de metas comerciais gerais da empresa. A virtualização auxilia nessa área, pois

a virtualização pode levar a um ritmo de construção e implantação mais rápido por meio do

uso de ferramentas e tecnologias que eliminam a necessidade de montagem física de

computador quando novos sistemas são provisionados. O controle de custos também é um

26

foco central da governança de TI, e a virtualização também pode ser fornecida nessa área,

reduzindo os custos de hardware, energia e instalação da empresa.

Outra meta comum da governança de TI é garantir a continuidade de negócios

através de soluções tecnológicas robustas que podem tratar e se adaptar a cenários de maior

carga e desastres. A virtualização permite recursos significativos nessas áreas, oferecendo

à organização de TI opções anteriormente indisponíveis para dimensionar a carga

flexivelmente e mudar e alinhar dinamicamente os recursos para responder à continuidade

dos negócios e a eventos de desastre.

No lado negativo, mais virtualização apresenta alguns riscos às metas de

governança de TI. Um dos principais riscos está relacionado aos conjuntos de habilidades e

experiência organizacionais disponíveis para dar suporte ao uso da virtualização de

servidor em ambientes de missão crítica. Embora a virtualização tenha se tornado bastante

comum, ela ainda é uma tecnologia relativamente nova e as organizações podem ter

dificuldade em garantir os trabalhadores experientes necessários para assegurar que a TI

seja capaz de cumprir suas metas. Um risco relacionado está associado às funções e

responsabilidades envolvidas no gerenciamento de uma infraestrutura virtualizada.

Tradicionalmente, a tecnologia tem sido gerenciada por TI em várias áreas funcionais e

técnicas, como armazenamento, rede, segurança e computadores/servidores. Com a

virtualização, essas linhas ficam significativamente indistintas, assim, empresas que

adotam a virtualização precisam amadurecer seus modelos de suporte para obter todos os

benefícios que a virtualização pode oferecer.

2.3. CONTROL OBJECTIVES FOR INFORMATION AND RELATED

TECHNOLOGY

O Control Objectives for Information and related Technology (CobiT®) fornece

boas práticas através de um modelo de domínios e processos e apresenta atividades em

uma estrutura lógica e gerenciável. As boas práticas do CobiT representam o consenso de

especialistas. Elas são fortemente focadas mais nos controles e menos na execução. Essas

práticas irão ajudar a otimizar os investimentos em TI, assegurar a entrega dos serviços e

prover métricas para julgar quando as coisas saem erradas.

27

O foco do CobiT é ilustrado por um modelo de processos de TI subdivididos em

quatro domínios e 34 processos em linha com as áreas responsáveis por planejar, construir,

executar e monitorar, provendo assim uma visão total da área de TI.

Conceitos de arquitetura corporativa ajudam a identificar os recursos essenciais

para o sucesso dos processos, ou seja, aplicativos, informações, infraestrutura e pessoas. O

CobiT é focado no que é necessário para atingir um adequado controle e gerenciamento de

TI e está posicionado em elevado nível. O CobiT foi alinhado e harmonizado com outros

padrões e boas práticas de TI mais detalhados. O CobiT atua como um integrador desses

diferentes materiais de orientação, resumindo os principais objetivos sob uma metodologia

que também está relacionada aos requisitos de governança e de negócios.

Todos os componentes do CobiT são inter-relacionados, proporcionando o suporte

para as necessidades de governança, gerenciamento, controle e avaliação de diferentes

audiências, conforme demonstrado na Figura 13.

O CobiT habilita o desenvolvimento de políticas claras e boas práticas para

controles de TI em toda a empresa. A orientação para negócios é o principal tema do

CobiT, o qual foi desenvolvido não somente para ser utilizado por provedores de serviços,

usuários e auditores, mas também, e mais importante, para fornecer um guia abrangente

para os executivos e donos de processos de negócios.

Figura 13 - Inter-relacionamento dos componentes CobiT

Fonte - CobiT 4.1 (2007)

28

O modelo CobiT é baseado nos seguintes princípios como mostra a Figura 14.

Prover a informação de que a organização precisa para atingir os seus objetivos, as

necessidades para investir, gerenciar e controlar os recursos de TI usando um conjunto

estruturado de processos para prover os serviços que disponibilizam as informações

necessárias para a organização.

O gerenciamento e o controle da informação estão presentes em toda a metodologia

CobiT e ajudam a assegurar o alinhamento com os requisitos de negócios.

Figura 14 - Princípios Básicos do CobiT

Fonte - CobiT 4.1 (2007)

2.3.1. Critérios de Informação do CobiT

Para atender aos objetivos de negócios, as informações precisam se adequar a

certos critérios de controles, aos quais o CobiT denomina necessidades de informação da

empresa. Baseado em abrangentes requisitos de qualidade, guarda e segurança, sete

critérios de informação distintos e sobrepostos são definidos, como segue:

29

Efetividade lida com a informação relevante e pertinente para o processo de

negócio bem como a mesma sendo entregue em tempo, de maneira correta,

consistente e utilizável.

Eficiência relaciona-se com a entrega da informação através do melhor

(mais produtivo e econômico) uso dos recursos.

Confidencialidade está relacionada com a proteção de informações

confidenciais para evitar a divulgação indevida.

Integridade relaciona-se com a fidedignidade e totalidade da informação

bem como sua validade de acordo os valores de negócios e expectativas.

Disponibilidade relaciona-se com a disponibilidade da informação quando

exigida pelo processo de negócio hoje e no futuro. Também está ligada à

salvaguarda dos recursos necessários e capacidades associadas.

Conformidade lida com a aderência a leis, regulamentos e obrigações

contratuais aos quais os processos de negócios estão sujeitos, isto é, critérios

de negócios impostos externamente e políticas internas.

Confiabilidade relaciona-se com a entrega da informação apropriada para os

executivos para administrar a entidade e exercer suas responsabilidades

fiduciárias e de governança.

O modelo CobiT fornece um modelo de processo de referência e uma linguagem

comum para que todos na organização possam visualizar e gerenciar as atividades de TI.

Incorporar o modelo operacional e a linguagem comum para todas as áreas de negócios

envolvidas em TI é um dos mais importantes passos e ações preliminares para uma boa

governança. Isto também fornece uma metodologia para medição e monitoramento do

desempenho de TI, comunicação com provedores de serviços e integração das melhores

práticas de gerenciamento. Um modelo de processos incentiva a determinação de

proprietários dos processos, o que possibilita a definição de responsabilidades.

Para que a governança de TI seja eficiente, é importante avaliar as atividades e

riscos da TI que precisam ser gerenciados. Geralmente eles são ordenados por domínios de

responsabilidade de planejamento, construção, processamento e monitoramento. No

30

modelo CobiT esses domínios, como demonstrado na Figura 15 e descritos na Tabela 1,

são denominados:

Planejar e Organizar (PO) - Provê direção para entrega de soluções (AI) e

entrega de serviços (DS)

Adquirir e Implementar (AI) - Provê as soluções e as transfere para

tornarem-se serviços

Entregar e Suportar (DS) - Recebe as soluções e as tornam passíveis de uso

pelos usuários finais

Monitorar e Avaliar (ME) - Monitora todos os processos para garantir que a

direção definida seja seguida.

Figura 15 - Os Quatro Domínios Inter-relacionados do CobiT

Fonte - CobiT 4.1 (2007)

Tabela 1 - Os Quatro Domínios do CobiT

Domínios Descrição

Planejar e

Organizar (PO)

Este domínio cobre a estratégia e as táticas, preocupando-se com a identificação

da maneira em que TI pode melhor contribuir para atingir os objetivos de

negócios. O sucesso da visão estratégica precisa ser planejado, comunicado e

gerenciado por diferentes perspectivas. Uma apropriada organização bem como

uma adequada infraestrutura tecnológica devem ser colocadas em

funcionamento.

Adquirir e

Implementar

(AI)

Para executar a estratégia de TI, as soluções de TI precisam ser identificadas,

desenvolvidas ou adquiridas, implementas e integradas ao processo de negócios.

Além disso, alterações e manutenções nos sistemas existentes são cobertas por

esse domínio para assegurar que as soluções continuem a atender aos objetivos

de negócios.

Entregar e

Suportar (DS)

Este domínio trata da entrega dos serviços solicitados, o que inclui entrega de

serviço, gerenciamento da segurança e continuidade, serviços de suporte para os

usuários e o gerenciamento de dados e recursos operacionais.

Monitorar e

Avaliar (ME)

Todos os processos de TI precisam ser regularmente avaliados com o passar do

tempo para assegurar a qualidade e a aderência aos requisitos de controle. Este

31

domínio aborda o gerenciamento de desempenho, o monitoramento do controle

interno, a aderência regulatória e a governança.

Fonte - CobiT 4.1 (2007)

Dentro desses quatro domínios o CobiT identificou 34 processos de TI geralmente

utilizados Figura 16.

Figura 16 - Visão Geral do Modelo do CobiT

Fonte - CobiT 4.1 (2007)

32

2.3.2. Modelo de Maturidade

O modelo de maturidade para o gerenciamento e controle dos processos de TI é

baseado num método de avaliar a organização, permitindo que ela seja pontuada de um

nível de maturidade não existente (0) a otimizado (5). Este enfoque é derivado do modelo

de maturidade do Software Engineering Institute (SEI) definido para a maturidade da

capacidade de desenvolvimento de software.

Embora siga os conceitos do SEI, a implementação CobiT difere consideravelmente

do original do SEI, o qual era orientado para os princípios de engenharia de produtos de

software, organizações buscando excelência nessas áreas e uma avaliação formal dos

níveis de maturidade para que os desenvolvedores de software pudessem ser “certificados”.

No CobiT, uma definição genérica é provida para as escalas de maturidade do CobiT as

quais são similares às do CMM, mas interpretadas de acordo com a natureza dos processos

de gerenciamento de TI do CobiT. Um modelo específico é fornecido derivando dessa

escala genérica para cada um dos 34 processos CobiT. Independente do modelo, as escalas

não devem ser tão granulares visto que seria difícil de utilizar e sugeriria uma precisão não

justificável, por que em geral o propósito é identificar onde estão as questões e como

definir prioridades para aprimoramentos.

O propósito não é avaliar o nível de aderência aos objetivos de controles. Os níveis

de maturidade são designados como perfis de processos de TI que a empresa reconheceria

como descrição de possíveis situações atuais e futuras. Eles não são designados como um

modelo inicial, onde não se pode avançar para o próximo nível sem antes ter cumprido

todas as condições do nível inferior. Com os modelos de maturidade do CobiT,

diferentemente do enfoque original SEI CMM, não há intenção de medir os níveis de

maneira precisa ou tentar certificar que aquele nível foi exatamente atingido. A avaliação

de maturidade do CobiT espera resultar em um perfil em que as condições relevantes para

diversos níveis de maturidade serão atingidas, como demonstrado no gráfico de exemplo

da Figura 17 e sua descrição na Tabela 2.

33

Figura 17 - Representação Gráfica dos Modelos de Maturidade

Fonte - CobiT 4.1 (2007)

Tabela 2 – Modelo de Maturidade Genérico

Nível Descrição

0 Inexistente Completa falta de um processo reconhecido. A empresa nem mesmo reconheceu

que existe uma questão a ser trabalhada.

1 Inicial / Ad

hoc

Existem evidências que a empresa reconheceu que existem questões e que

precisam ser trabalhadas. No entanto, não existe processo padronizado, ao

contrário, existem enfoques Ad Hoc que tendem a ser aplicados individualmente

ou caso a caso. O enfoque geral de gerenciamento é desorganizado.

2 Repetível,

porém Intuitivo

Os processos evoluíram para um estágio onde procedimentos similares são

seguidos por diferentes pessoas fazendo a mesma tarefa. Não existe um

treinamento formal ou uma comunicação dos procedimentos padronizados e a

responsabilidade é deixada com o indivíduo. Há um alto grau de confiança no

conhecimento dos indivíduos e consequentemente erros podem ocorrer.

3 Processo

Definido

Procedimentos foram padronizados, documentados e comunicados através de

treinamento. É mandatório que esses processos sejam seguidos, no entanto,

possivelmente desvios não serão detectados. Os procedimentos não são

sofisticados, mas existe a formalização das práticas existentes.

4 Gerenciado e

Mensurável

A gerência monitora e mede a aderência aos procedimentos e adota ações onde

os processos parecem não estar funcionando muito bem. Os processos estão

debaixo de um constante aprimoramento e fornecem boas práticas. Automação e

ferramentas são utilizadas de uma maneira limitada ou fragmentada.

5 Otimizado Os processos foram refinados a um nível de boas práticas, baseado no resultado

de um contínuo aprimoramento e modelagem da maturidade como outras

organizações. TI é utilizada como um caminho integrado para automatizar o

fluxo de trabalho, provendo ferramentas para aprimorar a qualidade e

efetividade, tornando a organização rápida em adaptar-se.

Fonte - CobiT 4.1 (2007)

34

2.3.3. A Estrutura do modelo CobiT

O modelo CobiT une os requisitos de negócios para informação e governança aos

objetivos da função de serviços de TI. O modelo de processos do CobiT permite que as

atividades de TI e os recursos que as suportam sejam serem apropriadamente gerenciados e

controlados com base nos objetivos de controle de CobiT, bem como alinhados e

monitorados usando os objetivos e métricas do CobiT, como ilustrado na Figura 18.

Figura 18 - Gerenciamento, Controle, Alinhamento e Monitoramento do CobiT

Fonte - CobiT 4.1 (2007)

35

Em resumo, os recursos de TI são gerenciados pelos processos de TI para atingir os

objetivos de TI que respondem aos requisitos de negócios. Este é o princípio básico do

modelo CobiT, como ilustrado pelo cubo do CobiT, conforme Figura 19.

Figura 19 - Figura do CobiT

Fonte - CobiT 4.1 (2007)

Para esse estudo de caso vamos focar no processo DS9 Gerenciar a Configuração.

2.4. PROCESSO DO COBIT DS9 - GERENCIAR A CONFIGURAÇÃO

Assegurar a integridade das configurações de hardware e software requer o

estabelecimento e a manutenção de um repositório de configuração preciso e completo.

Esse processo inclui a coleta inicial das informações de configuração, o estabelecimento de

um perfil básico, a verificação e a auditoria das informações de configuração e a

atualização do repositório de configuração conforme necessário. Um gerenciamento de

configuração eficaz facilita uma maior disponibilidade do sistema, minimiza as questões de

36

produção e soluciona problemas com mais rapidez. A Figura 20 demonstra os requisitos do

negócio afetados por esse processo.

Figura 20 - Requisitos do negócio a serem atingidos

Fonte - CobiT 4.1 (2007)

A Figura 21 demonstra os recursos de TI atingidos por esse processo.

Figura 21 - Recursos de Ti atingidos

Fonte - CobiT 4.1 (2007)

2.4.1. Objetivos de Controle Detalhados

DS9.1 Repositório de Configuração e Perfis Básicos:

Estabelecer uma ferramenta de suporte e um repositório central para conter

todas as informações relevantes sobre os itens de configuração.

Monitorar e registrar todos os bens e as mudanças ocorridas neles. Manter

um perfil básico de itens de configuração de todo sistema e serviço como

um ponto de verificação seguro para eventual retorno após as mudanças.

37

DS9.2 Identificação e Manutenção dos Itens de Configuração:

Implantar procedimentos de configuração para suportar a Direção e registrar

todas as alterações no repositório de configurações.

Integrar esses procedimentos com gerenciamento de mudanças,

gerenciamento de incidentes e gerenciamento de problemas.

DS9.3 Revisão da Integridade de Configuração

Periodicamente revisar os dados de configuração para verificar e confirmar

a integridade da configuração atual e histórica.

Realizar análise crítica periódica da política de uso de software, verificando

a eventual existência de software pessoal, não autorizado ou excedente ao

contrato de licenças vigente.

Erros e desvios devem ser reportados, tratados e corrigidos.

2.5. O AMBIENTE VMWARE

A VMWare é líder em soluções de infraestrutura de virtualização e nuvem que

permitem que as empresas possam prosperar na era Cloud, de acordo com a Figura 22.

Figura 22 - Quadrante mágico para infraestrutura de virtualização de servidores X86.

Fonte - Gartner (2012)

38

A VMWare está preparada ajudar os clientes transformando a forma de construir,

entregar e consumir recursos de Tecnologia da Informação em uma forma que é evolutiva

e com base em suas necessidades específicas. Em 2011 as receitas da empresa chegaram a

3,77 bilhões dólares, a VMWare tem mais de 350 mil clientes e 50 mil parceiros. A

empresa está sediada no Vale do Silício, com escritórios em todo o mundo e pode ser

encontrada online em www.VMWare.com.

Dentre os aplicativos existentes na empresa serão abordados nesse trabalho os mais

voltados as soluções propostas, o vSphere que atualmente está em sua versão de número

5.1 e o View que está em sua versão 5.0.

2.5.1. vSphere

O VMWare vSphere é a plataforma de virtualização líder do setor para criação de

infraestruturas em nuvem. Ele permite aos usuários executar aplicativos essenciais aos

negócios com segurança e responder com mais rapidez às necessidades de negócios.

O vSphere acelera a mudança para a computação em nuvem de data centers

existentes, além de fornecer sustentação às ofertas de nuvem pública compatíveis,

formando a base para o modelo único de nuvem híbrida do setor. Com mais de 250.000

clientes no mundo todo e o suporte de mais de 2.500 aplicativos de mais de 1.400 parceiros

ISV, o VMWare vSphere é a plataforma confiável para qualquer aplicativo.

Dentre os principais recursos e componentes é importante ressaltar:

a) Serviços de infraestrutura

A arquitetura do hypervisor VMWare vSphere ESXi fornece uma camada de

virtualização de alto desempenho, sólida e comprovada na produção. Ela permite que

várias máquinas virtuais compartilhem recursos de hardware com desempenho que pode

corresponder e, em alguns casos, exceder o throughput original.

O vSphere Virtual SMP (Symmetric Multiprocessing) permite o uso de máquinas

virtuais ultra eficientes que tenham até oito CPUs virtuais. O hardware virtual da VMWare

pode oferecer suporte a 1 TB de RAM e a uma variedade de hardware de última geração,

como processadores de gráficos 3D e dispositivos USB 3.0.

39

O vSphere Storage VMFS (Virtual Machine File System) 5 permite que máquinas

virtuais acessem dispositivos de armazenamento compartilhados (Fibre Channel, iSCSI

etc.) e é uma importante tecnologia habilitadora para outros componentes do VMWare

vSphere, como o VMWare vSphere Storage vMotion.

As APIs do VMWare vStorage fornecem integração com soluções terceirizadas de

proteção de dados compatíveis. O VMWare vStorage Thin Provisioning fornece alocação

dinâmica de capacidade de armazenamento compartilhado, permitindo que as organizações

de TI implementem uma estratégia de armazenamento hierárquico à medida que reduzem

as despesas com armazenamento em até 50%.

b) Serviços de aplicativos

O VMWare vSphere vMotion permite a migração em tempo real de máquinas

virtuais entre servidores sem interrupção para os usuários nem perda de serviço,

eliminando a necessidade de programar o tempo de inatividade de aplicativos para

manutenção do servidor.

O vSphere HA (High Availability) permite reinício automatizado e econômico em

poucos minutos de todos os aplicativos, no caso de falhas de hardware ou do sistema

operacional. O Hot Plug permite que armazenamentos virtuais e dispositivos de rede sejam

conectados ou desconectados das máquinas virtuais sem interrupção nem tempo de

inatividade. O Hot Extend de discos virtuais permite que armazenamentos virtuais sejam

adicionados às máquinas virtuais em execução sem interrupção nem tempo de inatividade.

A Figura 23 descreve os pilares do VSphere.

Figura 23 - Pilares do VSphere.

Fonte - VMWare (2011)

40

2.5.2. VMWare View

O VMWare View oferece serviços de desktop a partir de sua nuvem para dar

liberdade ao usuário final e à TI gestão e controle. O VMWare View permite que a TI

simplifique e automatize a gestão de milhares de desktops, e com segurança, entregar

desktops como um serviço para os usuários a partir de uma localização central, com níveis

de disponibilidade e confiabilidade incomparáveis aos PCs tradicionais, proporcionando

acesso seguro a aplicações e dados para qualquer dispositivo, quando e onde o usuário

precisa, o VMWare View oferece aos usuários finais os mais altos níveis de mobilidade e

flexibilidade.

As empresas de hoje são pegas em um dilema com o uso de desktops. Por um lado,

as organizações de TI enfrentam pressões em torno de conformidade, custo, gerenciamento

e segurança. Esta situação é agravada pelo atual paradigma de computação "O Dilema do

Desktop" Figura 23, que é caro para gerir e restringe a agilidade para responder aos

negócios em constante mudança. Por outro lado, os usuários finais requerem cada vez mais

a liberdade e flexibilidade para acessar seus aplicativos e dados de mais dispositivos e

locais. Este dilema que restringe a liberdade do usuário em contra partida a necessidade de

controle da TI pode elevar os custos, segurança, impacto e sobrecarregar os recursos da TI.

Para se libertar deste dilema, as organizações estão procurando uma ágil e adaptativa

abordagem de computação que permite que a TI possa equilibrar as necessidades da

empresa com as necessidades dos usuários finais por uma flexível e de alta performance

experiência com o computador.

Figura 23 - Dilema do Desktop.

Fonte - VMWare (2011)

41

A virtualização de desktops com o VMWare View permite que as organizações

possam fazer mais com menos e adotem uma abordagem para a computação

verdadeiramente centrada no usuário e ainda flexível. Ao desvincular as aplicações, dados

e funcionamento dos sistemas a partir do ponto final, e movendo estes componentes para o

Data Center onde possam ser centralmente gerenciados em uma nuvem. Virtualização de

aplicações e desktops oferecem a TI um caminho mais simples e seguro para gerenciar

usuários e fornecer serviços ágeis que podem ser acessados quando necessários.

42

3. GESTÃO DA CONFIGURAÇÃO EM AMBIENTES

VIRTUALIZADOS: UM ESTUDO APLICADO EM ORGANIZAÇÕES

GOVERNAMENTAIS.

O Ministério da Agricultura, Pecuária e Abastecimento (MAPA) é um órgão

governamental federal e atua na administração direta das áreas no país. Cada Ministério da

administração pública federal estabelece políticas, diretrizes e prioridades na aplicação dos

recursos públicos para os setores que representam. No caso da Agricultura, Pecuária e

Abastecimento, a atribuição constitucional da organização é promover o desenvolvimento

sustentável e a competitividade do agronegócio em benefício da sociedade brasileira. Esta

é a missão do Ministério, cujos programas são destinados ao pequeno, médio e grande

produtor rural e a sociedade em geral.

O agronegócio é visto como a soma das atividades de fornecimento de bens e

serviços à agricultura, da produção agropecuária, do processamento, da transformação e da

distribuição de produtos até o consumidor final. O desenvolvimento sustentável, por sua

vez, é um processo de transformação que permite ao agronegócio evoluir de forma

econômica, social e política, com respeito ao meio ambiente, satisfazendo as aspirações e

as necessidades das gerações atuais e futuras.

A agropecuária do Brasil apresenta um valor expressivo na consolidação do PIB

nacional. Em observância deste fator, deve-se estar em constante processo de

monitoramento e reciclagem das atividades envolvidas no agronegócio. Para tal, a criação

de indicadores, normas e procedimentos com a finalidade de monitorar a situação atual da

economia agrícola, e a busca por novas soluções são fundamentais.

No entanto, para que esses objetivos e metas sejam cumpridos, é fundamental que o

Ministério conte com toda a infraestrutura necessária para o processamento seguro das

informações correlatas aos seus anseios. Neste sentido, o custo da informação pode ter

valor inestimável para uma organização, no caso do MAPA, cuja produção oriunda do

campo responde, de acordo com o então Ministro da Agricultura, Wagner Rossi (2010),

por parcela de aproximadamente 27% do Produto Interno Bruto (PIB), 43% das

exportações e 40% dos empregos gerados no País, a informação é de extrema importância

para a nação.

43

Com o aumento contínuo da produção agropecuária e o desenvolvimento de novas

tecnologias, normas e padrões, o MAPA vem investindo em sua infraestrutura tecnológica.

O aumento do poder computacional, aliado a novos temas, como a TI verde e a

virtualizalização vem de encontro a essa necessidade e serão abordados nesse estudo.

O MAPA dispõe de uma estrutura de TI altamente complexa e avançada

tecnologicamente. São mais de 150 servidores entre físicos e virtuais, mais de 5000

estações de trabalho espalhadas por todo o país.

Os servidores são de em sua maioria de marcas consagradas no mercado de PCs,

IBM, Dell, Netapp, com diferentes configurações e características. Temos desde os mais

simples para aplicações de pouco ou baixíssimo risco, com configurações de processador

Pentium 4 3 Giga-hertz (GHz), memória de 1Gigabyte (Gb) e Disco rígido de 80Gb. A

servidores que tem propriedades de ser um Host VM, com processadores Intel Xeon

Quadcore 3,46 GHz, 32 Gb de memória RAM e até 3 Terabytes (Tb) de disco.

Os servidores estão dispostos quase que em sua totalidade em uma sala cofre no

próprio MAPA, podendo ser de bancada ou de rack. Atualmente somente as máquinas

mais antigas estão em bancadas, sendo todas as novas, adquiridas já próprias para o uso em

racks.

O uso de servidores virtuais se dá na necessidade de um melhor aproveitamento dos

recursos materiais e computacionais envolvidos. Por exemplo, uma máquina com alto

poder computacional como a descrita acima, sendo utilizada somente para o controle de

acesso biométrico a sala cofre, seria um completo desperdício de poder computacional,

energia e recursos da empresa, uma vez que uma aplicação como essa necessita somente de

um Sistema Operacional (SO) e a própria aplicação, não consumindo quase nada em

recursos, portanto tornando o uso de um servidor com tamanha configuração um

desperdício para a empresa. Assim, a utilização do grande potencial apresentado por esses

recursos centra-se na virtualização.

Para iniciar o processo de virtualização o MAPA optou pela solução VMWare, uma

empresa líder em seu segmento já citado anteriormente, mas sem deixar de olhar outras

empresas de virtualização como Microsoft e RedHat, com seus respectivos produtos

HyperV e Red Hat Enterprise Virtualization (RHEV), ambas também foram instaladas e

44

testadas, mas ainda as principais ferramentas de virtualização são da VMWare, por isso o

foco estará nesta ferramenta.

Hoje o MAPA não se utiliza de virtualização em desktops, um tema que será

abordado com maior ênfase nesse estudo de caso, devido a alguns pontos a serem

discutidos mais adiante. Os desktops assim como os servidores são em sua maioria

computadores de fornecedores consagrados no mercado, como IBM, LENOVO, DELL,

EPCOM, ITAUTEC e estão espalhados por todo o país. Suas configurações dependem do

modelo e do tempo de uso deles, estando os mais antigos com configurações próximas a

processadores Intel Pentium 4 2.4 GHz, 512 Megabytes (MB) de memória RAM e 40 GB

de disco, e os últimos adquiridos com processadores AMD Dual Core 2.8GHz, 4Gb de

RAM e 500Gb de Disco.

Assim como os servidores há alguns casos onde a máquina está subutilizada e em

outros a estação de trabalho está trabalhando no limite de seus recursos, então para

solucionarmos esses desvios pensando em gestão de configuração, novamente teremos a

virtualização, nesse caso a de desktops, como um ponto chave para alcançar o melhor

aproveitamento dos recursos e redução de gastos com a subutilização de equipamentos.

a) Gestão da configuração de recursos físicos.

Atualmente para equipamentos em garantia, se aciona o suporte técnico da empresa

responsável pela venda dos equipamentos ou a fabricante dos mesmos e a peça em questão

é trocada por uma nova, nos servidores ainda existe a opção de substituição dessas peças

defeituosas por uma em utilização em uma máquina com aplicação de menor importância,

ou por um servidor que tenha seu serviço redundante, para que o dano causado pela parada

desse equipamento seja diminuído.

Nos servidores mais antigos, fora de garantia, existem algumas peças em estoque

que podem ser utilizadas para substituição de peças defeituosas, essas peças são

decorrentes da migração de um serviço para um equipamento mais novo, e o novo serviço

instalado nesse equipamento não seja necessário todo o poderio de hardware que o mesmo

possua, então com a adequação sobram algumas peças que são utilizadas para a reposição

de peças defeituosas, ou ainda um equipamento que tenha, por exemplo, sua placa mãe

com problema, possa ter o restante de suas peças remanejadas para a utilização ou

45

substituição em outros equipamentos fora de garantia. Gerando assim um pequeno estoque

de peças para substituição.

Nos desktops a situação é a mesma, quando se está em garantia, a peça é trocada

pelo vendedor ou fornecedor do equipamento, e quando não há mais a garantia a peça só é

trocada se por acaso houver no estoque alguma peça sobressalente de outro equipamento

com defeito ou desativado. Em algumas ocasiões serviços podem ficar parados devido a

disposição geográfica desses equipamentos e o defeito que o mesmo sofreu, um exemplo

seria um fiscal que confere produtos na fronteira de Roraima, teve seu computador

queimado por uma descarga elétrica, nessa localidade não há nenhum equipamento que

possa ser utilizado para substituição do mesmo, tendo que ser demandado a unidade central

mais próxima a substituição, podendo levar dias ou semanas para o processo ser concluído.

b) Instalando Recursos de Virtualização

Foi selecionado para esse estudo de caso um servidor Dell, com as seguintes

configurações, 2 processadores Intel Xeon 3.46GHz Quadcore, 48Gb de RAM, e 3 discos

de 450Gb cada em RAID 5, neste equipamento foi instalado o vSphere e o View, ambos

softwares da VMWare para virtualização, sendo o View específico para desktops.

A instalação do vSphere é simples e se inicia dando boot no servidor escolhido com

a mídia de instalação, Figura 24.

Figura 24 - Tela inicial de instalação do ESXi.

Fonte - Linha de Código UOL (2011)

Após escolher o instalador, os arquivos necessários para a instalação serão

carregados e uma tela inicial será mostrada, Figura 25.

46

Figura 25 - Tela inicial de instalação após carregamento de arquivos necessários.

Fonte - Linha de Código UOL (2011)

Será mostrada então uma tela de boas vindas e o acordo de licença de uso do

software, em seguida será solicitada a escolha do disco para a instalação do software,

Figura 26.

Figura 26 - Tela de escolha de disco para instalação do ESXi.

Fonte - Linha de Código UOL (2011)

O próximo passo é a escolha da senha de root, recurso obrigatório a partir da versão

5.0, Figura 27.

Figura 27 - Tela de configuração de senha de ROOT do ESXi.

Fonte - Linha de Código UOL (2011)

47

Uma verificação de hardware é iniciada para checar a compatibilidade de todos os

dispositivos, não havendo complicações a instalação se inicia após a confirmação, Figura

28.

Figura 28 - Tela de confirmação de instalação do ESXi.

Fonte - Linha de Código UOL (2011)

Após a conclusão do processo a tela inicial novamente será apresentada e agora

com um diferencial, a URL para gerenciar a mesma, Figura 29.

Figura 29 - Tela de configuração do ESXi.

Fonte - Linha de Código UOL (2011)

Para completar o processo as configurações de rede devem ser realizadas com o uso

da tecla F2, nesse estudo o Internet Protocol (IP) do vSphere é o 192.168.2.147.

Para acessar e gerenciar o servidor é necessária a instalação de um cliente que pode

ser obtido através de uma interface web, então após digitar o endereço 192.168.2.147 será

mostrada a tela de boas vindas, Figura 30.

48

Figura 30 - Tela inicial de instalação do VMWare client.

Fonte - MAPA (2012)

Quando se encerra o processo de instalação é necessário efetuar login pela primeira

vez no cliente instalado, Figura 31.

Figura 31 - Tela inicial de login do vSphere.

Fonte - Mapa (2012)

49

A tela inicial do programa apresenta diversas opções. Figura 32.

Figura 32 - Tela inicial do vSphere.

Fonte - Mapa (2012)

Acessando a opção Hosts and Clusters dá-se início a configuração do ambiente de

testes com o outro serviço proposto nesse estudo, o VMWare View, Figura 33.

Figura 33 - Tela inicial do View.

Fonte - Mapa (2012)

O View é um aplicativo instalado sobre um sistema operacional Windows podendo

ser uma máquina física ou uma VM. Ele contém algumas ferramentas para gerenciamento

50

de Desktops virtuais tais como o View Composer, que gerencia as réplicas da imagem

padrão de um desktop virtual.

c) Gerenciamento de configuração em ambientes virtualizados.

Uma vez estabelecido o ambiente virtualizado observa-se facilidades quanto ao seu

gerenciamento, uma vez que toda a estrutura de hardware é simulada por um host VM,

analisando uma situação em que se tem um determinado servidor virtual que rode a folha

de pagamento e está configurado com 60Gb de disco, 4Gb de memória e 2 processadores,

e em determinado período do mês essa máquina exige o dobro de recursos. Em uma

máquina física isso se torna inviável tanto pela mão de obra quanto pelo trabalho

necessário para o aumento do recurso. Com a virtualização poderemos realizar esse

proocesso de forma rápida e prática, apenas movendo recursos para o servidor que

necessita deles momento e retirando-os quando não houver a necessidade para uso.

51

4. RESULTADOS ESPERADOS

Considerando a virtualização como um processo aparentemente sem volta para as

organizações, o controle de seus recursos, a segurança e o alinhamento estratégico são

peças importantes no processo de gestão. Assim, com base no quesito segurança temos os

três pilares da segurança da informação, disponibilidade, integridade e confidencialidade,

para que esses pilares possam ser atingidos a virtualização deve estar orientada para tal,

espero que possamos demonstrar como atingir cada um deles nos quesitos técnicos a

começar pela disponibilidade.

A virtualização possui como característica fundamental um hypervisor que gerencia

e hospeda as máquinas virtuais, sejam servidores ou desktops. Esses softwares possuem

como uma das suas especialidades o controle e compartilhamento de recursos, ou seja, em

uma máquina hypervisor que tenha uma memória de 32 Gb pode disponibilizar para os

servidores 40 ou 48 Gb, pois os recursos são reservados, porém somente são

disponibilizados no momento em que o servidor necessita, quando em baixo

processamento ou período de uso, essa memória fica disponível para outro servidor que a

necessite com maior prioridade.

Também, pode-se levar em consideração o fato de que os recursos para essas VMs

são virtuais apoiados em recursos físicos de forma a garantir a disponibilidade do serviço

no quesito virtualização, sem levar em conta os meios físicos (rede, link, energia, etc.),

sendo necessário apenas possuir 2 (dois) hosts para balanceamento de carga e caso haja

algum problema físico com a máquina host, esta poderia ser desligada para os reparos sem

que o serviço tenha uma queda para o usuário.

No caso de desktops observam-se, ainda, mais opções em função do serviço do

View disponibilizar em seus desktops virtuais a possibilidade de utilização em dispositivos

de diferentes marcas ou modelos tais como notebooks, tablets, smartphones, ou mesmo

personal computers (PCs), convencionais, conforme demonstrado na Figura 34.

52

Figura 34 - Estrutura de disponibilização de acesso do View.

Fonte - Servix (2012)

Desta forma, quando o desktop é carregado pode ser trabalhado de forma off-line,

ou seja, quando se carregam os dados do desktop no tablet, utiliza-se o equipamento em

qualquer lugar como em casa ou em atividades fora da rede de origem e quando o

equipamento novamente estiver na rede local será realizado automaticamente o

sincronismo de todos os seus dados desde o último check-in.

Passando para a segunda parte dos pilares da Segurança da Informação temos,

então, a integridade dos dados. Para esse recurso a VMWare trabalha com arquivos de

extensões próprias, de modo que os mesmo só possam ser utilizados em sua plataforma, ou

então tem que ser importados para plataformas de outros softwares. Assim, não há como

conseguir ter acesso aos dados da máquina virtual sem ter algum software de virtualização

para importar a máquina, além disso, a máquina virtual deve ser configurada com os

requisitos próprios de segurança de acordo com cada organização, seja servidor ou

desktop, partindo então para o terceiro pilar da segurança, a confidencialidade.

Como não existe a possibilidade de acessar os arquivos do servidor sem ter um

software de virtualização e um conversor para fazê-lo, aliado ao fato de que mesmo se os

53

possuir ainda deve-se possuir um usuário se senha para acesso ao servidor o mesmo torna-

se bastante difícil de romper a confidencialidade. No caso de desktops virtuais pode-se

acessar o computador com os dados do usuário de qualquer dispositivo que possua a

compatibilidade para tal, porém os dados são armazenados no servidor ou storage de modo

que somente o usuário registrado para aquela imagem virtual possa ter acesso aos dados

nela contidos mesmo partindo de uma única imagem de sistema operacional em comum a

todos os usuários do serviço, Figura 35.

Figura 35 - Estrutura de acesso a imagens do View.

Fonte - Servix (2012)

Diante do proposto pelo processo DS9 do COBIT que trata de assegurar a

integridade das configurações de hardware e software por meio do estabelecimento e a

manutenção de um repositório de configuração preciso e completo se faz necessário o

alinhamento desse processo com a virtualização. Para tanto, o primeiro ponto do processo

DS9 descreve a necessidade de ter um repositório de configurações e perfis básicos e, neste

contexto, deve-se estabelecer uma ferramenta de suporte e um repositório central para

conter todas as informações relevantes sobre os itens de configuração. Monitorar e

registrar todos os bens e as mudanças ocorridas. Manter um perfil básico de itens de

54

configuração de todo sistema e serviço como um ponto de verificação seguro para eventual

retorno após as mudanças.

Com as máquinas virtuais pode-se manter uma imagem padrão de sistema

operacional com requisitos mínimos para o seu funcionamento, um exemplo, podemos

construir uma imagem de servidor com um SO Microsoft Windows Server 2008, com

disco de 40Gb e memória de 4Gb, essa imagem será a imagem padrão para todas as futuras

máquinas com Windows 2008 solicitadas a partir desse momento, portanto essa imagem

tem que ser configurada com os softwares considerados necessários para a organização

(IIS, Antivírus, SQL, etc.) e todas as máquinas criadas a partir dessa máquina teriam as

mesmas configurações e padrões da máquina “mãe”.

No caso de desktops com o uso do View Composer pode-se ir ainda mais longe,

pois a imagem padrão pode ser atualizada e configurada assim como a de servidores,

porém com um diferencial, pois uma vez que, se atualiza ou instala um novo software na

imagem padrão e disponibiliza-se essa imagem aos usuários, todos os desktops que forem

acessados já estarão automaticamente com as mesmas configurações da imagem mãe.

Nos quesitos de hardware os ambientes governamentais em sua maioria não

possuem peças sobressalentes para a troca e reparo de seus servidores, no caso do MAPA

existem algumas peças que podem ser remanejadas de um servidor a outro, em casos mais

graves de problemas ou até que a garantia possa realizar a substituição das mesmas.

O segundo ponto do DS9 trata da identificação e manutenção dos itens de

configuração e para isso deve-se implantar procedimentos de configuração para suportar a

direção e registrar todas as alterações no repositório de configurações. Integrar esses

procedimentos com gerenciamento de mudanças, gerenciamento de incidentes e

gerenciamento de problemas.

Com a virtualização pode-se realizar a cada alteração na imagem padrão um novo

snapshot, descrevendo quais alterações, softwares, hardware ou versões o mesmo possui,

podendo facilmente disponibilizar uma versão mais nova ou mais antiga do recurso

solicitado.

55

Em relação aos outros processos de gerenciamento, como não há ainda sua

implementação no MAPA, neste trabalho não será possível entrar em detalhes mais

profundos, porém todas as máquinas virtuais são monitoradas em tempo real por diversos

aplicativos, e seus problemas, manutenções, revisões e quaisquer procedimentos, são

registrados em ferramenta específica para monitoramento e acompanhamento de

chamados, podendo ter um histórico completo de tudo o que ocorreu na máquina virtual ou

no host.

O terceiro e último ponto do DS9 trata da realização da revisão da integridade de

configuração e para tanto deve-se periodicamente revisar os dados de configuração para

verificar e confirmar a integridade da configuração atual e histórica. Realizar análise crítica

periódica da política de uso de software, verificando a eventual existência de software

pessoal, não autorizado ou excedente ao contrato de licenças vigente. Erros e desvios

devem ser reportados, tratados e corrigidos.

Com o uso de softwares virtualizados, uma das maiores preocupações é o uso de

softwares não autorizados ou registrados, pois podem comprometer não um, mas todos os

serviços que estão rodando sobre aquela plataforma, os ambientes governamentais são

ambientes altamente regidos a políticas de uso de softwares e equipamentos.

Especificamente, no caso do MAPA não podem ser utilizados nem em servidores

nem em estações nenhum tipo de software pirata ou não autorizado, conforme descrito na

Política de Segurança da Informação do MAPA e essa auditoria é feita por softwares de

gerenciamento de rede, não ligados a virtualização diretamente.

56

5. CONCLUSÃO

Com o exposto no trabalho a computação em constante avanço de capacidade e

recursos, as novas tecnologias, a preocupação com o meio ambiente, os recursos

financeiros e a agilidade na tomada de decisões, temos a virtualização como um ponto

forte para a resolução desses problemas.

Foram apresentados os principais conceitos sobre virtualização, seus modos de

operação e formas de implementação. Foi demonstrado que a virtualização é uma técnica

que um sistema computacional seja compartilhado e que execute vários outros que são

denominados de máquinas virtuais. Cada máquina virtual trabalha isoladamente e com

características próprias, incluindo sistema operacional e periféricos, que podem ser

diferentes do sistema hospedeiro.

O processo DS9 do COBIT - Gestão da Configuração, com seus pontos de controle

específicos se integram quase que perfeitamente ao conceito aqui apresentado.

As empresas em geral, em específico as entidades governamentais são

extremamente importantes para o funcionamento do país, e quase, senão todas utilizam o

computador como sua principal ferramenta de trabalho e a preocupação com a segurança

das informações trafegadas ou armazenadas e ainda a conectividade com outros

dispositivos são grandes desafios a TI moderna.

Virtualizar desktops e servidores, prover segurança e conectividade, auxilia e

maximiza o uso de recursos computacionais pelos usuários finais.

Ao realizar a análise dos ambientes físicos e virtuais, fazendo um breve

comparativo, tenho a certeza de que a virtualização é um caminho sem volta, sua tendência

é de enorme crescimento, tanto no quesito de novas tecnologias e aplicações como no uso

de material virtualizado.

Hoje algumas empresas estão utilizando desktops virtuais em maior escala do que

os físicos. Entendo isso como uma tendência futura para entidades governamentais, pois o

maior controle por parte da equipe de TI, assim como os pilares da segurança nele

desenvolvidos e utilizados, podem prover ao usuário uma maior integração e

disponibilidade de uso dos dados uma vez que, os usuários podem acessar desktops e

57

aplicativos corporativos de quase qualquer dispositivo e as políticas de segurança quando

bem implementadas auxiliam na proteção de dados confidenciais.

Todos já ouvimos falar das gerações, a geração do rock, a geração Coca-Cola, hoje,

estamos vivenciando a geração internet, onde o mundo é conectado. As crianças aprendem

a utilizar computadores antes mesmo de aprender a escrever, os gadgets, celulares, tablets,

notebooks, estão cada vez mais no nosso dia a dia. Essa geração internet, vai cada vez mais

demandar a TI a conectividade e disponibilidade de seus dados.

A TI por sua vez, tem a cada dia que se especializar para poder prover com a maior

segurança possível o que os usuários necessitam, sem esquecer o que o negócio necessita,

então a gestão se faz necessária, o COBIT nesse trabalho representado pela Gestão da

Configuração, é uma das muitas ferramentas que podem auxiliar nesse contexto.

A grande maioria das entidades governamentais tem como clientes finais a

população em geral, então se pudermos utilizar os recursos financeiros e tecnológicos,

aliados a uma gestão confiável e alinhada com o negócio de cada empresa, poderemos

maximizar a experiência com o uso e a disponibilização das informações a quem

necessitar, ajudando assim o país a crescer e prosperar, podendo ainda ajudar nossas

futuras gerações.

58

REFERÊNCIAS BIBLIOGRÁFICAS

BEMER, B. Computer history, V12 – IBM – Origins of Timesharing - a trip log

for reference - Dallas, acessado em Outubro de 2012 em

http://www.bobbemer.com/TIMESHAR.HTM.

SINGH, A. An Introduction to Virtualization. Janeiro de 2004, Acessado em

Maio de 2012 em http://www.kernelthread.com/publications/virtualization/.

LAUREANO, M. Máquinas Virtuais e Emuladores - Conceitos, Técnicas e

Aplicações – Novatec, Brasil, 2006.

SMITH, J. E.; NAIR, R. The Architecture Of Virtual Machines. Institute of

Electrical and Electronics Engineers Computer Society, Piscataway, United

States 2005.

ROSE, R. Survey of System Virtualization Techniques. Oregon State University

Março de 2004.

XenEnterprise vs. ESX Benchmark Results: Performance Comparison of

Commercial Hypervisor s. 2007. Disponível em:

http://blogs.xensource.com/simon/wpcontent/

uploads/2007/03/hypervisor _performance_comparison_1_0_3_no_esxdata.

Acesso em Agosto de 2012.

VMware Named a Leader in Magic Quadrant for x86 Server Virtualization

Infrastructure. Califórnia, Junho de 2012, Acessado em Outubro de 2012 em

http://www.vmware.com/company/news/releases/vmw-gartner-mq-06-29-

12.html.

VMware View - Your Cloud, Your Desktop, Just Got Better. Califórnia, 2011,

Acessado em Outubro de 2012 em

http://www.vmware.com/files/pdf/view/VMware-View-Datasheet.pdf.

Cobit 4.1 - Portuguese. IT Governance Institute. Estados Unidos, 2007, Acessado

em Março de 2012 em http://www.isaca.org/About-ISACA/Press-room/News-

Releases/Portuguese/Pages/ISACA-Introduces-Portuguese-Edition-of-COBIT-4-

1-Portuguese.aspx.

ALISKI, A. Rossi: Dilma quer modernizar Ministério da Agricultura, Jornal

Estadão, Caderno Política, 13 de Dezembro de 2010.

CHALARIS, L., PANAYIOTIS, P. L., CHALARIS, M., IT Governance: The

Safe Way to Effective and Efficient Governance. 1 Technological Educational

Institution of Athens, Dept. of Informatik, 2005.

SILVA, M. B. Instalando o VMware ESXi 5, Linha de código UOL. Acessado

em Outubro de 2012, Disponível em

http://www.linhadecodigo.com.br/artigo/3280/instalando-o-vmware-esxi-5.aspx.

VMware, Inc., VMware View Installation, acessado em Novembro de 2012,

disponível em http://pubs.vmware.com/view-

50/topic/com.vmware.ICbase/PDF/view-50-installation.

SLAGER, P., Installing & Configuring VMware View, Setembro de 2010.

Acessado em Novembro de 2012, Disponível em http://paulslager.com/?p=572.

DESAI, A., The Definitive Guide To The Definitive Guide To Virtual Platform

Management, CA Technologies, Agosto de 2010.

BRUZZESE, P., The Essentials Series: Virtualization and Disaster Recovery -

Data Protection in a Virtualized Environment, CA Technologies, Março de 2012.

59

BRUZZESE, P., The Essentials Series: Virtualization and Disaster Recovery -

Leveraging Virtualization for High Availability and Business Continuity, CA

Technologies, Março de 2012.

SHIELDS, G., The Shortcut Guide To: Virtualization and Service Automation,

Hewlett-Packard HP, Fevereiro de 2009.

GOLDEN, B., Virtualization For Dummies, 2nd HP Special Edition, Wiley

Publishing, Inc. Hewlett-Packard HP, Indiana, EUA, 2009.

TULLOCH, M., Understanding Microsoft Virtualization Solutions, From the

Desktop to the Datacenter, 2nd Edition, Microsoft Press, Washington, EUA,

2010.

ISACA, Virtualização: Benefícios e desafios, 2010, disponível em

http://goo.gl/w7LUn

SERVIX, FREITAS, L. Virtualização de Desktops, Brasília, DF 19 de Março de

2012.