tcc - leon - fp2 tecnologiafp2.com.br/blog/wp-content/uploads/2014/02/business... · 2014-02-03 ·...

45
SANTA MARIA BUSINESS INTELLIGENCE COMO APOIO NA GESTÃO DE EQUIPE DE TI ULBRA CAMPUS SANTA MARIA LEON MELLO ROEHE SANTA MARIA RS, Dezembro de 2013

Upload: vuque

Post on 04-Dec-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

SANTA MARIA

BUSINESS INTELLIGENCE COMO APOIO NA GESTÃO DE

EQUIPE DE TI

ULBRA – CAMPUS SANTA MARIA

LEON MELLO ROEHE

SANTA MARIA – RS, Dezembro de 2013

SANTA MARIA

CURSO DE SISTEMAS DE INFORMAÇÃO

DISCIPLINA: TRABALHO DE CONCLUSÃO DE CURSO I

PROFESSOR: FERNANDO PRASS

ALUNO: LEON MELLO ROEHE

BUSINESS INTELLIGENCE COMO APOIO NA GESTÃO DE

EQUIPE DE TI

Trabalho de Conclusão de Curso de Graduação apresentado ao Curso de

Sistemas de Informação da Universidade Luterana do Brasil – ULBRA Campus

Santa Maria, como requisito parcial à obtenção do Grau de Bacharel em Sistemas

de Informação.

Orientador: Prof Msc. Fernando Sarturi Prass

SANTA MARIA – RS, Dezembro de 2013

O tempo é o recurso mais escasso e, a não ser que

seja gerido, nada mais pode ser gerido...

(Peter Drucker)

RESUMO

Há muito que a utilização de tecnologias como meio para obtenção de

resultados tem sido explorada pelas organizações que visam ter o melhor resultado

através da melhor utilização dos recursos. Isso se faz evidente quando observamos

a evolução crescente no desenvolvimento de softwares especialistas focados na

solução inteligente de necessidades das áreas de negócio da empresa.

Exemplo dessa exploração é a evolução de sistemas de Enterprise Resource

Planning (ERP), Supply Chain Management (SCM) e Warehouse Management

System (WMS) entre outros. Diante dessa exposição da tecnologia como aliada a

gestão ergue-se o Business Intelligence (BI), que vem para suprir a carência das

áreas de gestão por informações de apoio a tomada de decisão estratégica.

O mote deste estudo é aplicar uma tecnologia de business intelligence com o

objetivo de extrair informações relevantes que forneçam subsídios consistentes para

a gestão da equipe de TI. Para tanto, foi obtido o histórico de tarefas realizadas por

uma equipe de desenvolvedores que, após determinado indicadores de

desempenho, foram submetidos a uma arquitetura de BI, onde foram criados os

cenários que permitiram uma análise crítica dos resultados.

Palavras-chave: Business Intelligence, TI, Tecnologia

ABSTRACT

The very use of technology as a means of achieving results has been

exploited by the organizations that aim to have the best results by making best use of

resources. This is evident when we look at the growing trend in software

development specialists focused on smart solution needs of the business areas of

the company.

An example of this operation is the development of systems for Enterprise

Resource Planning (ERP), Supply Chain Management (SCM) and Warehouse

Management will System (WMS) among others. Given this exposure management

technology as an ally stands the Business Intelligence, coming to address the

shortage of areas for management information to support strategic decision making.

The intention of this study is to apply a technology business intelligence in

order to extract relevant information to provide subsidies for the consistent

management of IT staff. For this, we obtained the history of tasks performed by a

team of developers who, after certain performance indicators, underwent a BI

architecture, where the scenarios were created that allowed a critical analysis of the

results.

Keywords: Business Intelligence, IT, Technology

LISTA DE ABREVIATURAS

BI - Business Intelligence ............................................................................................ 9

IC - Intelligence Competitive ...................................................................................... 16

ROLAP - Relational On-Line Analytical Processing .................................................. 19

EAP - Estrutura Analítica de Projetos ........................................................................ 22

ERP - Enterprise Resource Planning ........................................................................ 25

ETL - Extraction, Transformation and Loading .......................................................... 12

EVA - Economic Value Added ................................................................................... 30

FO - Ficha de Ocorrência .......................................................................................... 43

GLPI - Gestion Libre de Parc Informatique ............................................................... 26

HOLAP - Hybrid On-Line Analytical Processing ........................................................ 19

IDE - Integrated Development Environment .............................................................. 27

KDD - Knowledge Discovery Database ..................................................................... 20

KM - Knowledge Management .................................................................................. 16

KPIs- Key Performance Indicator .............................................................................. 25

MOLAP - Multidimensional On-Line Analytical Processing ....................................... 19

OLAP - On-Line Analytical Processing ...................................................................... 18

OLTP - On-Line Transaction Processing ................................................................... 18

PERT - Program Evaluation Review Technique ........................................................ 22

PMBOK - Project Management Body of Knowledge ................................................. 22

RH - Recursos Humanos .......................................................................................... 26

ROI - Return on Investiment ...................................................................................... 30

ROLAP - Relational On-Line Analytical Processing .................................................. 19

SGBD - Sistema Gerenciador de Banco de Dados ................................................... 27

SIE - Sistemas de Informações Executivas ............................................................... 14

SIG - Sistema de Informação Gerencial .................................................................... 14

TCO - Total cost of Ownership .................................................................................. 30

TI - Tecnologia da Informação ..................................................................................... 9

LISTA DE FIGURAS

Figura 1 - Magic Quadrant for Business Intelligence Platforms (Instituto Gartner – 2013) ................. 13

Figura 2 - Típico esquema ETL (Fonte: KIMBALL, 1998) ........................................................................ 16

Figura 3 - Esboço das etapas do processo KDD (Fonte: Fayyad, 1996) ........................................ 20

Figura 4 - Gerenciamento de Projetos & Gerenciamento do Tempo (Fonte: adaptação, PMI 2008) .. 23

Figura 5 - Interface GLPI ........................................................................................................................ 26

Figura 6 - Query extração dos dados..................................................................................................... 27

Figura 7 – Planilha fonte de dados. ....................................................................................................... 28

Figura 8 - Condição exclusão registros sem tempo ............................................................................... 29

Figura 9 - Console Qlickview ................................................................................................................. 32

Figura 10 - Tratamento dos dados pre carga ........................................................................................ 33

Figura 11 - Implementando expressão somatória valo do chamado. ................................................... 35

Figura 12 - Criando lista de apoio indicador alocação de recurso. ....................................................... 36

Figura 13 - Determinando dimensão indicador alocação recurso. ....................................................... 37

Figura 14 - Implementando expressão indicador alocação de recurso. ............................................... 38

Figura 15 - Resultado em percentual. ................................................................................................... 38

Figura 16 - Indicador custo por área. .................................................................................................... 39

Figura 17 - Atividades área de TI. .......................................................................................................... 40

Figura 18 - Alocação recurso sênior. ..................................................................................................... 41

Figura 19 - Origem das ocorrências. ...................................................................................................... 41

8

SUMÁRIO 1. INTRODUÇÃO ............................................................................................................... 9

1.1.Elementos de Pesquisa ...................................................................................... 10

1.1.1.Problema ......................................................................................................... 10

1.1.2.Hipóteses ........................................................................................................ 10

1.1.3.Objetivo Geral .................................................................................................. 10

1.1.4.Objetivos Específicos ...................................................................................... 11

1.1.5.Justificativa ...................................................................................................... 11

1.1.6.Escopo do Trabalho......................................................................................... 12

2.REFERENCIAL TEÓRICO ............................................................................................ 14

2.1.Business Intelligence .......................................................................................... 14

2.2.Extract, Transform, Load (ETL) .......................................................................... 16

2.3.On-Line Analytical Processing(OLAP) ................................................................ 17

2.4.Arquitetura associativa ....................................................................................... 18

2.5.Knowledge Discovery Database (KDD) .............................................................. 19

2.6.Gerenciamento do Tempo .................................................................................. 20

2.7.Timesheet ........................................................................................................... 23

3.METODOLOGIA E DESENVOLVIMENTO .................................................................... 24

3.1.Definição do Escopo ........................................................................................... 24

3.2.Fonte de Dados .................................................................................................. 26

3.2.1.Extração de Dados .......................................................................................... 27

3.2.2.Transformação de dados ................................................................................. 28

3.3.Key Performance Indicators (KPI)....................................................................... 30

3.3.1 Determinando KPIs.......................................................................................... 31

3.4.Passos geração da informação .......................................................................... 31

3.4.1.Conectar a fonte de dados............................................................................... 31

3.4.2.Tratamento dos dados pre carga ..................................................................... 33

3.4.3.Carga dos dados ............................................................................................. 33

3.4.4.Criação dos Cenários ...................................................................................... 34

4.RESULTADOS .............................................................................................................. 39

5.CONCLUSÃO ............................................................................................................... 42

5.1.Trabalhos Futuros .............................................................................................. 43

6.REFERÊNCIAS BIBLIOGRAFICAS .............................................................................. 44

9

1. INTRODUÇÃO

O tempo é um item determinante para o sucesso de um empreendimento, o

que torna a gestão do tempo um fator crítico no monitoramento de um projeto. A

assertividade nas estimativas e no desenvolvimento do cronograma de um projeto

torna-se o diferencial em um ambiente competitivo das organizações. Neste cenário,

os erros decorridos de um mau planejamento definem a ocorrência ou não do atraso

na entrega.

O atraso na conclusão dos projetos representa um dano irreparável, visto

que não se pode retroceder no tempo e o prazo afirmado com o stakeholder, que se

refere ao público interessado no resultado do projeto, não será cumprido. Isso,

muitas vezes, acarreta em um desgaste na relação e um aumento de custo, além do

investimento despendido em outros recursos relacionados ao projeto, que na

ausência da entrega final ficarão em estado de desuso aguardando o produto.

Apesar do aumento da utilização das práticas do gerenciamento de projetos

como ferramenta para coordenação do tempo por parte das organizações, ainda é

significativo o índice de insucesso no cumprimento dos prazos estabelecidos. Em

um estudo feito pelo Standish Group Internacional, avaliando projetos de TI , foi

observado que 88% dos projetos apresentam atrasos no cronograma, sendo que, a

média do atraso em relação ao cronograma inicial é de 22% PMnetwork (2002).

Através deste estudo fica evidente a complexidade no processo de previsão de um

projeto em virtude de sua natureza incerta devido a não ser um fato consumado e

sujeito a intervenções de inúmeros agentes externos.

Por fim, apesar da incerteza de uma previsão do tempo que será investida

em uma atividade, para elaborar-se o planejamento, é imprescindível estimar-se os

prazos. Visto isso, é necessário fazer previsões acuradas para que o cronograma

seja respeitado e o projeto seja concluído no tempo, custo e qualidade desejada.

Na concepção deste trabalho científico, o principal objetivo proposto foi

desenvolver uma metodologia que contribuísse para gestão de uma equipe de TI por

intermédio de uma solução de BI, que permitisse obter resultados relevantes através

do processamento analítico computacional e inteligência de negócios aplicada a

resultado estratégico.

10

Este trabalho está organizado da seguinte maneira: no segundo capítulo

têm-se o referencial teórico que fornece o referencial necessário para a aplicação e

sustenta o terceiro capítulo. No terceiro capítulo a metodologia e o desenvolvimento,

no qual é analisado o caso de estudo e são elaborados os cenários

multidimensionais que sustentarão os resultados. No quarto capítulo são

apresentados os resultados e no quinto a conclusão deste trabalho.

1.1.Elementos de Pesquisa

1.1.1.Problema

É possível, por meio de uma ferramenta de Business Intellingence, analisar

uma massa de dados contendo o apontamento das tarefas realizadas e obter

informações relevantes para gestão de uma equipe de Tecnologia da Informação?

1.1.2.Hipóteses

As hipóteses deste trabalho são as seguintes:

Através do resultado da análise será possível obter informações relevantes

para a gestão da equipe de TI.

Não é possível obter resultado significativo do volume de dados avaliado para

a gestão da equipe de TI.

1.1.3.Objetivo Geral

O objetivo geral deste trabalho é submeter um volume de dados contendo o

histórico de apontamentos das tarefas realizadas a uma arquitetura para BI que

permita extrair informações relevantes, no sentido de ter uma visão ampla dos

principais motivos que influenciam negativamente nas entregas previstas. Além

disso, deseja-se fornecer informações de interesse aos tomadores de decisão,

visando apoiar a construção de políticas e instruções para controle dos principais

focos responsáveis pelo consumo de tempo e esforço de uma equipe.

11

1.1.4.Objetivos Específicos

Os objetivos específicos deste trabalho são:

Selecionar fonte de dados;

Extrair e transformar fonte de dados;

Estudar métodos de análise e descoberta de conhecimento;

Avaliar o resultado obtendo informações relevantes que auxiliarão no

direcionamento da equipe.

1.1.5.Justificativa

O reconhecimento da Tecnologia da Informação como uma arma estratégica

para as empresas tem acarretado em uma grande carga de atividades para os

profissionais que atuam nessa área. Esses profissionais estão cada vez mais

envolvidos com o negócio da organização e não somente com a parte puramente

técnica, que visava à automação de processos.

Neste sentido, ALBERTIN (2004) afirma que as organizações têm procurado

um uso cada vez mais intenso e amplo de Tecnologia de Informação, não apenas

bits e bytes. CRANE E BODIE (1996) destacam que, as organizações estão se

transformando de uma maneira imprevisível e, às vezes, contraditória.

Algumas das forças que têm acelerado essas mudanças estão relacionadas

aos seguintes fatores: crescimento da competição de instituições não tradicionais;

novas Tecnologias de Informação e declínio dos custos de processamento; erosão

das fronteiras de produtos e geográficas e com as menores restrições da

regulamentação governamental. Com isso, consequentemente, a produtividade

desses profissionais passou a ser medida e controlada, pois o que mais importa é a

entrega de resultados que agreguem valor ao negócio.

Nesse contexto é importante destacar a atuação da área de TI nas

organizações, que além de trabalhar em projetos de inovação que trarão resultados

estratégicos alinhados ao objetivo da empresa, também é responsável pela

sustentação do ambiente já estabelecido. É fato que este suporte às operações

consome muito tempo dos profissionais, porém este tempo, na maioria das vezes,

não é medido ocasionando um mascaramento no resultado final no qual muitas

vezes é percebido baixo rendimento da área de tecnologia.

12

No contexto do desenvolvimento da Tecnologia de Informação, soluções de

Business Intelligence (BI) visam oferecer os meios consistentes para transformação

de meros dados em informação e a informação em conhecimento a fim de suportar o

processo decisório GANGADHARAN; SWAMI (2004).

Soluções de BI são compostas de ferramentas Extraction, Transformation

and Loading (ETL), de um ou vários data marts e de ferramentas de processamento

analítico e de mineração de dados CÔRTES (2002). As ferramentas de

processamento analítico para apoio à decisão permitem a criação de cenários, como

os conhecidos relatórios e cubos de dados, obedecendo a diferentes perspectivas

permitindo arranjar de forma personalizada uma visão sobre os dados disponíveis

KIMBALL (1998).

Avaliando a problemática propõem-se submeter uma massa de dados

contendo o apontamento de tarefas realizadas a um software de BI. Com isto serão

geradas informações consistentes que viabilizarão uma análise detalhada

embasando decisões em relação ao melhor uso dos recursos da equipe.

1.1.6.Escopo do Trabalho

O trabalho proposto tem delimitado como escopo a análise da utilização do

tempo de uma equipe de TI. Para isto foi submetido a uma plataforma de business

intelligence associativa in-memory, uma base de dados contendo apontamento de

atividades realizadas durante determinado período.

Decidiu-se utilizar o software Qlikview www.qlikview.com/ por ser tendência de

mercado conforme quadrante mágico do instituto Gartner, que é uma referência na

compreensão das tecnologias e fornecedores conforme ilustrado na Figura 1. O fato

da ferramenta ter versão gratuita também foi determinante pela opção do software.

13

Figura 1 - Magic Quadrant for Business Intelligence Platforms (Instituto Gartner – 2013)

O quadrante mágico elaborado pelo grupo Gartner fornece um

posicionamento competitivo gráfico de quatro tipos de fornecedores de tecnologia:

Onde:

Leaders: São os fornecedores que lideram o mercado e estão preparados para as

mudanças futuras.

Visionaries: Analisam o direcionamento do mercado ou tem visão para mudança

das regras no fornecimento de tecnologia.

Niche Players: Concentram-se com sucesso em um segmento pequeno.

Challengers: Concorrem em uma grande fatia do mercado e podem assumir

posição de liderança de mercado no fornecimento de tecnologia.

14

2.REFERENCIAL TEÓRICO

Com o intuito de fornecer ferramentas que sustentarão a compreensão e

desenvolvimento deste trabalho, este capítulo visa expor de forma objetiva a

fundamentação teórica conceitual relacionada ao tema deste trabalho de graduação.

Serão contextualizados assuntos inerentes ao objeto de pesquisa tais como: gestão

de tempo, Bussines Intelligence e Key Performance Indicators.

2.1.Business Intelligence

O termo BI foi apresentado pelo Gartner Group em meados da década de

1990. Contudo, o conceito iniciou muito antes, com suas raízes nos sistemas de

geração de relatórios de Sistema de Informação Gerencial (SIG) dos anos 1970. No

início dos anos 80, surgiu o conceito de Sistemas de Informações Executivas (SIE).

Esse conceito expandiu o suporte computadorizado aos gerentes e executivos de

nível superior.

Através do constante desenvolvimento e evolução dos métodos e tecnologias

empregadas no desenvolvimento de sistemas de informações, tornou-se possível

oferecer maior capacidade e agilidade no processamento dos dados e apoio ao

processo decisório INMON (1997). A criação de técnicas como de data warehousing

e de soluções como BI, permitiu a elaboração de sistemas que possibilitam um

maior controle dos processos internos e a definição e acompanhamento de

estratégias de gestão dos seus indicadores.

Diante deste contexto advindo através do entendimento de que o

desempenho e a eficiência são significantes formas de competitividade, surge o

conceito Business Intelligence cuja aplicação é justificada pela observação de ATRE

e MOSS (2003):

“Nos competitivos dias atuais e no aumento da

incerteza mundial, a qualidade e a

conveniência da organização de uma aplicação

de“Business Intelligence” (BI) pode significar

não só a diferença lucro e perda, mas também

15

a diferença entre sobrevivência e falência”.

ATRE e MOSS (2003).

Business Intelligence não é simplesmente um produto ou tão pouco um

sistema. Trata-se de uma arquitetura e ao mesmo tempo uma coleção de operações

integradas, assim como aplicações de suporte à decisão e bancos de dados que

forneçam aos tomadores de decisão fácil acesso às informações do negócio. ATRE

e MOSS (2003).

BARBIERI (2001) sustenta Business Intelligence como um guarda-chuva

conceitual que envolve Inteligência Competitiva (CI – Conjunto de informações da

concorrência e do mercado), Gerência de Conhecimentos (KMS – Conjunto de

informações de uma empresa criadas, agrupadas, recuperadas e organizadas),

Internet Business Intelligence, pesquisa e análise de mercados, etc. Observa-se que

por meio da aplicação de BI, é possível obter um leque de informações de extrema

importância para os membros diretivos de uma organização e que a utilização deste

ferramental propicia diferenciação neste contexto competitivo no qual estão inseridas

as empresas. Ao avaliarem os dados históricos e momentâneos, o corpo diretivo

consegue sustentação para a tomada de decisão melhores e mais acuradas ZAMAN

(2005). O processo do BI baseia-se na transformação de dados em informações,

depois em decisões e finalmente em ações.

CÔRTES (2002) expõe que, Business Intelligence é um conjunto de conceitos

e metodologias que visa ao apoio à tomada de decisões nos negócios, a partir da

transformação do dado em informação e da informação em conhecimento. Para

ALMEIDA (1999), BI objetiva usar os dados da organização para apoiar decisões

bem informadas, facilitando o acesso e a análise de dados, e possibilitando a

descoberta de novas oportunidades.

O desenvolvimento da arquitetura de BI está atrelado à evolução da

tecnologia como um todo, dessa forma a descoberta de outras ferramentas

importantes que agregam melhorias ao BI como Data Warehouse e Data Mining.

16

2.2.Extract, Transform, Load (ETL)

Conjunto de aplicativos e ferramentas que fazem a coleta de dados nos

repositórios da organização e procedem com a limpeza e transformação para enfim

carregar o DW KIMBALL (1998). A Figura 2 ilustra um modelo típico da estrutura de

processos de ETL.

Figura 2 - Típico esquema ETL (Fonte: KIMBALL, 1998)

O processo de Extração, Transformação e Carga é um processo que envolve:

Extração

Primeira etapa do processo de ETL é a extração de dados dos sistemas de

origem. Comumente data warehouse consolidam dados extraídos de diferentes

fontes. Formatos de dados comuns são bases de dados relacionais e flat files

databases. Durante o processo de extração converte-se para um determinado

formato para a entrada no processamento da transformação.

Transformação

O estágio de transformação aplica uma sequencia de regras ou funções aos

dados extraídos para derivar os dados a serem carregados. Dependendo da

17

disposição dos dados, muitas vezes, podem ser necessários um ou mais de um dos

seguintes tipos de transformação:

Seleção de apenas determinadas colunas para carregar;

Tradução de valores codificados (se o sistema de origem armazena 1 para sexo

masculino e 2 para feminino, mas o data warehouse armazena M para masculino

e F para feminino, por exemplo), o que é conhecido como limpeza de dados;

Codificação de valores de forma livre (mapeando “Masculino”, “1” e “Sr.” para M,

por exemplo);

Derivação de um novo valor calculado (custo/hr = qtd de horas / valor/hr);

Join ou concatenação de dados provenientes de diversas fontes;

Geração de valores de chaves substitutas;

Transposição ou rotação (transformando múltiplas colunas em múltiplas linhas ou

vice-versa);

Quebra de uma coluna em diversas colunas.

Carga

A etapa de carga carrega os dados no Data Warehouse. A frequência da

carga é determinada de acordo com as regras de negócio da organização. Também

é determinado se a carga será incremental ou exclusiva.

2.3.On-Line Analytical Processing(OLAP)

Dentre os componentes de uma arquitetura de BI encontra-se a área de

apresentação que diz respeito ao conjunto de instrumentos que serão utilizados com

objetivo de navegar no DW. Esses instrumentos correspondem a relatórios

previamente configurados, aplicativos para confecção de relatórios, ferramentas On-

line Analytical Processing (OLAP), ferramentas de Data Mining (mineração de

dados), entre outras BERRY; LINOFF (1997).

Bases de dados tradicionais para operações convencionais, transacionais,

utilizam-se de tecnologias chamadas On-Line Transaction Processing (OLTP),

porém, no caso de DW, utilizam-se tecnologias denominadas OLAP. Segundo

THOMSEN (2002), ferramentas OLAP são de caráter descritivo, ou seja, permitem a

18

apresentação dos dados do negócio sob diferentes perspectivas e implementam

funcionalidades de agregação, razão e produto, entre outras.

Como o objetivo das ferramentas OLAP é permitir análises para analistas de

negócios, elas têm requisitos bem particulares se comparadas a outros sistemas de

informação THOMSEN (2002):

Flexibilidade: Os analistas de negócio devem ter liberdade e facilidade para

escolher os dados a serem analisados bem como o formato no qual eles

devem ser visualizados;

Simplicidade: Ferramentas OLAP devem prover maneiras simples e

intuitivas de confecção de análises para os analistas de negócio;

Expressividade: A linguagem de consulta utilizada pela ferramenta OLAP

deve ser poderosa o suficiente para que o analista consiga extrair

informações realmente úteis para o negócio;

Poder de análise: Ferramentas OLAP devem prever um conjunto de

operações de agregação e exploração de dados que permitam análises de

tendências e comparações complexas utilizando os dados que descrevem o

negócio;

Velocidade. O processamento das consultas sobre o DW deve ser realizado

em um tempo relativamente baixo. O tempo de processamento, dependendo

do volume de dados e da complexidade do código da consulta pode em casos

específicos chegar a horas.

Em relação às arquiteturas utilizadas para OLAP, destacam-se o Relational

On-Line Analytical Processing (ROLAP) baseado em bancos relacionais e o

Multidimensional On-Line Analytical Processing (MOLAP) baseado em bancos

multidimensionais. Variações dessas arquiteturas incluem Desktop On-Line

Analytical Processing (DOLAP) e Hybrid On-Line Analytical Processing

(HOLAP) (THOMSEN, 2002).

2.4.Arquitetura associativa

Associative Query Language (AQL), arquitetura inovadora e proprietária

implementada na ferramenta Qlikview gerencia as associações entre os conjuntos

19

de dados internamente, através de seus próprios recursos, e não nas aplicações. O

ambiente armazena e trata as tabelas individualmente em memória. Todos os dados

de todos os campos são associados a todos os outros dados em qualquer fonte

carregada para memória.

O resultado desta associação é que ao invés de ser disparada uma pesquisa

diante da interação do usuário, nenhuma query é executada e sim todos os outros

campos são filtrados instantaneamente com base na seleção feita pelo usuário

através do recalculo das agregações em tempo real.

2.5.Knowledge Discovery Database (KDD)

A renovação contínua de tecnologias demanda que o mercado esteja em

constante mudança, adaptando-se às novas estratégias e ao novo comportamento

dos clientes. Conhecer o máximo possível sobre os perfis é peça chave para o

desenvolvimento competitivo e consequentemente para o crescimento. Com o

passar do tempo, várias foram as formas de monitorar o comportamento da

população por meio de técnicas que registram e armazenam interações com

sistemas.

Diante disso, as empresas contam um arcabouço de dados dos

consumidores. Porém, apenas dados, não conferem resultados relevantes. É

necessário transformar esta massa de registros em conhecimento. Nesse contexto,

surge o conceito de Descoberta de Conhecimento em Bancos de Dados Knowledge

Discovery in Databases (KDD), que FAYYAD (1996) definem como sendo “o

processo, não trivial, de extração de informações implícitas, previamente

desconhecidas e potencialmente úteis, a partir dos dados armazenados em um

banco de dados”.

O KDD consiste na seleção e processamento de dados com a finalidade de

identificar novos padrões, dar maior precisão em padrões conhecidos e modelar o

mundo real. Espera-se que o conhecimento extraído seja utilizado. Neste caso, seu

uso dará frutos que poderão ou não interferir com novos dados a serem obtidos,

como foi visto em BARRETO (2003).

20

KDD, ilustrado na Figura 3, é uma extração de descoberta de conhecimento que

em seu processo segue fases específicas:

Definição do problema;

Seleção dos dados;

Limpeza dos dados;

Pré-processamento dos dados;

Codificação dos dados;

Enriquecimento dos dados;

Mineração dos dados (Data Mining);

Interpretação dos dados.

Figura 3 - Esboço das etapas do processo KDD (Fonte: Fayyad, 1996)

2.6.Gerenciamento do Tempo

O desenvolvimento humano sempre foi fundamentado na evolução das

técnicas e métodos através de projetos, mesmo que inconscientemente, porém

somente no século XX estabeleceu-se um domínio tecnológico e científico a fim de

descrever formalmente a organização e etapas de um projeto. Com a revolução

industrial o fator tempo passou a ser item determinante nas organizações que eram

21

movidas por projetos conforme MENEZES (2001) afirma, “o trabalho desenvolvido

nas organizações é formado por serviços e/ou projetos”.

O tempo é considerado um fator crítico de sucesso que segundo FREIRE

(2008) “são os pontos chave que definem o sucesso ou o fracasso de um objetivo

definido por um planejamento de determinada organização. Estes fatores precisam

ser encontrados pelo estudo sobre os próprios objetivos, derivados deles, e tomados

como condições fundamentais a serem cumpridas para que a instituição sobreviva e

tenha sucesso na sua área. Quando bem definidos, os fatores críticos de sucesso se

tornam um ponto de referência para toda a organização em suas atividades voltadas

para a sua missão”.

Segundo o Project Management Body of Knowledge PMBOK (2008)

demonstrado na Figura 4: “O gerenciamento do tempo do projeto inclui os processos

necessários para gerenciar o término pontual do projeto.” E o seu principal objetivo é

garantir que o projeto seja concluído dentro do prazo determinado. Para CLELAND

(1999) quanto maior for o tempo gasto com planejamento, maiores as chances de

sucesso do mesmo.

O gerenciamento do tempo é uma das áreas de conhecimentos do PMBOK. Esta

área é dividida em subconjuntos com seis processos, que são:

Definir as atividades: Usa-se a Estrutura Analítica de Projetos (EAP), a

declaração do escopo, as informações históricas, as restrições e premissas

para melhorar o detalhamento das tarefas a serem executadas. O Benchmark

do projeto e o detalhamento preciso das atividades em uma EAP com o intuito

de ser capaz de gerenciar custo e tempo em cada atividade é o objeto dessa

etapa. A EAP e outros documentos como a relação Responsável VS.

Atividade são documentos básicos dessa etapa.

Sequenciar as atividades: Estudo e definição das dependências entre

tarefas. Permite criar o cronograma e analisar estrategicamente a realização

das atividades. Um diagrama de rede Program Evaluation Review Technique

(PERT) pode ser gerado ao final desta atividade.

Estimar as durações das atividades: O tempo estimado para cada atividade

é o dado mais importante desta etapa, pois irá influenciar todo o andamento

do projeto, estimativa exagerada poderá inviabilizar o projeto, estimativa

muito curta poderá acarretar atrasos que, de alguma forma trarão prejuízos

22

ao projeto, assim o dado deverá ser embasado em listas de atividades pré-

definidas, premissas, recursos e coeficientes de produtividade, além de

informações históricas, se possível, e que serão a base para definição do

tempo das tarefas.

Desenvolver o cronograma: A partir do diagrama PERT, das estimativas de

duração das atividades, dos recursos a serem alocados, do calendário base

com folgas, flutuações, etc. as datas de inicio e fim de cada atividade serão

definidas. Análises matemáticas como o método do caminho crítico (COM),

entre outros são usados nesta etapa. Atualmente esta é a etapa em que usa-

se o Software de Gerenciamento de Projetos alimentando-o com os dados

necessários para o gerenciamento do tempo do projeto.

Controlar o cronograma: A partir do cronograma, dos relatórios de

performance, as solicitações de mudanças e o plano de gerenciamento do

cronograma é possível gerenciar o tempo do projeto controlando as

atividades realizadas. As atividades podem ser observadas e a sua execução

será o dado básico para o gerenciamento do tempo no projeto, o gestor do

projeto irá apontar periodicamente a porção de execução do tempo no

cronograma e com base nos dados disponibilizados anteriormente para o

software de gerenciamento de projetos será possível saber qual é, afinal, o

desempenho atual do projeto.

Como resultado terá o cronograma atualizado e um banco de dados com as

experiências históricas sobre o desenvolvimento do gerenciamento do tempo

do projeto.

23

Figura 4 - Gerenciamento de Projetos & Gerenciamento do Tempo (Fonte: adaptação, PMI 2008)

2.7.Timesheet

Atualmente as organizações contam com um quadro enxuto de

colaboradores, fato este que exige uma gestão eficaz dos recursos. A gestão da

produtividade nessas equipes é rigorosa. Neste sentido o apontamento de horas por

atividades tornou-se força motriz para gestão de recursos.

Timesheet é um método para reportar a quantidade de tempo gasto em uma

atividade. Esta técnica visa registrar as atividades realizadas apontando hora de

inicio, hora de término ou simplesmente a duração.

24

3.METODOLOGIA E DESENVOLVIMENTO

Neste capítulo serão descritos os procedimentos planejados e executados de

forma estruturada no sentido de justificar as hipóteses iniciais da proposta do

trabalho. Pretende-se descrever as etapas que foram seguidas de forma a ilustrar a

maneira com que se obteve o resultado.

De acordo com YIN (2001), o estudo de caso é uma pesquisa empírica que

investiga um fenômeno contemporâneo, dentro de um contexto de vida real,

especialmente quando os limites entre o fenômeno e o contexto não estão

claramente definidos. O caso escolhido é submissão de uma base de dados

contendo histórico de seis meses de apontamento de atividades realizadas por uma

equipe de TI.

Na subseção que trata da implementação dos Key Performance Indicator

(KPIs), serão detalhadas apenas dois dos cenários, visto a extensão no processo de

elaboração.

3.1.Definição do Escopo

Para tornar o objeto de estudo viável foi necessário ter acesso a uma base de

dados que contivesse volume relevante de informações a respeito de atividades

relacionadas a desenvolvimento de software realizado durante determinado período.

Essa fonte de dados permitiu a extração dessas informações de forma a determinar

critérios, os quais foram transformados e na sequencia carregados para um

ambiente de BI. A criação dos cenários visa permitir que o algoritmo associativo

consiga gerar informações consistentes e de relevância no sentido de validar as

hipóteses desse trabalho.

As atividades contidas na base de dados foram cedidas por uma equipe de

desenvolvimento de software, onde existem desenvolvedores de nível júnior, pleno e

sênior que trabalham na criação de novos sistemas e suporte e sustentação dos

sistemas legados. A organização cedente dos dados atua no segmento de

componentes automotivos e possui em seu quadro programadores de software que

desenvolvem customizações no sistema de Enterprise Resources Planning (ERP).

25

Para a organização da demanda é utilizado a ferramenta de gestão de Service Desk

Gestion Libre de Parc Informatique (GLPI) que agrega a função de apontamento de

atividades por meio de requisições abertas e associada ao técnico que atendera a

demanda.

O GLPI é uma ferramenta open-source que pode ser encontrada acessando o

site www.glpi-project.org/ e utiliza banco de dados para armazenar movimentação.

Através dessa ferramenta foi possível extrair informações que foram elencadas

como relevantes para que viabilizasse uma analise consistente.

As informações escolhidas estão relacionadas como segue:

Recurso: É o técnico que atendera a demanda originada por um requerente

no sistema.

Tempo: O tempo de atendimento retrata a quantidade de tempo que foi

dedicado em determinada atividade. A quantidade de tempo é o somatório de

todos os tempos dedicados a determinada tarefa/atividade.

Área atendida: A área atendida está vinculada ao requerente, porém pode

ser informada pelo técnico no momento do apontamento da atividade. A área

atendida representa o setor da empresa beneficiado ou que o solicitou

desenvolvimento de sistema.

Valor hora trabalho: O valor do salário/hora dos recursos foi obtido

juntamente com o departamento de recursos humanos (RH). O valor

apresentado considera o valor bruto somado as retenções determinadas pela

lei vigente. Esse dado foi incluído para que permitisse a análise de custo por

área e também para embasar estudos futuros, a fim de apropriar a despesa

da área de desenvolvimento para as áreas solicitantes na qual seria possível

tornar o departamento um prestador se serviços.

Categoria: Classificação da tarefa realizada de acordo com a natureza da

atividade.

Fechamento: Forma de encerramento da atividade que determina a maneira

que a demanda foi concluída. Pode ser solucionada quando a tarefa foi

totalmente solucionada, projeto quando esta vinculada a alguma evolução de

projeto.

26

Origem: Canal pelo qual foi gerada a tarefa. Pode ser ficha de ocorrência

quando aberta diretamente na ferramenta de helpdesk, telefonema quando

aberta após ligação do requisitante, email quando iniciada via recebimento de

email do requisitante ou reunião quando a tarefa é demandada após reunião.

A Figura 5 ilustra a interface da ferramenta na qual pode ser visualizado a

disposição das informações e o conteúdo.

Figura 5 - Interface GLPI

3.2.Fonte de Dados

A obtenção dos dados para preparação do repositório que será submetido ao

software de BI foi obtida através da extração do conteúdo diretamente do banco de

dados da aplicação GLPI. A aplicação utiliza Sistema Gerenciador de Banco de

Dados (SGBD) MySql, o qual permitiu executar comando SQL e extrair apenas as

informações relevantes para o objeto de pesquisa.

27

3.2.1.Extração de Dados

A etapa de extração de dados foi implementada utilizando um Integrated

Development Environment (IDE) SqlDbx www.sqldbx.com/personal_edition.htm,

ferramenta focada em ambientes de servidores heterogêneos, que foi configurado a

conexão com o banco de dados da aplicação GLPI.

Depois de estabelecida conexão com a base de dados e visualizado as

tabelas foi executado scripts SQL e usado técnicas de agregação (SUM),

condicionamento (WHERE). Com o objetivo de formar uma base de dados sólida

onde pudesse ser aproveitada, foi determinado um período de seis meses para corte

das informações iniciando em 01/11/2012 e encerrado até 31/05/2013 (WHERE

glpi_tracking.dt_inic_ticket >= 11/01/12 AND glpi_tracking.closedate <= 05/31/13)

como pode ser visualizado através da Figura 6.

Figura 6 - Query extração dos dados

Ao final da execução do comando, o conteúdo de dados foi exportado para

formato de arquivo binário do Excel (XLS) através da função Export to Excel da

ferramenta SqlDbx conforme visualizado na Figura 7. Essa metodologia foi escolhida

pelo fato da ferramenta de BI possuir funções facilitadas de interação com o formato

de planilha eletrônica o que facilitou a importação e criação da fonte de dados para

analise no sistema.

28

Figura 7 – Planilha fonte de dados.

3.2.2.Transformação de dados

Essa etapa consiste em retirar redundâncias e inconsistências advindas dos

vários formatos que podem existir nas fontes de dados. As rotinas de limpeza e

transformações de dados são necessárias e as suas características devem ser

armazenadas e documentadas como metadados LELES (2004).

Durante este processo de transformação na etapa de análise dos dados,

foram encontradas inconsistências tais como atividades abertas que nunca foram

atendidas apesar do problema ter sido solucionado. Sem essa informação, esse

registro não tem validade e o resultado sofreria um impacto negativo mascarando o

efetivo ocorrido. Este problema foi discutido com os usuários técnicos responsáveis

pelas tarefas e chegou-se a conclusão que devido à urgência da demanda, o

lançamento do tempo não havia sido registrado na ferramenta apesar da ocorrência

29

ter sido tratada. A resolução foi por meio da inclusão da condição que exclui os

registros que não tenham quantidade de tempo (WHERE

glpi_tracking.qtd_tmp_ticket <> 0) como evidenciado na Figura 8.

Figura 8 - Condição exclusão registros sem tempo

No decorrer da análise dos dados foi percebido que não havia padronização

da forma de nomear as áreas as quais foi prestado atendimento sendo que para

uma mesma área determinado técnico associava a nomenclatura de controladoria e

outro técnico apontava para área de contabilidade assim como “marketing” e “mkt”.

O tratamento desta inconsistência foi unificando áreas de forma que o resultado

retratar uma visão macro das áreas de negócio no cenário estudado.

Também foi observado que havia registros onde não foi apontado para qual

área foi realizada a tarefa. Nesses casos foi eliminado o registro para que não

influenciasse no resultado final do estudo.

Ao final do processo de transformação dos dados foi obtido um arquivo no

formato XLS com 2645 linhas contendo os campos tempo, área, recurso e valor/hr

que servira como data source no processo de análise no sistema de BI.

Depois de concluídas as fases de extração e transformação e limpeza, o

próximo passo executado foi a carga no sistema de BI. Com os dados oriundos do

processo mencionado iniciou-se o processo de criação de cenários

multidimensionais através da ferramenta Qlikview, que permite otimização no

processo de descoberta de informações e geram melhor entendimento.

30

3.3.Key Performance Indicators (KPI)

Key Performance Indicators (KPI) é uma métrica financeira e não financeira

de avaliar os fatores de sucesso critico de uma organização. Referem-se a dados

internos da área e registram dados do passado e permitem projetar desempenho

futuro. Esses indicadores são utilizados em BI para avaliar a situação atual e para

descrever o curso das ações. O KPI é moldado pela gerência sênior da organização

e difere dependendo da natureza ou do fato que se deseja avaliar. Ele auxilia

ilustrando de maneira discreta a situação e quantificar sua evolução para compará-

los com os objetivos estratégicos predeterminados.

Existem três tipos de KPIs:

1- De processos: Medem a eficiência e produtividade dos fluxos

internos de trabalho;

2- De entrada: Medem os ativos e recursos investidos para obter

resultados;

3- De saída: Medem os resultados financeiros e não financeiros.

Exemplos são Return on investment (ROI), Economic Value

Added (EVA) e Total cost of ownership (TCO).

Existem quatro categorias de KPIs:

1- Indicadores quantitativos que podem ser representados por números;

2- Indicadores práticos que interagem com processos de companhias

existentes;

3- Indicadores direcionais que especificam se uma organização está

começando bem ou não;

4- Indicadores de ação são suficientes em um controle de uma organização a

fim de promover mudanças.

31

3.3.1 Determinando KPIs

Baseado na natureza técnica do objeto estudado associado aos dados

coletados e obtidos no processo ETL foi decidido estruturar os KPIs no tipo de

processos na categoria de indicadores quantitativos.

Os indicadores identificados foram:

Custo por área;

Tempo gasto por área;

Tempo gasto por tipo de atividade;

Custo por tipo de atividade;

Alocação de recurso por tipo de atividade.

3.4.Passos geração da informação

Nesta seção será detalhado a sequencia ordenada de passos ao qual os

foram submetidos dados obtidos no processo de ETL.

3.4.1.Conectar a fonte de dados

A ferramenta Qlikview permite realizar a importação de uma fonte de dados Excel

de forma facilitada conforme brevemente demonstrado pelos passos:

1. No Qlikview, através do console é possível selecionar a importação por meio

de Arquivos da Tabela onde possibilita escolher a planilha contendo o volume

de dados.

Uma vez selecionada a planilha, que é o repositório contendo os registros das

atividades, na sequência o console permite selecionar o tipo de arquivo que esta

sendo importado bem como informações como rótulo e tamanho do cabeçalho.

Avançando no assistente é possível ter acesso a ferramenta de transformação de

dados acoplado ao Qlikview, essa funcionalidade permite transformar dados mal

formatados. No entanto, essa função não foi utilizada visto que o processo ETL foi

32

realizado antes da carga de dados ao BI. Na Figura 9 é visualizado o console com o

código de carga de dados.

Figura 9 - Console Qlickview

33

3.4.2.Tratamento dos dados pre carga

O Qlikview permite tratamento dos dados diretamente no console, o que

proporciona flexibilidade no uso e ajustes nos dados resultando em uma maior

performance e redução do processamento. O cálculo considerou o tempo gasto na

resolução da tarefa multiplicado pelo valor hora, mas antes foi necessário separar a

parte inteira de hora e transformar a parte fracionada para a base decimal. É

possível visualizar na Figura 10 o tratamento realizado.

Figura 10 - Tratamento dos dados pre carga

3.4.3.Carga dos dados

Qlikview trabalha com os dados em memória o que permite velocidade nos

cálculos e associações. Os dados são carregados pelos comandos load ou select.

Cada um desses comandos gera uma tabela de entrada. Uma tabela pode sempre

ser vista como uma lista de algo, em que cada registro (linha) é uma nova instância

do tipo de objeto e cada campo (coluna) é um atributo ou propriedade específica do

objeto.

Através da função Executar script no menu do Qlikview, é carregado os dados

no documento QlikView ativo. Isso precisará ser feito se o conteúdo da base de

dados tiver sido alterado desde a última vez em que foi realizada uma recarga.

34

Ao final todos os dados estarão em memória e pronto para utilização e o

resultado pode ser visto através da opção Visualizador de tabelas. Acionando as

propriedades de qualquer linha da tabela é possível selecionar a opção Visualizar o

qual relaciona todos os dados importados.

3.4.4.Criação dos Cenários

Concluído as etapas de preparação do ambiente já com os dados em

memória, o BI permitiu iniciar a elaboração de cenários analíticos propostos.

Conforme mencionado no início da seção 3, é apresentado o detalhamento de dois

indicadores considerados relevantes para o resultado deste trabalho.

A elaboração do indicador de custo por área exigiu a criação de um gráfico no

qual permite adicionar as dimensões de área e valor do chamado e obter o valor

gasto em todos os chamados segmentados pela área requerente. Neste contexto, as

dimensões são as características segundo as quais é possível analisar a

informação.

Neste indicador foi utilizado o gráfico de setores, também conhecido como

gráfico de pizza pela sua facilidade de ilustrar dados quantitativos. Nesta primeira

tela foi informado o nome do indicador e em seguida clicado em avançar.

O próximo passo foi adicionar a expressão responsável pela determinação do

valor desejado, nesse caso o objetivo é determinar o valor total da somatória de

tarefas realizada por área requerente. Para implementação foi necessário escrever a

linha de código demonstrada na Figura 11.

35

Figura 11 - Implementando expressão somatória valo do chamado.

A criação do indicador de alocação de recurso por categoria de atividade

permite a visualização da distribuição do tempo dos recursos permitindo avaliar as

categorias de atividades em que os recursos estão se envolvendo. Para criação

deste indicador além do objeto gráfico, foi lançado mão do objeto de pasta lista.

Esse é um objeto básico que contém todos os valores possíveis de determinado

campo em memória. Depois de inserido o objeto de lista foi necessário selecionar o

campo recurso na parametrização do objeto para relacionar todos os recursos que

foram carregados em memória. A Figura 12 demonstra a seleção do objeto.

36

Figura 12 - Criando lista de apoio indicador alocação de recurso.

Para implementação da visualização da alocação do recurso pela categoria

de atividade foi inserido um gráfico setorial incluindo a dimensão categoria.

Configurado dessa forma, conforme ilustrado na figura 13, permite que seja

visualizado na legenda do gráfico todas as atividades que o recurso selecionado

através do objeto lista. Isso é possível através da característica associativa da

ferramenta de BI a qual cria relações de acordo com a manipulação dos objetos em

tela.

37

Figura 13 - Determinando dimensão indicador alocação recurso.

Para obter a quantidade de ocorrências agrupadas por categoria que o

recurso atuou foi inserido expressão calculando a contagem do campo recurso para

cada categoria como pode ser visto na Figura 14.

38

Figura 14 - Implementando expressão indicador alocação de recurso.

Através da marcação do parâmetro relativo visualizado na figura acima o sistema

automaticamente calcula o percentual considerando a dimensão selecionada. O

resultado pode ser visualizado na Figura 15.

Figura 15 - Resultado em percentual.

39

4.RESULTADOS

Neste capitulo são apresentadas informações de natureza factuais a respeito

do objeto de pesquisa obtidas através da criação de cenários analíticos e visões

multidimensionais construídos dinamicamente.

A elaboração dos indicadores por meio de cenários analíticos

multidimensionais através do software de BI permitiu evidenciar problemas de

natureza gerencial na metodologia de atendimento das atividades por parte da

equipe.

O indicador de custo por área ilustrado na Figura 16, talvez o que melhor

representa o problema na abordagem da equipe, evidencia que a própria área de TI

consome mais 45% do custo apurado no período. A fim de ter uma compreensão,

foram consultados os integrantes a respeito desses apontamentos e foi constatado

que grande parte destas atividades era de natureza gerencial onde eram

convocadas reuniões pela direção da área com o objetivo de discutir as diretrizes.

Figura 16 - Indicador custo por área.

40

Selecionando a fatia que diz respeito à área de TI consegue-se constatar 96%

das atividades que ocupam o tempo dos recursos são de natureza gerencial, pois

tratam-se de reuniões de alinhamento como mencionado anteriormente. Isto pode

ser visualizado na Figura 17.

Figura 17 - Atividades área de TI.

O indicador de alocação do recurso ilustrado na Figura 18 demonstra que o

desenvolvedor de nível sênior esteve alocado em 45% de seu tempo disponível em

tarefas originadas por incidentes, nas quais exige suspender a evolução em

desenvolvimento relacionado a projetos. No decorrer da análise juntamente com o

gestor da área e de posse desta informação, foi desenvolvido metodologia para

reduzir o número de ocorrências desta espécie.

Durante do desenvolvimento de um novo sistema ou até mesmo correção de

funcionalidade, estaria presente juntamente com o desenvolvedor sênior um

estagiário que foi destacado do suporte nível 1. Isso permitiu desenvolver o

conhecimento do estagiário e transferir para ele atendimentos aos incidentes

permitindo que o desenvolvedor sênior se dedicasse ao cumprimento de suas

entregas junto aos projetos.

41

Figura 18 - Alocação recurso sênior.

Por fim, a aplicação de um BI permitiu avaliar a eficiência da ferramenta de

helpdesk utilizada pela área de TI na qual foi possível observar que apenas 23% das

ocorrências foram abertas via Ficha de Ocorrência (FO) conforme Figura 19.

Após esta evidencia, a área de TI iniciou uma campanha de sensibilização

das áreas da empresa orientando na utilização da ferramenta visto que contatos

através de outras formas tiram a atenção da equipe.

Figura 19 - Origem das ocorrências.

42

5.CONCLUSÃO

A evolução da tecnologia oferece desenvolvimento e melhoria nas atividades

praticadas, essa mudança de paradigma permite por meio de sistemas especialistas

transferir boa parte do tempo despendido em tarefas morosas para processamento

informatizado. A construção de soluções de BI alinhadas ao gerenciamento visa

apoiar a decisões para que as organizações sejam mais assertivas em suas

estratégias e propiciem à gerência sênior, novos artefatos analíticos orientados nas

regras do negócio que melhor expressem sua realidade.

Na concepção deste trabalho científico, o principal objetivo proposto foi

desenvolver uma metodologia que contribuísse para gestão de uma equipe de TI por

intermédio de uma solução de BI que permitisse obter resultados relevantes através

do processamento analítico computacional e inteligência de negócios aplicada a

resultado estratégico.

Para a resolução da problemática proposta, elaborou-se uma avaliação

funcional dos dados que seriam relevantes para em seguida determinar indicadores

que extraíssem informações da massa a ser avaliada. Durante os processos ETL e

elaboração dos cenários detalhados no capítulo 3, procurou-se organizar os dados

de maneira que a ferramenta facilmente associasse o conteúdo e ilustrasse os KPIs

selecionados.

O resultado desta pesquisa evidenciou através dos cenários elaborados

algumas das justificativas da frustração na entrega de projetos ou compromissos

firmados, assim como também problemas observados por meio da análise das

informações geradas pela aplicação de Business Intelligence.

No capitulo 4 foi evidenciado o fato de que no decorrer do desenvolvimento

deste trabalho as informações geradas deram resultados positivos. Subsidiando a

gestão tomar uma ação em cima dos resultados observados e alterar a metodologia

de trabalho. Isso já foi artefato suficiente e conclusivo para sustentar que o BI

aplicado à gestão de uma equipe de TI associado a indicadores corretamente

43

formatados pode contribuir no sentido de evidenciar discordâncias que não são

visíveis e permitir redirecionar a maneira de operar.

5.1.Trabalhos Futuros

Durante o desenvolvimento deste trabalho foram observadas diversas

aplicações onde o BI pode ser explorado como ferramenta gerencial no

desenvolvimento e mensuração do desempenho de equipes.

A sugestão de trabalho de futuro se baseia na elaboração de um estudo

detalhado das atividades de uma equipe de esporte coletivo com o objetivo de

desenvolver um painel de indicadores permitindo que equipe de gestão técnica

acompanhe de forma descritiva à eficácia do plano de treinamentos e resultados

obtidos.

44

6.REFERÊNCIAS BIBLIOGRAFICAS

CRANE, D. B., BODIE, Z. Form follows function: the transformation of banking.

Harvard Business Review,v. 74, n. 2, Mar. 1996.

FAYYAD, U. PIATETSKY-SHAPIRO, G; SMYTH, P. From data mining to

knowledge discovery: An overview. In: Advances in Knowledge Discovery and

Data Mining, AAAI Press / The MIT Press, MIT, Cambridge, Massachusetts, and

London, England, 1996.

BERRY, M. J. A.; LINOFF, G. Data Mining techniques. New York: John Wiley &

Sons Inc., 1997.

KIMBALL, R. The Data Warehouse lifecycle toolkit: expert methods for

designing, developing and deploying Data Warehouses. New York: John Wiley &

Sons, 1998.

ALMEIDA, S.l. Getting Started with DataWarehouse and Business Intelligence.

IBM Corporation. 1999. Disponível em: <www.redbooks.ibm.com>. Acessado em: 29

Dez. 1999. Acessado em: Fev 2013.

MOSS, L. T.; ATRE, S. Business Intelligence roadmap: the complete project

lifecycle for decision-support applications. USA: Addison Wesley, 2003.

BARBIERI, C. BI – Business Intelligence: Modelagem e Tecnologia. Rio de

Janeiro, Axcel Books, 2001.

BARRETO, J.M. Inteligência Artificial no Limiar do Século XXI, 3a Edição.

Florianópolis- SC, Edições, 2001.

MENEZES, L, C, DE M. Gestão de Projetos. 1ª Ed. São Paulo: Atlas, 2001.

YIN, R.K. Estudo de Caso - Planejamento e Método. 2ª. Edição. São Paulo:

Bookman, 2001.

45

CÔRTES, S. BI, Data Warehouse e Data Mining - Como a Tecnologia aumenta a

Inteligência do Negócio. PUC-Rio, 2002.Disponível em:

<http://www.tec.com.br/BI.asp>. Acessado em: 10 Out de 2013.

CLELAND, D; IRELAND, L. Gerência de Projetos, Rio de Janeiro: Reichmann &

Affonso, 2002.

THOMSEN, E. OLAP: Construindo Sistemas de Informação Multidimensionais.

Rio de Janeiro: Campus, 2002.

KIMBALL, R.; ROSS, M. The Data Warehouse toolkit: the complete guide to

dimensional modeling. New York: John Wiley & Sons, 2002.

REVISTA PMnetwork. V.16 N.1, Janeiro 2002 Disponível em:

http://www.enap.gov.br/index.php?option=com_docman&task=cat_view&gid=596.Ac

essado em: 10 Ago de 2012.

INMON, W. H. Building the Data Warehouse. 3. ed. New York: John Wiley & Sons,

2002.

ALBERTIN, A.L. Administração de Informática: funções e fatores críticos de

sucesso. São Paulo: Atlas, 2004.

GANGADHARAN, G. R.; SWAMI, S. N. Business Intelligence systems: design

and implementation strategies. In: THE 26th INTERNATIONAL CONFERENCE

200ON INFORMATION TECHNOLOGY INTERFACES - ITI 2004, 2004, Dubrovnik,

Croatia. v.1.

FREIRE, A. Estratégia - Sucesso em Portugal 12ª Ed. São Paulo: Verbo, 2008.

REVISTA Gartner Business Intelligence & Information Management, Fevereiro

2013 Disponível em:http://www.gartner.com/technology/reprints.do?id=1-

1DZLPEP&ct=130207&st=sb Acessado em: 18 Set 2013.