processamento de imagens digitais
DESCRIPTION
,jhgkjgb kjgjkvhj kjgjkjg çkjlhjTRANSCRIPT
Processamento de Imagens Digitais Matheus de Almeida Silva
Etapas:
Aquisição de Imagens Digitais• Transformação de uma cena tridimensional
em uma imagem eletrônica;
• Função bidimensional u(x,y) onde u é a intensidade color(ou nível de cinza) da imagem;
• x, y e u são quantidades discretas(pixels).
• f(x,y) descreve a energia luminosa nas coordenadas (x,y), i(x,y) é a função de iluminação e r(x,y) é a função de reflexão do objeto
• Na lei de conservação de energia, A é energia luminosa absorvida pelo objeto, T é a parte transmitida e R a parte refletida.
Restauração e Realce
• Restauração busca compensar as deficiências geradas no momento da aquisição, na transmissão ou em alguma etapa do processamento;
• Realce busca destacar detalhes da imagem que são interessantes para a análise.
• Exemplo: Diminuição dos efeitos de nuvem em uma imagem
Antes Depois
Segmentação
• Processo que procura isolar as regiões de pontos (de interesse) da imagem pertencentes a objetos para a extração de atributos e cálculo de parâmetros;
• Segmentação mais simples é a limiarização ou separação por “tom de corte”;
• Transforma uma imagem em níveis de cinza numa imagem binária (preto e branco). Divide a imagem em duas classes: fundo e objeto.
• Exemplo: Imagem original em escala de cinza antes e depois da limiarização
Imagem Original Após Limiarização
Extração de Características
• A partir de imagens já segmentadas (em objeto e fundo) procura-se obter dados relevantes ou atributos, das regiões ou objetos destacados.
• Atributos ou características mais comuns são: número total de objetos, dimensões, geometria, propriedades de luminosidade e textura (nosso caso);
• As propriedades de luminosidade e textura devem ser obtidas da imagem original antes da binarização.
Alguns exemplos de técnicas de extração de características
• Teamplate matching: usada para encontrar pequenas partes de uma imagem que corresponda ou seja equivalente a um modelo (template). Move a imagem template para todas as posições possíveis e calcula um índice numérico indicando a melhor posição;
• Distância Euclidiana: Usada para identificar diferenças entre o template e a imagem;
• Correlação: Mede o grau de igualdade de duas variáveis, não necessariamente no seu valor real mas sim no seu comportamento. As variáveis são os valores de pixels no template e na imagem origem.
Classificação e Reconhecimento
• Nessa etapa, deve-se distinguir os objetos na imagem, agrupando-os, classificando-os ou reconhecendo-os segundo os parâmetros dependentes da aplicação;
• Os objetos são reconhecidos como pertencentes a um mesmo grupo e então sejam classificados de acordo com uma base de dados ou imagens;
• Uma vez apresentados para o sistema, que compara com aquelas de classes previamente estabelecidas.
Decisão
• O objetivo de um sistema de visão computacional é tomar decisões a partir da extração de informações das imagens;
• Pode ser feita a partir de análises simples (menores distâncias por exemplo) ou de algoritmos mais complexos de Inteligência Artificial (SVM, redes neurais, fuzzy, etc.).
• Será usada a biblioteca OpenCV da Intel por ser a mais usada na área de visão computacional, assim, sendo fácil achar documentação online.
Imagem com tratamento de HDR
Imagem sem tratamento de HDR