redes neurais defeitos de laminação

60
UNIVERSIDADE FEDERAL DE OURO PRETO - UFOP ESCOLA DE MINAS – EM COLEGIADO DO CURSO DE ENGENHARIA DE CONTROLE E AUTOMAÇÃO – CECAU DETECÇÃO DE DEFEITOS EM CHAPAS DE AÇO LAMINADO VIA REDES NEURAIS MONOGRAFIA DE GRADUAÇÃO EM ENGENHARIA DE CONTROLE E AUTOMAÇÃO RAFAEL SOARES FERREIRA Ouro Preto, 2008

Upload: fredmagal

Post on 28-Oct-2015

49 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: redes Neurais defeitos de Laminação

UNIVERSIDADE FEDERAL DE OURO PRETO - UFOP

ESCOLA DE MINAS – EM

COLEGIADO DO CURSO DE ENGENHARIA DE CONTROLE E

AUTOMAÇÃO – CECAU

DETECÇÃO DE DEFEITOS EM CHAPAS DE AÇO LAMINADO VIA REDES

NEURAIS

MONOGRAFIA DE GRADUAÇÃO EM ENGENHARIA DE CONTROLE E

AUTOMAÇÃO

RAFAEL SOARES FERREIRA

Ouro Preto, 2008

Page 2: redes Neurais defeitos de Laminação

II

Page 3: redes Neurais defeitos de Laminação

III

RAFAEL SOARES FERREIRA

DETECÇÃO DE DEFEITOS EM CHAPAS DE AÇO LAMINADO VIA REDES

NEURAIS

Monografia apresentada ao Curso de

Engenharia de Controle e Automação da

Universidade Federal de Ouro Preto como

parte dos requisitos para obtenção de Grau

Orientador: Prof. Dr. Agnaldo José da Rocha Reis

Universidade Federal de Ouro Preto

Escola de Minas – EM

Ouro Preto – MG

Julho/2008

Page 4: redes Neurais defeitos de Laminação

IV

Page 5: redes Neurais defeitos de Laminação

V

Agradeço a minha família pelo amor e apoio incondicionais.

Page 6: redes Neurais defeitos de Laminação

VI

ÍNDICE

LISTA DE FIGURAS ............................................................................................................ VII LISTA DE TABELAS ..........................................................................................................VIII RESUMO .................................................................................................................................IX ABSTRACT .............................................................................................................................. X CAPÍTULO I ..............................................................................................................................1

I INTRODUÇÃO ...................................................................................................................1 1.1 Histórico da Laminação....................................................................................................2 1.2 Objetivo ............................................................................................................................3 1.3 Justificativa.......................................................................................................................3 1.4 Metodologia......................................................................................................................3

CAPÍTULO II.............................................................................................................................5 II PROCESSO DE LAMINAÇÃO ........................................................................................5 2.1 Laminadores .....................................................................................................................5 2.2 Laminação a quente ..........................................................................................................6 2.3 Laminação a Frio ..............................................................................................................7 2.4 Forças e relações geométricas na laminação ....................................................................8 2.5 Problemas e defeitos em produtos laminados...................................................................9 III PROCESSAMENTO DE IMAGENS .............................................................................13 3.1 Amostragem e quantização.............................................................................................13 3.2 Detecção de bordas.........................................................................................................15 3.3 Dilatação e erosão...........................................................................................................18 3.4 MATLAB .......................................................................................................................19 3.5 IMAGE PROCESSING TOOLBOX™..........................................................................21

CAPITULO IV .........................................................................................................................22 IV REDES NEURAIS ARTIFICIAIS..................................................................................22 4.1 Introdução.......................................................................................................................22 4.2 Neurônios artificiais e reais ............................................................................................22 4.3 Neurônio biológico.........................................................................................................23 4.4 Neurônios artificiais .......................................................................................................24 4.5 O perceptron ...................................................................................................................26 4.6 Arquitetura de Redes Neurais.........................................................................................27 4.7 Aprendizado de Redes Neurais Artificiais .....................................................................28 4.8 Aprendizado supervisionado de redes neurais................................................................29 4.9 Redes perceptron multicamadas e o algoritmo de retro propagação ..............................30

CAPÍTULO V ..........................................................................................................................32 V METODOLOGIA E RESULTADOS ..............................................................................32 5.1 Preparo da imagem .........................................................................................................32 5.2 Análise da imagem .........................................................................................................36

5.2.1 Medidas das formas .................................................................................................36 5.3 Classificação via Redes Neurais.....................................................................................38

5.3.1 Geração dos dados para treinamento .......................................................................39 5.3.2 Criando e treinando as redes....................................................................................42

CAPITULO VI .........................................................................................................................48 VI CONCLUSÃO ................................................................................................................48

REFERÊNCIAS BIBLIOGRÁFICAS: ....................................................................................49 BIBLIOGRAFIA COMPLEMENTAR:...................................................................................50

Page 7: redes Neurais defeitos de Laminação

VII

LISTA DE FIGURAS

Figura 2.1 – Disposições típicas de rolos em laminadores.........................................................6 Figura 2.2 – Forças atuantes durante a laminação......................................................................8 Figura 2.3 – Conseqüências da flexão do cilindro produzindo laterais maiores ......................10 Figura 2.4 – Defeitos resultantes de expansão lateral ..............................................................11 Figura 2.5 – Defeitos na superfície do aço. ..............................................................................12 Figura 3.1 – Amostragem e quantização ..................................................................................15 Figura 3.2 – (a)Imagem contínua (b) Resultado da amostragem e quantização.......................15 Figura 3.3 – Máscara 3 x 3 .......................................................................................................16 Figura 3.4 – (a) Modelo de uma borda digital ideal (b) Modelo de uma borda em rampa. .....17 Figura 3.5 – Detalhamento da borda de uma imagem..............................................................17 Figura 3.6 – Dilatação ..............................................................................................................18 Figura 3.7 – Erosão...................................................................................................................19 Figura 4.1 – Estrutura de um neurônio biológico.....................................................................24 Figura 4.2 – Modelo de um neurônio artificial.........................................................................25 Figura 4.3 – Funções de ativação típicas..................................................................................26 Figura 4.4 – Uma rede perceptron............................................................................................27 Figura 4.5 – Rede neural ..........................................................................................................28 Figura 4.6 – Representação esquemática de um aprendizado de MLP ....................................31 Figura 5.1 – Imagem Original ..................................................................................................32 Figura 5.2 – Imagem após detecção das bordas utilizando o método de Sobel .......................33 Figura 5.3 – Imagem após dilatação.........................................................................................33 Figura 5.4 – Imagem preenchida ..............................................................................................34 Figura 5.5 – Imagem após a limpeza das bordas da região de interesse ..................................34 Figura 5.6 – Imagem após a suavização do contorno dos objetos............................................35 Figura 5.7 – Imagem após a retirada de conjuntos desinteressantes ........................................35 Figura 5.8 – Imagem original com defeitos delineados............................................................36 Figura 5.9 – Imagem com defeitos destacados por retângulos.................................................38 Figura 5.10 – Defeitos classificados.........................................................................................38 Figura 5.11 – Valores de entrada..............................................................................................39 Figura 5.12 – Características dos defeitos Classe A.................................................................40 Figura 5.13 – Características dos defeitos Classe B.................................................................40 Figura 5.14 – Características dos defeitos Classe C.................................................................41 Figura 5.15 – Características dos defeitos Classe D.................................................................41 Figura 5.16 – Interface da ferramenta nntool ...........................................................................42 Figura 5.17 – Interface de importação de variáveis do workspace do Matlab. ........................43 Figura 5.18 – Interface de criação da rede................................................................................44 Figura 5.19 – Interface da rede.................................................................................................44 Figura 5.20 – Interface de treinamento.....................................................................................45 Figura 5.21 – Gráfico do desempenho da rede.........................................................................45

Page 8: redes Neurais defeitos de Laminação

VIII

LISTA DE TABELAS

Tabela 5.1 – Características avaliadas de cada classe ..............................................................39 Tabela 5.2 – Valores das variáveis de entrada e sua saída após simulação na rede .................46 Tabela 5.3 – Valores de entrada simulados e resposta da rede neural artificial .......................47

Page 9: redes Neurais defeitos de Laminação

IX

RESUMO

Uma das mais importantes etapas na produção de aço é a laminação. Nesta etapa, o aço sofre

deformação plástica pela passagem entre rolos com conseqüente diminuição de espessura da

peça trabalhada. Por tratar-se de uma operação que gera produtos acabados e semi-acabados, é

de suma importância o estudo de métodos de controle da qualidade dos materiais trabalhados

na laminação. Neste processo, podem ser identificados vários tipos diferentes de defeitos na

superfície do aço como trincas, carepas e riscos, que podem ser oriundos da própria laminação

ou mesmo de processos anteriores. Estes defeitos causam uma desvalorização do produto final

e conseqüente prejuízo para o fabricante.

O objetivo deste trabalho é detectar e identificar os defeitos na superfície do aço durante a

laminação. Utilizando-se técnicas de processamento de imagens e ferramentas baseadas em

redes neurais, foi possível o desenvolvimento de aplicativos em ambiente MATLAB valendo-

se dos toolboxes: IMAGE PROCESSING TOOLBOX e NEURAL NETWORKS

TOOLBOX. Para elaboração do presente trabalho, foram utilizados dados reais de uma

companhia siderúrgica. Os resultados obtidos mostram precisão na classificação dos defeitos

encontrados.

Palavras-chave: Laminação de aço, defeitos, controle de qualidade, processamento de

imagens, redes neurais.

Page 10: redes Neurais defeitos de Laminação

X

ABSTRACT

One of the most important stages in steel production is the rolling of metal. In this phase, the

steel suffers plastic deformation by passing through rolls causing a thickness decrease of the

working piece. Because it is an operation that generates finished and semi-finished products,

it is important to study methods for quality control of the worked products in the stage of

rolling. In this process, can be identified lots of different defects on the steel surface, like

cracks, scales and scratches, which can be originated from the rolling or previous processes.

These defects cause a devaluation of the final product and a consequent injury for the

manufacturer.

The objective was to identify defects on the steel surface during the rolling of metal. Using

image processing and tools based on neural networks, were developed applications on

MATLAB environment using the toolboxes: IMAGE PROCESSING TOOLBOX and

NEURAL NETWORKS TOOLBOX. For the development of this dissertation real data from

a steel company were used. The achieved results show accuracy on the classification of the

defects founded.

Key words: Steel rolling, defects, quality control, image processing, neural networks.

Page 11: redes Neurais defeitos de Laminação

1

CAPÍTULO I

I INTRODUÇÃO

Na produção de aço, muitos processos são realizados a partir do minério de ferro até que o

produto (aço) chegue a seu estado final. No presente trabalho, é estudado o processo de

laminação de bobinas de aço. O equipamento empregado é constituído de vários laminadores,

que são máquinas equipadas com conjuntos de cilindros agrupados de forma a atender o

objetivo da laminação que varia quanto ao estado do material a ser trabalhado e forma do

produto gerado. O esforço de compressão executado pelos cilindros é aplicado sobre a

superfície plana da chapa, sendo que, por esta ação, há uma redução da espessura

acompanhada do conseqüente aumento de comprimento. O encruamento decorrente da

laminação a frio resulta em maior resistência mecânica do produto final.

O processo de laminação registrou um significativo avanço através da tecnologia oferecida

pela laminação a frio. A laminação a frio é um processo mecânico-metalúrgico de

conformação plástica dos metais e ligas, realizado em temperaturas abaixo da temperatura de

recristalização do material, no qual ocorre a redução da área da seção transversal reta de

corpos metálicos pela sua passagem entre dois ou mais cilindros, dotados de movimento de

rotação. A importância da laminação a frio pode ser constatada pelas melhorias no

acabamento dos produtos planos, na sua maior resistência e redução adicional de espessura

em relação à laminação a quente, com aplicações em diferentes tipos de aço. Esses fatores têm

sido decisivos para a aplicação da laminação a frio em processos de laminação.

Apesar de se utilizar, comercialmente, o mesmo nome empregado na área metalúrgica, a

“laminação” de mídias impressas, de vinil e papel, e de madeira e revestimentos para móveis

trata-se de um processo de confecção de lâminas de diversas espessuras, completamente

diferente da laminação de metais, e não se constitui em objeto deste trabalho.

No momento da laminação, podem ser identificados defeitos gerados no processo ou mesmo

oriundos de etapas anteriores. Estes defeitos podem ser: riscos, carepas, marcas de cilindro,

trincas, entre outros... Defeitos na superfície do aço podem causar uma depreciação do

produto final ou re-processamento do material. Para identificar os defeitos, foram utilizadas

Page 12: redes Neurais defeitos de Laminação

2

várias técnicas de processamento de imagens que trabalham a imagem de entrada permitindo

a extração de características úteis dos defeitos como forma, tamanho, entre outros... Para fazer

uso das informações adquiridas pelo processamento de imagens foram utilizadas redes

neurais. Estas redes recebem variáveis de entrada e, informam ao operador, o tipo de defeito

encontrado.

O capítulo II trata de conceitos fundamentais da laminação de aço, abordando a área de

laminação a quente e laminação a frio, as relações geométricas e a distribuição das forças no

processo e a formação e caracterização de alguns defeitos que podem ocorrer nesta etapa. No

capítulo III são apresentados conceitos de processamento de imagens e alguns métodos

utilizados no desenvolvimento deste trabalho, bem como uma introdução à interface de

tratamento de imagens do software MATLAB e sua ferramenta IMAGE PROCESSING

TOOLBOX. No capítulo IV, são introduzidos conceitos importantes de redes neurais

artificiais, sua arquitetura e mecanismos de aprendizagem. O capítulo V mostra a metodologia

adotada e a funcionalidade do aplicativo criado. Através de demonstrações em um processo

de laminação de aço, são apresentados os resultados alcançados. O capítulo VI contém uma

conclusão do trabalho realizado, as contribuições do trabalho e sugestões para trabalhos

futuros.

1.1 Histórico da Laminação

Segundo Araújo (2005), os primórdios da laminação são bastante antigos: a mais antiga

ilustração de um laminador é de Leonardo da Vinci que projetou um dos primeiros

laminadores em 1486, que provavelmente se destinava à laminação a frio de barras chatas de

ouro e prata para cunhagem de moedas. A primeira referência à laminação a quente data de

1590, para dividir barras de ferro, em Dartford, Kent, Inglaterra.

Ainda segundo o mesmo autor, cilindros de ferro coquilhado foram usados em 1697, por Jonh

Hanbury em Pontypool, Inglaterra e John Paybe em 1728, obteve patente para um laminador

com cilindros com caneluras para produção de barras de ferro de seção redonda.

As primeiras cadeiras de três cilindros surgiram na Inglaterra em 1817. Zorés, na França, em

1848 desenvolvel as primeiras vigas. A utilização do laminador de três cilindros para trilhos e

perfis começou em Johnstown, Pennsilvania, com John Fritz, em 1855 (ARAÚJO, 2005).

Page 13: redes Neurais defeitos de Laminação

3

Os laminadores em linha para produzir redondos finos fizeram a sua primeira apresentação

em 1883. A idéia de um laminador contínuo com cadeiras alternadamente horizontais e

verticais, patenteada por John Hazledine em 1798, foi reapresentada por George Bedson de

Manchester, Inglaterra, em 1862, juntamente com a utilização de dobradeiras. Alguns anos

mais tarde, nos Estados Unidos, Charles H. Morgan construía o seu laminador contínuo com

cadeiras horizontais e guias de torção entre elas. A obtenção de barras retas para concreto

armado no leito de resfriamento, foi atingida por V. E. Edwards em 1906, com o sistema de

calhas oscilantes com bordas dentadas (ARAÚJO, 2005).

1.2 Objetivo

Fazer a detecção e identificação de defeitos em chapas de aço laminado através de

processamento de imagens e redes neurais artificiais.

1.3 Justificativa

Atualmente, as empresas que não utilizam métodos automatizados de inspeção por imagem

para o controle de defeitos que ocorrem nos aços planos durante a laminação, utilizam

inspeção via operador. Este método emprega um funcionário que visualmente detecta,

identifica os defeitos e reporta sua localização em um banco de dados da bobina em que o

material se encontra. Este processo apresenta imprecisões por se tratar de um processo

humano e, consequentemente, sujeito a desatenção e interpretações pessoais, subjetivas e/ou

contraditórias. Atualmente, métodos empregados com processamento de imagens e

inteligência artificial têm gerado resultados bastante satisfatórios (FERREIRA;

MENDONÇA, 2008).

1.4 Metodologia

Para detecção de defeitos contidos nos planos no momento da laminação, são utilizadas redes

neurais artificiais que, através do processamento das imagens coletadas do plano no momento

da laminação, são capazes de identificar o tipo de defeito contido no produto.

Utilizando-se imagens reais de defeitos comuns em chapas de aço cedidas por uma companhia

siderúrgica de Minas Gerais, foi possível avaliar e aplicar o melhor método de processamento

Page 14: redes Neurais defeitos de Laminação

4

de imagens para o problema específico e reunir informações a respeito de defeitos

encontrados neste processo. Fazendo-se uso das informações adquiridas foi possível o

“treinamento” de redes neurais utilizadas para triagem dos defeitos inseridos em classes e,

assim, proceder à sua identificação.

Page 15: redes Neurais defeitos de Laminação

5

CAPÍTULO II

II PROCESSO DE LAMINAÇÃO

Segundo Dieter (1986), o processo de deformação plástica de um metal pela passagem entre

rolos é chamado de Laminação. Este é o processo mais usado na fabricação de metais, pois

possui uma alta produção e controle do produto final. O processo de laminação pode ser

dividido em laminação a quente e laminação a frio, baseado na temperatura de trabalho.

Na laminação de planos, o esforço de compressão executado pelos cilindros é aplicado sobre

uma superfície plana do produto laminado, ocasionando uma redução da espessura,

acompanhada de um conseqüente aumento de comprimento. Dependendo da relação entre a

largura e a espessura iniciais, pode haver um alargamento livre do produto laminado.

2.1 Laminadores

Um laminador consiste basicamente em rolos, rolamentos, um chassi e um mecanismo que

aplica força nos rolos e controla sua velocidade. As forças envolvidas na laminação podem

facilmente chegar a muitos milhões de quilos. Para tanto, é necessária uma construção

bastante rígida e motores suficientemente grandes para prover a força necessária. Quando

estes equipamentos são multiplicados algumas vezes para sucessivos laminadores que

constituem um processo de laminação grande e contínuo, é fácil perceber porque uma

moderna estação de laminação custa milhões de dólares de investimento e muitas horas de

trabalho de profissionais altamente qualificados. (DIETER, 1986)

Laminadores podem ser convenientemente classificados respeitando o número e disposição

dos rolos. O tipo mais simples e comum é o laminador Duo (Figura 2.0(a)).

Page 16: redes Neurais defeitos de Laminação

6

Figura 2.1 – Disposições típicas de rolos em laminadores. (a) Duo; (b) Duo reversível; (c) Quádruo. FONTE: Dieter, 1986.

Para uma alta produção, é comum se instalar laminadores, um após o outro, em série. Cada

conjunto de rolos é denominado “cadeira de laminação”. Como uma redução é feita em cada

cadeira de rolos, a tira se move em diferentes velocidades em cada estágio da laminação. A

velocidade de cada cadeira de rolos é sincronizada para que cada passe sucessivo leve a tira

numa velocidade igual à velocidade inicial do próximo passe (DIETER, 1986). Quando o

produto a ser laminado é uma bobina, um equipamento responsável pelo desenrolamento e

outro pelo enrolamento das chapas estão localizados no início e no fim da laminação. Eles

farão o “desbobinamento” e “bobinamento” do material, preparando a bobina para a

laminação e enrolando o produto final.

2.2 Laminação a quente

Segundo Dieter (1986), a primeira operação de trabalho em altas temperaturas realizada na

maioria dos produtos de aço é feita no primary roughing mill (desbastador). Nesse processo,

os laminadores são, normalmente, duos reversíveis (Figura 2.1(b)) com rolos de 24 a 54

polegadas de diâmetro. O objetivo desta operação é a redução do lingote em placas ou barras

para subseqüente acabamento em barras, placas ou tiras. Os primeiros passes geralmente

envolvem apenas pequenas reduções na espessura. A carepa pesada é removida inicialmente,

laminando o lingote. Há um aumento apreciável na largura do lingote na laminação a quente.

Para manter a largura desejada e preservar as beiradas, o lingote é virado 90º no passe

intermediário e passado por guias laterais nos rolos. Segundo Dieter (1986), um laminador

reversível primário tem uma taxa de produção relativamente baixa, já que a peça pode ser

passada para frente e para trás e virada de 10 a 20 vezes.

Page 17: redes Neurais defeitos de Laminação

7

Onde alta produtividade é prioridade, passes para redução lateral podem ser eliminados

utilizando um laminador universal que controla a largura enquanto a espessura é reduzida. A

produção de tiras a partir de lingotes por laminação a quente pode ser eliminada utilizando

lingotamento contínuo para produzir a placa diretamente do metal derretido.

O equipamento para produção de tiras é conhecido como continuous hot-strip mill

(Laminador contínuo de tiras a quente). O processo mais utilizado nos laminadores de tiras a

quente, é aquele onde as placas são reaquecidas, passadas por um laminador quebrador de

carepa, por um trem desbastador de 4 cadeiras quádruos e por um trem acabador de 6 cadeiras

quádruos de acabamento.

Na laminação a quente de aços, tiras são aquecidas inicialmente de 2000ºF(1093ºC) a

2400ºF(1315ºC). A temperatura na última cadeira de laminadores varia de 1300ºF(704ºC) a

1600ºF(871ºC) mantendo-se acima da temperatura crítica para uniformização dos grãos de

ferrite.

2.3 Laminação a Frio

A laminação a frio é usada para produzir tiras com acabamento superficial e tolerâncias

dimensionais superiores a laminação a quente. Além disso, o encruamento resultante da

laminação a frio pode ser utilizado para aumentar a dureza. A laminação a frio é realizada

sobre chapas e barras laminadas a quente ou, segundo Dieter (1986), no caso de algumas ligas

de cobre, diretamente da fundição. Trata-se de uma operação de acabamento onde ocorrem

pequenas deformações no material gerando um produto acabado de superfície regular.

Segundo Dieter (1986), trens laminadores quádruos (Figura 2.1(c)) de alta velocidade com

três a cinco cadeiras de laminação são usados para a laminação a frio de tiras de aço, alumínio

e ligas de cobre. A redução alcançada neste processo varia entre 50% e 90%. Estabelecendo a

redução em cada passe ou em cada cadeira, é interessante distribuir o trabalho o mais

uniformemente possível em todos os passes sem ficar muito abaixo da máxima redução em

cada passe. Geralmente, a menor redução é feita no último passe para permitir um melhor

controle da planicidade, das medidas e acabamento superficial.

Page 18: redes Neurais defeitos de Laminação

8

2.4 Forças e relações geométricas na laminação

Segundo Dieter (1986), os principais parâmetros na laminação são: O diâmetro do cilindro; a

resistência de deformação do metal influenciado pela metalurgia, temperatura e taxa de

deformação; a fricção entre o cilindro e o material; a presença de tensão à frente e tensão

reversa na tira.

A Figura 2.2 ilustra importantes relações entre a geometria dos rolos e as forças envolvidas na

deformação do metal na laminação. Uma tira de metal com espessura ho entra no plano de

entrada XX com velocidade vo. Passando através da abertura entre os cilindros e saindo no

plano XY com a espessura reduzida e velocidade vf. Como é conservado o mesmo volume na

entrada e na saída e, desconsiderando um aumento na largura, podemos descrever a relação na

equação:

ff vbhbhvvbh ==00 (2-1)

Em um ponto ao longo da superfície de contato entre o rolo e a tira, a velocidade da superfície

do rolo é igual à velocidade da tira. Este ponto é chamado ponto neutro (indicado na

Figura 2.2 como ponto N).

rv

Figura 2.2 – Forças atuantes durante a laminação

FONTE: Dieter, 1986.

Page 19: redes Neurais defeitos de Laminação

9

Em qualquer ponto da superfície de contato, como o ponto A (indicado na Figura 2.2), duas

forças atuam no metal. A força , conhecida como carga rolante, perpendicular à superfície

de contato entre o rolo e a tira, e a força F, que é a força de fricção tangencial. A força é a

força que o rolo exerce contra a tira. A pressão específica do rolo p é o valor de dividido

pela área de contato, que é o produto da largura da tira b e o comprimento projetado do arco

de contato .

rP

rP

rP

pL

( ) ( ) ( )[ 2/10

2/120

0 4 ff

fp hhRhh

hhrL −≈⎥⎥⎦

⎢⎢⎣

⎡ −−−= ] (2-2)

Assim, a pressão específica do rolo é dada por:

pbL

Pp = (2-3)

2.5 Problemas e defeitos em produtos laminados

Uma variedade de problemas na laminação, levando a defeitos específicos, pode surgir

dependendo da interação da deformação plástica da peça com a deformação elástica dos rolos.

Os cilindros de laminação comportam-se como vigas fixas em suas extremidades com uma

carga aplicada em sua região central e, naturalmente, estarão sujeitos a uma flexão.

A abertura entre os rolos deve ser perfeitamente paralela, caso contrário, a tira terá uma

redução de espessura não uniforme e, como o volume e a largura permanecem constantes, um

lado da tira irá se alongar mais que a outra, curvando a tira. Segundo Dieter (1986), há dois

aspectos do problema de formato da tira. O primeiro é a espessura uniforme ao longo da

largura da tira. Esta propriedade da tira pode ser medida com precisão e é fundamental para a

o controle automático de bitola. A segunda propriedade importante da tira é a planicidade. É

difícil medir com precisão esta propriedade e, mais difíceis ainda, são medições tomadas de

tiras no momento em que se movem em um laminador contínuo em alta velocidade.

Page 20: redes Neurais defeitos de Laminação

10

A flexão dos cilindros como mostrado na Figura 2.3(a) resulta num alongamento no sentido

da laminação maior nas laterais do que no centro. Se as laterais estão livres para se mover em

relação ao centro, tem-se uma situação como a mostrada na Figura 2.3(b). Contudo, a tira

permanece um corpo contínuo e as deformações reajustam-se para manter a continuidade.

Assim, o centro recebe tensões de alongamento e as bordas de compressão (Figura 2.3(c)),

resultando numa tira com bordas onduladas (Figura 2.3(d)). Em outras condições, as tensões

distribuídas produzidas pelo alongamento das bordas produzem fissuras ou rachaduras no

centro da tira como visto na Figura 2.3(e).

Figura 2.3 – Conseqüências da flexão do cilindro produzindo laterais maiores

FONTE: Dieter, 1986.

Para compensar a variação de espessura (ao longo da largura da tira) oriunda dessa flexão,

recorre-se ao coroamento dos cilindros, ou seja, eles são usinados com diâmetro maior no

centro e menor nas extremidades. Uma melhor técnica, segundo Dieter (1986), é equipar o

laminador com macacos hidráulicos que permitem a distorção elástica dos rolos para corrigir

a deflexão sob as condições de laminação.

Outras formas de deformações não homogêneas podem levar a problemas de trincamento

(cracking). Como a peça passa pelos rolos, todos os elementos ao longo da largura da tira

sofrem alguma tendência de expansão lateral oposta às forças de fricção transversais. Devido

à bossa de atrito, elas são maiores no centro da tira que “espalha-se” menos que elementos das

Page 21: redes Neurais defeitos de Laminação

11

laterais e, como toda a diminuição da espessura central se transforma num aumento do

comprimento enquanto parte da expansão nas laterais geram um aumento na largura da tira,

pode-se desenvolver uma borda arredondada nas pontas da tira como mostrado na Figura

2.4(a). Devido à continuidade da peça, as laterais ficam sujeitas a tensões, causando trincas

nas bordas (Figura 2.4(b)) ou, em casos mais severos, uma divisão central da tira (Figura

2.4(c)).

Figura 2.4 – Defeitos resultantes de expansão lateral

FONTE: Dieter, 1986.

Os efeitos que causam o trincamento nas bordas ou divisão central da tira podem ser

minimizados utilizando rolos verticais que limitam a expansão lateral das bordas da tira.

Outros defeitos além de trincas são resultados de defeitos introduzidos durante o processo de

produção do lingote ou durante a laminação deste. Segundo Dieter (1986), Defeitos internos

como fissuras surgem devido a uma soldagem incompleta de tubos ou bolhas. Linhas

longitudinais de inclusões não metálicas ou bandagem de perlita estão relacionadas às práticas

de derretimento e solidificação. Estes problemas podem causar, em casos mais graves, uma

diminuição da dureza do material.

Porém, a maior parte dos defeitos encontrados pelo método abordado neste trabalho é

resultante de sujeira proveniente do ambiente, dos líquidos utilizados na lubrificação e

refrigeração ou de falhas nas ferramentas do processo como cilindro de laminação defeituoso

e manuseio do material. Alguns destes defeitos podem ser vistos na Figura 2.5.

Page 22: redes Neurais defeitos de Laminação

12

(a) (b)

(c) (d)

Figura 2.5 – Defeitos na superfície do aço. (a) Riscos; (b) trinca; (c) marca de cilindro; (d) carepa

Como no processo de laminação o produto apresenta uma grande superfície por volume de

material, o controle da qualidade da superfície é de fundamental importância. Para manter a

qualidade, a superfície do tarugo deve ser condicionada fazendo-se uma retífica, um desbaste

de rebarbas ou queimando com uma lança de oxigênio para remoção dos defeitos como

lascas, trincas e crostas.

Portanto, a caracterização e identificação de defeitos nas superfícies dos materiais trabalhados

são vitais para avaliar não só o produto, mas o processo em que ele foi produzido. O controle

da qualidade da superfície torna fácil e rápida a identificação de falhas, contribuindo para a

estabilidade da produção e evitando prejuízos causados por eventuais irregularidades.

Page 23: redes Neurais defeitos de Laminação

13

CAPÍTULO III

III PROCESSAMENTO DE IMAGENS

Uma imagem pode ser definida como uma função f(x, y), onde x e y são coordenadas espaciais

(planos) e a amplitude de f em qualquer par de coordenadas (x, y) é chamado de intensidade

ou nível de cinza da imagem naquele ponto. Quando x, y e os valores de intensidade de f são

todos finitos, de valores discretos, chama-se a imagem de “imagem digital”. O campo de

processamento de imagens digitais se refere ao processamento de imagens por meio de um

computador. A imagem digital é composta de um número finito de elementos, cada um tendo

uma localização e valor particular. Estes elementos são chamados de elementos de figura,

elementos de imagem, pels ou Pixels. Pixel1 é o termo mais utilizado para denotar os

elementos de uma imagem digital (GONZALEZ; WOODS, 2008).

Uma das maiores áreas de aplicação do processamento de imagens é a resolução de problemas

envolvendo visão de máquina. Neste caso, o interesse é em procedimentos para extração de

informações de uma imagem de uma forma útil para o processamento computacional.

Geralmente, esta informação perde um pouco a similaridade com meios visuais que humanos

usam para interpretar componentes em uma imagem. Exemplos do tipo de informação usada

na visão de máquina são momentos estatísticos, coeficientes de transformadas de Fourier e

medidas multidimensionais de distâncias. Problemas típicos de visão de máquina que

rotineiramente utilizam técnicas de processamento de imagens são: reconhecimento

automático de caracteres, inspeção de produtos numa linha de produção, processamento

automático de impressões digitais, análises de raios-X e amostras de sangue e processamento

de imagens aéreas e espaciais para previsão do tempo. (GONZALEZ; WOODS, 2008)

3.1 Amostragem e quantização

A idéia básica de amostragem e quantização é mostrada na Figura 3.1. A Figura 3.1(a) mostra

uma imagem contínua, f(x, y), que é convertida em formato digital. Uma imagem pode ser

contínua respeitando as coordenadas x e y e a amplitude. Para convergir para o formato

1 Pixel é derivado de picture element e usualmente denota um simples ponto em uma tela de computador

Page 24: redes Neurais defeitos de Laminação

14

digital, deve-se amostrar a função nas duas coordenadas e amplitude. Colocar a posição de

cada ponto de uma imagem em valores das coordenadas x e y é chamado de amostragem.

Representar a intensidade das cores de uma imagem em valores de amplitude é chamado

quantização.

A função unidimensional mostrada na Figura 3.1(b) é a representação gráfica dos valores de

amplitude (nível de cinza) da imagem contínua ao longo do segmento AB na Figura 3.1(a). As

variações aleatórias são devidas a ruídos da imagem. Na Figura 3.1(c) foram retiradas

amostras de mesmo espaçamento ao longo da linha AB. As amostras são pequenos quadrados

brancos sobrepostos na função. O conjunto dessas localizações discretas gera a função

amostrada. Contudo, os valores das amostras ainda estão em uma faixa contínua de valores de

nível de cinza.

Page 25: redes Neurais defeitos de Laminação

15

Figura 3.1 – Amostragem e quantização FONTE: Gonzalez , Woods e Eddins, 2004.

Para formar a imagem digital, os valores de nível de cinza também devem ser convertidos

(quantizados) em quantidades discretas. O lado direito da Figura 3.1(c) mostra a escala de

cinza dividida em oito níveis discretos do branco ao preto. A correlação é feita dependendo da

proximidade vertical da amostra ao nível de cinza da escala. As amostras resultantes da

amostragem e quantização são apresentadas na Figura 3.1(d). Realizando este procedimento

linha a linha na imagem, se produz uma imagem digital bidimensional. (Figura 3.2)

Figura 3.2 – (a)Imagem contínua (b) Resultado da amostragem e quantização

FONTE: Gonzalez , Woods e Eddins, 2004.

Na Figura 3.2(a) é apresentada a imagem contínua do objeto que será digitalizado. Após a

amostragem e quantização da imagem, a figura é mostrada em partes discretas (Figura 3.2(b)).

3.2 Detecção de bordas

Nesta etapa, as entradas são imagens e as saídas são atributos extraídos das imagens. A

segmentação subdivide a imagem em suas regiões constituintes ou objetos. O nível no qual a

subdivisão é feita depende do problema a ser resolvido. Ou seja, a segmentação deve parar

quando os objetos de interesse na aplicação forem isolados. Algoritmos de segmentação são

geralmente baseados em uma de duas propriedades básicas de valores de intensidade:

descontinuidade e similaridade. Na descontinuidade, a forma de partição da imagem é

baseada em mudanças abruptas de intensidade, como bordas em uma imagem. Na

Page 26: redes Neurais defeitos de Laminação

16

similaridade, a partição é baseada em regiões que são similares de acordo com um conjunto

de critérios pré-definidos.

Segundo Gonzalez e Woods (2008), o método mais comum de se encontrar descontinuidades

é passando uma máscara na imagem. A máscara mostrada na Figura 3.3 realiza a soma dos

produtos dos coeficientes com os níveis de cinza da imagem englobados pela máscara.

Figura 3.3 – Máscara 3 x 3

FONTE: Gonzalez, Woods e Eddins, 2004.

A resposta dada pela máscara em cada ponto da imagem é dada por:

992211 ... zwzwzwR +++= (3-1)

Onde é o nível de cinza do Pixel associado ao coeficiente e a posição do Pixel. iz iw

Borda é um conceito “local” dos contornos de uma região, pertencendo ao caminho onde eles

estão definidos. Uma definição plausível de bordas requer a habilidade de medir transições de

níveis de cinza de modo significativo. O modelo ideal de borda tem as propriedades do

modelo mostrado na Figura 3.4(a), onde há um conjunto de Pixels conectados, localizados em

uma transição degrau ortogonal do nível de cinza. Porém, na prática, no momento da

aquisição da imagem ela pode não vir tão bem delineada causando uma borda do tipo rampa,

como mostrado na Figura 3.4(b). A inclinação da rampa é inversamente proporcional ao grau

de embaçamento da imagem.

Page 27: redes Neurais defeitos de Laminação

17

Figura 3.4 – (a) Modelo de uma borda digital ideal (b) Modelo de uma borda em rampa.

FONTE: Gonzalez, Woods e Eddins, 2004.

A partir das observações, a magnitude da primeira derivada (Figura 3.5) pode ser usada para

detectar a presença de bordas em um ponto da imagem. De forma similar, o sinal da segunda

derivada pode ser usado para determinar onde a borda de Pixels muda do lado escuro para o

claro.

Figura 3.5 – Detalhamento da borda de uma imagem

FONTE: Gonzalez, Woods e Eddins 2004.

Page 28: redes Neurais defeitos de Laminação

18

3.3 Dilatação e erosão

As operações de dilatação e erosão são fundamentais para processamento morfológico de

imagens. Muitos algoritmos são baseados nestas operações. A Dilatação é uma operação que

“aumenta” os objetos em uma imagem binária. A maneira específica deste crescimento é

controlado por um formato chamado elemento estrutural.

Figura 3.6 – Dilatação FONTE: Gonzalez, Woods e Eddins, 2004.

A Figura 3.6 ilustra como a dilatação é feita. A Figura 3.6(a) mostra uma simples imagem

binária contendo um objeto retangular. A Figura 3.6(b) é um elemento estrutural, uma linha

diagonal de cinco Pixels de comprimento. Computacionalmente, elementos estruturais são

tipicamente representados por uma matriz de zeros e uns. A origem do elemento estrutural

deve ser claramente identificada. A Figura 3.6(c) retrata a dilatação como um processo que

Page 29: redes Neurais defeitos de Laminação

19

translada a origem do elemento estrutural pelo domínio da imagem verificando onde ele

sobrepõe Pixels de valor 1. A imagem de saída Figura 3.6(d) tem valores de 1 em cada ponto

da origem onde o elemento estrutural sobrepõe pelo menos um Pixel de valor 1.

A erosão “afina” objetos na imagem binária. Como na dilatação, a maneira de erodir é

controlada por um elemento estrutural. A Figura 3.7 ilustra o processo de erosão. A Figura

3.7(a) é a mesma que a Figura 3.6(a). A figura 3.7(b) mostra o elemento estrutural, que é uma

pequena linha vertical. A Figura 3.7(c) graficamente retrata a erosão como um processo de

translação do elemento estrutural através do domínio da imagem verificando se o elemento

estrutural encaixa completamente no objeto.

Figura 3.7 – Erosão. (a) Imagem original com objeto retangular; (b) Elemento estrutural; (c) Elemento estrutural transladado para pontos da

imagem; (d) imagem de saída. FONTE: Gonzalez, Woods e Eddins, 2004.

A imagem de saída (Figura 3.7(d)) tem o valor 1 nos pontos onde a origem do elemento

estrutural está quando o elemento estrutural sobrepõe apenas valores de 1 na imagem de

entrada.

3.4 MATLAB

Page 30: redes Neurais defeitos de Laminação

20

Segundo Gonzalez, Woods e Eddins (2004), MATLAB é uma linguagem de alta performance

para computação técnica. Ele integra computação, visualização e programação em um

ambiente fácil de usar onde problemas e soluções são expressos em notação matemática

familiar. Algumas características típicas são:

• Matemática e computação;

• Desenvolvimento de algoritmos;

• Aquisição de dados;

• Modelagem, simulação e criação de protótipos;

• Análise de dados, exploração e visualização;

• Gráficos;

• Desenvolvimento de aplicações, incluindo construção de interfaces gráficas;

MATLAB é um sistema interativo no qual os elementos básicos de dados são matrizes que

não requerem dimensionamento. Isto permite formular soluções para muitos problemas de

computação técnica, especialmente aqueles que envolvem representação de matrizes, em uma

fração de tempo se comparado com o desenvolvimento de um programa numa linguagem

escalar não-interativa como C ou Fortran.

O nome MATLAB significa matrix laboratory (laboratório de matrizes). MATLAB foi

desenvolvido originalmente para prover fácil acesso ao software de matriz desenvolvido pelos

projetos LINPAK (Linear System Package) e EISPACK (Eigen System Package).

Hoje, MATLAB incorpora as bibliotecas do LAPACK (Linear Álgebra Package) e BLAS

(Basic Linear Álgebra Subprograms), constituindo uma obra de arte em computação de

software e computação de matrizes. (GONZALEZ, WOODS E EDDINS, 2004)

A estrutura básica de dados no MATLAB® é o vetor, um conjunto ordenado de elementos

reais ou complexos. Este objeto é naturalmente compatível à representação de imagens,

conjuntos ordenados de valores reais de cores ou intensidade.

MATLAB® armazena a maior parte das imagens em vetores de duas dimensões (matrizes),

nas quais cada elemento da matriz corresponde a um único Pixel na imagem mostrada.

Page 31: redes Neurais defeitos de Laminação

21

3.5 IMAGE PROCESSING TOOLBOX™

Segundo Gonzalez, Woods e Eddins (2004), no meio acadêmico, MATLAB é uma ferramenta

computacional comum para cursos introdutórios e avançados em matemática, engenharia e

ciência. No meio industrial, MATLAB é a ferramenta computacional de escolha para

pesquisa, desenvolvimento e análise. MATLAB é complementado pela família de soluções

para aplicações específicas chamada toolboxes.

O Image Processing Toolbox™ é uma coleção de funções que estendem a capacidade do

ambiente de computação numérica do MATLAB®. O toolbox suporta uma grande variedade

de operações de processamento de imagens. Muitas das funções do toolbox são arquivos M -

files do MATLAB®, uma série de instruções que implementam algoritmos especializados em

processamento de imagens.

Page 32: redes Neurais defeitos de Laminação

22

CAPITULO IV

IV REDES NEURAIS ARTIFICIAIS

4.1 Introdução

A seguinte definição de redes neurais foi proposta por Braga, Carvalho e Ludermir

(2000):

“Redes neurais artificiais são sistemas paralelos distribuídos, compostos

por unidade de processamento simples (nodos) que calculam

determinadas funções matemáticas (normalmente não lineares). Tais

unidades são dispostas em uma ou mais camadas e interligadas por um

grande número de conexões, geralmente unidirecionais. Na maioria dos

modelos, essas conexões estão associadas a pesos, que armazenam o

conhecimento representado no modelo e servem para ponderar a

entrada recebida por cada neurônio da rede. O funcionamento dessas

redes é inspirado em uma estrutura física concebida pela natureza: o

cérebro humano”.

Redes Neurais Artificiais realizam o paradigma subsimbólico de representação e

processamento de informação (KASABOV, 1996). A área científica que lida com métodos e

sistemas para processamento de informações utilizando redes neurais é chamada

neurocomputação.

4.2 Neurônios artificiais e reais

Segundo Kasabov (1996), uma rede neural artificial (ou simplesmente rede neural) é um

modelo computacional que consiste em processar elementos (chamados neurônios) e

conexões entre eles com coeficientes (pesos) ligados às conexões, que consiste na estrutura

neuronal, treinamento e sensibilidade ligada à estrutura. Redes neurais são chamadas de

modelos conexionistas devido ao papel principal das conexões nelas. Os pesos das conexões

são a “memória” do sistema.

Page 33: redes Neurais defeitos de Laminação

23

Apesar das redes neurais apresentarem similaridades ao cérebro humano, não se trata de uma

tentativa de modelá-lo. Elas são modelos úteis para resolução de problemas e engenharia do

conhecimento de um jeito “humano”. O cérebro humano é muito mais complexo e,

infelizmente, muitas de suas funções cognitivas não são ainda bem conhecidas. Mas, quanto

mais aprendemos sobre o cérebro humano, melhores modelos computacionais são

desenvolvidos para uso prático. Portanto, as redes neurais artificiais observam as

características do cérebro humano do ponto de vista de processamento de informação e se

baseiam nestes métodos para criar as redes neurais. Segundo Kasabov (1996), as principais

características das redes reais e artificiais são: o aprendizado e adaptação, a generalização,

paralelismo massivo, robustez, armazenamento associativo de informação e processamento de

informações espaciais e temporais.

4.3 Neurônio biológico

O neurônio é célula nervosa e o principal componente do sistema nervoso. Segundo Braga,

Carvalho e Ludermir (2000), estima-se que no cérebro humano existam em torno de

nodos, responsável por todas as funções do sistema. Cada neurônio se divide em três partes: o

corpo da célula, os dendritos e o axônio. Cada uma destas partes com uma função específica,

porém complementar.

1110

O corpo do neurônio ou soma é constituído de núcleo e pericário, e dá suporte metabólico a

toda célula. O axônio é um prolongamento único e grande que aparece no corpo do neurônio.

Ele é responsável pela condução do impulso nervoso para o próximo neurônio, podendo ser

revestido ou não por mielina (bainha axonial). Os dendritos são prolongamentos menores em

forma de ramificações que emergem do pericário e do final do axônio, sendo, na maioria das

vezes, responsáveis pela comunicação entre os neurônios através das sinapses. A estrutura de

um neurônio biológico é mostrada na Figura 4.1.

Page 34: redes Neurais defeitos de Laminação

24

Figura 4.1 – Estrutura de um neurônio biológico

FONTE: Braga, Carvalho e Ludermir 2000.

É pela sinapse que os nodos se unem funcionalmente, formando redes neurais. Em uma

sinapse, os neurônios não se tocam. Entre eles havendo um espaço denominado espaço

sináptico, onde um neurônio pré-sináptico liga-se a um outro denominado neurônio pós-

sináptico. O sinal nervoso (impulso), que vem através do axônio da célula pré-sináptica chega

a sua extremidade e provoca na fenda a liberação de neurotransmissores depositados em

bolsas chamadas de vesículas sinápticas. Este elemento químico se liga quimicamente a

receptores específicos no neurônio pós-sináptico, dando continuidade à propagação do sinal.

Segundo Braga, Carvalho e Ludermir (2000), esse sistema é responsável pela maioria das

funções realizadas em nosso cérebro.

4.4 Neurônios artificiais

Segundo Kasabov (1996), o primeiro modelo matemático de um neurônio foi proposto por

McCulloch e Pitts em 1943. Foi um mecanismo que utilizava entradas e saídas binárias e um

limiar de ativação fixo.

Em geral, um modelo de neurônio é baseado nos seguintes parâmetros como mostrados na

Figura 4.2:

Page 35: redes Neurais defeitos de Laminação

25

Figura 4.2 – Modelo de um neurônio artificial FONTE: Kasabov, 1996.

• Entradas: , ,..., . Pesos associados às entradas: , ,..., ; uma entrada do

neurônio chamada bias tem o valor inicial de 1 e é normalmente representada como

uma entrada separada, .

1x 2x nx 1w 2w nw

0x

• Função de entrada f: Calcula o sinal de entrada da rede agregado ao neurônio u=f(x,

w), onde x e w são as entradas e vetores de peso correspondentes; f é normalmente a

função de soma:

∑=

=n

iii wxu

1. (4.1)

• Função de ativação φ: Calcula o nível de ativação de um neurônio a= φ (u).

• Função de saída: Calcula o sinal de saída emitido pelo neurônio: o=g(a); o sinal de

saída normalmente é considerado igual ao nível de ativação do neurônio, ou seja, o=a.

As funções de ativação φ dos neurônios são definidas por funções matemáticas. Algumas

funções de ativação típicas são descritas na Figura 4.3:

Page 36: redes Neurais defeitos de Laminação

26

Figura 4.3 – Funções de ativação típicas

FONTE: Kasabov, 1996.

4.5 O perceptron

Segundo Kasabov (1996), um dos primeiros modelos no qual foi usado o modelo de um

neurônio de McCulloch e Pitts (1943) foi a rede neural chamada perceptron (Rosenblatt,

1958). O ponto da experiência foi modelar fenômenos da percepção visual. Os neurônios

utilizados na rede perceptron tinham uma função simples de entrada e uma função degrau de

ativação ou função linear de ativação de limiar. Os valores de entrada, em geral, eram

números reais e as saídas binárias. A estrutura de conexão do perceptron é unidirecional de

três camadas.

A primeira camada é um buffer que armazena os dados. Os elementos da primeira camada são

conectados completamente ou arbitrariamente aos elementos da segunda camada, chamada de

camada característica (ou, feature layer). Cada neurônio desta camada combina informações

vindas de diferentes elementos sensoriais e representam uma possível característica. Os

Page 37: redes Neurais defeitos de Laminação

27

neurônios desta camada estão completamente ligados aos neurônios de saída de uma camada

de saída chamada camada perceptron (ou, perceptron layer). Os pesos entre o buffer e a

camada característica são fixos. A Figura 4.5 ilustra uma rede perceptron simples com dois

elementos na camada característica e um elemento na camada perceptron. O bias ( )

também é mostrado.

0x

Figura 4.4 – Uma rede perceptron FONTE: Kasabov, 1996.

Segundo Kasabov (apud MINSKY e PAPERT, 1969) descobriu-se uma severa limitação dos

perceptrons. Eles podem ser treinados para reconhecer apenas classes linearmente separáveis.

Exemplos de classes que são linearmente separáveis ficam em um lado apenas de um

hiperplano que separa as classes. Se o espaço de entrada é bidimensional, o hiperplano é uma

linha. Se os exemplos não são linearmente separáveis, o perceptron falha em convergir.

4.6 Arquitetura de Redes Neurais

Segundo Kasabov (1996), uma rede neural artificial é um modelo computacional definido por

quatro parâmetros: tipo de neurônios; arquitetura conexionista (a organização das conexões

entre neurônios); algoritmo de treinamento; algoritmo de sensibilidade. Uma rede neural

simples é mostrada na Figura 4.5. Ela contém quatro nodos de entrada, dois intermediários e

um nodo de saída. Os ajustes dos pesos ligados às conexões são resultantes do processo de

treinamento usado.

Page 38: redes Neurais defeitos de Laminação

28

Figura 4.5 – Rede neural

FONTE: Kasabov, 1996.

Duas principais arquiteturas conexionistas podem ser distinguidas de acordo com o número de

conjuntos de neurônios de entrada e saída: a auto-associativa, onde os neurônios de entrada

são os neurônios de saída (uma camada) e a hetero-associativa, onde há conjuntos de

neurônios de entrada e saída separados.

A partir da presença de conexões de realimentação na rede, dois tipos de arquitetura podem

ser distinguidos. A feedforward architecture (arquitetura unidirecional) onde não há ligações

entre a saída e os neurônios de entrada. E a recurrent achitecture (arquitetura recorrente),

onde há conexões entre a saída e os neurônios de entrada de forma que a rede guarda

informações do estado passado e o estado futuro não depende apenas dos sinais de entrada,

mas também do estado anterior.

4.7 Aprendizado de Redes Neurais Artificiais

Segundo Kasabov (1996), a característica mais atrativa das redes neurais é sua capacidade de

aprendizado. O aprendizado possibilita que a rede se adeque ao meio. A rede neural é treinada

de forma que um conjunto de entradas x produza um conjunto de saídas y desejadas ou, pelo

menos, consistentes. Os elementos do conjunto de entradas x são chamados exemplos de

treinamento. O processo de treinamento reflete numa mudança dos pesos associados a cada

conexão da rede. Os algoritmos de treinamento podem ser classificados com três grupos:

Page 39: redes Neurais defeitos de Laminação

29

• supervisionado, onde os exemplos de treinamento são vetores de entrada x e vetores

de saídas desejadas y. O treinamento é realizado até que a rede “aprenda” a associar

cada vetor de entrada x à saída correspondente desejada;

• não-supervisionado, onde apenas são inseridos os valores da entrada x e a rede

encontra relações entre toda informação apresentada;

• aprendizado por reforço, que é uma combinação dos dois métodos apresentados. É

apresentado um vetor de entrada x e gerada uma saída y. Se a saída é considerada

“boa” é atribuída à rede uma “recompensa”, caso contrário, a rede é “penalizada”.

4.8 Aprendizado supervisionado de redes neurais

Segundo Braga, Carvalho e Ludermir (2000), O método de aprendizado supervisionado é o

método mais comum de treinamento de redes neurais. Neste método as entradas e saídas

desejadas para a rede são fornecidas e o treinamento é visto como uma aproximação de

mapeamento entre o espaço de entrada e o espaço solução do problema. Segundo Kasabov

(1996), o aprendizado supervisionado é normalmente feito na seguinte seqüência:

1. prepara-se a estrutura de uma rede neural contendo neurônios de entrada,

neurônios de saída e um conjunto inicial de valores de pesos das conexões da rede;

2. fornece-se um vetor de entrada x do conjunto de exemplos de treinamento para a

rede;

3. calcula-se a saída o produzida pela rede neural;

4. compara-se o vetor de saída desejado y e a saída encontrada o produzida pela rede,

calculando-se o erro;

5. ajustam-se os pesos das conexões de forma que, da próxima vez que x for

apresentado à rede, a saída produzida será mais próxima do valor desejado de saída

y.

6. repetem-se os passos 2 a 5 até que a rede encontre um estado de convergência.

Os erros de aproximação podem ser encontrados pelo cálculo do erro instantâneo:

)( yoErr −= (4.2)

Page 40: redes Neurais defeitos de Laminação

30

Ou pelo erro quadrático médio, ou mean-square error (MSE):

2/)( 2yoErr −= (4.3)

Dependendo de como o erro é calculado, dois tipos de erros podem ser encontrados para uma

rede neural. O primeiro, chamado de erro aparente, estima o quão bem uma rede treinada se

aproxima dos exemplos de treinamento. O segundo, chamado de erro teste, estima o quão

bom a rede treinada pode generalizar, ou seja, reagir à novos vetores de entrada.

4.9 Redes perceptron multicamadas e o algoritmo de retro propagação

Para superar a limitação de separação linear dos perceptrons, redes do tipo Multilayer

Perceptrons (MLP) foram introduzidas. Uma MLP consiste em uma camada de entrada, pelo

menos uma camada intermediária (oculta) e uma camada de saída. Os neurônios de cada

camada estão todos ligados aos neurônios da próxima camada. Os neurônios na MLP têm

valores contínuos de entrada e saída, função soma de entradas e função de ativação não-linear.

Um gradiente pode ser usado para encontrar pesos ótimos para as conexões minimizando o

erro global E. Uma mudança de pesos ijwΔ em um ciclo (t+1) está na direção do gradiente

negativo do erro E:

))(/()1( twElratetw ijij ∂∂−=+Δ (4.4)

Onde lrate é a taxa de aprendizagem. A regra do gradiente assegura que depois de um número

de ciclos, o erro E alcançará um valor mínimo. Um erro global para todos os exemplos de

treinamento pode ser calculado da forma:

∑∑=p j

pjErrE )( (4.5)

Onde o erro para o exemplo p, pode ser calculado, por exemplo, como um erro

quadrático médio.

)( pjErr

Page 41: redes Neurais defeitos de Laminação

31

Segundo Kasabov (apud Amari, 1967), sugeriu-se que o algoritmo de gradiente descendente

fosse usado para treinar MLP, mas propagando o erro para trás e ajustando os pesos das

conexões.

A cada ciclo de aprendizagem (onde ciclo, no MATLAB, é chamado de epoch) que pode ser

definido como o processo de propagação de um ou mais exemplos de treinamento pela rede e

calculando seus erros E. O algoritmo de treinamento consiste em duas fases: Fase direta

(forward pass), quando as entradas são inseridas e propagadas pelas camadas intermediárias

até a camada de saída, e fase reversa (backward pass), quando o erro é calculado na saída e

propagado para trás calculando-se as mudanças dos pesos. O processo de treinamento é

repetido por muitos ciclos com o conjunto de exemplos de treinamento até que o erro global E

seja suficientemente pequeno.

Figura 4.6 – Representação esquemática de um aprendizado de MLP

FONTE: Kasabov, 1996.

Page 42: redes Neurais defeitos de Laminação

32

CAPÍTULO V

V METODOLOGIA E RESULTADOS

O objetivo deste trabalho é de, a partir da uma imagem de uma chapa de aço no momento da

laminação, processar essa imagem via MATLAB com o intuito de localizar e abstrair

características de defeitos geralmente encontrados na superfície do plano. Fazendo-se uso

destas informações, classificar o defeito quanto ao seu tipo utilizando redes neurais. A

metodologia deste trabalho pode ser dividida em três passos: Preparo da imagem, Análise da

imagem e Classificação via Redes Neurais.

5.1 Preparo da imagem

Esta etapa visa evidenciar os defeitos de forma que seja possível extrair características

pertinentes para sua classificação. É uma etapa de grande importância por se tratar da base do

processo. A exatidão na classificação dependerá da qualidade das informações extraídas neste

passo. Uma imagem real fornecida por uma indústria siderúrgica foi escolhida para ilustrar o

processamento que esta etapa realiza numa imagem de chapa de aço contendo defeitos a

serem evidenciados (Figura 5.1).

Figura 5.1 – Imagem Original

O Primeiro passo realizado no preparo da imagem é o de importar a imagem para o ambiente

do MATLAB utilizando a função imread. Esta função lê a imagem e a armazena como uma

Page 43: redes Neurais defeitos de Laminação

33

matriz no seu espaço de trabalho. É realizada a detecção na imagem importada das bordas dos

defeitos utilizando a função edge do IMAGE PROCESSING TOOLBOX, ferramenta contida

no MATLAB (Figura 5.2).

Figura 5.2 – Imagem após detecção das bordas utilizando o método de Sobel

A máscara binária na Figura 5.2 mostra linhas de grande contraste na imagem. Porém, não é

possível delinear completamente os defeitos presentes. Comparando os desenhos encontrados

com a imagem original podem-se ver descontinuidades no contorno. Para tornar o contorno

mais fiel, é realizada a dilatação das linhas utilizando elementos de estrutura linear que podem

ser criados com a função strel do MATLAB e aplicados com a função imdilate gerando a

imagem da Figura 5.3.

Figura 5.3 – Imagem após dilatação

Para preencher os buracos presentes nas formas encontradas na Figura 5.3 é utilizada a função

imfill que torna os Pixels inativos de valor 0(zero) cercados por Pixels ativos de valor 1(um)

em Pixels ativos.

Page 44: redes Neurais defeitos de Laminação

34

Figura 5.4 – Imagem preenchida

Para que imagens de defeitos que não estão completamente contidos em nossa área de

interesse, retira-se todos os conjuntos de Pixels ativos que tocam os limites da imagem gerada

pelo preenchimento (Figura 5.4) utilizando a função do MATLAB imclearborder.

Figura 5.5 – Imagem após a limpeza das bordas da região de interesse

Para que a imagem encontrada após a limpeza das bordas (Figura 5.5) tenha um aspecto mais

natural e fiel ao defeito, é realizada a suavização dos contornos dos objetos erodindo a

imagem com um elemento estrutural criado pela função strel.

Page 45: redes Neurais defeitos de Laminação

35

Figura 5.6 – Imagem após a suavização do contorno dos objetos

Para retirar os ruídos e defeitos de dimensões desprezíveis presentes na imagem obtida após a

suavização do contorno dos objetos (Figura 5.6), é utilizada a função bwareaopen. Nesta

etapa, retiram-se conjuntos de Pixels na imagem menores que 35 Pixels, gerando uma

máscara onde apenas os objetos de interesse (defeitos) têm Pixels ativos. (Figura 5.7)

Figura 5.7 – Imagem após a retirada de conjuntos desinteressantes

Para visualizar os resultados obtidos na etapa de preparação da imagem, os objetos

encontrados na Figura 5.7 são delineados utilizando-se a função bwperim e, em seguida,

sobrepostos sobre a imagem original de forma a facilitar a visualização e avaliação do

resultado obtido pelos métodos adotados.

Page 46: redes Neurais defeitos de Laminação

36

Figura 5.8 – Imagem original com defeitos delineados

Como pode ser visto na Figura 5.8, a etapa de preparação da imagem obteve um bom

resultado pois todos os defeitos encontrados na chapa foram satisfatoriamente delineados e

nenhum ruído foi equivocadamente evidenciado.

5.2 Análise da imagem

O objetivo desta etapa é extrair informações das imagens evidenciadas pela etapa anterior e

utilizá-las para classificar os defeitos contidos na chapa analisada. Para isto, é utilizada a

função bwboundaries que traça um contorno nos conjuntos de pixels encontrados e encontra o

número de defeitos. Já a função regionprops abstrai as características pertinentes para

classificação dos defeitos como centróide, excentricidade e orientação.

5.2.1 Medidas das formas

Com o intuito de classificar os defeitos presentes no momento da laminação em chapas de

aço, as informações que serão extraídas dos objetos encontrados no preparo da imagem são:

• área – valor escalar que representa o atual número de Pixels na região;

• posição – valor escalar da distância do centróide do objeto ao ponto médio da

figura dividida pelo valor do ponto médio na coordenada x.

Page 47: redes Neurais defeitos de Laminação

37

• excentricidade – valor escalar que especifica a excentricidade da elipse que tem

o mesmo momento de inércia de área que a região. A excentricidade é obtida

dividindo-se a distância entre os focos da elipse pelo comprimento da maior

aresta da elipse, desta forma, o valor resultante fica entre 0 e 1. Se a

excentricidade encontrada é próxima de 1, trata-se de algo parecido com um

segmento de reta e, se a excentricidade for um valor próximo de 0, é algo que

se assemelha a um círculo;

• orientação – valor escalar do ângulo em graus entre -90 e 90 entre o eixo x e o

maior eixo da elipse que tem os mesmos momentos de inércia de área que a

região.

Para facilitar a identificação visual dos defeitos pelo usuário, caso a imagem analisada tenha

grandes dimensões, criou-se um algoritmo que desenha retângulos ao redor dos defeitos

utilizando-se a função imrect presente no toolbox IMAGE PROCESSING TOOLBOX do

MATLAB, com base nos dados extraídos pela função regionprops denominados

“BoundingBox”. “BoundingBox” são valores de coordenadas correspondentes ao menor

retângulo que contém cada um dos objetos encontrados. Baseado nos valores de coordenadas

para estes retângulos, foram desenhados retângulos com arestas maiores para facilitar a

visualização do defeito e sua borda. O resultado pode ser observado na Figura 5.9.

counter=0 x=1 y=0 regiao=[stats.BoundingBox] for counter=1:numregions y=x+3 imrect(gca,regiao(x:y)+[-10,-10,20,20]) x=x+4 end

Page 48: redes Neurais defeitos de Laminação

38

Figura 5.9 – Imagem com defeitos destacados por retângulos

5.3 Classificação via Redes Neurais

A etapa de classificação visa o uso de toda a informação adquirida ao longo do processo de

preparo e análise da imagem na triagem de defeitos encontrados utilizando redes neurais

artificiais. Para tanto, baseando em testes realizados com imagens reais cedidas por uma

empresa siderúrgica, foram criadas classes para os defeitos de acordo com suas características

e um banco de dados para aplicação em redes neurais. A primeira classe (Classe A) é um risco

na tira no sentido da laminação e localizado nas laterais (Figura 5.10(a)). A Classe B é uma

mancha ou furo encontrado na região central da chapa (Figura 5.10(b)). Os defeitos Classe C

são trincas localizadas na parte central da chapa (Figura 5.10(c)). Os de Classe D são carepas

encontradas nas laterais das chapas (Figura 5.10(d)). A Tabela 5.1 mostra as propriedades

avaliadas em cada classe.

Figura 5.10 – Defeitos classificados. (a) Defeito classe A; (b) defeito classe B; (c) defeito classe C; (d) defeito classe D .

Page 49: redes Neurais defeitos de Laminação

39

Tabela 5.1 – Características avaliadas de cada classe

Classe Área Posição Excentricidade Orientação A Pequena Laterais Alta Vertical B Grande Centro Baixa Vertical C Pequena Centro Alta Horizontal D Média Laterais Média Vertical

5.3.1 Geração dos dados para treinamento

Foram gerados valores aleatórios baseados em defeitos similares encontrados em imagens

reais cedidas por uma empresa siderúrgica e armazenados em um banco de dados do matlab

com valores variando segundo os gráficos da Figura 5.11.

Posição

Centro Laterais

0 0,2 0,4 0,6 0,8 1

Ex c e nt r i c i da de

Baixa MédiaAlta

0 0,2 0,4 0,6 0,8 1

1

Área

Pequena Média Grande

0 500 1000 1500 2000

1

Va l or e m pi x e l s

Or i e nt a ç ã o

Horizontal Vertical

0 15 30 45 60 75 9

1

Valor em módulo em graus

0

Figura 5.11 – Valores de entrada

Utilizando-se valores aleatórios nos intervalos referentes a cada característica de cada classe

de defeitos, foi gerado um total de 100 exemplos de cada classe para o treinamento das redes.

(Gráficos 5.12, 5.13, 5.14 e 5.15)

Page 50: redes Neurais defeitos de Laminação

40

Figura 5.12 – Características dos defeitos Classe A

Figura 5.13 – Características dos defeitos Classe B

Page 51: redes Neurais defeitos de Laminação

41

Figura 5.14 – Características dos defeitos Classe C

Figura 5.15 – Características dos defeitos Classe D

Page 52: redes Neurais defeitos de Laminação

42

5.3.2 Criando e treinando as redes

Após obtenção dos dados, foi utilizada a ferramenta nntool fornecida pelo matlab para a

criação e treinamento da rede. O comando nntool abre a interface que guia as etapas. (Figura

5.16)

Figura 5.16 – Interface da ferramenta nntool

Feito isso, foram importados para o “nntool” os dados de entrada e saída de treinamento, teste

e validação da rede. Para tanto, basta clicar no botão “import” e a janela da figura 5.17 é

aberta para importar os dados que estão na área de trabalho do Matlab.

Page 53: redes Neurais defeitos de Laminação

43

Figura 5.17 – Interface de importação de variáveis do workspace do Matlab.

Clicando-se no botão “New” da interface da ferramenta nntool, é aberto uma janela onde no

botão network, pode-se criar a rede neural, definindo sua estrutura como número de camadas,

número de neurônios em cada camada, algoritmo de treinamento, entre outras características.

A figura 5.18 mostra a interface de criação de rede.

O item network type foi escolhido como feed-forward backprop que descreve o tipo de rede

adotado. Em Input data é inserido a matriz de entrada “net_inputs” e, em Target data é

inserido o vetor com os valores de classe “net_targets”, em nosso caso, o valor das classes são

valores inteiros onde a classe A, tem valor 1. A classe B tem valor dois, a C tem valor 3 e a D

valor 4. Em Training function escolhido foi o algoritmo de treinamento “TRAINLM” por ter

gerado melhores resultados e ser bastante rápido. Dos exemplos de treinamento, o tipo de rede

adotado utiliza 60% deles para treinamento da rede, 20% para a validação e os 20% restantes

para testes. Os itens performace function e adaption learn function ficaram inalterados. Os

itens restantes foram utilizados para criar diferentes tipos de redes, cada uma com um número

variável de neurônios e camadas. Finalmente, clicando-se no botão “create” a rede é criada e

enviada para o campo “network” da janela do “nntool” figura 5.16.

Page 54: redes Neurais defeitos de Laminação

44

Figura 5.18 – Interface de criação da rede

Após a criação da rede, podemos acessar a interface da rede mostrada na Figura 5.19

selecionando a rede na interface da ferramenta nntool e clicando sobre o botão open.

Figura 5.19 – Interface da rede

Page 55: redes Neurais defeitos de Laminação

45

Para realizar o treinamento da rede basta acessar a aba “train” e inserir as variáveis de entrada

e saídas desejadas (alvos). No momento do treinamento é aberta a interface de treinamento da

rede como mostrado na Figura 5.20.

Figura 5.20 – Interface de treinamento

Para esta simulação, após 43 ciclos, ou Epochs, a rede encontra o seu estado de convergência.

O gráfico do desempenho pode ser visto na Figura 5.21.

Figura 5.21 – Gráfico do desempenho da rede

Page 56: redes Neurais defeitos de Laminação

46

Em caráter prático, foram realizadas simulações com dados criados, inéditos para a rede,

pertencentes a cada uma das classes da rede através da ferramenta nntool do MATLAB. As

variáveis utilizadas são: simulate_input_A; simulate_input_B; simulate_input_C;

simulate_input_D; Cada uma delas pertencendo a sua respectiva classe. Os valores das

variáveis citadas podem ser vistas na Tabela 5.2. Tabela 5.2 – Valores das variáveis de entrada e sua saída após simulação na rede

ENTRADA Área Posição Excentricidade Orientação SAÍDAsimulate_input_A 200(Pequena) 0.900(Laterais) 0.998(Alta) 89(Vertical) 1.0000simulate_input_B 1500(Grande) 0.200(Centro) 0.800(Baixa) 83(Vertical) 2.0000simulate_input_C 450(Pequena) 0.450(Centro) 0.998(Alta) 15(Horizontal) 3.0000simulate_input_D 550(Média) 0.900(Laterais) 0.920(Média) 50(Vertical) 4.0000

A resposta obtida após a simulação com as variáveis de entrada foi precisa, já que todos os

tipos de defeitos foram classificados de acordo com sua respectiva classe.

Para verificar a precisão da classificação da rede neural artificial criada, foram gerados

valores aleatórios nunca vistos pela rede utilizando a função rand do MATLAB. Desta forma,

gerou-se valores aleatórios de características de cada uma das classes, totalizando 5 exemplos

de cada classe. Após a inserção destes novos valores de entrada na rede, foram obtidos os

resultados mostrados na Tabela 5.3.

Page 57: redes Neurais defeitos de Laminação

47

Tabela 5.3 – Valores de entrada simulados e resposta da rede neural artificial

Tabela de novos exemplos classe A Exemplo 1 2 3 4 5 Área 497,546045 341,274247 486,866449 105,701232 134,531973Posição 0,6862929 0,64566682 0,9101949 0,95309612 0,86372801Excentricidade 0,99414552 0,98480547 0,98064099 0,98646387 0,99195608Orientação 79,4961803 73,3410613 48,2786598 55,2323559 56,8149454Resultado 1 1 1 1 1

Tabela de novos exemplos classe B Exemplo 6 7 8 9 10 Área 1447,57244 1923,82613 1980,3168 1606,41031 1761,34295Posição 0,24131012 0,22142374 0,10719485 0,15973116 0,40453623Excentricidade 0,04916524 0,5871737 0,54516022 0,28935065 0,05225318Orientação 79,4961803 73,3410613 48,2786598 55,2323559 56,8149454Resultado 2 2 2 2 2

Tabela de novos exemplos classe C Exemplo 11 12 13 14 15 Área 497,546045 341,274247 486,866449 105,701232 134,531973Posição 0,24131012 0,22142374 0,10719485 0,15973116 0,40453623Excentricidade 0,99414552 0,98480547 0,98064099 0,98646387 0,99195608Orientação 33,9026302 25,1097675 24,0092248 1,54360091 1,46939701Resultado 3 3 3 3 3

Tabela de novos exemplos classe D Exemplo 16 17 18 19 20 Área 666,605796 820,039684 917,52585 828,246752 693,98314 Posição 0,6862929 0,64566682 0,9101949 0,95309612 0,86372801Excentricidade 0,92604061 0,97317954 0,93817438 0,9407828 0,95761814Orientação 79,4961803 73,3410613 48,2786598 55,2323559 56,8149454Resultado 4 4 4 4 4

Como pôde ser observado na Tabela 5.3, a rede foi capaz de classificar perfeitamente todos os

exemplos inéditos de entrada inseridos. Deste modo, a utilização do método de classificação

via redes neurais artificiais se mostra adequada para este tipo de processo.

Page 58: redes Neurais defeitos de Laminação

48

CAPITULO VI

VI CONCLUSÃO

A detecção e identificação de defeitos na superfície dos aços no momento da fabricação são

fundamentais para um controle da qualidade do produto trabalhado e do processo em que é

produzido o aço. O método abordado apresentou resultados esperados para classificação de

cada um dos defeitos e sua respectiva classe demonstrando a eficácia dos modernos modelos

de inteligência artificial aplicados em um processo de grande complexidade.

A caracterização e identificação de defeitos em chapas de aço baseando-se em características

extraídas através de métodos de processamento e análise de imagens se mostraram precisas.

Através de testes realizados e apresentados neste trabalho, constatou-se que novas

informações inseridas no aplicativo geraram como resultado informações esperadas.

Os resultados obtidos através dos métodos abordados têm grande importância para

caracterização do processo, justificando qualquer interesse neste setor. Redes neurais

artificiais e processamento de imagens são ferramentas eficazes e flexíveis, apresentando bons

resultados, quando bem utilizadas, e podendo ser adotadas em diversas áreas.

Este trabalho contribuiu para a maior integração de novas tecnologias aplicadas a áreas de

difícil controle onde os processos envolvem um enorme número de variáveis.

Como sugestão para trabalhos futuros, a complementação do trabalho realizado com um

sistema de aquisição de imagens, a aplicação dos métodos apresentados em diferentes tipos de

aço e em outros processos de produção onde a inspeção automatizada de superfícies é

necessária.

Page 59: redes Neurais defeitos de Laminação

49

REFERÊNCIAS BIBLIOGRÁFICAS:

GONZALEZ, Rafael C.; WOODS, Richard E. Digital Image Processing, 3ª edição. Upper

Saddle River, New Jersey: Editora Prentice Hall, 2008.

GONZALEZ, Rafael C.; WOODS, Richard E.; EDDINS, Steven L.; Digital Image

Processing Using MATLAB, 3ª edição. Upper Saddle River, New Jersey: Editora Prentice

Hall, 2004.

DIETER, George E.; Mechanical Metallurgy, 3ª edição. New York: Editora McGraw-Hill,

1986.

ARAÚJO, Luiz Antônio de; Manual de Siderurgia - Transformação v.2, 2ª edição.

São Paulo: Editora Arte & Ciência, 2005.

BRAGA, Antônio de Pádua; CARVALHO, André Carlos Ponce de Leon Ferreira;

LUDERMIR, Teresa Bernada. Redes Neurais Artificiais Teoria e aplicações, 1ª edição. Rio

de Janeiro: Editora livros técnicos e científicos, 2000.

KASABOV, Nikola K. Fundations of Neural Networks, Fuzzy Systems, and Knowledge

Engineering, 1ª edição. Massachusetts: The MIT press, 1996.

AMARI, Shunithi. Theory of adaptive pattern classifiers, . Hoboken: Wiley-IEEE Press, v. EC–16, p. 299-307, jun. 1967 MCCULLOCH, Warren Sturgis; PITTS, Walter. A logical calculus of the ideas immanent in nervous activity, Bulletin of Mathematical Biophysics. New York, v. 5, nº4, p. 115-133: Springer, 1943. MINSKY, Marvin Lee; PAPERT, Seimour. Perceptrons: An Introduction to Computational Geometry. Cambridge,Mass, MIT Press, 1969.

FERREIRA, Geraldo M; MENDONÇA, Fernando J. Utilização de métodos automatizados

de controle de qualidade da superfície de aços planos no momento da laminação.

Entrevista concedida a Rafael Soares Ferreira pelo assistente técnico (FERREIRA) e pelo

gerente de automação da laminação(MENDONÇA) da empresa Arcelor Mittal Timóteo,

Timóteo, 3 mar. 2008.

Page 60: redes Neurais defeitos de Laminação

50

BIBLIOGRAFIA COMPLEMENTAR:

AN INTRODUCTION, Demos and Webnars ,Image Processing Toolbox. Disponível em :

<http://www.mathworks.com>. Acessado em 25/06/2008. The Mathworks, Inc., Natick, MA.

DETECTING a Cell Using Image Segmentation, Demos and Webinars. Image Processing

Toolbox. Disponível em : <http://www.mathworks.com>. Acessado em 25/06/2008. The

Mathworks, Inc., Natick, MA.

TAYLOR, James L.; Dicionário Metalúrgico, 2ª edição. São Paulo: Associação Brasileira de

Metalurgia e Minerais, 2000.

USERS Guide, Image Processing Toolbox, Version 6.1. Disponível em :

<http://www.mathworks.com>. Acessado em 25/06/2008. 2008. The Mathworks, Inc., Natick,

MA.

USING MATLAB, Version 7.6. Disponível em: <http://www.mathworks.com>. Acessado em

25/06/2008. 2002, The Mathworks, Inc., Natick, MA.