visão geral dos computadores paralelo
Post on 19-Jun-2015
319 Views
Preview:
TRANSCRIPT
Instituto Superior de Transportes e Comunicacoes
Visão geral dos computadores paralelo
Ezequiel Júnior, I31
Instituto Superior de Transportes e Comunicacoes
Visão geral dos computadores paralelo
Introdução
Problemas muito complexos exigem computadores cada vez mais potentes para solucioná-los, o que tem limitações para os computadores sequenciais.
Problemas podem ser divididos em partes e processados em simultâneo, a este propósito introduziu-se o processamento paralelo.
Instituto Superior de Transportes e Comunicacoes
1. Processamento paralelo (computação paralela)
É uma forma de aumentar a demanda computacional através do uso simultâneo de recursos da CPU, os processadores, para resolver um ou mais problemas.
Foi introduzido pela CDC (Control Data Corporation) no CDC 6600 em 1964.
Instituto Superior de Transportes e Comunicacoes
2. Modelos (tipos) de computação paralela
É uma classificação baseada no fluxo de instruções e de dados que se apresentam, definida como taxonomia de Flynn.
Existem 4 categorias da taxonomia de Flynn:– SISD (single instuction single data);– SIMD (single instruction stream multiple data
stream);– MISD (multiple instruction stream single data
stream);– MIMD (multiple instruction stream multiple data
stream).
Instituto Superior de Transportes e Comunicacoes
2.1. SISD (single instruction single data)
Uma cadeia de instruções manipula uma cadeia de dados.
É um dos tipos de arquitectura mais simples, que opera apenas um dado a cada instrução. Processadores que implementam esse modelo só aplicam uma instrução por ciclo nos dados de entrada, sendo de baixo poder de cálculo.
Instituto Superior de Transportes e Comunicacoes
SISD. Figura ilustrativa
UC UP M
FI
FI-Fluxo de instruções
UP-Unidade de Processamento
FD-Fluxo de dados
M-Memória
UC-Unidade de Controle
FI FD
Instituto Superior de Transportes e Comunicacoes
2.2. SIMD (single instruction stream multiple data stream)
Uma cadeia de instrucao manipula um conjunto de cadeia de dados.
Essas máquinas são caracterizadas por possuírem apenas uma unidade de controle que executa uma instrução de cada vez, mas cada instrução opera sobre vários dados.
Instituto Superior de Transportes e Comunicacoes
SIMD. Figura ilustrativa
UC
UP M
FI
MUP
Memória
FD
FD
FD
...
UP
...
M
FI
FI
FI
Instituto Superior de Transportes e Comunicacoes
2.3. MISD (multiple instruction stream single data stream)
Um conjunto de cadeias de instruções manipula uma cadeia de dados.
Geralmente nenhuma arquitectura implementa esta categoria, alguns autores consideram o pipeline como exemplo desta categoria.
Instituto Superior de Transportes e Comunicacoes
MISD. Figura ilustrativa
UC UP
UP
..
UP
UC
M
M
Memória
...
M
...
UC
FD
FI
FI
FI FI
FI
FI
FD
Instituto Superior de Transportes e Comunicacoes
2.4. MIMD (multiple instruction stream multiple data stream)
Um conjunto de cadeias de instruções manipula um conjunto de cadeias de dados.
Engloba a maioria dos computadores paralelo.
Instituto Superior de Transportes e Comunicacoes
MIMD. Figura ilustrativa
UC UP MFI
MUP
Memória
FD
FD
FD
...
...
M
UC
...
UC
FI
FIFI
FI
FI
....
UP
Instituto Superior de Transportes e Comunicacoes
2.4.1. Subdivisão dos MIMD
MIMD
Multiprocessadores(espaço de endereçamento único)
Multicomputadores(múltiplos espaços de endereçamento)
Instituto Superior de Transportes e Comunicacoes
Para além da classificação de Flynn, os computadores paralelos também classificam-se segundo:
-Compartilhamento de memória;
-Acesso à memória.
Instituto Superior de Transportes e Comunicacoes
3. Classificação segundo o compartilhamento de memória
Memória compartilhada: existe um único espaço de endereçamento que será usado de forma implícita para comunicação entre processadores;
Memória não compartilhada: cada processador tem o seu espaço de endereçamento;
Instituto Superior de Transportes e Comunicacoes
Classificação segundo o compartilhamento de memória (cont.)
Memória distribuída: refere-se a localização física da memória, se a memória for implementada em vários módulos, e cada módulo é colocado próximo a um processador;
Memória centralizada: a memória encontra-se a mesma distância de todos os processadores, independente de ter sido implementada em um ou vários módulos.
Instituto Superior de Transportes e Comunicacoes
4. Classificação segundo o acesso á memória
Acesso uniforme a memória – UMA Acesso não uniforme a Memória – NUMA Arquitetura de Memória apenas com Cache
– COMA Acesso não remoto a memória – NORMA
Instituto Superior de Transportes e Comunicacoes
4.1. Acesso uniforme a memória – UMA
A memória usada nessas máquinas é centralizada e encontra-se a mesma distância de todos os processadores;
Memória cache é usada para reduzir a diferença de velocidade entre processador e memória.
Instituto Superior de Transportes e Comunicacoes
4.2. Acesso não uniforme a Memória - NUMA
A memória utilizada é distribuída, implementada com vários módulos que são associados um a cada processador;
O espaço de endereçamento é único, e cada processador pode acessar toda a memória do sistema.
Instituto Superior de Transportes e Comunicacoes
Acesso não uniforme a Memória – NUMA (cont.)
Em relação ao tratamento do problema de coerência de cache:
NCC-NUMA- Non Cache-Coherent NUMA
CC-NUMA- Cache-Coherent NUMA- Implementa a coerência de cache em hardware
SC-NUMA- Software-Coherent NUMA- Implementa coerência de cache em software- Memória distribuida partilhada
Instituto Superior de Transportes e Comunicacoes
4.3. Arquitetura de Memória apenas Cache – COMA
Todas as memórias locais são estruturadas como caches.
Acessos a caches remotas efectuados por meio de directórios de caches, distribuídos pelos processadores.
P
C
Rede de Interconexão
P
C
P
C
P
C
P
C
P
C
Instituto Superior de Transportes e Comunicacoes
4.4. Acesso não remoto a memória – NORMA
Não há acesso a variáveis remotas. Apenas acesso local à memória.
Instituto Superior de Transportes e Comunicacoes
5. Tendências na construção de máquinas paralelas
Processadores Vetoriais Paralelos (PVP) Multiprocessadores Simétricos (SMP) Processadores Maciçamente Paralelos
(MPP) Máquinas com Memória Compartilhada
Distribuída (DSM) Redes de Estação de Trabalho (NOW) Máquinas Agregadas (COW)
Instituto Superior de Transportes e Comunicacoes
5.1. Processadores Vetoriais Paralelos (PVP)
São sistemas constituídos por poucos processadores vetoriais poderosos (PV);
A interconexão dos processadores a módulos de memória compartilhada (MC) é feita, na maior parte dos casos, por uma matriz de chaveamento (crossbar).
Exemplos de PVP:
- Cray C-90, Cray T-90, Cray Y-MP, Fujitsu VP 2000, Fujitsu VPP 500 e NEC Sx-4.
Instituto Superior de Transportes e Comunicacoes
5.2. Multiprocessadores Simétricos (SMP)
São constituídos de processadores comerciais conectados a uma memória compartilhada (MC), geralmente através de um barramento de alta velocidade.
Exemplos de SMP:– IBM R50, SGI Power Challenge, Sun Ultra
Enterprise 10000, HP/Convex Exemplar X-Class, DEC Alpha Server 8400
Instituto Superior de Transportes e Comunicacoes
5.3. Processadores Maciçamente Paralelos (MPP)
São multicomputadores construídos com milhares de processadores comerciais conectados por uma rede proprietária de alta velocidade.
Exemplos de MPP:– Intel Paragon, Connection Machine C-5, IBM
SP2.
Instituto Superior de Transportes e Comunicacoes
5.4. Máquinas com Memória Compartilhada Distribuída (DSM)
São máquinas que, apesar de a memória encontrar-se fisicamente distribuída através dos nós, todos os processadores podem endereçar todas as memórias.
Exemplos de DSM:– Stanford DASH, Cray T3D.
Instituto Superior de Transportes e Comunicacoes
5.5. Redes de Estação de Trabalho (NOW)
São sistemas constituídos por várias estações de trabalho interligadas por tecnologia tradicional de rede como Ethernet e ATM.
Instituto Superior de Transportes e Comunicacoes
5.6. Máquinas Agregadas (COW)
Máquinas Agregadas (COW - Cluster of Workstations) podem ser vistas como uma evolução das redes de estações de trabalho;
Como nas NOW, também são constituídas por várias estações de trabalho interligadas, mas com a diferença de terem sido projetadas para aplicações paralelas.
Exemplos de COW:– iCluster do HP Labs de Grenoble com rede Fast-Ethernet,
Primergy Server do PC2 em Paderborn com rede rápida SCI, Amazônia do CPAD/RS com rede rápida Myrinet.
Instituto Superior de Transportes e Comunicacoes
Representação gráfica da tendência
5
48
10
37COWMPPPVPDSM
Instituto Superior de Transportes e Comunicacoes
top related