66888141 24 manual do tecnico de informatica

136
1 MANUTENÇÃO TÉCNICA DE COMPUTADORES DICAS & TRUQUES

Upload: wolgado

Post on 24-Oct-2015

149 views

Category:

Documents


23 download

TRANSCRIPT

1

MANUTENÇÃO TÉCNICA

DE COMPUTADORES

DICAS & TRUQUES

2

3

Como saber se a placa mãe está realmente queimada?

bom dia pessoal, tenho uma placa asus a7v600 meu pc liga mas não joga a imagem no monitor, ja testei os periféricos e estão funcionando corretamente (memória, placa de vídeo, processador, fonte), mas ao ligar o pc o cooler funciona e a placa acende uma luz nela mas não aparece imagem no monitor, ja até reiniciei a bios e continua a mesma coisa. Alguém pode dar uma força??

1. Você pode verificar se o jumper de over volt esta na posição correta, esse jumper fica no lado superior esquerdo e esta marcado overvolt do lado dele na placa.

2. Se não funcionar mudando o jumper de posição, tente retira-lo e teste sem; tive uma A7V600 que parou de funcionar, retirei o jumper e funcionou normal, pode ser seu caso.

3. No caso de saber se esta queimada ou não ja é bem mais difícil, o fácil é saber se esta funcionando ou não hehe, as vezes a placa não esta queimada, mas não funciona, pode ter bios corrompida por exemplo, mas faça o teste do jumper para ver o resultado ok.

4. Geralmente é Bios corrompido. É só regravá-lo e volta a funcionar. 5. No caso de bios corrompido, o procedimento nesse caso não há muitas

opções. Ou faz um Hot Swap (http://pt.wikipedia.org/wiki/Hot_swap) no chip de Bios, com outra MoBo igual a sua, ou manda para empresas especializadas no serviço. Acho mais recomendável e é barato. Já usei os serviços dessa: http://www.mobofix.com.br

Como saber se a placa mãe queimou

Faça o teste indicado na dica abaixo:

Como corrigir ERROS econflitos de hardware

1. Primeiramente, para aqueles que não sabem NÃO se pronuncia a BIOS, e

sim, BIOS (Basic Input/Output System - Sistema básico de entrada e saída

de informações). Na verdade são instruções para comunicações interna

que ocorrem entre o programa BIOS (via programa Setup, isto porque o

programa Setup é uma cópia-rascunho do programa BIOS), o hardware

do PC (dispositivos instalados) e o sistema operacional instalado no

mesmo – Windows XP, por exemplo. Para ZERAR a placa-mãe de

4

qualquer sinalização elétrica que possam estar armazanda nela, ou

instruções armazenadas no programa Setup do BIOS, faça o seguinte:

2. Desligue o PC, retire TODOS os dispositivos, inclusive a bateria, o módulo

(ou módulos) de memória, placa gráfica, placa de modem, TUDO mesmo,

e ligue o PC – logicamente nada acontecerá.

3. A idéia é ZERAR a placa-mãe de qualquer sinal elétrico ou instruções

armazenadas na mesma;

4. Coloque o módulo de memória, ligue o PC e entre no programa Setup;

5. Desligue o PC e coloque um dispositivo de cada vez;

6. Caso seja algum conflito ou algum sinal elétrico de curto-circuito será

corrigido;

7. Ou então, você descobrirá quais dispositivos que estão entrando em

conflitos e não deixa o PC ligar.

Como saber se minha fonte está queimada? Faça o teste! Postado por Alex Ferreira na categoria Manutenção E Hardware no dia 16-08-2009

Sábado de manhã, você liga o PC com toda aquela vontade de olhar seus e-mails e recados, mas o PC não dá sinal de vida. As luzes não acendem, não é emitido nenhum apito da placa mãe e as ventoinhas e o disco rígido não fazem barulho. E agora? Saiba que a probabilidade de sua fonte ter queimado é bem grande! Aprenda a fazer um teste bem simples que pode lhe fazer economizar alguns reais evitando chamar algum técnico para fazer um “trabalho” que você mesmo pode fazer aí em sua casa. Antes de mais nada, é sempre recomendado que você sempre faça uma verificação nos cabos e conectores entre seu PC e a tomada. Alguns casos podem ser resolvidos apenas no ato de puxar o fio da tomada e plugando-o novamente. Pra quem tem fonte com chave liga/desliga na parte traseira é bom verificar também. Não resolveu? Mãos à massa!

5

Primeiro abra seu gabinete e desligue todos os conectores da fonte dos componentes internos, e de preferência retire a fonte de dentro do gabinete (basta tirar os 4 parafusos da parte traseira). Caso você não seja acostumado a mexer nos componentes internos, você pode fazer um “mapa” ou tirar uma foto para caso você esqueça onde ligar os plugues. De qualquer forma, não se preocupe, pois cada plugue só entra no conector correto. Com a fonte em mãos, localize o cabo de alimentação da placa mãe. Se você não sabe qual é esse conector, ele é o maior de todos, contém 20 ou 24 pinos. Veja na foto abaixo:

O próximo passo é pegar um clipe de papel (sem pintura) ou um pedaço de fio metálico maleável com as pontas desencapadas. Dobre-o de forma que as duas pontas fiquem paralelas, ou seja, uma ao lado da outra. Com o cabo em mãos, localize o terminal do fio VERDE e insira uma das pontas do clipe dentro do terminal (não se preocupe, só existe um fio verde no conector). A outra ponta insira num terminal com fio PRETO, como indicado pelas setas da foto acima. Veja na foto abaixo como deverá ficar o procedimento explicado:

1. Tudo OK? Então coloque a fonte sobre uma mesa e ligue o cabo de força à energia elétrica.

6

2. Caso a ventoinha gire normalmente você tem um indicativo de que a fonte está trabalhando normalmente, logo o problema talvez não seja nela.

3. Se ao ligar na energia não acontecer nada, provavelmente a sua fonte está com problemas.

4. Nesses casos é recomendado trocar a fonte ou manda-la para a assistência técnica (coisa que eu não faria por diversos motivos).

5. Caso você prefira comprar uma nova fonte, recomendamos a leitura do artigo “Qual a potência que o meu computador necessita?” de modo a fazer uma boa compra. Vale ressaltar que ao ir na loja, não caia na conversa dos vendedores e procure saber dos mínimos detalhes do produto escolhido.

6. Marcas confiáveis são Cooler Master, OCZ, Corsair, Thermaltake, Akasa, Zalman e etc. FUJA DAS MARCAS CLONE, LEADERSHIP E C3 TECH!

7. Lembre que o artigo se refere às fontes ATX! (alguém ainda usa AT?)

Entenda de uma vez por todas a diferença entre processadores 32 e 64 bits Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 29-09-2010

Você vai a uma loja comprar um processador e então o vendedor lhe pergunta: "O senhor prefere um de 32 bits ou de 64 bits? Nós recomendamos o de 64 bits por ser mais rápido." Você escolheria o processador de 32 ou o de 64 bits? Porque? Será que um processador 64 bits é mais veloz que um de 32? Descubra de uma vez por todas a diferença entre essas duas tecnologias e nunca mais fique em dúvida quando lhe perguntarem sobre a diferença entre elas. Saiba o que é um bit

7

Imagine que seu processador de 64 bits é um ônibus de 64 lugares. Em uma de suas viagens (processamentos) , o ônibus tem que levar 64 pessoas (64 bits). Quantas viagens esse ônibus dará para levar os 64 passageiros até seu destino ? Apenas uma viagem, não é isso?! Agora imagine que um outro ônibus (um outro processador) só tem 32 lugares e você precisa levar as mesmas 64 pessoas (os mesmos 64 bits). Dessa vez como o ônibus só tem capacidade para levar 32 de cada vez, ele precisará fazer duas viagens. Trazendo a analogia do ônibus para a computação, concluímos que um processador de 64 bits será útil em situações onde o número de informação a ser tratado é alto como em programas de design gráfico, conversão de vídeo e jogos 3D. Isso acontece porque ao invés do processador ter que “dar duas viagens” para tratar N dados, ele só precisará dar uma, economizando tempo. Certamente programas como Word, Bloco de Notas e Firefox não irão utilizar tantos dados ao ponto de um processador 32 bits não dar conta. Utilizar um processador de 64 bits para trabalhar com esses programas seria como deixar lugares desocupados no ônibus de 64 lugares. Já programas de geoprocessamento, por exemplo, exigem um alto poder computacional e consequentemente precisarão de todo o poder que os processadores 64 bits podem oferecer. Tenho um processador 64 bits. Posso instalar um sistema operacional 32? Pode. O que você não pode é instalar o sistema 64 bits em um processador 32. Normalmente você também pode usar programas 32 bits em processadores 64, mas não o contrário. Minha placa não possui driver 64 bits, posso utilizá-la com um driver de 32? Não. O contrário também não pode. Todo processador é 64 bits? Todos os processadores atuais suportam processamento 64 bits, com exceção dos processadores Atom. Todas as edições do Windows possuem versões em 64 bits? Não. Somente a partir do Windows XP a Microsoft disponibilizou versões 64 bits dos seus sistemas operacionais. Entretanto o uso do Windows XP 64 bits não é indicado pela falta de drivers para esta versão que na época não teve a atenção que merecia dos fabricantes de placas. O mercado ainda não dava

8

importância ao processamento 64 bits e por isso não produzia drivers para esta arquitetura, fazendo com que o XP 64 bits virasse um elefante branco. Além da vantagem citada no início do post, há algum outro benefício por trás dos processadores e sistemas operacionais 64 bits? Sim. Os processadores 64 bits oferecem suporte a 128GB de memória física e 16TB dememória virtual. Os antigos 32 bits suportavam no máximo 4 GB de memória, o que era um problema para servidores de pequeno porte e para máquinas de entusiastas. Entretanto, para poder usar mais de 4GB de memória o sistema operacional também deve ser 64 bits.

Entendendo o que é RAID Postado por David Bezerra na categoria Manutenção E Hardware no dia 21-09-2010

4 Acredito que alguém já ouviu rumores sobre RAID, com base neste pensamento eu desenvolvi um esclarecimento sobre ele para vocês ficarem por dentro do assunto. RAID (Redundant Array of Independent Disks ou em português Conjunto Redundante de Discos Independentes) é uma tecnologia utilizada em armazenamento de discos que permite conectar dois ou mais HDs no sistema, duplicando os dados automaticamente (daí que vem o conceito de redundância) para backup em tempo real e garantir ganhos de desempenho e segurança. O RAID está dividido em vários níveis, dos quais é possível escolher o que mais se adéqua a sua necessidade ou situação, mas irei explicar somente os mais importantes. Mas aviso, caso venha a fazer um RAID verifique antes se todos os discos têm as mesmas caracteristicas, como velocidades de rotação iguais, mesma capacidade, mesma memória cachê e é recomendado ser do mesmo modelo. RAID 0 (Segmentação, fracionamento ou distribuição) Em inglês Stripping, esse método consiste em segmentar os dados consecutivos (faixas oustripes) que são distribuídos de forma sequencial entre os discos permitindo que os fragmentos possam ser lidos e gravados simultaneamente, aumentando a velocidade da taxa de transferência de forma proporcional à quantidade de HDs que estão trabalhando (Exemplo: Se em um HD isolado a taxa de transferência for de 100 MB/s, com 2 HDs será quase de 200 MB/s ao utilizar o RAID 0). Mas pelo outro lado da moeda, sua segurança fica em risco, pois um problema em um dos HDs fará você se lascar perder TODOS os dados

9

que estiverem guardados na sua máquina. Ou seja, ótimo desempenho e pouca confiança (“interessante essas duas palavras, no mundo da TI nunca a vi jogaram no mesmo time”).

RAID 1 (Espelhamento) Conhecido como mirroring, consiste em copiar os dados de forma automática (sem nenhum tipo de modificação, segmentação ou outra coisa) que estão sendo salvos em um HD para o outro a fim de criar uma base de dados igual entre todos os HDs (daí o nome espelhamento – o que um HD faz, o outro faz igual). Nesse RAID a integridade dos dados é a mais alta, principalmente se for possível espelhar esses HDs à distância para prevenir perda de dados em casos de incêndios, desmoronamentos ou outras catástrofes. Além disso, na falha de um HD, o outro que está em paralelo irá imediatamente assumir o lugar do hardware defeituoso. Mas em contra partida, você “perderá” espaço e velocidade de gravação proporcionalmente a quantidade de HDs, embora ganhe velocidade de leitura proporcional a quantidade dos mesmos.

RAID 4 Nesse RAID, um disco irá armazenar a paridade (um cálculo efetuado com base nos dados gravados nos outros discos), assim, na hora em que um disco for danificado, a paridade irá refazer o conteúdo do HD avariado com base nas informações que ela tem. Sua vantagem é a sua alta taxa de leitura e possibilidade do aumento dos números de discos. A desvantagem é uma taxa

10

de gravação lenta e uma difícil reconstituição dos dados em relação ao RAID 1, por isso o fazem ser pouco utilizado, sendo subistituído pelo RAID 5.

RAID 5 Necessitando de pelo menos três HDs, esse RAID é o mais usado em servidores, ele tem o funcionamento semelhante ao RAID 4, mas com melhorias a fim de retirar algumas dificuldade comuns por esse tipo. As informações sobre paridade para os dados do arranjo são distribuídas ao longo de todos os discos do arranjo, em vez de serem armazenadas em um disco dedicado. Dessa forma, o gargalo de escrita é reduzido, pois como no RAID-4 a paridade era feita somente em um disco, a escrita era mais lenta devido à elevada taxa a ser gravada naquele disco, mas no novo caso, as escritas concorrentes nem sempre requerem acesso às informações sobre paridade em um disco dedicado. Contudo, o desempenho de escrita geral ainda sofre por causa do processamento adicional causado pela leitura, re-cálculo e atualização da informação sobre paridade.

11

Dissecando uma placa-mãe Postado por David Bezerra na categoria Manutenção E Hardware no dia 14-09-2010

1 Quem trabalha com hardware certamente já está habituado com termos como chipset, socket e onboard. Entretanto, várias outras pessoas que trabalham com tecnologia da informação ainda desconhecem vários termos que qualificam uma placa-mãe e seu componentes. A fim de dar uma visão geral sobre os principais componentes de uma placa-mãe, resolvemos fazer este post. Espero que gostem A foto a seguir que contém algumas marcações que fiz representa a minha queridíssimaMotherboard, trata-se de um modelo Gygabyte GA-P35-DS3. Antes de mais nada, você sabe pra que diabos serve uma placa-mãe? É de comer?

Não, ela não é de comer. Uma placa-mãe, também conhecida como Motherboard ou Mainboard (placa principal), é uma placa de circuito impresso que contém barramentos e locais específicos para conexão dos principais componentes do computador, como as memórias RAM, HDs, processador, vídeo, modens, pen drives e muitos outros dispositivos de

12

entrada e saídas de dados (Inputs e Outputs – I/O) como mouse, teclado, impressoras e monitor. As características e o nível de qualidade de uma Motherboard devem ser tão importantes quanto o desempenho de um processador. Por isso não há razão de ter um processador extremamente potente instalado em uma placa-mãe fraca, pois o desempenho dele será limitado, além de poder acarretar travamentos comuns e sucessivos, seja pela sua placa de vídeo onboard ou pela perda de desempenho na velocidade de comunicação com as memórias RAMs. Na hora de montar seu computador não hesite em gastar dinheiro com a placa-mãe. Porém, se a grana estiver em extinção no seu bolso, espere mais um pouco e em um momento mais oportuno compre uma placa-mãe de melhor qualidade. Acho que agora você tem uma noção básica do que é um placa-mãe, não é? Vamos para as explicações sobre cada marcação presente na foto que temos no início do post. N° 1: Socket. Do inglês, encaixe, é nesse onde conecta-se nada mais nada menos que o processador, isso mesmo, é bem ali que fica o encaixado o “cérebro” do seu computador, mas tenha cuidado, a CPU só deve ser instalada em placas-mães que têm o socket compatível. Como assim, socket compatível? Todo processador é fabricado para ser encaixado exatamente em um socket compatível com ele. Então, só poderemos instalar um determinado processador em uma determinada placa-mãe se os sockets deles forem iguais, ou seja, se o processador se encaixar na placa-mãe. Se eles não forem iguais sequer a conexão física entre os dois poderá ser feita. Se você quiser saber qual o socket da sua placa-mãe ou do seu processador – que são iguais – use o programa CPUZ.

13

N° 2: Slots para memória RAMs São nesses locais que ficam conectadas as Memórias Principais do computador. Assim como existem os diferente encaixes (sockets) para os processadores, existem também encaixes diferentes para tipos diferentes de memória. Note que agora não chamamos mais os encaixes de socket, mas sim de slot. As memórias mais comuns atualmente são as DDR, DDR2 e DDR3. A diferença física entre as memória pode ser percebida quando se olha a fenda que existe em cada uma delas. Observe a imagem abaixo:

Portanto, uma memória DDR2 fisicamente não ne encaixa numa placa-mãe que possui unicamente slots para DDR. Todavia, existem placas-mãe que tem 4 slots: 2 para DDR e 2 para DDR2, suportando ambos os tipos de memória. Vale salientar que não se pode usar memórias DDR e DDR2 ao mesmo tempo, ou se usa uma, ou se usa outra. N° 3: Slot para Placa de Vídeo offboard É onde se conecta a placa de vídeo a fim de obter um melhor desempenho gráfico que é proporcional a seu tipo de placa. No caso da Motherboard da foto só é possível encaixar Placas Gráficas com barramento PCI Express 16x.

N° 4: Slots PCI Express 1x Slots criado pela Intel com intensão de substituir os slots PCI. N° 5: Slots PCI (Peripheral Component Interconnect) Slots para conectar periféricos (fax/modens, placa de redes, placas controladores, etc) baseados na arquitetura IBM PC.

14

N°6: Ponte norte (northbridge) A ponte norte é um dos principais componentes lógicos de uma placa-mãe pois tem o controle do FSB (Front Side Bus) que é o barramento de comunicação do processador com a memória principal e com componentes da placa-mãe. Ela é a responsável também pelo processamento de vídeo on-board. Tenha todo o cuidado na hora de escolher sua placa-mãe, preste atenção em qual chipset está levando pra casa. Chipsets da ATI têm fama de terem um processamento de vídeo de dar inveja.

N°7: Ponte sul (southbridge) É conectado à ponte norte e sua função básica é controlar os dispositivos on-board e de entrada e saída de dados (HDs IDE e SATA, Rede onboard, entradas USBs, som onboard, entre outros). Nº 8: Portas Serial Ata (SATA) É onde são encaixados os cabos de transferência de dados que ligam os HDDs (Hard DiskDrivers) e Drivers de CD/DVD/BluRay a placa mãe. Já falamos sobre o Sata aqui no blog. Velocidades de transferência de dados pelo padrão SATA:

VELOCIDADES SATA I SATA II SATA III

Frequência 1500 MHz 3000 MHz 6000MHz

Bits/clock 1 1 1

Codificación 8b10b 80% 80% 80%

bits/Byte 8 8 8

Velocidade real 150 MB/s 300 MB/s 600 MB/s

15

Nº 9: Portas IDE (Integrated Drive Electronics) Padrão antecessor e mais lento do que o SATA. Lugar onde são encaixados os cabos que ligam HDs e unidades de CD/DVD à placa-mãe. Esses cabos, denominados de "flat cables", podem ser de 40 vias ou 80 vias e suportam até dois Drivers. Diante do exposto podemos percebemos que a placa-mãe é de fato o componente mais importante do computador, mesmo que alguém diga “mas se eu tirar qualquer outra peça do meu PC ele não irá funcionar, como pode a Motherboard ser a mais importante?” a resposta é simples, pois é ela que controla, acessa e gerencia todas as partes do computador, além de que todos os outros itens da máquina deverem seguir o modelo e tipo que a placa mãe aceita. Dicas para uma formatação bem sucedida

Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 13-09-2010

Quem nunca formatou um computador que atire o primeiro mouse! Certo, certo, vai aparecer um engraçadinho dizendo que nunca formatou um computador, mas tudo bem. O que temos para vocês são algumas dicas que farão a diferença na hora de formatar seu computador. Não deixe de ler, ok? Antes da formatação O maldito backup

16

Vai formatar um computador? PelamordeDeus não esqueça do backup. Não salve apenas os Meus Documentos, mas tenha o cuidado de salvar também e-mails, configurações e catálogo de endereços do Outlook, drivers, sites favoritos do navegador, emoticons e porque não as senhas armazenadas no browser. Acredite, muitas pessoas acabam se acostumando com as senhas salvas nos navegadores e terminam por esquecê-las. Portanto, salve-as também. Antecipe os downloads

Quer os drivers atualizados? Vai precisar de novas versões dos programas? Antes de dar início à formatação, comece a fazer os downloads para acelerar o processo. Não preciso dizer que os downloads devem ser feitos em outra máquina né? A versão do Windows

Não sejamos hipócritas, comercialmente o Windows é o sistema operacional dominante nas salas de suporte técnico, então falaremos sobre ele. Se a formatação será feita para outra pessoa, todo cuidado é pouco. Pergunte a ela qual versão do Windows ela quer. Sugira o Windows 7, mas não a obrigue a usá-lo, senão você terá que fazer como eu que tive que formatar um PC duas vezes porque quis que meu cliente de 78 anos saísse do XP para o 7. Eu já errei e estou te falando, não repita o erro. [Contribuição dos leitores Nicholas, Jack e Junin nos comentários] Retire o cabo de rede

17

Se seu computador estiver conectado a uma rede de computadores loca, retire o cabo de rede antes de iniciar a formatação. Se você não fizer isto pode ter seu computador novamente infectado. Acredite, isso é mais comum do que se imagina. Durante a formatação Crie mais de uma partição

Talvez você não saiba, mas as chances da partição onde está instalado o sistema, ou seja, onde está a pasta WINDOWS e Arquivos de Programas, dar pau é centenas de vezes maior do que nas partições que contém somente arquivos. Além do mais, na próxima vez que você for formatar seu computador não precisará fazer backup, pois os dados estarão previamente backupeados na outra partição. Portanto, crie pelo menos uma segunda partição e direcione a pasta Meus Documentos pra ela. Não faça a formatação rápida se não estiver com pressa

A formatação rápida do disco apenas faz limpeza rápida e superficial do HD. Já a formatação completa faz, além da limpeza de bits, checagens e correção de erros no HD (chkdsk /r) que futuramente pode lhe poupar de algumas dores de cabeça. Portanto, formatação rápida só em casos que exijam uma formatação, de fato, rápida.

18

Depois da formatação Instale o antivírus e verifique o backup

Você fez o backup direitinho? Fez? Ótimo! Antes de colocar os arquivos que foram salvos de volta no HD tome o cuidado de escaneá-los antes com um antivírus previamente instalado. Se a formatação tiver sido motivada por vírus, o procedimento deve ser obrigatório e atenção redobrada. Você não vai querer ver seu sistema sendo infectado novamente logo na primeira utilização, vai? Desfragmente o HD

Se você leu nosso post explicando como ocorre a fragmentação do disco, deve saber a importância de desfragmentá-lo após uma modificação brusca no sistema de arquivos. Quer modificação mais brusca do que a cópia de milhares de arquivos e a instalação de dezenas de programas em poucos minutos? Tá viciado nas instalação automática de drivers do Windows 7? Esqueça disto!

Faça questão de instalar os drivers de vídeo e os do chipset recomendados pelo fabricante, pelo menos. Os drivers nativos e muitas vezes genéricos do

19

Windows 7 acabam por limitar a capacidade que seu computador tem de processar jogos, por exemplo. Levante esse traseiro, vá até o site do fabricante e instale os drivers mais atualizados que existirem por lá.

FORMAT C: QUE NADA! ZERO FILL ARRANCA ATÉ A ALMA DO SEU HD Postado por Alex Ferreira na categoria Manutenção E Hardware no dia 30-07-2010

Imagine que você é um criminoso procurado pela Polícia Federal e tem arquivos no seu computador que podem lhe incriminar. O que é que você faz? Dá um shift + del ou um format c: no seu HD? Não importa de que modo você vai apagar seus dados, eles sempre poderão ser recuperados. Aliás… existe um método de "deleção" ou "deletação" (sei lá) de arquivos que verdadeiramente apaga seus dados e impossibilita qualquer tipo de recuperação: ele é o Zero Fill. Utilizando este método você tem a certeza de que nenhuma pessoa conseguirá recuperar seus arquivos mesmo após uma formatação. Saiba o que é, pra que serve e como funciona esse método que garante 100% de eficácia na hora de mandar seus arquivos para o inferno.

1 – O que é? O Zero Fill é uma técnica de software que possibilita a remoção total de todos os dados contidos em um determinado disco rígido. Como dito no título desse post, ele é mais eficiente que a formatação convencional, pois esta ainda deixa a maioria dos nossos dados no disco após um certo tempo. 2 – Por que ele é mais eficiente que a formatação convencional?

20

Para responder esta pergunta necessitamos que você entenda o que acontece durante a formatação convencional. Ao utilizar o comando “format c:”, por exemplo, o utilitário de formatação vai apagar apenas uma parte especifica do disco rígido, ao invés de apagar todo o disco. Cada setor do nosso HD é composto por 3 partes menores, que são: Preâmbulo, o dado, e o ECC. Preâmbulo: responsável por indexar o dado, ele é quem diz que o dado está realmente ali naquele setor. Dado: dispensa explicações, não é? ECC: parte responsável pela detecção e correção de erros. Então… O que acontece é que a formatação convencional apaga apenas os preâmbulos, fazendo o Sistema Operacional considerar que não existem dados nos setores. O problema é que os dados propriamente ditos ainda se encontram no disco, o que lhe dá uma brecha para recuperar todos os dados. Basta apenas reconstruir os preâmbulos! O Zero Fill trabalha de maneira diferente, pois ele consiste em gravar 0’s em todos os locais possíveis do HD, o que faz com que todos os dados sejam praticamente exterminados! 3 – Quando utilizar o Zero Fill no lugar da formatação comum? • Excluir um vírus que não pode ser excluído sem destruir o setor de inicialização. • Excluir informações confidenciais (senhas, fotos, etc.) por motivos de privacidade. • Verificar e marcar a existência de setores defeituosos. 4 – Então o Zero Fill é uma formatação física do HD? Não, isso não existe. A formatação física só é feita apenas uma única vez, que é quando ele sai da fábrica. Porém, vale ressaltar que o Zero Fill deixa o seu HD praticamente igual a um HD novo, pois ele ainda te faz o favor de “excluir” os tão aclamados “bad blocks”. Devido a este fato algumas pessoas falam, erroneamente, que o Zero Fill é o mesmo que uma formatação física. 5 – Ele pode estragar o meu HD de alguma forma?

21

Não. Lembre que o disco foi feito para ler e gravar dados, e o Zero Fill não faz nada além de gravar “zeros” em todos os locais do HD. 6 – Por que meu fabricante recomenda que eu não o faça frequentemente? Perceba que o processo como um todo estressa bastante o seu disco. Um HD de 2TB, por exemplo, pode levar muitas horas (mais de 12) de trabalho constante. Como ele é feito por componentes mecânicos, pode ocasionar um desgaste excessivo dessas partes. 7 – Posso fazer o processo em apenas uma partição ao invés de todo o disco? Não, só é possível fazer em todo o HD. É tudo ou nada, literalmente. 8 – Mas afinal, onde eu baixo o software pra fazer isso? Isso vai variar de fabricante para fabricante. É altamente recomendável que você use apenas os utilitários da fabricante do seu HD. Usar a ferramenta da Samsung em um Seagate pode lhe dar dores de cabeça. Então você deverá ir até o site do fabricante do seu disco e procurar pelo utilitário correto. Baixe o utilitário da Seagate Baixe o utilitário da Samsung Aterramento: Utilidade e Importância

Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 24-05-2010

Falaremos hoje sobre um tópico que tem sido destacado nos cursos técnicos e superiores de TI – principalmente nos de infraestrutura – mas que na prática não tem recebido a devida importância. Falaremos sobre o aterramento. Para muitos profissionais da área de infraestrutura e principalmente da área técnica de hardware, a utilidade e a importância de um bom aterramento ainda são pouco conhecidas. Apesar ter cada vez mais destaque nos cursos técnicos e superiores de TI, o aterramento ainda é deixado em segundo plano – ou nem é lembrado – ao se projetar a rede elétrica de um prédio/casa. São comuns as situações onde um pseudotécnico diz ao usuário que “pode quebrar aquele terceiro pino ou usar um T (ou benjamim)” para descartar o aterramento. Isso é ridículo! Como um profissionais chega ao ponto de ignorar algo que foi tão

22

martelado nos cursos que ele frequentou e que é tão importante para a segurança do usuário e do próprio equipamento? A discussão de hoje irá abordar os principais conceitos referentes ao aterramento e sua importância para o funcionamento dos equipamentos que dele precisam.O aterramento da rede elétrica é definido internacionalmente pela norma EIA/TIA 607A. Nesta norma estão especificados todos os procedimentos, equipamentos e tolerâncias de medidas que devem ser utilizadas na hora de projetar e construir um aterramento. A “preocupação do aterramento” basicamente se restringe à segurança das pessoas que usam os equipamentos de informática – computadores – e ao bom funcionamento dos próprios equipamentos. Utilizando um eletrodo de aterramento – como também é chamada a haste de cobre – aenergia estática acumulada na carcaça metálica destes equipamento terá por onde escoar e não causará choques nem funcionamento intermitente destes equipamentos. Para quem não sabe, as tensões geradas pelo atrito entre os corpos – o qual chamamos de energia estática – podem chegar a 40000V se não forem dissipadas por algum condutor. E como foi dito anteriormente, o fio terra ligado a haste de aterramento são os responsáveis por escoar toda essa energia acumulada nos corpos. A Associação Brasileira de Normas Técnicas (ABNT), que é o organismo responsável pelas especificações técnicas e normatização de produtos, serviços e instalações, definiu 4 níveis baseados na resistência do aterramento para se determinar sua qualidade.

Entre 0 e 5 Ohms —> Excelente; Entre 6 e 15 Ohms —> Ótimo; Entre 16 e 30 Ohms —> Aceitável; Maior que 30 Ohms —> Condenado, ineficiente;

Essa medição é feita através de um aparelho medidor de resistência de aterramentos, o chamado terrômetro. Além de existir essa maneira para se verificar a qualidade do aterramento, existe outra maneira que diz que a tensão medida entre o neutro e o terra não pode ser maior que 5V nem igual a 0V. Confesso que não sei de onde veio esta definição nem com base em que ela foi formulada, mas é muito comum ouvir pessoas ditarem esta regra. Alguns cuidados devem ser tomados ao construir uma malha de aterramento. O primeiro é que só deve haver um único aterramento para o prédio/casa, pois se houver várias hastes atuando cada uma com um aterramento independente, poderá surgir uma tensão entre elas que inutilizará todo o trabalho feito para se construir a malha.

23

O segundo cuidado é que nunca se deve usar o fio neutro ligado ao pino terra da tomada, pois a corrente de um curto circuito na rede elétrica e correntes de fuga irão para o pino terra fazendo com que ele se torne, além de inútil, perigoso. Todas as informações repassadas nos textos abaixo, de minha autoria, não tem como intuito condenar, muito menos de incentivar qualquer prática de aterramento, muito menos por conta própria sem a orientação de um profissional no local da obra! O intuito é apenas o de criar uma cultura, um conhecimento melhor em cima de um assunto tão complexo e controverso como o aterramento elétrico. Em vista disso, não me responsabilizo por qualquer tipo de dano, pessoal ou material, que possam advir de práticas ou interpretações equivocadas do exposto abaixo. Procure sempre um profissional qualificado na sua região TEXTO ATUALIZADO EM: 22/10/2010 Há algumas décadas atrás, ou melhor, no início da década passada, mas de forma mais corriqueira nas décadas anteriores, o uso do cinto de segurança nos automóveis era algo raro de se ver, ou o sujeito utilizava só pra viajar ou apresentava a desculpa de que está indo só ali na padaria, ou está dentro da sua cidadezinha onde a velocidade é baixa e há poucos carros, então não precisa por o cinto. Foram feitas várias campanhas de conscientização do uso do cinto de segurança até que hoje a grande maioria das pessoas nem pensam em utiliza-lo, virou algo automático, é entrar no carro e afivelar o cinto. Eu pelo menos sou assim, virou algo completamente natural. O mesmo acontece hoje no nosso pais, e na maioria dos paises em desenvolvimento, quem dirá naqueles países miseráveis, com relação ao "fio terra". "Fio terra" na verdade é o nome popular dado ao condutor de proteção ou condutor de segurança, também conhecido pelas siglas "PE", de "Protection Earth". Por norma ele deve vir na cor verde ou verde com amarelo - condutor zebrado ou "brasileirinho", como também são conhecidos, nos Estados Unidos entretanto permite-se que o condutor terra seja "nú", ou seja, desemcapado. Dessa forma, essas cores deverão ou deveriam ser utilizadas apenas no

24

condutor de segurança, mas infelizmente é comum não respeitarem esse código de cores. Em 2006 o presidente Lula assinou um decreto obrigando que em todas as instalações o fio terra obrigatoriamente deve estar presente. Mas há décadas já existe a recomendação e obrigação do seu uso em normas da ABNT, mas não é respeitado até hoje, principalmente em instalações residenciais onde mal se tem uma planta baixa feita antes de construir, quem dirá um projeto elétrico. A adoção do aterramento tem vários motivos, mas o principal é a proteção das pessoas. Por incrível que pareça, muitos técnicos de informática instalam esse condutor - de forma errada diga-se de passagem, mas com o intuito de proteger apenas o equipamentos ou no máximo pra parar de dar aqueles choquinhos causados pela fuga de corrente natural da fonte de alimentação do computador, o que é algo bastante equivocado e realmente NÃO protege por si só contra todos os problemas, além de criar outros que em primeiro momento ou por anos e anos, ficam ocultos. Além do fato dele ser um condutor de proteção para as pessoas que manuseiam os equipamentos, ele tem funções secundárias de proteção ao equipamento. O aterramento também é utilizado por exemplo em torres de celular, sistemas de para-raios prediais (SPDA), para proteger principalmente as pessoas e a estrutura do prédio contra fortes descargas e indiretamente fazer parte da proteção dos equipamentos instalados dentro dessas construções, mas nessa questão, um SPDA não consegue proteger os equipamentos por si só. Esse sistema precisa estar coordenado com outros sistemas pra que a proteção seja efetiva. Enfim, pensar no fio terra como solução pra qualquer tipo de queima é um conceito errado. O aterramento é um "cinto de segurança" para você, usuário do equipamento. Este foi criado como um meio seguro pra referenciar a tensão descarregada nas carcaças metálicas dos equipamentos que funcionam à eletricidade, tirando essa carcaça de um potencial "flutuante" pra um potencial da Terra ou seja, 0V. Veja que coloquei o "t" de "terra", em maiúsculo, por uma razão nobre, Terra - Planeta Terra. Tem muita gente por aí achando que preguinho na parede ou fio enterrado num vaso de plantas é um aterramento! Absurdos assim e outros mais bizarros como amarrar o fio terra na janela (QUE PERIGO!) ocorrem por esse brasilzão afora. Aterramento não é aterrar um fio simplesmente, não é toca-lo na terra, é mais complexo do que isso. Aterrar, em termos básicos, é conseguir um perfeito contato com o planeta Terra, da forma que as correntes de fuga, seja de qualquer forma que elas venham a ocorrer, possam ir à Terra

25

mantendo o potencial das massas aterradas em 0V ou na pior das hipóteses em 25V (em ambientes molhados) e 50V (em ambientes secos), evitando assim, eletrocuções. Ambos valores de 25e 50V são valores normalizados como seguros para o toque do ser humano. Enfim, colocando as carcaças num potencial igual igual ao da terra, 0V, não há circulação de elétrons pelo corpo do ser humano. Vejam que elétrons precisam de uma diferença de potencial entre um ponto e outro para que haja corrente elétrica, para que haja um fluxo de elétrons. No caso de um equipamento vier a falhar, seja por uma queda no chão, seja por um fio descascado ou derretido por qualquer razão e que venha a tocar na sua carcaça metálica, o que que aconteceria se não tivesse um fio ligado à Terra atado na sua carcaça? Sim, o usuário tomaria um choque daqueles! Se as condições forem ideais, esse choque pode ser mortal. O que são condições ideais? Geralmente pés descalços, mãos suadas, corpo molhado, piso molhado, tempo de exposição à essa descarga, caminho que ela faz pelo seu corpo até a Terra, etc. Havendo então uma conexão intencional com o planeta Terra nessa carcaça, os elétrons "acharão" mais fácil ir para a Terra do que pro seu corpo e depois pro chão. A resistência é muito menor pelo condutor de segurança do que pelo corpo humano. A complexidade do assunto aterramento é tamanha que há livros inteiros dedicados só a esse assunto, já que o aterramento pode assumir tanto um papel funcional dentro da rede elétrica, como um papel passivo, apenas de segurança quando solicitado e é esse o qual está em foco aqui, o condutor de segurança, ou o vulgo "fio Terra". Essa complexidade se deve às questões funcionais que depende de um bom aterramento e às questões de segurança ao usuário, como também a segurança dos equipamentos, ao se adotar um condutor ligado à Terra como via de segurança, já que o simples implantar deste condutor adiciona mais uma complexidade em todo sistema ou seja, é uma linha a mais pra se gerar disturbios elétricos. Antes tinhamos Fase e Neutro, que já são passíveis de distúrbios elétricos entre si. Com uma linha a mais, prestando outro papel, os problemas só aumentam e o pior, muitas vezes são problemas ocultos que poderão se manifestar "amanhã" ou daqui uma década. Ao contrário do que as pessoas em geral acreditam, o simples fato de atar um fio ao solo, numa haste metálica, geralmente cobreada, não resolve os problemas relativos à segurança, só complica as coisas! Sim, a carcaça irá parar de dar choquinhos, mas isso é só parte do problema.

26

Por um lado essa proteção é importante, por outro abre portas pra disturbios elétricos. "Mas como assim? Como que um fiozinho atado na carcaça do equipamento e enficado na terra, vai gerar problemas? Ainda mais que eu fiz isso e o gabinete do meu computador parou de dar choques!" No "ramo" do aterramento existem várias coisas a serem levadas em conta ao implantar esse condutor à Terra. Coisas como ambiente no qual esse sistema será usado, hospital, locais com atmosfera inflamável, residências, prédios, etc. Depois vem a analise do solo, suas caracteristicas elétricas condutivas, tipos e numeros de pontos enficados na Terra a serem utilizados, como se conseguir o resultado esperado em determinado tipo de solo e também a topologia de aterramento a ser utilizada. É comum o leigo achar que fio terra é fio terra, só atá-lo à Terra e pronto, mas existem topologias a serem escolhidas pra cada situação, estudos e técnicas, dependendo da funcionalidade que se quer desse sistema. Nesse texto só focarei um pouco nas topologias e não nas técnicas de como se construir malhas, isso é um assunto mais complexo e que o usuário residencial nem precisaria saber. O usuário doméstico não precisa analisar seu solo e utilizar de várias técnicas pra conseguir um aterramento de segurança. Se o padrão de energia, onde fica o medidor de luz, for relativamente recente, ele já conta com um aterramento feito pela CIA Elétrica e esse, se tomado devidas precauções, pode, E DEVE, ser o aterramento de segurança também! Mas reforçar esse aterramento com mais hastes bem espaçadas, não há problema algum, e é até recomendável.Só se deve tomar precaução em saber como que o neutro da red está aterrado fora de sua casa. É muito perigoso adotar esse tipo de aterramento, colocando hastes só na sua casa e saber depois que o neutro da rede externa não está aterrado ou não é aterrado nas residências da vizinhança. Explicarei mais obre isso abaixo quando eu explicar sobre a topologia "TN". Nesses casos deve se ou aterrar o neutro de cada casa atendida pelo mesmo transformador ou utilizar outro esquema de aterramento. Felizmente no Brasil predomina o neutro multi-aterrado Bem, existem vários esquemas ou topologias de aterramento, cada uma com suas vantagens e desvantagens. Um exeemplo é ao adotarmos uma topologia tal qual não permita que o equipamento siga funcionando durante uma falha, o que pode ser prejudicial, como por exemplo em ambientes hospitalares, onde um equipamento não pode parar imediatamente na ocorrência de uma falha elétrica à carcaça do equipamento, principalmente em UTI's ou salas de

27

exames invasivos. O aterramento ainda é importante nesses ambientes, mas detectores de falta à terra precisam existir pra notificar às pessoas que algo está com fuga elevada à Terra e que deve ser corrigido o quanto antes, nesses ambientes a topologia adotada se chama IT, onde o caminho da corrente tem um impedimento ou impedância elétrica, fazendo com que na primeira falta a corrente não suba ao ponto de cortar a energia por meio de um disjuntor. Já num local onde há uma atmosfera inflamável, não pode haver faiscamento, um aterramento em certas topologias não pode ser utilizado por gerar uma corrente de curto-circuito elevadissima, podendo criar arcos voltaicos, nesse caso o esquema TN deveria ser evitado ou usado com extrema precaução e uso de dispositivos DR. Apesar do esquema TN-S ser um esquema de aterramento relativamente seguro, não deveria ser usada indiscriminadamente nesses locais, nem em locais onde não se pode garantir a integridade do consutor neutro, explicarei mais em breve. A topologia a ser adotada deve ser analisada pelo engenheiro que fará projeto elétrico, sendo que em cada ambiente e topologia escolhida deve estar aliada à dispositivos de alerta e proteção necessários pra que uma desvantagem de uma topologia não vire um risco maior do que se não existisse o aterramento, para que o aterramento cumpra suas funções de fato. Como mencionado anteriormente, o aterramento por si só não faz tudo. Numa residência ou um estabelecimento comercial, em geral o esquema TN-S a partir do medidor de luz é preferível aos outros. Quando o neutro é multiaterrado ao longo da rede elétrica, esse esquema na verdade se chama TN-C-S e não TN-S, TN-S fica sendo só a porção do medidor de energia em diante. Existem basicamente 5 tipos de topologias de aterramento. Veja bem que estou comentando aqui só a topologia em si e não os métodos de medição, técnicas de instalação das hastes metalicas, tipos de hastes, análises de solo, etc, para melhorar a eficiência elétrica do mesmo. Esse texto só tem a intenção de dar uma uma visão um pouco mais apurada do assunto. Topologias ou esquemas de aterramento: Será apresentada primeiramente o esquema de aterramento em si e logo em seguida as suas vantagens, desvantagens e riscos de adota-lo.

28

1 - Esquema TT

Essa topologia é de certa forma incorreta e a mais difundida, principalmente no meio de TI (Tecnologia da Informação) do Brasil, na verdade quando o próprio técnico de informática decide "aterrar" o computador, em predios de Data Centers, muito provavelmente há um projeto elétrico e nesses o sistema de aterramento deve ter sido executado corretamente. A topologia TT é a mais difundida, na minha opinião, por ser o método de aterramento mais fácil de se implementar e manter. Essa topologia basicamente se caracteriza pelo enficar uma ou mais hastes no solo e derivar dali o fio Terra para os pontos finais de uso. Porque o uso dessa topologia, principalmente se for pra ser usada nos meios informáticos, é incorreta? Para não ser radical, não devemos dizer que é incorreto usar o esquema TT, mas sim que deveria ser usado sabendo o porquê de se usá-lo ou não. Existe algumas complexidades as quais os usuários de informática não possuem conhecimento ao adotar essa topologia, são elas: 1 – Equipamentos da tecnologia da informação e eletrônicos em geral usam técnicas para tanto melhorar o seu funcionamento, como por exemplo torná-los mais imunes à certas interferências como também evitar que interferências produzidas internamente saiam do mesmo de volta para a rede elétrica. Uma das técnicas usadas é colocar capacitores entre as linhas Fase-Terra e Neutro-

29

Terra da fonte de alimentação. Para quem não sabe, o fio neutro é um condutor aterrado (mais à frente mostrarei a razão de não ser recomendado usar o fio neutro interno da construção como fio Terra). Mesmo estando aterrado, e esperançosamente bem aterrado pela CIA Elétrica, ele pode apresentar algumas condições na qual pode ser arriscado para o usuário e para o equipamento. Explicarei mais adiante. Anteriormente comentei que a eletricidade para que onseguisse fluir haveria a necessidade de uma DDP (Diferença De Potencial) entre ambos pontos. Por algumas razões, o potencial do fio neutro pode se elevar, por sobrecarga nesse condutor, por estar mal aterrado, por rompimento em um ponto onde faz com que ele perca seu referencial do o "center tap" do transformador da rua/prédio. Se esse rompimento ocorrer num ponto onde o neutro ainda possa estar aterrado em vários locais, o risco é bem menor. Enfim, nesse exemplo aqui será tratado o problema de diferença de potencial entre neutro e terra quando há descargas atmosféricas. Veja a situação, você tem um aterramento na topologia TT, o fio Terra da sua tomada está numa haste no seu jardim ou no seu quintal e o neutro está aterrado em vários pontos como no poste de medição (padrão), nos seus vizinhos, no poste do transformador, etc. Aqui já daria pra perceber que uma DDP entre o neutro e o seu aterramento "xing-ling" é muito fácil de acontecer, correto? Ou seja, tensão será criada na malha de condutor neutro da rede e como seu aterramento em relação ao aterramento do neutro flutuarão seus potenciais entre si, poderá haver uma corrente bem alta passando de um terra à outro tendo como caminho a fonte de alimentação do seu eletrônico. Como já comentando, as linhas Neutro-Terra de eletrônicos informáticos possuem capacitores atados entre ambas. Percebe-se então o que poderia ocorrer numa flutuação de potencial entre essas linhas. No mínimo esses capacitores explodiriam e a elevada corrente poderia criar campos magnéticos que levaria junto outros componentes do computador. Outro fator agravante, geralmente as linhas neutro e Terra estão bem próximas na placa de circuito da fonte, mesmo que os capacitores agüentem o tranco, se forem de qualidade muitas vezes agüentam, poderá ocorrer arcos voltaicos entre neutro e Terra também, podendo danificar a fonte de qualquer forma. Nos casos onde é inevitável o uso do esquema TT, como em redes aéreas onde a continuidade do neutro é duvidosa, tão bem como seu aterramento, há como se minimizar esse risco por meio da instalação instalação de DPS’s (Dispositivos de Proteção contra Surtos) entre Neutro e Terra. Nesse caso deve-se tomar a

30

precaução de selecionar um DPS da mais alta capacidade disponível e se possível algum que utilize a tecnologia "Spark Gap", por possuir uma alta capacidade para correntes de surto com curvas de elevação e descrescimento mais lentas como a de 10/350 microsegundos. Os dispositivos com Spark Gap suporta algo em torno de 50 à 120kA de corrente e um DPS mais barato à varistor, suporta na melhor das hipóteses 25kA @ 10/350 microsegundos. No míninimo deve se usar um DPS que suporte 12,5kA em 10/350us entre neutro/terra o que equivaleria 60kA @ 8/20us. O terceiro problema com o esquema TT é o de choque elétrico. A solução nesse caso é a implementação de Dispositivos DR, o qual será comentado abaixo: 1 – Tensão de passo: Tensão de passo é um fenômeno que ocorre quando um gradiente de energia , causado por uma descarga elétrica na(s) haste(s) aterrada(s) isoladamente ou quando a descarga é muito intensa em cima dessa(s) haste(s). Quando ocorre uma descarga elétrica pro solo, esse gradiente elétrico se propaga para todos os lados da haste, de forma mais perigosa pra quem está há um ou dois metros da(s) haste(s) - numa descarga de uma Fase pra terra, no caso de raios a distância de perigo é maior. Quanto mais dificuldade esse ponto de descarga tiver pra dissipar esse energia pro solo, devido n fatores, pior o perigo. Entenda por descarga qualquer energia descendo à Terra, seja por uma falha do equipamento ou por descargas atmosféricas. O perigo está no momento em que uma pessoa caminha nessa zona de risco, nesse gradiente de energia sendo dissipada à Terra. Os passos da pessoa tendem a estar em potenciais diferentes e zonas com potenciais elétricos diferentes, então quando um pé saí do solo e o outro permanece, nesse ato de caminhar, a eletricidade pode subir por um pé, e descer pelo outro ao tocar no solo, pela DDP criada entre um pé e outro, eletrocutando o indivíduo ou animal que cruzar nesse gradiente. Isso pode acontecer principalmente se o solo ou a pessoa tiverem molhados, a pessoa descalça. E se esse evento ocorrer na rede elétrica externa de distribuição, onde há linhas de alta tensão, a camada de borracha fina do solado do calçado não irá isolar nada. Por isso se você ver um fio do poste caido no chão, nem passe perto. E se você tiver dentro de um veiculo acidentado, permaneça dentro dele até chegar ajuda e não toque nas partes de metal, mas se for necessário sair do veiculo, não toque no metal caso o condutor elétrico esteja em contato com a lateria e pule com os dois pés juntos e calcaçados, os dois pés devem tocar ao mesmo tempo no solo, vá pulando com os pés juntos, até uma distancia boa do ponto em que o fio

31

estiver em contato com o solo, mas de qualquer forma é melhor ficar onde você está até a ajuda chegar! Porque no esquema TT isso é mais crítico? Nesse esquema dificilmente se consegue dissipar grande energia à Terra sem que com isso grande parte dela fique “presa” nas proximidades da superficie da haste porque é difícil conseguir uma resistência tão baixa no esquema TT igual á do esquema TN, ainda mais com uma ou poucas hastes e pouco espaçadas uma das outras. Um piso de borracha grossa em volta das hastes poderia servir como um paliativo em descargas de baixa tensão. Mas no caso do uso de dispositivos DR, os quais são obrigatórios em qualquer esquema TT, isso seria de menor preocupação, ainda assim descargas atmosféricas poderiam criar um grande grandiente de tensão de passo entre dois pontos aterrados independentemente, sendo assim necessário que no esquema TT se utilize também obrigatoriamente um DPS de alta capacidade de dissipação de corrente, entre neutro-terra. Ele fará o papel de equipotencializar essas duas linhas momentaneamente durante uma descarga atmosférica. 2- Tensão de contato: A tensão de contato é aquela que pode se desenvolver nas carcaças quando da falha no equipamento que venha a energiza-lo. No esquema TT isso é crítico. Como eu havia comentado, é muito difícil conseguir uma resistência baixa o suficiente. E qual a necessidade disso? Se a resistência/impedância é alta demais, no momento em que ocorrer uma falha desse tipo, o disjuntor ou fusivel da sua casa ou do seu protetor local, não vai atuar, já que a corrente não tem como se elevar ao "infinito" para que um simples disjuntor ou fusível venha atuar, em termos técnicos temos uma baixa corrente de curto-circuito. Mesmo que se tenha um aterramento TT com a resistência relativamente baixa, digamos de 5 Ohms, a atuação do disjuntor ou fusível não é rápida o suficiente ou nem mesmo atua. O tempo é um fator crítico aqui, porque um dos fatores importantes que está entre a vida e a morte de uma pessoa que esteja em contato com uma carcaça energizada acidentalmente, é o tempo de contato. O disjuntor precisa agir instantaneamente, portanto para que o potencial da carcaça não se eleve acima de 25 ou 50V AC Qual seria a solução nesse caso? O dispositivo DR! Mesmo assim deve se tomar a precaução de testá-lo periodicamente através do botão de teste disponibilizado na frente do dispositivo. Sem alongar demais, a siga DR vem de “Diferencial Residual”. A função do DR é

32

monitorar o ”balanceamento” entre a corrente que “entra” e a que ” sai” pela fiação ou seja, a corrente que vem pelo fio fase e o que retorna pelo condutor neutro ou outra fase. Idealmente a diferença entre o que entra e sai é 0. Há naturalmente pequenas fugas em qualquer instação, então o valor absoluto não dá exatamente 0, mas para efeitos de ilustração, essa diferença dá 0. Quando ocorre um choque elétrico ou uma fuga para à Terra por qualquer razão, o DR desarma o circuito, protegendo o usuário. Na verdade, por norma, o uso de DR é estritamente obrigatório no esquema TT, e é a única forma de se proteger o usuário nesse topologia. Mesmo que o aterramento TT apresente uma resistência elevada, digamos uns 800 Ohms, um dispositivo DR de alta sensibilidade (30mA) é capaz de proteger o usuário prontamente. Bem, basicamente esses são o principais problemas em se adotar a topologia TT, mas que se tomada devidas precauções, pode ser usado caso outra topologia não ser recomendada. Esquema TN-C:

O TN-C consiste em usar o mesmo fio neutro das caixas de tomada/passagem para ligar o pino de aterramento dos equipamentos. Em principio essa técnica é válida e funciona como um aterramento de baixa impedância, mas há riscos grandes nessa topologia. 1 – O neutro tem corrente trafegando pelo mesmo e dependendo de alguns fatores e desequilíbrios na rede, esse condutor passa a não ter mais seu potencial em 0 volt, sendo assim, pode apresentar um risco de choque elétrico, principalmente se esse neutro se romper em alguma caixa de passagem.

33

2 - A proximidade da corrente em fluxo no neutro pode gerar interferências nos equipamentos ao ligar o seu fio terra diretamente no neutro. Quanto menor a proximidade do terra do equipamento ao neutro, maiores as chances de ocorrerem interferências sendo que uma distância de pelo menos uns 10 metros já elimina bastante as chances de ocorrerem interferências. 3 – Há o risco de alguém mexendo em alguma tomada ou caixa de passagem inverter os fios, daí poderíamos ter até 220V na carcaça do equipamento. Há poucos casos onde o esquema TN-C é viável, mas deve ser evitado ao máximo e mesmo nesses casos as precauções a serem tomadas são tão grandes que é melhor mesmo não ter aterramento, mas apenas um dispositivo DR ligado no quadro, o que seria muito mais seguro e mesmo assim não há razões para não adotar outra topologia a não ser financeiras. Vale dizer que DR é incompativel com o esquema TN-C, já que nunca poderia atuar numa falha Fase-Carcaça (Terra), já que fio neutro e fio terra seriam a mesma coisa nessa topologia. Esquema TN-C-S:

34

A topologia TN-C-S é um misto da TN-C com a TN-S. Numa rede de distribuição típica, o neutro é aterrado e chega até o seu medidor de luz em esquema TN-C e é aterrado novamente, desse ponto em diante ele segue em TN-C até a caixa de disjuntores. Desse ponto em diante, se ligarmos o fio terra no neutro e derivá-lo separadamente do condutor neutro, está feito um esquema TN-C-S. Entretanto, em qualquer rede onde temos o neutro multi-aterrado e derivarmos o fio terra em qualquer ponto, o esquema continuará sendo um TN-C-S, apenas a porção onde há a separação em diante, consideramos TN-S. Logo globalmente o esquema é sempre um TN-C-S. A diferença fica de onde derivamos o fio terra, quanto mais longe de uma haste de aterramento, menos seguro. A vantagem em utilizar esse esquema é a facilidade de se obter um aterramento confiável, de baixissima impedância, muitas vezes menos que 0,5 Ohms, podendo-se assim utilizar apenas disjuntores para a proteção do usuário, salvo casos onde o circuito é muito longo já que quanto mais longo o circuito e menor a "bitola" da fiação, maiores as chances do disjuntor não agir rápido o suficiente. De qualquer forma, isso não é de grande preocupação num ambiente residencial, onde as distâncias são sempre relativamente pequenas. De qualquer forma, um dispositivo DR resolveria esse problema e é sempre muito bem vindo. Esse esquema pode apresentar algumas desvantagens do esquema TN-C, mas com menos riscos, só que ainda pode, apesar de mais dificil que no esquema TN-C, ter elevação de potencial no fio terra após separado do neutro na caixa de disjuntores. O esquema TN-C-S onde o fio terra é derivado a partir do neutro do quadro de disjntores pode ser usado caso não haja nenhuma alternativa, e é recomendável que se use DR, mas nesse caso o fio Terra propriamente dito tem que ser derivado do neutro antes do neutro passar pelo DR. Mais recomendável que se derive o fio terra na haste da entrada ou dentro do quadro de medição. A equipotencialização de qualquer superfície condutiva dentro da construção é um outro tema importante ao utilizarmos um esquema TN-C-S, está adicionado um texto mais abaixo onde fala sobre o assunto, mas basicamente devemos equipotencilizar ou seja, ligar à mesma malha de aterramento por exemplo uma tubulação de metal, uma tubulação de gás, banheiras metalicas, dutos de ar-condicionado, esquadrias, box de banheiro que possua hastes de metal tocando no piso, etc. Isso é importante porque se por ventura o neutro assumir um valor superior à 25V, o terra poderá também assumir o mesmo nível de

35

tensão e se isso ocorrer enquanto manusei-se um equipamento aterrado e o usuario toque no mesmo instante nessas superfícies condutoras estranhas à instalação elétrica, o choque poderá ser fatal! Mas se ambas superfícies tiverem aterradas no mesmo ponto, não há choque elétrico ou o choque não será fatal! Por isso, EQUIPOTENCIALIZAR É IMPORTANTE! O uso desse esquema é desencorajado por alguns estudiosos onde a rede externa é aérea por causa do risco de furto ou rompimento do neutro, mas o risco é considerado pequeno quando temos o neutro aterrado em diversos pontos, inclusive na entrada da casa. De qualquer forma, esse esquema não deveria ser usado onde o neutro é passível de se romper e o seu aterramento não é garantido. Outro problema que comentei mais atrás e prometei explica-lo melhor é com relação novamente ao aterramento do neutro. Se apenas sua casa tiver o neutro aterrado e o neutro externo não for aterrado, nem mesmo na entrada de cada casa, a coisa se complica bastante. Caso o neutro principal que vai direto ao transformador perder contato com o mesmo, a carga de consumo de toda vizinhança vai procurar sua(s) haste(s) local e a bomba estaria armada, todo esse sistema assumiria tensão elevada e a corrente indo de encontro com sua haste seria tão alta que poderia até derreter as hastes ou gerar algum incêndio. O uso de qualquer esquema TN tb é desencorajado onde as altas correntes de curto-circuito podem gerar danos, como onde se lida com inflamáveis ou por exemplo o equipamento é muito sensível a altas correntes de curto-circuito, como um motor elétrico por exemplo, podendo nesses casos haver um rompimento do isolamento do enrrolamento do motor. No esquema TN-C-S o neutro deve ser aterrado em quanto mais pontos forem possíveis, desde que antes do dispositivo DR. O uso de DPS's no esquema TN-C-S é importante entre as Fases e Neutro ou Terra, e apenas entre Neutro-Terra quando a distância do ponto de separação de condutores neutro e terra for superior a 3 metros. Esquema TN-S:

36

O esquema TN-S consiste em termos um condutor terra separado desde o transformador na rua ou seja, o neutro só é aterrado uma vez, num único ponto e ao longo de toda rede neutro e terra seguirem num condutor distinto, junto com as fases. É um esquema incomum de se ver no Brasil, onde teriamos por exemplo ao invés de 4 condutores (3 Fases + Neutro) na rede, teríamos na rua 5 condutores, um deles sendo o condutor terra de proteção. Em alguns países isso é comum, mas geralmente toda rede é subterrânea. Vantagens: - Diminuição dos perigos de tensão de passo pelo aterramento ser em ponto único. - Baixa impedância, permitindo rápida atuação dos dispositivos seccionadores, fusíveis ou disjuntores, no caso de falhas internas no equipamento, desde que sejam obedecidas distâncias e bitolas de condutores. Numa residência típica, mesmo bem grandes, essas distâncias não vem tanto a ser uma questão crucial. De qualquer forma, o uso de dispositivo DR é recomendável hoje em dia em qualquer topologia de aterramento em que seu uso é possível. A recomendação do uso de DPS's é a mesma do esquema TN-C-S e TT, todas as linhas devem ser protegidas pro DPS's. A desvantagem do esquema TN-S é o uso de 5 condutores ao longo de toda instalação, externa e interna, aumentando muito os custos.

37

Existem os mesmos riscos existentes do esquema TN-C-S, mas de forma mais reduzida devido o comprimento que percorre o fio terra até o ponto final de uso e devido o neutro estar ligado junto com terra apenas no "pé" do transformador, o que dificulta o seu rompimento e mesmo que isso ocorra, o terra ainda estaria ligado direto ao "center tap" do transformador e aterrado logo abaixo ou seja, elimina-se vários pontos vulneráveis que poderia ocorrer ao longo do neutro. Em redes áereas é dificilimo ver o uso de um esquema TN-S, no Brasil predominha o esquema TN-C externamente e TN-S internamente, sendo assim um esquema TN-C-S global. Em ambos esquemas TN-C-S e TN-S se houver o rompimento do neutro, as carcaças poderiam assumir valores de tensão de até igual a tensão de fases, mas tudo dependerá do ponto onde o neutro se romper, felizmente num rede com neutro multi-aterrado as chances disso ocorrer são pequenas, mas caso ocorra por exemplo na entrada de sua residência, onde possua uma haste, sua casa ficaria "pendurada" nessa haste e provavelmente nada funcionará ou a tensão cairá bastante ao ligar algum equipamento de maior consumo. Tensão de passo poderá surgir em volta da haste, as tensões de fase poderão oscilar bastante, podendo gerar até queimas dos equipamentos e as carcaças assumirem valores de tensão variada, tudo dependerá da carga imposta e da qualidade do aterramento local. Essa situação deve ser resolvida o mais imediatamente possível, deve-se desligar o disjuntor geral até corrigido o problema. A terceira e ultima desvantagem, geralmente acusada pelos audiofilos, é que qualquer topologia TN-C topologia pode induzir alguns ruídos em seus equipamentos de alta fidelidade e/ou prejudicar a dinâmica sonora. No esquema TN-C isso é nem real, no esquema TN-C-S, dependendo de onde for derivado o terra, as chances são pequenas e no TN-S bem remotas e no TT inexistente, tudo isso vai depender também da definição sonora do seu equipamento e do seu ouvido, além da qualidade acústica do seu ambiente. Esquema IT:

38

A topologia IT é utilizada em ambientes hospitalares onde não se pode ter um desligamento instantâneo dos equipamentos no caso de um fio de energia vier a tocar na carcaça. Uma impedância é colocado no caminho que a corrente dessa falta passaria, pra que a impedância seja alta (mas não tão alta), o suficiente pra que o disjuntor não desarme repentinamente e mantenha os equipamentos funcionando corretamente. Geralmente são utilizados detectores de falta à terra, pra alertar as pessoas desse evento e logo, a correção do mesmo. Há várias questões que devem ser respeitadas nessa topologia, tudo em prol da vida do paciente, questões essa que só um engenheiro elétrico bem conceituado saberá lidar. ------------------------------------ Normas atuais exigem que todas as malhas de aterramento independentes sejam interligadas em um ponto especifico, um ponto equipotencial de condutores à Terra, mas nem sempre isso é possível e onde não é possível há medidas que podem ser tomadas para eliminar ou reduzir problemas, cito o uso de fibras ópticas na comunicação entre dois prédios com aterramentos distintos, já que fibra óptica não conduz eletricidade. As outras precauções são seccionamento em tempo hábil, no caso com uso de dispositivos DR no

39

esquema TT, proteção contra surtos elétricos por meio do uso de DPS's, etc. Um exemplo de malha que devem estar equipotencialidas são as malhas dos sistemas de para-raios. Elas devem estar intelirgadas também com a malha de aterramento do neutro e de segurança, devem formar uma malha única ou um anel em volta da construção. Independente disso NÃO se pode ligar o fio terra da tomada no cabo de descida do para-raios ou na estrutura metalica do prédio, isso é terminantemente proibido e perigoso! Só se pode acontecer essa interligação no ponto equipotencial entre as malhas, há um local correto pra se fazer isso, geralmente o mais próximo da Terra possivel, longe dos equipamentos numa barra de equipotencialização ou mesmo diretamente no solo. Bem, espero que eu possa ter esclarecido os pontos principais das implicações em se ter um sistema de aterramento mal feito. Uma frase que gosto muito é: "Ruim sem aterramento, pior com um mal feito." Obrigado! Adendo: Imagem do aterramento local, feito pela CIA Elétrica e a forma utilizada pra se derivar o condutor de proteção desse ponto. Esse aterramento está em esquema TN-C-S ou TN-S a partir desse ponto: Exemplo de um padrão de energia aterrado:

Pasta Térmica: Técnicas, verdades e mitos Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 19-04-2010

10

A pasta térmica aplicada sobre o processador tem como função aumentar o contato entre o processador e o dissipador. Essa aplicação se faz necessária

40

devido às ranhuras microscópicas que existem nas superfícies dos processadores e na base dos dissipadores. O espaço vazio nestas ranhuras é então ocupado pela pasta, aumentando a transferência de calor entre processador e dissipador. Muitas pessoas acham que aplicação da pasta não merece atenção, mas alguns cuidados devem ser tomados ao aplicar a pasta: Limpe as superfícies antes da aplicação: Quem está removendo o adesivo térmico ou uma pasta antiga para a aplicação de uma nova, deve limpar totalmente a superfície antes de fazer a aplicação. Os resíduos podem dificultar a transferência de térmica entre os componentes. O ideal é que a limpeza seja feita com álcool isopropílico – para evitar oxidações – e um pano macio ou guardanapo absorvente.

Seu processador deve ficar limpo que nem este Aplique a pasta com o dedo: Particularmente prefiro aplicar a pasta térmica com os dedos envolvidos em um plástico, pois a aplicação fica mais homogênea que com o uso de uma espátula, por exemplo. Se por acaso você não tiver um plástico por perto, pode aplicar com o dedos sem nada mesmo.Há quem diga que esse modo não é muito profissional e que a gordura existente na pele pode comprometer a transferência de calor. A menos que você tenha acabado de comer uma coxinha de R$0,50 sem guardanapos, não há porque se preocupar com a “gordura da pele”. Claro, antes de aplicar a pasta lave as mãos com sabão. *Não aplique pasta em excesso: A primeira vista parece interessante aplicar muita pasta a fim de aumentar a transferência de calor e a dissipação deste, mas existem dois motivos que provam o contrário. O primeiro é que ao se colocar o processador a pasta vai transbordar (não encontrei uma palavra melhor) e sujar os componentes da placa-mãe. O problema não é sujeira que ela vai causar, mas o curto-circuito que ela vai formar entre os componentes, já que a pasta térmica possui metais em sua

41

composição fazendo com que ela seja um ótimo condutor elétrico (a prata é o componente principal das melhores pastas térmicas). O segundo motivo é que ao invés de aumentar a condução de calor entre o processador e o dissipador, o excesso de pasta térmica diminuirá consideravelmente essa transferência. Isto se deve pelo fato de que em excesso ela deixará de desempenhar sua função, que é a de preencher as ranhuras microscópicas presentes no processador e no dissipador, e irá ocupar, de fato, um espaço entre os dois, fazendo com que deixe de existir o contato direto entre o processador e o dissipador do cooler.

Qual a diferença entre pastas condutoras e não condutoras? A diferença entre elas é simples. As pastas condutoras possuem componentes que conduzem melhor o calor, como a prata. As não condutoras não – mas não deixam de conduzir o calor, apenas o conduzem com menor eficiência.Existem algumas pastas que conduzem bem o calor, mas usam materiais que não conduzem eletricidade, como a cerâmica. Se o seu processador não é um Duron da vida, não é overclocado (acabei de inventar a palavra) ou não tem problemas de aquecimento, não há motivos para investir numa pasta condutora. Com quanto tempo devo reaplicar a pasta? Normalmente a pasta é reaplicada durante a limpeza do micro, que deve acontecer pelo menos de ano em ano. Mas se você notar que a pasta resseca – endurece – com poucos meses, troque de pasta. Se o problema continuar, aumente a frequência com que você substitui ela. Posso usar pasta de dente ao invés da pasta térmica? Acreditem, esta pergunta existe. E não pense que a pasta dental vai “refrescar” seu processador, como disse um rapaz que comentou um vídeo no YouTube, porque ela não vai. Só use pasta térmicas.

42

Quanto custa essa tal de pasta térmica? Aqui no bairro popular onde moro e onde se concentram 70% das lojas de eletrônica da cidade, um potinho com 15g de pasta térmica não condutora, custa R$2,50. Pastas condutoras com prata ou cerâmica costumam custar entre R$20 e R$40. Uma sugestão de pasta térmica dada pelo leitor do blog e amigo de MSN foi a Artic Silver 5, à venda no Mercado Livre.

No-break é no-break ou tem algo a mais? Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 13-04-2010

2

Na semana passada falamos um pouco sobre estabilizadores e sobre “acessórios” que julgamos desejáveis existirem nestes equipamentos. Neste post você vai conhecer alguns recursos opcionais que podem acompanhar um no-break e o que eles podem fazer pelo seu equipamento – e por você. Como já sabemos, um estabilizador tem como função estabilizar tensões e filtrar ruídos. Já o no-break, em um momento de ausência de corrente (um blackout, por exemplo), assume a alimentação do seu computador através de uma bateria, fazendo com que mesmo na ausência de energia elétrica nas tomadas, seu computador possa ser utilizado. Ok, sabemos que um no-break basicamente fornece energia na ausência desta. Então quais os diferenciais entre dois no-breaks com especificações elétricas idênticas? Conheça alguns dos itens que realmente fazem a diferença na hora de comprar seu UPC. Conexão para bateria externa: Alguns no-breaks populares já vêm com este tipo de conexão, que como o próprio nome sugere, possibilita a conexão de mais uma bateria ao no-break aumentando sua autonomia. A adição de uma bateria extra – normalmente baterias de carro – sai mais em conta do que a compra de um no-break com a autonomia desejada. Este tipo de conexão é muito solicitada para no-breaks que alimentarão servidores que precisam estar ininterruptamente ligados.

43

Cabo usado para conectar uma bateria de carro a um no-break (Isto não é uma gambiarra). Conexão serial: O computador e o no-break são conectados através de um cabo serial ou USB que em conjunto com um software fornecido pelo fabricante, “avisa” ao computador que a bateria está próxima de acabar. O computador então é desligado através de um comando do próprio programa, evitando assim o corrompimento do sistema operacional devido a um desligamento incorreto. Proteção LAN/Ethernet: Este tipo de proteção evita que o equipamento de rede ou o computador conectado a um cabo UTP sofram com sobretensões.

Battery Save: Este recurso faz com que o no-break, durante uma ausência de alimentação, não alimente suas saídas caso não haja nenhum dispositivo em funcionamento conectado a elas. O battery save proporciona um prolongamento da vida útil das baterias. Autodiagnóstico de baterias: A maioria dos problemas que acontecem com os no-breaks estão relacionados com a bateria. Com o recurso de autodiagnóstico o problema nas baterias poderá ser identificado antes que cause algum transtorno ao usuário. Diga-se de passagem que ele também facilita a vida do pessoal do suporte técnico – ou CPD, como queira.

44

Net Adapter: Em conjunto com um software disponibilizado pelo fabricante, o Net Adapter fornece informações sobre o estado em que o no-break se encontra através uma interface Web via acesso remoto. Este é um recurso bastante interessante quando se possui dezenas de no-breaks e é preciso estar informado sobre suas condições de funcionamento. Os itens considerados opcionais para estabilizadores também podem ser encontrados em no-breaks. Espero que Vossa Excelência tenha entendido os recursos que expliquei brevemente neste post. Dúvidas, sugestões e críticas, nos comentários

Estabilizadores são todos iguais? Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 09-04-2010

14

Ao contrário do que muitos pensam, os estabilizadores surgiram bem antes dos microcomputadores. Sua principal função era de proteger eletrodomésticos – como televisores e geladeiras – das bruscas variações de tensão da precária rede elétrica do Brasil. Posteriormente seu uso foi direcionado para proteger os microcomputadores que eram mais sensíveis às variações de tensão e hoje são encarados como itens indispensáveis à instalação elétrica de um computador – o que não é absolutamente verdadeiro. Até o ano de 2008 vigorava a NBR 14373:1999 que exigia pouco dos equipamentos estabilizadores no que diz respeito ao seu nível de proteção. Com a publicação da NBR 14373:2006, o INMETRO passou a exigir dos fabricantes que itens que até então eram opcionais, como filtro de linha e protetores surto, fossem obrigatórios nesses equipamentos. Fontes com PFC ativo não necessitam de estabilizadores, pois estes chegam a comprometer o funcionamento da fonte devido às altas latências na correção das tensões. – Gabriel Siqueira

45

De acordo com a nova norma, os estabilizadores de tensão fabricados a partir de janeiro de 2008 devem conter obrigatoriamente os seguintes itens: a) Filtro de linha – reduz os ruídos provenientes da rede elétrica; b) Protetor contra surtos da rede elétrica – proteção contra descargas elétricas; c) Desligamento automático – desliga a saída do estabilizador quando a rede elétrica estiver fora das condições de operação; d) Protetor térmico – proteção adicional contra sobrecarga; e) Aumento da faixa de tensão de entrada – 45% em redes 110V, 115V,120V e 127V e 40% em 220V; f) True-RMS – permite o funcionamento correto do estabilizador em redes elétricas distorcidas; g) Sensor de potência – desliga o estabilizador quando o usuário utilizar equipamentos que excedam a potência do estabilizador. Hoje existem dezenas de fabricantes e outras centenas de modelos dos mais variados tipos. Assim, temos que ter uma certa cautela na hora de escolher o melhor equipamento, visto que, estabilizar a tensão todos eles estabilizam e possuem os principais recursos básicos de proteção, então o que vai fazer a diferença na hora de escolher entre um estabilizador ou outro serão seus adicionais. Conheça alguns deles: Protetor telefônico: Vários estabilizadores populares vêm com este tipo de proteção que tem como finalidade a retenção de cargas elétricas que possam chegar ao computador/telefone/modem através do cabeamento telefônico – que também possui corrente elétrica. Não são raros os casos onde o telefone de alguém explode devido ao surto de tensão.

Recarga USB: Com o advento de dispositivos recarregáveis através da porta USB, esse recurso tornou-se um diferencial nos estabilizadores e hoje é um item indispensável para quem possui meia dúzia de gadgets recarregáveis via USB. Além do mais, usando o carregador do estabilizador, não há a necessidade de deixar o computador ligado somente para recarregar seu MP3, por exemplo. Bivolt Automático: Este recurso é extremamente indispensável àquelas pessoas que vivem em regiões onde há várias tensões na rede elétrica, como

46

no estado de São Paulo e Minas Gerais, onde as concessionárias entregam tensões que vão de 115V aos 240V. A questão do bivolt ser automático é que com esta funcionalidade de auto-seleção, há menos chances do usuário confundir-se ou, num momento de distração, ligar o equipamento na tensão errada, queimando-o. Porta fusível externo: Quem já queimou um estabilizador com fusível interno sabe o quanto é chato e as vezes até complicado fazer a substituição. Com um porta fusível externo a manutenção do equipamento em virtude do rompimento do fusível fica muito mais prática, podendo ser concluída em 3 minutos. Até um leigo poderia resolver seu problema sem a necessidade de um técnico.

Chave liga/desliga embutida: Não negue: Você já desligou seu estabilizador com o pé sem querer. A chave liga/desliga embutida fornece uma proteção para aqueles que insistem em colocar o estabilizador próximo aos pés. Evite desligamentos involuntários com a chave embutida.

Leds indicadores de sobre/subtensão: Por padrão os estabilizadores só devem vir com o led que indica que o equipamento está ligado. Já os leds adicionais indicam se está ocorrendo um problema de sub ou sobretensão na sua rede elétrica, contribuindo assim, para que você possa tomar as providências cabíveis de acordo com a situação – ou você quer passar o dia inteiro medindo a tensão com um multímetro? Bem, estes são os itens adicionais que são bastante interessantes e que não estão muito distantes do poder de compra da maioria das pessoas. Indicarmos um produto que atende a 5 dos 6 itens listados acima: o estabilizador Hexus 500VA da Microsol. Na loja online do Ponto Frio ele está

47

custando R$141,55 à vista. Um pouco mais caro que um estabilizador comum, mas o dinheiro estará sendo bem gasto.

No próximo post mostraremos o que levar em conta na hora de comprar seu no-break. Até mais! Leituras recomendadas pelo Gabriel Aterramento. Aterra… o que?! Avaliação e fotos de filtros de linha Veja porque não se devem usar estabilizadores Você já ouviu um tlec? Com esse título ai fica até difícil de imaginar do que se trata o tópico, entretanto

vocês irão entender logo logo. Venho me debatendo há muito tempo sobre o

quão danoso pode vir a ser um estabilizador em uma alimentação para nosso

PC.. A maioria dos colegas leitores até conseguem me entender quando falo na

substituição do estabilizador por um filtro, quando falo nas "benesses" de um

bom filtro ou de um supressor de transientes..

O que eu tenho visto uma maior resistência dos leitores é sempre na questão...

Mas um estabilizador faz mal mesmo??? Sempre fica aquele misto de dúvida no

ar, associado com um apego à coisa, com um misto de medo da ruptura com

aquele ente tão querido que nos deu tanta segurança de que nosso PC estava

muito protegido na na sua gestão... Então resolvi tirar uma foto do Tlec...

Primeiramente vamos apresentar o Tlec para quem não o conhece, ou não o

ouviu ainda. O Tlec é aquela batida de relé, de dentro do estabilizador, quando a

sua lógica decide que está na hora de comutar a saída para uma nova posição,

uma nova tomada de energia, cerca de 6 volts ou mais alta ou mais baixa do que

aquela em que se está tirando energia nesse momento.

Sempre disse a todos que me ouviam, liam, que a comutação desses taps é uma

proeza mais ou menos catastrófica, uma vez que esses contatos dos relés, dos

quais não tenho (ainda) nenhuma foto, ficam ao longo do tempo iguais a uma

galocha furada. O nível de "bouncing" ou repicar, de um contato desses é

48

alguma coisa muito grande. Nesse repicar de contato nossa fonte está sendo

estressada e espúrios de tensão alta estão sendo gerados na entrada. Ai seu PC

tem tudo para entupir, congelar, quer por falta de corrente na entrada da fonte

quer pela RFI/MFI gerada pelo faiscamento desse contato. Já mostrei no outro

dia como é que fica uma chave de luz ao longo do tempo, imagine o relé do

estabilizador, chaveando uma carga maior e com não linearidade de corrente.

Fontes Braview? Fuja delas ! Posted by Danilo Augusto | Posted in Manutenção E Hardware | Posted on 18-01-2010

Post sugerido por Jefferson Igor Há pouco mais de 1 mês o Clube do Hardware testou a fonte Braview ATX-700 e teve uma surpreendente constatação: As fontes da série ATX da Braview são montadas com fontes remanufaturadas compradas no quilo. O que me causou mais indignação foi saber que essas fontes eram vendidadas como novas, sem nenhuma indicação de que aquele produto se tratava de um produto remanufaturado fruto do lixo tecnológico proveninente dos países desenvolvidos. De fato os consumidores estavam sendo enganados.

49

O que fazer ao levar um computador à assistência técnica

Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 16-01-2010

Essa semana aconteceu um episódio comigo, numa assistência técnica, que me fez abrir os olhos sobre que medidas e atitudes nós devemos tomar antes de entregar um computador ou um hardware específico numa assistência técnica ou mesmo a um técnico da nossa confiança. SE NÃO QUISER SABER O QUE ACONTECEU, PULE ESSES PRÓXIMOS 3 PARÁGRAFOS. Eu estava com um Acer One 150 de uma cliente e fui substituir o HD dele por um novo. Vi um vídeo-tutorial no YouTube pra ver como eu deveria proceder pra efetuar a substituição. Desmontei o bicho todo direitinho, instalei o HD, fechei ele e por fim liguei-o. Pra minha felicidade deu tudo certo, entre na BIOS, vi o HD detectado, dei um F10 pra salvar tudo e reiniciei o net… e reiniciei o net… e reiniciei o net… FUUUUUUU!!! NÃO APARECEU MAIS NADA NA TELA E O TECLADO PAROU DE RESPONDER!!! Não pensei duas vezes. Levei o AO150 para o rapaz que conserta notebooks pra mim.

Chegando lá, contei o que havia acontecido e mostrei a ele o que estava acontecendo. No outro dia de manhã liguei pra assistência – que não é autorizada da Acer – e recebi a triste notícia de que o netbook havia queimado, não funcionava nada. Já conformado com o prejuízo de R$1100,00 fui buscá-lo. No meio do caminho Paulo Alexandre, um amigo meu, falou comigo e pediu para que eu levasse o netbook para ver o que ele e mais outros amigos nossos poderiam fazer. Chegando lá, tentei ligar o net e mais uma constatação… O

50

danado não liga mais. Leds não acendem, coolers não giram e o processador não esquenta. Levei o netbook de volta. Falei com o cara e ele disse que a placa-mãe havia queimado e que era por isso que ele nem sequer acendia mais. Indignado, eu disse que o netbook chegou lá ligando, com leds acendendo, cooler girando e bateria carregando. Daí ele disse: Você me mostrou ele com a bateria carregada, mas quando descarrega não funciona, nem sequer retirando ela e ligando o netbook direto na tomada está funcionando. No meu pensamento eu sabia que ele ligava de todos os modos possíveis, mas o fato é que eu não mostrei todos os modos possíveis a ele não tinha como provar de que ele é quem estava errado e que provavelmente havia piorado o que eu já tinha feito. Moral da história: O cara esculhambou o Acer de R$1100,00. eu vou ter que pagar outro e não há nada que eu possa fazer pra provar que ele fez algo de errado.

Depois dessa história toda – e de mais algumas que já passei na minha vida, digamos, pré-profissional – tirei algumas lições que vou passar pra você agora. Faça das dicas abaixo um ritual para que toda vez que for entregar um equipamento qualquer a um técnico, você cheque esses itens e só assim confie seu computador, seu notebook a um profissional. Regra Nº 1: Antes de entregar um equipamento a um técnico/empresa faça questão de mostrar o que está acontecendo com ele, como ele está naquele momento e peça, sem nenhuma vergonha, para que ele assine um termo confirmando as condições do equipamento.; Regra Nº 2: Pode parecer meio paranóico, mas sempre que puder marque seu equipamento e partes dele de alguma forma, a fim de identificar peças que por ventura possam ser substituídas sem sua autorização. Memórias, HDs e baterias são os preferidos dos técnicos safados; Regra Nº 3: Observe bem as condições físicas da carcaça/gabinete ao ser entregado ao técnico. Peça para que ele constate se há arranhões, amassados, rachadura ou qualquer outro dano. Se por acaso na devolução o equipamento vier com alguma avaria, tente resolver o problema com o técnico. Se ele não

51

resolver e tiver algum registro – por exemplo, CREA – procure o conselho. Se ele fizer parte de uma empresa procure o gerente, o proprietário ou na pior das hipóteses o PROCON. Regra Nº 4: Ao receber o diagnóstico do problema não exite em perguntar a causa do problema, o porque daquela solução e se há outros modos de resolver o mesmo problema. Regra Nº 5: Desconfie de diagnósticos do tipo “perda total”. Em 99,9% dos casos há recuperação e/ou utilidade para boa parte do equipamento. Até hoje nunca recebi um computador que placa-mãe, HD, processaodor, memória e fonte tenham sido danificados. Nestes casos peça o equipamento de volta e leve para outro profissional. Regra Nº 6 (por sugestão do Nicholas): Jamais assuma a responsabilidade de levar um equipamento de alguém a outro técnico, em outras palavras, jamais terceirize o seu serviço pois se acontecer o que aconteceu comigo, por exemplo, você é o culpado. Ao invés de dizer “me dê o notebook que eu levo pra um amigo meu que ajeita”, diga “Olha, fulaninho ali ajeita, o celular dele é 8888-8888”, mais fácil né ? Acho que é isso pessoal. Sempre prestem muita atenção a diagnósticos sobrenaturais e sempre, eu disse SEMPRE observem e mostre ao técnico as condições em que o equipamento está indo pra sua bancada. Espero que essa minha triste – e cara – experiência tenha servido para algumas que leem nosso blog.

Dicas para comprar seu computador: Escolhendo o HD Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 18-09-2009

Depois de umas 3 semanas sem tocar no assunto, aqui estamos nós retomando a série “Dicas para comprar seu computador”. Depois de falarmos sobre a escolha do conjunto, do processador e da memória, falaremos sobre o que deve ser levado em conta ao escolher um HD. Será que a única coisa que conta é a quantidade de gigabytes que o HD consegue armazenar, ou devemos observar outros itens ? Ao contrário do que quase todo mundo pensa, não é só a capacidade de armazenamento que define se um HD é bom ou não, mas características como o tipo de tecnologia usada no hard disk, tamanho do buffer, rotação e outras

52

variantes determinam e muito a performance de um HD. Para que você fique por dentro do que faz um HD ser O bom, vamos explicar cada um desses conceitos aqui Sata X IDE: Atualmente existem 2 grandes padrões (tecnologias) de HDs, o Sata e o IDE. Para facilitar a comparação entre ambos, fizemos esta tabela:

Sata IDE

Velocidade 300 MB/s 133 MB/s

Fácil de Encontrar? Sim Não

Preço(HD de 160GB)* R$ 144,41¹ R$ 161,41²

Precisa Configurar Master/Slave ? Não Sim

Haverá aperfeiçoamento da Tecnologia ?

Sim Não

Além de todos estes fatores que pesam contra o padrão IDE (ou PATA) ainda há a questão da circulação do ar dentro do gabinete prejudicada pelos largos cabos IDE em comparação com os cabos Sata. Observe a diferença entre eles (o vermelho é o Sata e o cinza o IDE):

Rotação: Para entender a influência da rotação na performance dos HDs seria interessante que você visse esse vídeo, pois além de explicar qual a importância da rotação, o vídeo faz um belo de um resumo sobre o funcionamento do HD, muito bom mesmo. A parte que importa para o entendimento da rotação inicia em 2:25 e termina em 3:05; Viu o quanto é importante a rotação do HD ? Quanto maior a velocidade em que os discos girarem, mais dados passarão pela cabeça de leitura. Atualmente

53

a maioria dos notebooks vêm com HDs de 5400 RPM, pois estes consomem menos energia, mas alguns notes trazem consigo HDs de 7200RPM. Quanto aos Desktops a maioria esmagadora de HDs são de 7200 RPM, mas existem velocidades que vão de 5400 a 15000 RPM. Quanto mais rotações, melhor. Cache: Assim como os processadores, os HDs também possuem uma memória cache que é responsável por guardar os últimos dados acessados no HD de forma que quando solicitados novamente não precisem ser procurados mais uma vez pela cabeça de leitura, que é muito mais lenta que a esta memória, claro. Ao contrário do que parece o tamanho da memória cache não influi taaanto assim no desempenho pois ela só tem utilidade na leitura de arquivos pequenos, devido ao seu tamanho reduzido. Normalmente os HDs comuns vem com 8 OU 16MB de memória cache. Os mais gordunhos possuem 32MB. Portanto não se deixe levar muuuuuito pelo tamanho dela pois ao contrário do que acontece com o processador, onde dobrando a quantidade do cache L2 ocorre um aumento de 10% na performance, nos HDs esse aumento é de apenas 1%. Suporte ao NCQ: Quase todos os HDs Sata atuais têm suporte ao NCQ. Este recurso permite à cabeça de leitura fazer a escolha pelo melhor e menor caminho a ser seguido quando ela estiver procurando um arquivo. Complicado né ? Observe a imagem abaixo:

Utilizando o NCQ a velocidade do disco pode ser aumentada em até 10%. Este recurso não é nenhuma implementação eletrônica ou mecânica no HD, mas apenas uma modificação implantada no firmware do disco através de software. Vai comprar HD ? NCQ nele ! Capacidade de Armazenamento: Já ouvi muita gente chegando na loja e dizendo “Me dê o maior HD que tiver aí!”, daí o vendedor chega com uma

54

belezinha de 1.5TB. A pergunta é: Será que essa pessoa necessita disso tudo? Será que ela não está gastando dinheiro em vão? Eu sei que espaço em disco nunca é demais, mas usuários comuns não precisam de discos gigantes. Discos desse tamanho são usados por tratadores de imagem, pirateiros, editores de vídeo, servidores… Portanto a única dica aqui é: Invista num HD que supra as suas necessidades e um pouco mais. Agora… Se você tem $$ sobrando… Meta a cara e compre Além de todas essas características há também a questão do fabricante. Por experiência própria posso afirmar que Seagate e Samsung são as melhores marcas. Fuja de Maxtor e Western Digital. Beleza ? Ao final deste post podemos fazer uma síntese do que seria um HD bom. Vamos lá: Padrão: Sata Rotação: Pelo menos 7200RPM Cache:16MB Suporte a NCQ Fabricante: Seagate Para quem quiser se aprofundar mais nessa história de HDs, indico os seguintes posts: O que é a taxa de transferência interna? HD: Relação Custo/Benefício. Vale a pena investir num TOP de Linha ? Cache de Disco (buffer) NCQ, Tempo de Busca e MTBF

55

Taxa de Transferência Interna (Internal Transfer Rate) A taxa de transferência interna é a velocidade "real" do HD ao ler arquivos gravados em setores seqüenciais. Se tivéssemos à mão todas as especificações do HD, incluindo o número de setores por trilha, seria simples calcular a taxa de leitura real do HD. Em um HD que tivesse 1584 setores por trilha na área mais externa dos discos e 740 na área mais interna, com 2 patters, rotação de 7200 RPM, tempo de busca Track-to-Track de 0.8 ms e Head Switch Time de 0.6 ms, por exemplo, teríamos o seguinte: Cada trilha externa possui 1584 setores, cada um com 512 bytes, de forma que temos 792 KB por trilha. Os discos giram a 7200 RPM, de forma que temos 120 rotações por segundo. Dividindo um segundo por 120 rotações, temos 8.33 milissegundos para cada rotação completa do disco, que corresponde à leitura de cada trilha. Como o disco tem 2 platters, temos um total de 4 trilhas por cilindro. Para ler cada cilindro, a cabeça de leitura precisa realizar 3 chaveamentos entre as cabeças (0.6 ms cada) e em seguida precisa mover o braço de leitura para o cilindro seguinte, o que demora mais 0.8 ms. Somando tudo, a leitura de cada cilindro demora aproximadamente 36 ms, o que significa que temos a leitura de 27.7 cilindros por segundo. Cada cilindro é composto por 4 trilhas, o que corresponde a 3.093 MB. Se o HD consegue ler 27.7 deles por segundo, significaria que o nosso HD hipotético teria uma taxa de transferência interna (nas trilhas externas) de aproximadamente 85.9 MB/s. Nas trilhas internas a densidade cai para apenas 1.44 MB por cilindro (já que cada trilha possui apenas 740 setores), de forma que a taxa de leitura cai para apenas 40.1 MB/s. Ao ler pequenos arquivos, temos a interferência do cache de disco, mas ao ler uma grande quantidade de arquivos, ele deixa de ser eficaz (já que armazena apenas uma pequena quantidade de dados), de forma que a taxa real de transferência cai para os valores da taxa de transferência interna, variando entre 85.9 MB/s e 40.1 MB/s, de acordo com a parte do disco que estivesse sendo lida. Quando houver referências à "Internal Transfer Rate" ou "Buffer to Disc" nas especificações de um HD, pode ter certeza de tratar-se da velocidade "máxima", atingida quando são lidos setores seqüenciais nas bordas do disco. Tenha em mente que no centro do disco você obterá um pouco menos da metade do número divulgado.

56

No caso dos HDs de notebook, ou de HDs que utilizam platters de 2.5" (como o Raptor), a diferença entre a taxa de leitura nas trilhas internas e externas é menor, numa relação de aproximadamente 2/3 em vez de 1/2. O grande problema é que os fabricantes raramente divulgam o número de setores por trilha, nem o Head Switch Time dos HDs, de forma que acaba sendo impossível calcular diretamente a taxa de transferência interna com base nas especificações. Normalmente, você encontrará apenas o número de setores por trilhas visto pelo BIOS (64), que não tem nenhuma relação com o número real. Resta então usar o método empírico, realizando um teste longo de leitura, como o teste realizado pelo HD Tach, onde são lidos grandes volumes de dados, começando pela borda e prosseguindo até o centro dos discos. O cache pode ajudar o início da leitura, mas os dados armazenados logo se esgotam, deixando apenas a taxa real. Um bom lugar para pesquisar sobre as taxas de leitura (e outros índices) de diversos modelos é a tabela do Storage Review, disponível no: http://www.storagereview.com/comparison.html. Outra tabela recomendada é a disponível no TomsHardware: http://www23.tomshardware.com/storage.html. Outra curiosidade é que é comum que os fabricantes produzam alguns modelos de HDs onde não são utilizadas todas as trilhas dos discos, de forma a criar HDs com capacidades definidas, que se adaptem a determinados nichos do mercado. Imagine, por exemplo, que o fabricante X está produzindo todos os seus discos usando platters de 200 GB. Isso significaria que ele teria modelos de 200, 400, 600 e 800 GB, de acordo com o número de platters usados. Imagine agora que o fabricante Y, que ainda usa uma técnica anterior de produção, lança um HD de 160 GB, que é mais barato que o de 200 GB do fabricante X e por isso começa a roubar mercado dele. Ao invés de reduzir o custo do HD de 200 GB e perder dinheiro na venda de todos os HDs, o fabricante X pode criar um HD de 160 GB fazendo uma simples alteração no firmware do HD de 200 GB, que faça a controladora deixar de usar as trilhas mais externas do disco. Ele pode agora vender estes HDs de "160 GB" a um preço mais baixo, sem ter que mexer no preço do restante da linha. Por incrível que possa parecer, isto é bastante comum. Ao medir o desempenho deste HD "castrado", você perceberia que a diferença entre o desempenho nas trilhas internas e externas é bem menor que nos outros modelos. O tempo de acesso médio tende também a ser um pouco

57

menor, já que a cabeça de leitura precisa se deslocar por uma área menor do disco. HDs: Medindo o desempenho Publicado em 27/08/2008 – 10:48 por Carlos Morimoto

O desempenho do HD é determinado basicamente pela densidade dos discos, velocidade de rotação e, em menor grau, pelo tamanho do cache de leitura e suporte ao NCQ. Por ser um componente mecânico, não existe muito o que os fabricantes possam fazer para melhorar o desempenho de forma considerável sem mexer nesses fatores.

Outra questão é que o mercado de HDs é um ramo incrivelmente competitivo, de forma que tecnologias revolucionárias, como, por exemplo, a técnica de gravação perpendicular, são rapidamente adotadas por todos os fabricantes, já que os que não são capazes de acompanhar a evolução tecnológica simplesmente não conseguem se manter no mercado.

Em se tratando de HDs "normais", destinados ao mercado de consumo, dois HDs produzidos na mesma época, com a mesma velocidade de rotação e a mesma quantidade de cache, tendem a possuir um desempenho muito parecido.

Na hora da compra você deve se preocupar mais em não levar para casa HDs antigos, baseados em tecnologias obsoletas que por algum motivo tenham ficado parados no estoque dos distribuidores. Um HD de 120 GB produzido em 2007 muito provavelmente possuirá um único platter e será mais rápido que um HD produzido um ano atrás, com a mesma capacidade, mas que utilize dois platters, mesmo que ambos sejam de 7200 RPM e sejam vendidos por mais ou menos o mesmo preço.

Existem ainda casos de HDs "premium", que utilizam tecnologias recentemente introduzidas ou mudanças radicais no design e dessa forma conseguem ficar um passo à frente em termos de desempenho. Eles naturalmente ficam no topo das tabelas comparativas, mas em geral não são uma boa opção de compra fora de nichos muito específicos, pois sempre possuem um custo por megabyte muito mais alto.

58

Um bom exemplo são os Maxtor Atlas 15K II, uma série de HDs SCSI que até 2006 estavam entre os mais rápidos do mercado, em detrimento da capacidade de armazenamento.

Como você pode ver na foto a seguir, embora o Atlas 15K II fosse um HD de 3.5", internamente ele utilizava discos de 2.5", similares aos usados em notebooks. O menor diâmetro dos discos reduz a capacidade de armazenamento, mas permitiu que os discos girassem a 15.000 RPM. O menor diâmetro também permitiu reduzir o tempo de acesso (já que a distância a ser percorrida pelas cabeças de leitura era menor) o que, combinado com outras melhorias, resultou num HD Ultra 320 SCSI com tempo de acesso de apenas 5.5 ms e taxa de leitura seqüencial (nas trilhas externas) de 98 MB/s:

O problema é que, além de caro, a capacidade de armazenamento era pequena, mesmo para os padrões da época. O modelo com 1 platter armazenava apenas 37 GB, enquanto o modelo com 4 armazenava 147 GB. Ou seja, você pagaria até US$ 1.000 para ter uma capacidade equivalente à de um HD low-end.

De uma forma geral, o melhor em termos de custo-benefício é comprar HDs de geração atual, escolhendo entre os modelos de baixo custo e substituir o HD a cada 18 ou 24 meses, se possível revendendo o antigo (por algum motivo os HDs costumam ser um item valorizado no mercado de componentes usados, talvez porque todo mundo sempre precisa de mais espaço ;). Dessa forma, você vai conseguir sempre manter o seu equipamento relativamente atualizado, gastando pouco.

59

Acaba sendo muito melhor do que gastar o dobro, tentando comprar "o melhor HD", que vai estar desatualizado da mesma forma daqui a dois anos. Tenha em mente que a vida útil de qualquer equipamento é limitada, então só vale a pena gastar mais se o ganho de desempenho realmente for lhe trazer um retorno tangível ao longo desse período.

Em um servidor, o investimento em HDs topo de linha pode compensar em muitos casos, já que um melhor desempenho equivale a mais requisições e, conseqüentemente, mais clientes atendidos. A perda acumulada de algumas visitas diárias, ao longo de alguns anos, poderia corresponder a um prejuízo equivalente a várias vezes o valor investido nos HDs, por exemplo.

Mas, tenha em mente que o perfil de uso de disco em um servidor é bem diferente do uso em um desktop típico, sem contar que, dada a sua importância, pequenos ganhos de desempenho podem realmente compensar pequenas extravagâncias, o que não é o caso de um desktop típico.

Por mais que você mantenha vários programas abertos e realize muitas operações ao mesmo tempo, não vai conseguir chegar nem perto do que acontece num servidor web, por exemplo, que precisa responder a um grande volume de requisições simultâneas a cada segundo.

Num servidor típico, são realizadas um enorme número de pequenas leituras, que são usadas para montar as páginas ou arquivos que serão enviados aos clientes. Um fórum com um grande número de mensagens pode facilmente resultar em um banco de dados de 10 ou mesmo 20 GB, contendo uma infinidade de pequenas mensagens de texto e ter 1000 ou 2000 visitantes simultâneos em determinados períodos.

Para cada página a ser exibida, o servidor precisa ler várias entradas dentro do banco de dados (o tópico propriamente dito, informações sobre os usuários e assim por diante). Mesmo com o uso de caches, não é difícil imaginar que tantas requisições simultâneas levam o desempenho dos HDs ao limite. Nesse cenário, qualquer redução no tempo de acesso representa um grande ganho de desempenho.

Em um desktop, o HD acaba sendo mais relacionado ao tempo de boot e carregamento dos programas, por isso a taxa de transferência acaba sendo o item mais importante. A única operação que se aproxima um pouco do que acontece nos servidores é o uso intensivo de swap, onde o HD também precisa realizar um grande número de pequenas leituras. Entretanto, nesses casos o

60

problema não seria o HD, mas sim a falta de memória RAM. O único swap bom é o swap que não é feito.

Existem ainda casos onde o desempenho simplesmente não é um fator importante, como por exemplo no caso de HDs secundários, usados apenas para guardar arquivos ou fazer backup, onde você acessa os dados apenas esporadicamente. Nesses casos, o melhor negócio é simplesmente procurar os HDs com o menor custo por megabyte, dentro da capacidade de que você precisa e escolher um baseado na reputação do fabricante. Em casos como este, um HD mais lento, de 5400 RPM, pode ser até desejável, já que eles consomem menos energia e geram menos calor que os de 7200 RPM.

De qualquer forma, é importante entender os fatores que determinam o desempenho dos HDs, de forma a não ser enganado pelas frases floridas usadas pelos fabricantes e não fazer feio nas rodas de amigos. :)

61

Tempo de Busca (Seek Time) Ao comparar dois HDs fabricados na mesma época, que utilizam a mesma velocidade de rotação e possuem uma capacidade e número de discos similar (o que indica que possuem mais ou menos a mesma densidade), o tempo de busca é provavelmente o único fator que pode diferir de forma significativa entre os dois. O tempo de busca indica o tempo que a cabeça de leitura demora para ir de uma trilha à outra do disco, ou seja, indica a performance do actuator usado no HD. O tempo de busca é importante, pois ele é o fator que mais influencia no tempo de acesso e conseqüentemente na performance geral do HD. Existem três índices diferentes para o cálculo do tempo de busca: Full Stroke, Track-to-Track e Average. O primeiro (Full Stroke) indica o tempo que a cabeça de leitura demora para se deslocar da primeira até a última trilha do HD, o que normalmente demora entre 15 e 20 milissegundos. Como é o maior dos três, este valor não costuma ser divulgado muito abertamente pelos fabricantes. O Track-to-Track é justamente o oposto; o tempo que a cabeça demora para mudar de uma trilha para a seguinte. Como a distância a ser percorrida é muito pequena, ele costuma ser muito baixo, inferior a 1 milissegundo. Como ele é o valor mais baixo dos três, muitos fabricantes divulgam o valor do Track-to-Track nas especificações, omitindo os outros dois. Finalmente, temos o Average (valor médio), que é justamente um meio termo entre os dois. Ele indica o tempo médio que a cabeça demora para se locomover até um setor aleatório do HD. Ao pesquisar nas especificações, procure justamente se informar sobre o valor Average, já que ele é o mais indicativo dos três. Aqui temos as especificações de um Samsung HD300LJ, um HD de 300 GB e 7.200 RPM, que era um modelo de médio custo no início de 2007:

Track to Track: 0.8 ms Average: 8.9 ms Full Stroke: 18 ms

Aqui temos as de um Western Digital Raptor X, um "topo de linha" de 10.000 RPM, que utiliza platters de 2.5". O menor diâmetro dos discos faz com que ele tenha apenas 150 GB de capacidade (2 discos), mas em troca permitiu obter tempos de acesso bem mais baixos:

62

Read Seek Time: 4.6 ms Write Seek Time: 5.2 ms (average) Track-To-Track Seek Time: 0.4 ms (average) Full Stroke Seek: 10.2 ms (average) Veja que as descrições usadas pela Samsung e pela Western Digital são ligeiramente diferentes. Tanto o "Average" da Samsung quanto o "Read Seek Time" da WD referem-se ao tempo de busca médio para operações de leitura. A WD incluiu também o Write Seek Time, que é o tempo de busca para operações de gravação, que é sempre um pouco mais alto e por isso nem sempre divulgado nas especificações. Como você pode ver, esses são dois exemplos extremos. O Raptor possui tempos de busca quase 50% menores, mas em compensação é mais caro e possui menos da metade da capacidade do Samsung. Você acaba pagando muito mais caro pela maior performance.

Cache de Disco (ou Buffer de disco)

O cache não é essencial apenas para a memória RAM. Um dos grandes responsáveis pelo desempenho dos HDs atuais é novamente o ilustre cache. Apesar disso, o cache de disco funciona de uma forma um pouco diferente do cache da memória RAM.

Em primeiro lugar temos uma pequena quantidade de cache instalada no próprio HD. Este cache pode ser de 512 KB, 1 MB, 2 MB, ou até mais, dependendo do modelo. A função deste primeiro cache é basicamente a seguinte:

Geralmente ao ler um arquivo, serão lidos vários setores seqüenciais. A forma mais rápida de fazer isso é naturalmente fazer com que a cabeça de leitura leia de uma vez todos os setores da trilha, passe para a próxima trilha seguinte, leia todos os seus setores, passe para a próxima e assim por diante. Isso permite obter o melhor desempenho possível. O problema é que na prática não é assim que funciona. O sistema pede o primeiro setor do arquivo e só solicita o próximo depois de recebê-lo e certificar-se de que não existem erros.

Se não houvesse nenhum tipo de buffer, a cabeça de leitura do HD acabaria tendo que passar várias vezes sobre a mesma trilha, lendo um setor a cada passagem, já que não daria tempo de ler os setores seqüencialmente depois de todo tempo perdido antes de cada novo pedido.

63

Graças ao cache, este problema é resolvido, pois a cada passagem a cabeça de leitura lê todos os setores próximos, independentemente de terem sido solicitados ou não. Após fazer sua verificação de rotina, o sistema solicitará o próximo setor, que por já estar carregado no cache será fornecido em tempo recorde.

Os dados lidos pelas cabeças de leitura, originalmente são gravados no cache, e a partir dele, transmitidos através da interface IDE ou SCSI. Caso a interface esteja momentaneamente congestionada, os dados são acumulados no cache e, em seguida transmitidos de uma vez quando a interface fica livre, evitando qualquer perda de tempo durante a leitura dos dados. Apesar do seu tamanho reduzido, o cache consegue acelerar bastante as operações de leitura de dados. Claro que quanto maior e mais rápido for o cache, maior será o ganho de performance.

Para complementar este primeiro nível de cache, os sistemas operacionais criam um segundo cache de disco usando a memória RAM. No Windows 95/98 esta quantidade é fixa, mas a partir do Windows 2000 o tamanho do cache de disco varia de acordo com a quantidade de memória RAM disponível. Neste cache ficam armazenados também últimos dados acessados pelo processador, permitindo que um dado solicitado repetidamente possa ser retransmitido a partir do cache, dispensando uma nova e lenta leitura dos dados pelas cabeças de leitura do HD. Este sistema é capaz de melhorar assustadoramente a velocidade de acesso aos dados quando estes forem repetitivos, o que acontece com freqüência em servidores de rede ou quando é usada memória virtual.

Isso explica o por quê dos grandes servidores utilizarem vários gigabytes de memória RAM. Além da memória consumida pelos aplicativos, é essencial que tenham um enorme cache de disco. Assim, ao invés de ler os dados a partir do HD, o servidor pode trabalhar na maior parte do tempo lendo os dados a partir do cache na memória RAM que será sempre muito mais rápido.

HDs: NCQ, tempo de busca e MTBF Publicado em 28/08/2008 – 10:58 por Carlos Morimoto

A grande maioria dos HDs SATA atuais suporta o NCQ, onde a controladora utiliza o tempo ocioso, entre uma leitura e outra, para estudar e reorganizar a ordem das leituras seguintes, de forma que elas possam ser executadas na ordem em que seja necessário o menor movimento possível dos discos. É como no caso de um ônibus, que precisa fazer um itinerário passando por diversos

64

pontos da cidade. Com o NCQ o motorista tem autonomia para fazer alterações na rota, de acordo com as condições do trânsito, escolhendo a rota mais rápida.

Esta ilustração fornecida pela nVidia mostra como o sistema funciona. O HD à esquerda não possui suporte a NCQ, de forma que, ao realizar 4 leituras a setores aleatórios do disco ele precisa realizá-las em ordem, fazendo com que sejam necessários um número maior de rotações do disco, À direita, o HD com NCQ usa um atalho para realizar a mesma seqüência de leitura em menos tempo, lendo os setores fora de ordem:

Na prática, o NCQ pode melhorar a taxa de transferência do HD em até 10% em situações específicas, onde são lidos diversos arquivos pequenos espalhados pelo HD, como durante o carregamento do sistema operacional, ou de um programa pesado, mas faz pouca diferença quando você está transferindo grandes arquivos. De qualquer forma, ele é uma otimização implementada via software, que não aumenta o custo de produção dos discos e não tem contra indicações.

Tem seguida temos a questão do cache, que, embora não seja tão importante para o desempenho quanto geralmente se pensa, permite à controladora executar um conjunto de operações úteis para melhorar o desempenho.

Geralmente ao ler um arquivo, serão lidos vários setores seqüenciais. A forma mais rápida de fazer isso é, naturalmente, fazer com que a cabeça de leitura leia de uma vez todos os setores da trilha, passe para a trilha seguinte, passe para a terceira e assim por diante. Isso permite obter o melhor desempenho possível.

65

O problema é que na prática não é assim que funciona. O sistema pede o primeiro setor do arquivo e só solicita o próximo depois de recebê-lo e certificar-se de que não existem erros. Se não houvesse nenhum tipo de buffer, a cabeça de leitura do HD acabaria tendo que passar várias vezes sobre a mesma trilha, lendo um setor a cada passagem, já que não daria tempo de ler os setores seqüencialmente depois de todo tempo perdido antes de cada novo pedido.

Graças ao cache, este problema é resolvido, pois a cada passagem a cabeça de leitura lê todos os setores próximos, independentemente de terem sido solicitados ou não. Após fazer sua verificação de rotina, o sistema solicitará o próximo setor, que por já estar carregado no cache será fornecido em tempo recorde.

Nos HDs atuais, o cache pode ser usado também nas operações de escrita. Imagine, por exemplo, que a controladora está ocupada lendo um arquivo longo e o sistema solicita que ela atualize um pequeno arquivo de log. Em vez de precisar parar o que está fazendo, a controladora pode armazenar a operação no cache e executá-la mais adiante, em um momento de ociosidade. Nos HDs SATA com NCQ, a controladora possui liberdade para reorganizar as operações, realizando-as de forma que sejam concluídas mais rápido. A controladora passa então a armazenar os dados no cache, de forma que, depois de concluídas as operações, possa organizar os dados e entregá-los na ordem correta para o sistema.

O espaço excedente é usado para armazenar os últimos arquivos acessados, de forma que eles possam ser fornecidos rapidamente caso sejam requisitados novamente. A principal vantagem de usar um cache maior seria justamente ter mais espaço para arquivos. A questão é que o sistema operacional também mantém um cache de leitura e gravação utilizando a memória RAM que, por ser maior que o cache do HD, acaba sendo mais eficiente e também mais rápido, já que o cache do HD tem sua velocidade de transferência limitada à velocidade da interface IDE ou SATA, enquanto o cache feito pelo sistema operacional está limitado apenas à velocidade de acesso da própria memória RAM. Esse é o principal motivo de um HD com mais cache não ser tão mais rápido quanto se pensa. Uma pequena quantidade de cache é importante por causa de todos os recursos que vimos, mas a partir de um certo ponto, o tamanho do cache acaba fazendo pouca diferença.

66

Concluindo, duas informações que constam nas especificações dos HD e que são freqüentemente mal entendidas são o MTBF e o service life, que se destinam a dar uma idéia estimada da confiabilidade do HD.

MTBF significa "Mean Time Between Failures" ou "tempo médio entre falhas". A maioria dos HDs de baixo custo, destinados ao mercado doméstico, possuem MTBF de 300.000 ou 600.000 horas, enquanto os modelos high-end, ou destinados a servidores, normalmente ostentam um MTBF de 1.200.000 horas. Complementando temos o "service life" ou "component design life", que normalmente é de 5 anos.

Como era de se esperar, o service life indica o tempo de vida "recomendado" pelo fabricante. Como o HD é composto por componentes mecânicos, um certo desgaste é acumulado durante o uso, culminando na falha do HD. Um service life de 5 anos indica que o HD é projetado para durar 5 anos e que a grande maioria das unidades deve realmente resistir ao tempo especificado.

O MTBF, por sua vez, não é uma indicação do tempo de vida do HD, mas sim indica a percentagem de chance do HD apresentar defeito antes do final do service life. Se o service life é de 5 anos e o MTFB é de 600.000 horas, significa que existe uma possibilidade de 1.4% do seu HD apresentar defeito antes disso.

Parece complicado, mas na verdade não é tanto :). A idéia é que se você tivesse um datacenter com 1.000 HDs iguais, um deles pifaria em média a cada 600.000 horas somadas (somando os 1.000 HDs), ou seja a cada 25 dias, ao longo dos primeiros 5 anos de uso. Depois isso, você pode esperar que a taxa de mortalidade seja cada vez maior nos anos seguintes, embora um pequeno número dos HDs possa resistir a 10 anos de uso ou mais.

Outra forma de explicar seria que, se você substituísse seu HD por outro igual a cada 5 anos, aposentando os antigos, seriam necessárias (em média) 600.000 horas, ou seja, 68.4 anos para que você perdesse os dados por causa de falha em um dos HDs. Ou seja, tudo gira em torno de possibilidades. Se você for "sortudo", mesmo um HD com MTBF de 1.200.000 horas pode pifar no primeiro mês de uso, da mesma forma que o HD de 200 reais do vizinho pode resistir durante 10 anos e ainda voltar a funcionar depois de removido o pó acumulado ;). O MTBF apenas serve como um indicativo da possibilidade de qualquer um dos dois extremos ocorrer.

67

NCQ A grande maioria dos HDs SATA atuais suporta o NCQ, onde a controladora utiliza o tempo ocioso, entre uma leitura e outra, para estudar e reorganizar a ordem das leituras seguintes, de forma que elas possam ser executadas na ordem em que seja necessário o menor movimento possível dos discos. É como no caso de um ônibus, que precisa fazer um itinerário passando por diversos pontos da cidade. Com o NCQ o motorista tem autonomia para fazer alterações na rota, de acordo com as condições do trânsito, escolhendo a rota mais rápida. Esta ilustração fornecida pela nVidia mostra como o sistema funciona. O HD à esquerda não possui suporte a NCQ, de forma que, ao realizar 4 leituras a setores aleatórios do disco ele precisa realizá-las em ordem, fazendo com que sejam necessários um número maior de rotações do disco, À direita, o HD com NCQ usa um atalho para realizar a mesma seqüência de leitura em menos tempo, lendo os setores fora de ordem:

HD sem NCQ (à esquerda) e com NCQ Na prática, o NCQ pode melhorar a taxa de transferência do HD em até 10% em situações específicas, onde são lidos diversos arquivos pequenos espalhados pelo HD, como durante o carregamento do sistema operacional, ou de um programa pesado, mas faz pouca diferença quando você está transferindo grandes arquivos. De qualquer forma, ele é uma otimização implementada via software, que não aumenta o custo de produção dos discos e não tem contra indicações.

68

Verificando e trazendo pixels travados de volta à vida nos LCD Postado por Alex Ferreira na categoria Manutenção E Hardware no dia 31-08-2009

Um problema cada vez mais comum entre monitores LCD, o pixel travado (ou dead pixel, se preferir). Aprenda a corrigir esse defeito que de tão comum acabou se tornando uma limitação nas telas de cristal líquido. Não conhece o termo? Ele é usado para mostrar quando um pequeno ponto (pixel) de sua tela assume uma cor fixa e não consegue mudar novamente. Continue lendo! Entendendo porque acontece! Cada pixel de uma tela LCD pode assumir milhões de cores, sendo muitas delas até imperceptíveis ao olho humano. A tela funciona bloqueando a luz entre dois substratos que ficam logo atrás do cristal liquido. O que acontece é que quando um pixel encontra-se sempre iluminado ou apagado, ou emitindo uma única cor independente da imagem exibida, significa que ele encontra-se travado ou morto. Pixel travado quer dizer que o pixel assumiu uma cor fixa, ou seja, o pixel funciona, mas não muda de cor. Pixel morto significa que o pixel simplesmente não funciona mais, ou seja, para esses casos não há solução. Os fabricantes de monitores consideram que até quatro pixels defeituosos é um número aceitável, consequência normal da tecnologia. Um monitor só é trocado quando mais de quatro pixels se encontram defeituosos. Tentando trazê-los via software

69

Esse é sem dúvidas o método mais fácil, prático e seguro. Existem vários programas que prometem restaurar os pixels. Nesse artigo falaremos sobre o UDPixel, que pode ser baixado AQUI.

Para verificar se sua tela possui pontos defeituosos, clique na cor preferida no lado esquerdo do programa. Sua tela ficará da cor que você selecionou, daí o trabalho é com você, basta procurar pontos que estão com uma cor diferente. Caso escolha a opção “Run Cycle”, o programa irá alternar de cor periodicamente. Caso você ache pontos suspeitos, está na hora de ir para o próximo passo! No lado direito, terá uma caixa com o nome “Flash Windows” e ao lado um número para selecionar. Insira o número de pixels defeituosos nesta caixa. Agora basta clicar em “Start” e irá abrir quadrados piscantes. Mova os quadrados até o pixel com defeito e deixe lá fazendo o trabalho. Caso queira alterar a cor, basta clicar com o botão direito no quadrado. O tempo de correção pode variar. Alguns usuários afirmam levar pouquíssimo tempo para normalizar o ponto defeituoso, já alguns relatam levar um pouco mais de tempo. Tudo vai depender do estado de sua tela, em alguns casos pode ser impossível normalizar o pixel. Tentando esfregar a tela Outro método (muito arriscado) é o de esfregar a tela de leve com um pano, porém esta é uma alternativa com menos chances de sucesso. Também pode

70

usar o dedo, mas tem que se ter muito cuidado, pois uma pressão muito grande pode danificar seu monitor completamente. Lembre que pela internet não é difícil de se achar métodos caseiros para resolver o problema de pixels travados. Alguns chegam a ser loucura, usando objetos pontiagudos que podem danificar permanentemente a tela. Qualquer deslize pode ser fatal para o seu monitor, e a melhor opção sempre é levar a uma assistência técnica especializada caso o método por software não resolva. Bom, essa foi mais uma dica. Caso tenha alguma sugestão, critica ou opinião sinta-se à vontade para deixar nos comentários. Até a próxima

Dicas para comprar seu computador: Escolhendo a memória RAM Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 17-08-2009

Atualmente existem 2 tipos principais de memória: DDR2 e DDR3. É sobre essa primeira que iremos tratar. A performance de uma memória RAM não é definida somente pela quantidade de megas ou gigas que ela possui, mas outros fatores influenciam na sua velocidade e qualidade. Apesar de outras várias caracterísitcas da memória, não há muito o que falar sobre elas, tudo é muito direto e simples.Antes de mais nada vamos entender a nomenclatura das memórias DDR2. Quando nós formos comprar uma memória devemos conhecer sua nomenclatura que geralmente é exposta desta forma DDR xxx/yyyy. Esse xxx é a frequência com que a memória trabalha e o yyyy é a quantidade de dados que essa memória consegue processar. Vamos a um exemplo: Memória DDR2 800/6400. Neste caso temos uma memória com frequência de 800 Mhz e fluxo de dados de até 6400 MB. E de onde vem esses 6400 MB ? A cada ciclo a memória envia até 64 bits e se você leu nosso post Entendendo os bits e os bytes você deve saber que 8 bits equivalem a 1 byte, portanto, 64 bits = 8 bytes. Se a cada ciclo temos 8 bytes, então a 800 cliclos temos 6.400.000 bytes que é igual a 6400 MB. Quer que eu desenhe ? 8 bytes * 800 Mhz = 6.400.000 bytes / 1000 = 6400MB Entendeu ? Agora vamos ao que interessa.

71

Frequência: As memórias, assim como os processadores, possuem uma velocidade de operação. No caso das DDR2 elas são tabeladas como 400 Mhz, 533 Mhz, 667 Mhz, 800 Mhz, 1066 Mhz. Atualmente as memórias de 400 e 533 Mhz já estão em desuso e não são encontradas com facilidade no comércio, a maioria dos computadores hoje trazem consigo uma memória de 800 Mhz. Latência: A memória RAM leva certo tempo para entregar um dado solicitado, esse tempo é chamado de CAS Latency. Nas memórias DDR2 existem times de 2, 2,5 e 3 ciclos por clock. Agora você deve escolher a memórias com a menor latência, com o menor CAS, pois quantomenor, mais rápida será a memória. Dual Channel: As memórias RAM por padrão trabalham com um canal de 64 bits, utilizando o recurso de Dual Channel elas passam a trabalhar a 128 bits fazendo com que, teoricamente, a memória passe a ter um fluxo de dados dobrado. É como se você pegasse uma estrada e duplicasse ela para que pudessem passar mais carros ao mesmo tempo. Mas… o que é preciso pra ativar esse recurso ? Preciso comprar uma placa ? Instalar um programa ? Não, você não precisa fazer nada disso. A única coisa que você precisa fazer é comprar memórias idênticas, com mesma frequência, latência, capacidade e, para não ter problema algum, do mesmo fabricante. Pronto, suas memórias funcionarão em Dual Channel.

Quantos gigas ou megas devo comprar ? Atualmente o recomendável é 1GB pra poder rodar com tranquilidade o Windows XP. Quem quiser se aventurar com Windows Vista e 7 o ideal é ter em mãos 2 GB para usufruir tudo que o sistema pode lhe oferecer. Assim como dinheiro, quanto mais memória, melhor. Use e abuse E se eu quiser comprar mais que 4 GB ? Para usar mais de 4 GB de memória RAM seu sistema operacional deve ser 64 bits, seja Windows XP, Vista ou Seven, ele deve ser a versão de 64 bits. O seu processador também ( é claro )

72

deve ter suporte a instruções de 64 bits. Caso você não use um sistema operacional e um processador de 64 bits, por mais que você tenha, sei lá, uns 8 GB de memória, o S.O. só vai reconhecer e usar 4GB. Portanto, antes de investir em RAM, planeje o sistema operacional e o processador. Para complementar esse post indico as seguintes leituras: Conhecendo o Dual-Channel Entenda as memórias DDR2 O que é a tecnologia Dual-Channel Acho que é isso pessoal, espero que vocês tenham compreendido o que deve ser levado em conta ao escolher uma memória. Dúvidas ? Comente UPDATE: LEIA O 4º POST DA SÉRIE

CONHECENDO O DUAL CHANNEL (MEMÓRIA)

Alucard - 21/8/2006

Por definição, Dual Channel é uma nova arquitetura feita para os controladores de memória de um computador. Tem como característica o aumento da largura de banda das memórias, desde que se use números pares de pentes em canais separados.

Com isso, a controladora de memória poderá acessar os módulos de memória simultaneamente, dobrando a largura de banda teórica.

É aconselhável o uso de pentes de memória idênticos para o melhor funcionamento do Dual Channel.

A memória de um computador é uma área de armazenamento temporário para as informações que serão tratadas pela CPU. Quanto mais rápido uma memória puder se comunicar com a CPU, melhor será a performance do sistema como um todo.

No passado, as memórias atendiam às necessidades das respectivas CPU´s, porém com o tempo, a habilidade de um sistema enviar dados para o processador, e o mesmo tratá-los evoluiu de maneira muito mais rápida do que as memórias podem suportar, logo se tornando um gargalo na performance do sistema.

Para que esse problema de gargalo fosse resolvido, a Intel formou algumas parcerias e desenvolveu o conceito de Dual Channel para as memórias.

73

Para ilustrar esse conceito, vamos imaginar um funil por onde entram os dados a serem executados, ao chegarem na controladora de memória e na memória em si, eles passam por um fino gargalo.

O Dual Channel provê mais um caminho para os dados poderem chegar até o processador, e a controladora de memória do sistema cuida para que o caminho inverso (do processador para a memória) também seja duplicado, para que não ocorra falta de sincronismo.

74

A controladora de memória de um sistema Intel típico fica situada no chipset da placa-mãe, todos os dados a serem processados pela CPU, e os resultados desse processamento passam por essa controladora de memória, sendo que os dados só podem fluir em um sentido de cada vez, similar a um semáforo, que controla o trânsito em uma estrada aonde apenas um carro pode circular de cada vez.

Quando se habilita o dual channel, nós dobramos essa estrada, e agora a controladora de memória pode controlar o dobro da informação. Pois agora ela pode enviar e receber dados ao mesmo tempo para os pares de memória.

75

A esse fluxo de informação é dado o nome de largura de banda.

A largura de banda é calculada em Bytes (1 Byte = 8 bits), e a controladora de memória é capaz de mover dados a 64bits pode vez quando em single-channel, dobrando para 128bits quando habilitado o dual-channel.

Para calcular a largura de banda de uma memória DDR, basta fazer:

Velocidade da memória (MHz) X Número de bits transferido por canal (64bits ou 8Bytes) X Número de canais (single ou dual)

Logo, para um típico sistema single channel, teríamos:

400MHz x 8Bytes (64bits) x 1 = 3200MBps

Ao habilitarmos o Dual-Channel, teríamos:

400MHz x 8Bytes (64bits) x 2 = 6400MBps

Resultando em um incrível aumento na largura de banda de nosso sistema.

Um processador PENTIUM4 com FSB de 800MHz de FSB (Front Side Bus, velocidade com a qual o processador se comunica com o chipset), é capaz de suportar até 6400MBps de transferência de dados. Com apenas um canal de 64bits, estaríamos usando apenas metade dessa capacidade, deixando o processador “faminto” por dados. Ao habilitar o Dual Channel, o sistema terá sua plena capacidade atingida.

Para habilitar o Dual Channel, primeiramente você precisa saber se o chipset de sua placa-mãe suporta essa característica.

Depois, precisa de módulos de memória iguais, e com isso quero dizer: mesma velocidade (DDR333, 400, 533...), mesma capacidade (256MB, 512MB, 1GB...) e mesmo número de chip´s de memória em cada lado do pente.

Lembrando que a tecnologia AMD64 incorporou a controladora de memória ao próprio processador, eliminando o gargalo que o chipset criava e permitindo que as memórias se comuniquem diretamente com o processador.

Com isso há um aumento significativo no aproveitamento da largura de banda, e uma maior velocidade ao se tratar dados.

76

Em ambientes multi-processados, os processadores Intel tem que dividir sua largura de banda entre si para cada processador adicionado ao sistema, pois teremos vários processadores querendo se comunicar com a mesma controladora de memória, enquanto os processadores AMD64 por ter a controladora embutida, multiplicam a largura de banda para cada processador adicionado.

Nota pessoal:

Estou cansado de ver por ai muitos “ténicos” dizer que Dual-Channel dobra a velocidade da memória, E ISSO NÃO É VERDADE!!!!!!

DUAL CHANNEL NÃO DOBRA A VELOCIDADE DA MEMÓRIA NEM AQUI E NEM NA CHINA.

Dual-Channel dobra a LARGURA DE BANDA!!!!

Como vimos nos cálculos lá em cima, a única coisa que dobra é o número de canais de comunicação, as memórias CONTINUAM funcionando com a mesma freqüência e mesmas latências.

Exatamente como uma em estrada aonde se tem um limite de velocidade (single-channel), e o que você faz para aumentar a vazão dos carros é adicionar OUTRA estrada e não aumentar o limite de velocidade.

Referências:

http://www.kingston.com/newtech/MKF_520DDRwhitepaper.pdf http://en.wikipedia.org/wiki/Dual_channel

Tudo o Que Você Precisa Saber Sobre Memórias DDR, DDR2 e DDR3

Introdução

Neste tutorial exploraremos as principais diferenças técnicas entre as memórias DDR, DDR2 e DDR3. Aproveite!

Antes de começarmos a falar especificamente sobre cada um dos tipos de memória, você precisa saber que DDR, DDR2 e DDR3 são memórias do tipo SDRAM (Synchronous Dynamic Random Access Memory), isto é, síncronas, o que significa que elas utilizam um sinal de clock para sincronizar suas transferências. DDR significa Double Data Rate ou Taxa de Transferência Dobrada, e memórias desta categoria transferem dois dados por pulso de

77

clock. Traduzindo: elas conseguem obter o dobro do desempenho de memórias sem este recurso trabalhando com o mesmo clock (memórias SDRAM, que não estão mais disponíveis para PCs).

Por causa desta característica, essas memórias são rotuladas com o dobro do clock real máximo que elas conseguem trabalhar. Por exemplo, memórias DDR2-800 trabalham a 400 MHz, memórias DDR2-1066 e DDR3-1066 trabalham a 533 MHz, memórias DDR3-1333 trabalham a 666,6 MHz e assim por diante.

Figura 1: Sinal de clock e modo DDR.

É muito importante notar que esses clocks são valores máximos que a memória pode oficialmente usar; isto não significa que a memória trabalhará com essas “velocidades” automaticamente. Por exemplo, se você instalar memórias DDR2-1066 em um computador que pode acessar apenas memórias a até 400 MHz (800 MHz DDR) – ou se seu micro estiver configurado erroneamente –, as memórias serão acessadas a 400 MHz (800 MHz DDR) e não a 533 MHz (1.066 MHz DDR). Isto acontece porque o sinal de clock é gerado pelo o controlador de memória, um circuito que está localizado fora da memória (no chip ponte norte da placa-mãe ou embutido no processador, dependendo do processador usado).

O esquema de nomenclatura DDRx-yyyy (onde x é a geração da tecnologia e yyyy é o clock da memória DDR) em teoria é usado apenas para os chips de memória. Os módulos de memória – a pequena placa de circuito impresso

78

onde os chips de memória estão soldados – utilizam um esquema de nomenclatura diferente: PCx-zzzz, onde x é a geração da tecnologia e zzzz é a taxa de transferência máxima teórica (também chamada largura de banda máxima). Este número indica a quantidade de bytes que podem ser transferidos por segundo entre o controlador de memória e o módulo de memória, assumindo que uma transferência de dados será realizada a cada pulso de clock. Esta conta é facilmente feita multiplicando o clock DDR em MHz por oito. Isto nos dará a taxa de transferência máxima teórica em MB/s (megabytes por segundo). Por exemplo, as memórias DDR2-800 têm uma taxa de transferência máxima teórica de 6.400 MB/s (800 x 8) e os módulos de memória que utilizam este tipo de memória são chamados PC2-6400. Em alguns casos o número é arredondado. Por exemplo, as memórias DDR3-1333 têm uma taxa de transferência máxima teórica de 10.666 MB/s, mas os módulos de memória que utilizam este tipo de memória são chamados PC3-10666 ou PC3-10600, dependendo do fabricante.

É realmente importante entender que esses valores são máximos teóricos e eles nunca são obtidos. Isto acontece porque na conta estamos assumindo que a memória enviará dados para o controlador de memória a cada pulso de clock, o que simplesmente não acontece. O controlador de memória e a memória precisam trocar comandos (por exemplo, um comando instruindo a memória para fornecer um dado armazenado em determinada posição) e durante este tempo a memória não estará transferindo dados.

Agora que você sabe o básico sobre as memórias DDR, vamos falar sobre as diferenças entre as três gerações existentes.

Velocidades

Uma das principais diferenças entre as memórias DDR, DDR2 e DDR3 é a maior taxa de transferência que cada geração consegue fornecer. Abaixo nós listamos as velocidades mais comuns para cada geração. Alguns fabricantes podem oferecer chips de memória capazes de trabalhar com outras velocidades não listadas aqui – por exemplo, memórias especiais voltadas para os entusiastas em overclock. Os clocks terminados em 33 e 66 MHz são na verdade dizimas periódicas (33,3333 e 66,6666, respectivamente).

Memória Clock Real

Taxa de Transferência Máxima Teórica

Módulo de Memória

DDR200 100 MHz 1.600 MB/s PC-1600

79

DDR266 133 MHz 2.133 MB/s PC-2100

DDR333 166 MHz 2.666 MB/s PC-2700

DDR400 200 MHz 3.200 MB/s PC-3200

DDR2-400 200 MHz 3.200 MB/s PC2-3200

DDR2-533 266 MHz 4.266 MB/s PC2-4200

DDR2-667 333 MHz 5.333 MB/s PC2-5300

DDR2-800 400 MHz 6.400 MB/s PC2-6400

DDR2-1066

533 MHz 8.533 MB/s PC2-8500

DDR3-800 400 MHz 6.400 MB/s PC3-6400

DDR3-1066

533 MHz 8.500 MB/s PC3-8500

DDR3-1333

666 MHz 10.666 MB/s PC3-10600

DDR3-1600

800 MHz 12.800 MB/s PC3-12800

Tensões de Alimentação

As memórias DDR3 necessitam de uma tensão de alimentação menor do que as memórias DDR2, que por sua vez necessitam de uma tensão de alimentação menor do que as memórias DDR. Isto significa que as memórias DDR3 consomem menos energia do que as memórias DDR2, que por sua vez consomem menos energia do que as memórias DDR.

Tipicamente as memórias DDR são alimentadas com 2,5 V, as memórias DDR2 são alimentadas com 1,8 V e as memórias DDR3 são alimentadas com 1,5 V (embora existam módulos DDR3 alimentados com 1,6 V ou 1,65 V e chips que necessitem apenas de 1,35 V podem se tornar comum no futuro). Alguns módulos de memória podem necessitar tensões de alimentação maiores do que as listadas na tabela abaixo. Isto acontece especialmente com memórias que trabalham com clocks maiores do que os oficiais (por exemplo, memórias para overclock).

Tecnologia Tensão de Alimentação Típica

DDR 2,5 V

DDR2 1,8 V

DDR3 1,5 V

80

Latência

A latência é o tempo que o controlador de memória precisa esperar entre a requisição de um dado e sua efetiva entrega. Ela também é conhecida como Latência do CAS (Column Address Strobe) ou simplesmente CL. Este número é expresso em pulsos de clock. Por exemplo, uma memória CL3 significa que o controlador de memória precisa esperar três pulsos de clock até que o dado seja fornecido após a sua solicitação. Com uma memória CL5 o controlador de memória terá de esperar mais: cinco pulsos de clock. Portanto você deve sempre procurar por módulos de memória com a menor latência possível.

Figura 2: Latência.

As memórias DDR3 têm latências maiores do que as memórias DDR2, que por sua vez têm latências maiores do que as memórias DDR. As memórias DDR2e DDR3 têm um parâmetro adicional chamado AL (Additional Latency ou Latência Adicional) ou simplesmente A. Com as memórias DDR2 e DDR3 a latência total será CL+AL. Felizmente praticamente todas as memórias DDR2 e DDR3 são AL 0, o que significa que não há necessidade de latência adicional. Abaixo nós resumimos os valores mais comuns de latências.

Tecnologia Latência Típica Outras Latências Disponíveis

DDR 3 2, 2,5

DDR2 5 3, 4

DDR3 7 6, 8, 9

Isto significa que as memórias DDR3 demoram mais pulsos de clock para começarem a transferir dados do que as memórias DDR2 (assim como as memórias DDR2 demoram mais pulsos de clock para começarem a transferir

81

dados se comparado com as memórias DDR), mas isto não significa necessariamente uma espera de tempo maior (isto só é verdade quando comparamos memórias trabalhando com o mesmo clock).

Por exemplo, uma memória DDR2-800 CL5 demorará menos tempo (ou seja, será mais rápida) para começar a fornecer dados do que uma memória DDR3-800 CL7. No entanto, como as memórias são de “800 MHz”, ambas oferecem a mesma taxa de transferência máxima teórica (6.400 MB/s). Além disso, é importante lembrar que a memória DDR3 consumirá menos energia do que memória DDR2.

Ao comparar módulos com clocks diferentes você precisa fazer algumas contas para poder comparar as latências. Preste atenção que estamos falando em “pulsos de clock”. Quando o clock é maior, cada pulso de clock é menor (ou seja, o período é menor). Por exemplo, em uma memória DDR2-800, cada pulso de clock leva 2,5 ns (1 ns = 0,000.000.001 segundo) – a conta é simples, período = 1 / frequência (note que você precisa usar o clock real e não o clock DDR nesta fórmula; para facilitar as coisas nós compilamos uma tabela de referência abaixo). Portanto, supondo uma memória DDR2-800 com CL 5, a espera inicial será de 12,5 ns (2,5 ns x 5). Agora suponha uma memória DDR3-1333 com CL 7. Com esta memória cada pulso de clock tem um período de 1,5 ns (veja na tabela baixo), portanto o tempo de espera (latência) será de 10,5 ns (1,5 ns x 7). Portanto apesar de a latência desta memória DDR3 parecer ser maior (7 vs. 5), o tempo de espera é, na verdade, menor. Portanto não saia por aí achando que as memórias DDR3 têm latências piores do que as memórias DDR2: isto dependerá do clock que você estiver falando.

Clock DDR Clock Real Período do Clock

200 MHz 100 MHz 10 ns

266 MHz 133 MHz 7,5 ns

333 MHz 166 MHz 6 ns

400 MHz 200 MHz 5 ns

533 MHz 266 MHz 3,75 ns

666 MHz 333 MHz 3 ns

800 MHz 400 MHz 2,5 ns

1.066 MHz 533 MHz 1,875 ns

1.333 MHz 666 MHz 1,5 ns

1.600 MHz 800 MHz 1,25 ns

82

Normalmente os fabricantes anunciam as temporizações da memória como uma série de vários números separados por traços (por exemplo, 5-5-5-5, 7-10-10-10, etc). A latência do CAS é sempre o primeiro número desta série. Veja os exemplos nas Figuras 3 e 4. Se você quiser saber o que cada um dos outros números significa leia nosso tutorial Entendendo as Temporizações das Memórias RAM.

Figura 3: DDR2-1066 com CL 5.

Figura 4: DDR3-1066 com CL 7.

Pré-busca

As memórias dinâmicas armazenam dados dentro de uma matriz de pequenos capacitores. As memórias DDR transferem dois bits de dados por pulso de clock da matriz da memória para o seu buffer interno de entrada e saída. Isto é chamado pré-busca de 2 bits. Nas memórias DDR2 este caminho de dados interno foi aumentado para quatro bits e nas memórias DDR3 ele foi aumentado novamente para oito bits. Isto é na verdade o macete que

83

permite que memórias DDR3 trabalhem com clocks mais elevados do que as memórias DDR2, que por sua vez trabalham com clock mais elevados do que as memórias DDR.

Os clocks que estamos nos referindo até agora são os clock do “mundoexterno”, ou seja, na interface de entrada e saída da memória, onde a comunicação entre a memória e o controlador de memória acontece. Internamente, no entanto, a memória trabalha de uma maneira um pouco diferente.

Para entender melhor esta idéia vamos comparar chips de memória DDR-400, DDR2-400 e DDR3-400 (nós sabemos que memórias DDR3-400 não existem; incluímos na comparação apenas para efeitos didáticos). Esse três chips trabalham externamente a 200 MHz transferindo dois dados por pulso de clock, obtendo um desempenho externo como se estivessem trabalhando a 400 MHz. Internamente, no entanto, o chip DDR transfere dois bits entre a matriz da memória e o buffer de entrada e saída, portanto para compatibilizar a velocidade da interface de entrada e saída este caminho de dados tem que trabalhar a 200 MHz (200 MHz x 2 = 400 MHz). Como nas memórias DDR2 este caminho de dados foi aumentado de dois para quatro bits, elas podem trabalhar com a metade do clock para obter o mesmo desempenho (100 MHz x 4 = 400 MHz). Com as memórias DDR3 acontece a mesma coisa: o caminho dos dados foi dobrado novamente para oito bits, portanto elas podem trabalhar com a metade do clock das memórias DDR2 ou apenas ¼ do clock das memórias DDR para obter o mesmo desempenho (50 MHz x 8 = 400 MHz).

clique para ampliar Figura 5: Entendendo a pré-busca.

84

Dobrando o caminho de dados de cada geração significa que cada nova geração de memória pode ter modelos de chips com o dobro do clock máximo obtido na geração anterior. Por exemplo, as memórias DDR-400, DDR2-800 e DDR3-1600 trabalham internamente com o mesmo clock (200 MHz).

Terminação Resistiva

Nas memórias DDR a terminação resistiva necessária está localizada naplaca-mãe, enquanto que nas memórias DDR2 e DDR3 esta terminação está localizada dentro dos chips de memória – técnica chamada ODT, On-Die Termination.

Isto é feito para fazer com que os sinais fiquem mais “limpos”. Na Figura 5 você pode ver o sinal que chega no chip de memória. No lado esquerdo você ver os sinais em um micro que usa terminação na placa-mãe (memórias DDR) e no lado direito você ver os sinais em um micro que usa terminação dentro dos chips (memórias DDR2 e DDR3). Mesmo um leigo pode facilmente notar que os sinais no lado direito são mais limpos e estáveis do que os sinais do lado esquerdo. No quadrado amarelo você pode comparar a diferença na janela de tempo – esta janela é o tempo que a memória tem que ler ou escrever dados. Com o uso da terminação embutida no chip esta janela é maior, permitindo que clocks mais elevados sejam obtidos já que a memória tem mais tempo para ler ou escrever dados.

Figura 6: Comparação entre terminação na placa-mãe e terminação embutida no chip da memória.

Aspecto Físico

Finalmente nós temos as diferenças no aspecto físico. Você compra chips de memória já soldados em uma placa de circuito impresso chamada “módulo de memória”. Os módulos para cada geração de memória DDR são fisicamente diferentes e você não conseguirá instalar um módulo DDR2 em uma soquete DDR3, por exemplo. A menos que sua placa-mãe tenha soquetes DDR2 e DDR3 ao mesmo tempo (apenas alguns modelos suportam

85

ambos os tipos) você não pode fazer atualização da sua memória DDR2para DDR3 sem substituir a placa-mãe e eventualmente o processador (se em seu micro o controlador de memória estiver integrado no processador, como acontece com todos os processadores da AMD e com o processador Core i7 da Intel). A mesma coisa é válida com as memórias DDR e DDR2: tirando algumas raras exceções, você não pode substituir as memórias DDR por DDR2. Módulos DDR2 e DDR3 têm a mesma quantidade de pinos, porém o chanfro delimitador está em uma posição diferente.

Módulo de Memória Quantidade de Pinos

DDR 184

DDR2 240

DDR3 240

Figura 7: Diferença entre os contados de borda das memórias DDR e DDR2.

Figura 8: Diferença entre os contados de borda das memórias DDR2 e DDR3.

86

Todos os chips DDR2 e DDR3 utilizam encapsulamento BGA (Ball Grid Array), enquanto que os chips DDR quase sempre utilizam encapsulamento TSOP (Thin Small-Outline Package). Existem alguns poucos chips DDR com encapsulamento BGA no mercado (como os chips da Kingmax), mas eles não são muito comuns. Na Figura 9 você pode ver como um chip TSOP em um módulo DDR se parece, enquanto que na Figura 10 você ver como um chip BGA em um módulo DDR2 se parece.

Figura 9: Chips DDR quase sempre utilizam encapsulamento TSOP.

Figura 10: Chips DDR2 e DDR3 utilizam encapsulamento BGA.

87

O que é a tecnologia Dual Channel?

Utilizar este recurso pode melhorar muito o desempenho do seu computador, confira como habilitar o Dual Channel.

Antes de chegar no termo Dual Channel, talvez seja importante que você saiba

um pouco sobre memórias em geral. Já faz muito tempo que as memórias vêm

evoluindo junto aos computadores, sendo que atualmente não basta possuir

uma grande quantidade de memória, mas, também, é fundamental que este

componente seja muito veloz. Ao longo do tempo, as memórias foram

mudando de padrão, tanto fisicamente quanto virtualmente. Hoje, a memória

que a maioria dos computadores utiliza é a DDR2 (caso você ainda não conheça

o que é memória DDR, leia nosso artigo que explica o termo).

A memória é, sem dúvida, um dos componentes que tem maior influência no

desempenho geral do computador. Ela é responsável por armazenar os dados

temporariamente enquanto o processador calcula e realiza as tarefas

ordenadas pelo usuário. O grande problema das memórias consiste na baixa

velocidade em que elas trabalham, fator que limita muito o processador, que

deve esperar pacientemente pela transferência de dados.

Na maioria das vezes, as memórias apenas tinham sua frequência (clock) e

algumas temporizações alteradas, contudo, nem sempre isso influenciava

muito no desempenho. Pensando nisso, o mercado de hardware teve que

encontrar outra solução: colocar as memórias para trabalhar em conjunto.

A velocidade aumenta quando utilizamos memórias aos pares

Ao perceber que os computadores estavam ficando um pouco lento e que

somente aumentar a frequência não seria suficiente, a solução foi alterar o

controlador de memória das placas-mãe, ou até mesmo, dos processadores. As

memórias precisam trabalhar em “duplas” para poder utilizar a tecnologia Dual

Channel (duplo canal), ou seja, é necessário instalar dois pentes de memória na

placa-mãe.

Um conceito bem técnico

Dual Channel é o recurso que permite ao chipset ou ao processador efetuar

uma comunicação com dois canais de memória simultaneamente. As memórias

88

trabalham simultaneamente e fornecem o dobro da largura de dados do

barramento. O comum das memórias DDR é trabalhar com a incrível

quantidade de 64 bits, mas com o recurso Dual Channel, este valor “dobra” e

fica em 128 bits.

O que preciso para habilitar a tecnologia Dual Channel?

Como já citado, a tecnologia de duplo canal só funciona quando se utiliza

memórias aos pares. Portanto, você precisará comprar dois pentes de

memória, ou quatro. Vale frisar que para ativar o recurso é necessário

memórias com frequências, tamanho e temporizações idênticas, de preferência

até da mesma marca (assim você evita muitos problemas). Ou seja, para

habilitar 4 GB de memória em Dual Channel, você deverá comprar dois pentes

de 2 GB ou então, quatro pentes de 1 GB.

Além das memórias, é preciso atentar para o modelo da sua placa-mãe. O

chipset (nas placas-mãe para processadores Intel) é o responsável por trabalhar

com a tecnologia Dual Channel, e caso ele não suporte este recurso, nem

adianta você investir em vários pentes de memória. Usuários que utilizavam

processadores Intel, devem consultar o manual da placa-mãe para saber se o

chipset suporta o Dual Channel. Já quem possui um processador AMD, pode se

despreocupar, porque os processadores com soquete 939, 940, AM2 e AM2+

são totalmente compatíveis com a tecnologia, independendo da placa-mãe e

do chipset.

Como habilitar o Dual Channel?

Tudo depende muito da configuração do seu computador. Antes de habilitar, é

necessário verificar se a memória já não está operando em Dual Channel. Para

verificar isso é muito simples, basta baixar um programa, como o CPU-Z (ou

outro de sua preferência), e observar se nas especificações das memórias

consta o termo “Dual Channel”.

89

Bom, se a sua memória ainda não está trabalhando em Dual Channel, vamos

solucionar o problema. Habilitar o modo de operação Dual Channel depende

apenas da maneira com que você instalou os pentes de memória. O grande

problema consiste no seguinte: grande parte dos fabricantes não utiliza o

padrão para ajudar o usuário, mas para a felicidade de quem é mais esperto,

nos manuais das placas-mãe, sempre vêm descrito em quais soquetes você

deve conectar os pentes para que o Dual Channel seja utilizado.

Placas-mãe com somente dois espaços para memória RAM não possuem

segredos, apenas instale o par de memória nos dois slots. Já as placas-mãe

mais robustas trazem quatro slots de memória, fator que confunde muito o

usuário. Além disso, as fabricantes adotam cores para “facilitar” a instalação

das memórias. É fato que não facilita nem um pouco, mas para que você não

tenha que pesquisar no manual, elaboramos a imagem abaixo que exibe como

instalar as memórias nestas placas.

90

Legenda: Repare que para trabalhar em Dual Channel, cada módulo de

memória deve ser instalado em um canal. Portanto, se você for utilizar dois

módulos de memória em uma placa com quatro slots, instale o primeiro

módulo no slot A1 e o outro no slot B1. Caso queira instalar mais dois módulos,

instale-os nos slots restantes. Vale frisar que o sistema de cores nem sempre é

válido (depende da fabricante da placa-mãe), então procure sempre consultar

o manual da placa-mãe. Caso a informação não conste no manual,

simplesmente instale os módulos nos slots 1 e 3 (ou 2 e 4).

O conceito não é tão simples e entendê-lo é ainda mais difícil, mas em síntese o

recurso Dual Channel seria o que está descrito acima. Espero que você tenha

compreendido e possa participar comentando a respeito ou acrescentando

novas informações.

Dicas para comprar seu computador: Escolhendo o processador Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 05-08-2009

No segundo post da série Dicas para comprar seu computador (leia o primeiro post da série) explicaremos as principais características que você deve ter em mente ao comprar um processador. Ao contrário do que muita gente pensa, o desempenh o de um processador não se deve somente a sua “velocidade”,

ou seja, aqueles Ghz que você vê nos comerciais, mas a performance desses ch ips de silício depende de vários outros fatores como número de núcleos, memória cache e mais recentemente tem se dado importância ao TDP. Achou esses nomes meio hã… complicados ? Relax Vamos ver o que siginifica cada um deles e de acordo com o uso que você irá fazer do seu com putador, indicaremos a melhor escolha.

Daquelas 4 principais características a mais importante, sem dúvidas é aquantidade de cores ( de núcleos ) de um processador. Atualmente a maioria dos processadores vem como pelo menos 2 núcleos, isso significa que (a grosso modo) existem 2 processadores dentro de 1 só. Com o uso de mais de 1 núcleo as tarefas são dividadas para os dois

91

Muitas pessoas acham que o desempenho é divido por 2 também, mas não, os dois núcleos trabalham de forma totalmente independente ( com algumas exceções ). Fizemos um artigo que explica bem direitinho como reconhecer se os processadores são Dual Core, Triple Core ou Quad Core através do seu nome. Outra característica que importa é a memória cache do processador. “E processador tem memória?” Tem sim. É a memória cache L2. Para entendermos o que é a memória cache do processador vamos entender o que é o Cache em si. Quando acessamos uma página na internet pela primeira vez ela demora a carregar, não é ? Quando você acessa essa mesma página pela segunda vez ela carrega muito mais rápido. Pois é, a informação ( imagens, html, flashs ) daquela página são salvos ( mesmo que você não perceba ) no seu computador para que quando você for acessar o site novamente, você não precise baixar o site todo, pois ele já estará no seu PC. O cache do processador funciona de forma parecida, só que ao invés de sites, imagens e flash ele guarda instruções e dados que estão sendo usados para que dá próxima vez que for usar eles, o processador não precise ir na memória RAM ( ir ao site ), baixar as instruções ( baixar as imagens, html… ) e processar (exibir), pois tudo

que ele precisa já vai está nele. Hoje você encontra em processadores baratos ( leia-se Sempron e Celeron ) 256KB ou no mááximo 512 KB de cache L2. O mínimo de memória cache que se deve ter para ter uma boa experiência com o PC é 1 MB. Portanto, quanto mais memória cache, melhor. Processadores com mais de um núcleo compartilham a memória cache, dividindo-a pelo número de núcleos do

processador. Depois de observar a quantidade de núcleos e de memória cache do processador, você deve deve observar seu clock, ou seja, sua velocidade, seus gigahertz. Sem sombra de dúvidas, quanto mais Ghz melhor. O porém de quanto mais melhor é que, quanto mais veloz for o processador mais ele vai esquentar e mais ele vai consumir de energia. Comprar um processador entre 2 e 3 Ghz já é o bastante. Uma característica que ultimamente tem sido levada em conta é o TDP. O Thermal Design Power representa a quantidade máxima de energia que o sistema de refrigeração do computador precisa dissipar, em outras palavras, é a relação entre o quanto o processador esquena e o quanto o sistema de regrigeração ( cooler, water cooler ) consegue resfriar. Com um TDP alto, por exemplo 120 W, seu processador esquentará muito, comsumirá muito e fará com que a ventoinha do cooler gire ao máximo, provocando um aumento

92

considerável de ruído. Portanto, quer ter um computador silencioso, que consuma pouca energia e esquente pouco, procure processadores com TDP baixo, até 65 W. Para complementar esse post, fizemos um que explica a nomenclatura utilizada atualmente pela AMD e pela Intel nos seus processadores. Vale a pena dar uma conferida. O Alexandre Ziebert, do Fórum PCs, fez duas série muiiito boas falando sobre os processadores AMD e Intel. Dê uma passadinha por lá Agradeço em especial ao Alan, da comunidade do Clube do Hardware que deu total atenção as minhas dúvidas e a todas as pessoas que responderam ao meu tópico. Espero que este post ajude você a escolher seu próximo processador

Entendendo a nomenclatura dos processadores As duas maiores fabricantes de processadores são a Intel e a AMD. Cada uma dessas empresas adota um determinada nomenclatura para passar algumas informações ao consumidor a partir do nome do processador. Aparentemente a nomenclatura desses processadores é um tanto que confusa, mas com um pouco de atenção e conhecimento podemos identificar muitas de suas características.

Vamos começar pelas dicas da Intel. Todo processador Quad Core ( que possui 4 núcleos ) começa com a letra Q, de Quad. Por exemplo: Q9550, Q8400s, Q9300… Todo processador Dual Core ( que possui 2 núcleos ) começa com a letra E. Por exemplo: E7500, E6750, E4700… A nomenclatura dos Core iX é dividida hierarquicamente da seguinte forma: Core i7: Processadores de alto desempenho ( e alto custo ); Core i5: Processadores de desempenho intermediário; Core i3: Processadores de desempenho básico ( mas não é um Celeron da vida ); Se o processador for um Atom significa que ele foi feito para netbooks ( aqueles EeePCs da vida ) Se for um Xeon, significa que ele foi feito para servidores Se o processador que você for comprar tiver o nome Celeron no meio, significa que este é um processador de baixo desempenho e baixo custo, digamos que

93

ele seja uma versão “castrada” de um processador melhor. Esses Celerons normalmente acompanham aqueles computadores que são vendidos por R$ 799,00 nas Casas Bahia. ( Celerons podem ser dual core ). Agora que você entendeu a nomenc latura da Intel, vamos entender a da AMD ( note que a AMD sempre possui processadores equivalentes aos da Intel ).

Todo processador que terminar com X2, X3 e X4 possui 2,3 e 4 núcleos, respectivamente. Por exemplo: Athlon 64 X2 4400. Observe que sempre ao lado, no nome de um processador AMD, vai existir uma numeração. Essa numeração não significa a frequência ( ou velocidade ) do processador, é apenas a indicação do modelo. As versões que possuem FX no final do nome têm o multiplicador liberado, sendo ideais para overclock. Se você comprar um processador e o nome dele for Sempron alguma coisa, você estará levando um processador ultra básico para casa. Com memória cache e single core ( único núcleo ( nenhum processador Sempron é Dual Core) Processadores Phenom são os concorrentes diretos do Core iX da Intel. Exitem os Phenom e os Phenom II ( o II é o melhor ). Eles são processadores de alto desempenho ( custam bem menos que os Core iX ). Os processadores Turion são aqueles feitos para notebook. Se for um Opteron, significa que ele é um processador feito para servidores, assim como o Xeon da Intel. Mas afinal, quais são os melhores processadores de cada fabricante? Quando for comprar não analise somente o clock do processador, pois o clock é apenas uma parte do conjunto. Muitos vendedores por ai estufam o peito e dizem “leve esse processador, ele é 3.2 e é melhor que aquele 2.6 ali”, e é aí onde mora o perigo, pois o de 3,2 pode ser um Celeron, enquanto o 2,6 seria um Dual Core, e como vimos o Celeron pede água na frente de um Dual Core convencional. Quando sair às compras, analise o processador que possuir o maior número, no caso dos Intel e dos AMD’s mais recentes (Dual, Quad Core e iX; Phenom II e Athlon II). Por exemplo: E8400, E8500, E8600… Qual o melhor? O que possuir o maior número. Phenom II X4 920 e Phenom II X4 955. Quem é o melhor? O de maior número. Só tome cuidado para não analisar processadores diferentes, veja no exemplo que só comparei processadores da mesma familia, pois possuem a mesma arquitetura. No caso da Intel, não misture E com Q ou i7. Acretido que com essas dicas você poderá ter uma idéia geral do uso e de algumas características dos processadores.

94

Memristor: Conheça a tecnologia que vai revolucionar o futuro das memórias de armazenamento

Graças a nanotecnologia, a eletrônica e a informática vem evoluindo bastante nos últimos anos. Graças a ela foi possível criar processadores cada vez menores e mais eficientes, chipsets, memórias, etc.. Se não fosse por ela a Informática não seria a mesma, porém um problema ainda não tinha sido resolvido. A dependência de energia. Ninguém nunca havia conseguido construir uma memória RAM que conseguisse armazenar dados sem energia elétrica, nem que seja por um milionésimo de segundo. Já os discos rígidos não sofrem com a perda de dados por falta de eletricidade, pois usam o magnetismo para driblar essa limitação, porém eles sofrem com a baixa velocidade na troca de dados. Sempre que ligamos o computador, o sistema operacional é enviado do HD para a memória RAM, que por sua vez é acessada pelo processador. Se o processador tivesse que buscar os dados diretamente no HD o tempo de espera seria bem maior devido a baixa velocidade. Essa limitação nos discos rígidos sempre foi um “gargalo” para a Informática, que sempre esbarrou no problema. Recentemente a HP anunciou um novo componente, o Memristor. Componente que já existia no papel desde 1971, teorizado por Leon Chua. Veja na foto ao lado como o Memristor se parece. Estranho, não é? Lembre que é impossível vê-lo a olho nu, pois ele é incrivelmente pequeno, cerca de 50 nm e pouco menos de 200 átomos. Para se ter idéia do tamanho dele, comparar um Memristor a um capacitor seria como comparar um barco à Lua. O Memristor promete muito, por ter tamanho extremamente pequeno a tendência é que aos poucos os fabricantes adotem esta tecnologia em suas peças devido a velocidade incrivelmente maior e independência de energia elétrica. Provavelmente o futuro do armazenamento será os memristores, pois eles tem uma capacidade de armazenamento incrivelmente maior que os HDs e os SSDs. Apenas 1cm² é suficiente para armazenar 125MB, ou seja, no mesmo espaço de um SSD será possível armazenar 1,5TB. No caso das memórias RAM imagine: “por acaso acaba a energia elétrica em sua casa e você não salvou nada do que estava aberto. Mas aí você lembra que seu computador já é dotado de memristores, os quais salvaram o estado do

95

computador antes de tudo desligar e claro, eles não perderam as informações que estavam em sua tela. Fantástico, não?” Para os gamers de plantão, fabricantes como Sony, Nintendo e Microsoft poderiam usar os Memristores para substituir as memórias dos consoles, podendo assim acabar de vez com os “loadings” entre as fases daquele seu jogo favorito. Como podemos ver essa nova tecnologia só promete melhorias para o mundo da informática e da eletrônica, pois as aplicações não se limitam apenas a informática. A HP já anunciou que tem vários protótipos em fase de testes para que a tecnologia seja cada vez mais aperfeiçoada. Espera-se que os primeiros produtos que usem essa tecnologia sejam comercializados por volta de 2015. E ai, o que você achou dessa novidade? Será que vem mesmo em 2015? Deixe sua opinião para discutirmos sobre o assunto, que provavelmente será o nosso futuro.

Economize dinheiro e use até 9 computadores em 1 só Postado por Danilo Augusto na categoria Manutenção E Hardware no dia 11-07-2009

23

Antes de mais nada agradeço a atenção dada pela ThinNetworks ao nosso e-mail, respondendo prontamente a nossa solicitação de material para podermos construir um post de qualidade. Agradeço em especial ao Sr. Christiano Borja que foi quem nos respondeu e nos enviou algumas informações e imagens à respeito do Buddy. Atualmente existe muitos empreendimentos que necessitam do uso de várias máquinas, que exigem o mesmo desempenho do micro e executam basicamente as mesmas tarefas. Caixas nos supermercados, laboratórios de informática em escolas, terminais de auto-atendimento em clínicas… Enfim, exemplos não faltam para mostrar que em muitos locais seria preferível o uso de uma só máquina que substituiria o trabalho, consumo e manutenção de várias outras.

96

Imagine um supermercado, com 9 caixas. Seria mais interessante ter 2 computadores e “tranf ormar” esses 2 em 9 ou ter que comprar e manter 8 máquinas ? A resposta parece óbvia. O que eu vou apresentar aqui é uma tecnologia de uma empresa brasileira, a ThinNetworks, que faz com que existam e funcionem até 8 estações de trabalho em uma só. A ThinNetwork vende o Kit Buddy Lite, que nada mais é do que uma placa de vídeo ( com 1, 2 ou 4 saídas ), um adaptador USB para conectar teclado e mouse e a licença para o uso do programa que disponibiliza o compartilhamento de máquina. O funcionamento para usarmos 2 computadores em 1 só é o seguinte… Ao invés de comprarmos mais outro computador, nós compramos o Kit. A placa de vídeo que acompanha o Kit é instalada no PC juntamente com esse adaptador que você vê na imagem abaixo:

Essa placa de vídeo e esse adaptador é que serão o hardware da “nova máquina”. Neles serão conectados o novo monitor e o novo teclado e mouse. Depois de instalarmos os drives devemos instalar o software Buddy, que será responsável por compartilhar o computador para o outro monitor, teclado e mouse. Quando o Buddy estiver instalado, será necessários criar a conta que o novo usuário do PC irá utilizar para logar na máquina.Feito isto, acessamos o Buddy ( que já deverá estar instalado ) e iremos definir o hardware a ser usado. Não entendeu ? Vamos lá… Temos agora 2 monitores, 2 teclados e 2 mouses Na tela do Buddy definiremos assim:

97

Para quem ainda não entendeu diremos para o Buddy o seguinte: Buddy, o monitor, teclado e mouse número 1 trabalharão em conjunto. Quando eu mexer o mouse 1 o cursor que aparece no monitor 1 se mexerá. Quando eu digitar algo, esse texto digitado aparecerá no monitor. O mesmo vale para o outro trio. Assim que o PC reiniciar iremos nos deparar com a já conhecida tela de login do Windows:

Logaremos normalemente nas duas estações com os respectivos usuários. O mesmo login não pode ser usado nas duas telas ao mesmo tempo ( por isso criamos outro usuários ). Pronto ! A partir daí poderemos usar normalmente o PC. Navegar pela internet, digitar um documento, ver uma apresentação de slides… Tudo isso em dois monitores diferentes, com duas áreas de trabalho independentes uma da outra. Em suma, teremos 2 pessoas trabalhando em apenas 1 PC que se transformou em 2 ( para quem sabe o que é o Terminal Service, o Buddy funciona como um TS, só que localmente e sem lag ).

98

Qual a vantagem de se utilizar essa tecnologia ? Vamos fazer os cálculos… 1 Computador de baixo custo com a seguinte configuração: Processador: Intel Celeron 450 2.2Ghz Memória: 2GB Hard Disk: 320GB Teclado: Português Brasil ABNT2, 107 teclas, PS/2 Mouse: PS/2, 2 botões, com scroll, óptico Monitor: Widescreen 17’ Nas Lojas Americanas sai por R$1200,00 à vista. 1 Licença do Windows XP Professional: R$699,00 2 computadores desse, sem Windows nem Office, custariam R$2400,00. 2 licenças do Windows XP custariam R$ 1400,00 +________________________________________________________ TOTAL = R$3800,00 —————————————————————————————————- Agora vejamos o custo que teríamos comprando o Kit Buddy Lite: 1 Computador de baixo custo com a seguinte configuração: Processador: Intel Celeron 450 2.2Ghz Memória: 2GB Hard Disk: 320GB Teclado: Português Brasil ABNT2, 107 teclas, PS/2 Mouse: PS/2, 2 botões, com scroll, óptico Monitor: Widescreen 17’ Nas Lojas Americanas sai por R$1200,00 à vista. 1 Licença do Windows XP Professional: R$699,00 1 outro monitor de 17’, outro teclado e outro mouse sairiam por R$500,00 1 Kit Buddy Lite R$ 380,00 +________________________________________________________ TOTAL = R$2780,000 Note que essa é a economia só com a aquisição de equipamento. Faça a comparação entre fazer um upgrade de memória em um laboratório com 20 micros e fazer o mesmo upgrade num laboratório que possui o Buddy onde existem apenas 5 máquinas que funcionam como 20 ( cada uma com 4 monitores ). Agora imagine o custo com manutenção… Ao invés de consertar 4 máquinas, precisaremos consertar e descobrir o problema somente em uma. O consumo de energia cairá drasticamente. 1 PC comum consome o equivalente a 250 W e mais 35 W do monitor. Vamos pegar um laboratório de

99

informática com 20 máquinas, cada uma consumindo 250 W + 1 monitor para cada uma consumindo 34 W. 20 máquinas x 385 W = 5700 W de consumo Serão 20 máquinas gerando calor e obrigando a aquisição ou de mais uma aparelho de ar-condicionado ou de um mais potente, acarretando maior quantidade de energia consumida. Agora imagine o mesmo laboratório, só que usando 1 Buddy com 4 portas para cada PC, ou seja, 5 estações para cada PC ( 4 monitores e a máquian onde o Buddy está instalado ). Teremos: 5 máquinas * 285 W = 1425 W 15 monitores * 35 W = 525 W _______________________ TOTAL = 1950 W de consumo do laboratório Essa economia de energia elétrica durante 1 ano já é o bastante pra você investir em outras coisas na sua empresa ou na sua escola. Em suma, não faltam motivos para que a sua instituição, escola, clínica, farmácia, escritório de advocacia, contabilidade, concessionária, call center… ou empresa adote o Buddy Lite como alternativa para a redução de custos. Um kit que oferece economia energética, menos gastos e perda de tempo com manutenção, menos gastos com upgrades, menos gastos com aquisição de equipamentos e licenças… Enfim, uma tecnologia que vale a pena ser testada, avaliada e implantada no seu negócio. Grandes empresas e instituições como Riachuelo, SENAI, Secretaria de Educação do Rio de Janeiro e Microlins já adotaram o Buddy. Caso seja seu interesse conhecer mais essa tecnologia, que não é cara, ou até mesmo solicitar uma placa para teste com acompanhamento de pessoal qualificado, entre emcontato no meu e-mail: [email protected] Espero que tenha ficado claro o conteúdo e o entendimento deste post.

Guia de Compras dos Monitores LCD

100

O erro mais comum dos brasileiros é sempre comprar produtos pela estética, deixando de lado o desempenho. Se você sair à rua e fizer uma pesquisa rápida vai perceber que uma boa parte das pessoas levaria um produto X porque é mais bonito que produto Y, mesmo sem pesquisar o que o produto Y tem de bom. Devido a isso, muitos compram um monitor bonito, mas com péssimo desempenho. Isso mesmo amigo. Os monitores também têm suas características que vão definir se ele é bom ou ruim. Um exemplo que vou dar é desse monitor ali em cima, um AOC que é elegante com apenas 9,7 mm de espessura. No fim do artigo vou dar ele como exemplo para o que acabei de falar no parágrafo anterior. Abaixo, você confere o que deve ser levando em conta na escolha do seu LCD. O QUE LEVAR EM CONSIDERAÇÃO 1.Taxa de contraste Uma das mais importantes, senão a mais importante característica. Ela quem mede a diferença de brilho entre a quantidade de branco máxima e a quantidade de preto máxima que o monitor consegue gerar. Trocando em miúdos, quanto maior a taxa de contraste mais vivas serão as cores, e consequentemente mais bela a imagem vai ser. Hoje é possível encontrar monitores com 50.000:1, mas prefira sempre mais do que 15.000:1. 2.Brilho O brilho é quem indica a visibilidade da imagem em ambientes mais claros. Os monitores atuais geralmente possuem brilho de 300 cd/m² (candelas por metro quadrado). O brilho é um pouco diferente do contraste. O brilho ideal vai depender do ambiente, por exemplo, para um escritório o ideal seria entre 250 a 300 cm/m², já para uso em notebooks que são usados em ambientes abertos ou monitores que ficam expostos em ambientes iluminados, dê preferência a taxa de brilho maior. 3.Contraste dinâmico Se o monitor possuir essa característica, significa que quando ativada tal opção, o monitor vai ajustar o brilho automaticamente dependendo da imagem gerada na tela. Essa característica é muito eficaz, pois sempre que uma imagem necessitar de um brilho maior ou menor, o monitor se auto-ajusta, melhorando a qualidade da imagem.

101

4.Tempo de resposta É muito importante frisar esse item! Se você é daqueles que não abre mão de um joguinho no tempo livre, preste atenção nessa característica. O tempo de resposta é o tempo que um pixel leva para passar do preto ao branco. O tempo é medido em milissegundos e quanto menor for ele, melhor. Para o usuário comum o recomendado seria 5ms para baixo, já para gamers, 2ms é o recomendado. Se o tempo for muito alto a imagem gerada pode ficar sem nitidez , sem qualidade em movimentos muito rápidos e gerando aqueles fantasmas, já que o monitor não acompanha a velocidade da imagem.

5.Conexões Os conectores mais comuns que vemos em monitores são os D-Sub (o famoso VGA), porém ele já esta entrando em desuso (poucas placas de vídeo vem com essa conexão hoje), por ser uma conexão analógica. Quando for comprar um monitor dê preferência aos que possuam entradas DVI ou HDMI, que além de ser mais recentes, são digitais. Se você não tiver problemas com o seu bolso, leve um com HDMI, pois é a melhor conexão que temos atualmente, e pode facilmente ser adaptada para DVI.

102

6.Ângulo de visão Para alguns pode ser um fator irrelevante, mas pra quem trabalha com vendas ou necessita expor a imagem para muitas pessoas esse pode ser um fator crucial. Os LCD possuem um certo ponto onde não é possível ver de forma satisfatória a imagem. Um exemplo disso são os caixas eletrônicos. Eles têm monitores com baixíssimo ângulo de visão, permitindo que apenas quem esteja exatamente na frente consiga ler o que tem nele. Na hora da compra, quanto maior melhor. Agora que você já tem uma boa noção do que levar em conta na hora de escolher o monitor, vamos falar do AOC que citei no começo do artigo.Vamo analisar as suas características.

Tela: 15″ Widescreen Tempo de Resposta: 16ms Brilho: 200 cd/m² Relação de Contraste: 1200:1 (Dinâmico) Conector de Vídeo: Analógico (RGB) Resolução: 1280 x 800 @ 60 Hz Garantia: 1 Ano Pontos Positivos: Possui Contraste Dinâmico. Pontos Negativos: Tempo de Resposta altíssimo, brilho um pouco baixo, contraste muito abaixo de um monitor decente e possui conector obsoleto. O Site da AOC não informa o ângulo de visão do monitor, mas se você tiver a oportunidade de ver esse monitor, perceba que se você não estiver exatamente na frente dele, você não consegue ver muito bem, devido ao baixo ângulo de visão que ele oferece. E isso ainda é agravado devido à beleza. Sabe por quê? A tela dele é brilhante (diferente da maioria, que tem tela fosca) e o brilho da própria tela faz com que ela sirva como uma espécie de espelho, ou seja, ele pode refletir a luz se você não estiver na frente dele. Depois de usar esse monitor como exemplo, deixo a pergunta: “Vale mesmo a pena comprar um produto só porque é do Mickey Mouse?“ Depois de todas essas dicas, espero que pensem bem se vale a pena sacrificar o desempenho pela beleza. Claro que existem monitores aqui no Brasil que conseguem juntar a beleza ao desempenho em um mesmo equipamento, mas infelizmente acabam saindo um pouco mais caro.

103

Qual potência minha fonte deve ter ?

Você vai numa loja comprar uma fonte de alimentação pra seu computador e o vendedor lhe pergunta: "Qual a potência da fonte você quer ?"… Você saberia responder ? Todo aparelho que utiliza energia elétrica precisa de fonte que fornece uma certa potência. Uma dúvida comum entre boa parte dos usuários é qual a potência que a fonte dele deve ter para suprir as necessidades energéticas do computador. Além de se preocupar com a fonte, você tem 4 motivos a mais pra se preocupar com ela. Para facilitar o cálculo da potência necessária, o Newegg oferece uma calculadora de potência, para que você calcule a potência aproximada sua fonte. Ao contrário de sites comoExtreme Power Suply Calculator, o Newegg é bem simples e objetivo, com apenas 6 ítens para marcar. Observe a imagem abaixo:

Na opção CPU você define qual o processador que seu computador usa. A divisão é feita de um modo genérico. Com o programas CPUZ, como já falamos em um artigo, você pode identificar o seu processador e sua família a onde tem "Name" e "Code Name", como na imagem abaixo:

104

Na opção Motherboard, você define a sua placa-mãe através de 4 opções: Regular, High-end, Workstation e Server. Se você não sabe em que caso a sua placa-mãe se encaixa, escolha a opção Regular (95% das pessoas tem placas-mãe assim). A próxima opção, VGA Card, se refere a sua placa de vídeo. Se você não tem placa de vídeo off board, escolha a opção "Integrated on the Motherboard". Caso contrário escolha o modelo da sua placa de vídeo. Ao lado dessa opção você pode escolher a quantidade de placas de vídeo existentes no PC. OBS:Esse procedimento só precisa ser feito por quem tem placa de vídeo off.Para descobrir o modelo da placa de vídeo aperte de uma vez só as teclas Windows e Pause Break, siga até a aba Hardware, clique no botão gerenciador de dispositivos e clique no ícone "Adaptadores de Vídeo". Lá estará o modelo da sua placa. Na opção de baixo, Memory ,você define a quantidade e o tipo de memória RAM instalada. Caso você não saiba nem a quantidade nem o tipo da memória, você pode conferir no CPUZ, na aba Memory. Ao lado, coloque o número de pentes de memória instalados. Logo depois, em ODD, você define o tipo de leitor que você tem no seu micro. Essa opção é bem clara. Ao lado você escolhe o número de leitores que seu computador possui. Combo: Combo é um leitor que grava, lê e reproduz CDs e DVDs.

105

Na última opção, você escolhe a rotação do seu HD. Confesso que não conheço e nem encontrei algum programa que mostrasse essa informação ( se você conhecer, por favor, fale-nos nos comentários ), mas boa parte dos HDs são 7.200 RPM, com excessão dos notebooks que em sua maioria são 5.400 RPM ( a diferença de consumo entre 7.200 e 5.400 é muito pequena, não fará muita diferença no resultado final ). Ao lado, você define o número de HDs que funcionam na sua máquina. Depois de preencher as 6 informações solicitadas, você clica no botão Calculate e recebe logo abaixo da calculadora, você confere a potência aproximada da que você necessita.Some pelo menos mais 30% da potência informada para garantir upgrades futuros. Agora, quando você for comprar sua fonte diga: "Eu quero uma fonte de 450W, reais", por exemplo. Sempre compre de potências real, essa é a garantia de que você compra uma fonte que realmente lhe oferece a potência indicada. Você tem alguma dúvida de como fazer o cálculo ou de como descobrir algum item seu ? Deixe sua dúvida nos comentários e responderemos o mais rápido possível, beleza ?

Recupere partições deletadas ou perdidas com o Find and Mount Um dia desses, fui criar uma partição com o particionador do Windows e acabei deletando minha partição com TODOS os meus arquivos, 60GB de informação… Entrei nos cantos e recantos da internet à procura de uma solução, e numa dessas entrelinhas doGoogle, conheci o Find and Mount – em português, Localizar e montar. O programa literalmente procura e monta as partições deletadas ou corrompidas do sistema. Aprenda nesse tutorial como usar o programinha que salvou minha pele, ou melhor, meus dados. Utilizando o programa Ao abrir o programa, você de cara percebe que mesmo sendo em inglês, o Find and Mount é simples de ser entendido. Logo na primeira tela você vê seus discos rígidos. Para escanear a unidade à procura da partição perdida/corrompida, basta clicar com o botão direito sobre o HD correspondente e escolher a opção Scan,como na imagem abaixo:

106

O Find and Mount possui 3 modos de operação. O modo Intelectual Scan que é a maneira mais rápida, e mais superficial, de se procurar as partições. O modo Normal Scan que vasculha todas as partes do disco que alocam as tabelas padrão de partição. O último e mais abrangente método, o Thorought Scan, faz uma busca minuciosa em todo o disco rígido, procurando setor por setor. Normalmente o primeiro método já encontra sua partição. Se ele não encontrar, parta logo para o terceiro método.

Assim que o escaneamento terminar, você encontrará sua partição. Clique sobre ela e selecione a opção “Mount As”, lá em cima. Uma janela se abrirá e você definirá a letra da partição a ser montada. Após isso, é só ir em Meu Computador e acessar sua partição normalmente. Nota: Na versão demo, o Find and Mount copia seus arquivo da partição recuperada a no máximo 512KB/seg.

107

Uma outra função do programa é a criação de imagens das suas partições, uma forma de backup. Para criar um backup é simples, basta você selecionar a partição a ser salva, clicar no botão Create Image e escolher o destino da imagem. Para abrir uma imagem criada, clique em Open Imagem e aponte para a imagem. Agora que você conhece o Find and Mount, utilize-o e resolva suas cagadas Se você conhece um software melhor, ou equivalente, nos diga, comente

Consultando informações de hardware Alguma vez você precisou verificar o modelo da placa-mãe, a frequência e o tipo da memória ou até mesmo a família do processador ? O CPU-Z tem tudo isso e muito mais informações. Apesar de ter somente 595KB, o pequeno programa dá conta do recado quando o assunto é informação de hardware. Ao contrário de softwares como Sandra e Everest, o CPUZ é bem mais enxuto, trazendo consigo informações que realmente são necessárias para uma listagem do hardware. O programa fornece informações do processador, memória cache, memória RAM, e placa-mãe. Dados como voltagem e velocidade do núcleo, são fornecidas em tempo real.

108

Além da opção de mostrar as informações na interface do programa, o CPU-Z oferece ainda a geração de um relatório, que pode ser em HTML ou em TXT. Nota:O modo HTML é mais organizado. O software é free com um inglês bem simplificado. Faça o download do CPUZ para na versão de 32 bits e 64 bits. Ainda esta semana mostraremos como calcular a potência necessária para seu computador, usando o CPU-Z.

109

Descubra falhas estressando seu computador Posted by Danilo Augusto | Posted in Manutenção E Hardware | Posted on 13-03-2009

3

Pessoas estressadas falham. Computadores estressados também falham. Vamos apresentar a você alguns programas que tem como função estressar o computador para descobrir onde e em que situações ocorrem falhas na máquina. Esses são os chamados testes de Benchmark. Estresse seu Processador Existem programas muito conhecidos de estresse de processador como o 3DMark, Aquamark3, Super Pi… mas nenhum deles é páreo o bastante para derrubar o CPU Stability Teste. Esse software é capaz de pôr seu computador com verdadeiros 100% de processamento. Executando vários algoritmos de alto peso computacional, como Whetstone e a série de Fibonnaci em loop, o CPU Stability Test oferece 3 opções de estresse. O modo normal, o modo CPU Warming ( apenas esquentar o processador ) e o modo TroubleShooting ( resolução de problemas. O modo normal é o modo indicado para o maioria dos testes, já o modo Warming as vezes estressa tanto seu processador que ele pára de responder, o que não indica um problema, mas sim a eficiência do programa.Depois de alguns minutos de teste ( para ter certeza recomenda-se pelo menos 2 horas) o técnico pode descobrir indícios de problemas de aquecimento, seja por um cooler mal encaixado, seja por um sistema de ventilação mal dimensionado. Para descobrir a relação entre estresse e temperatura, devemos utilizar um outro software que funcionará paralelamente ao Stability Test, o SpeedFan. Esse programa mostra a temperatura de todos os sensores do computador como do processador, placa-mãe e HD dispondo da informação através de gráficos, para que o usuário possa verificar o andamento da temperatura.Abaixo você confere a imagem

110

dos dois programas em funcionamento, juntamente com o Gerenciador de Tarefas, que mostra os 100% de uso dos dois núcleos.

É importante lembrar que, em modo de estresse, as temperaturas não devem ser maior do que 60º C ( isso não é uma regra absoluta ). Entenda um pouco mais sobre a temperatura máxima dos processadores. Estresse seu HD Não são raros os casos de HDs IDE ( PATA ) que funcionam com uma taxa de transferência lá embaixo devido ao uso de cabos flat de 40 vias, e não de 80. Quando isso acontece, a taxa de tranferência que é pra ser de 133MB/sec, passa a ser de 33MB/sec ou até menos que isso. Para verificar em qual modo seu HD funciona, vá até a aba Info e lá embaixo você confira o padrão suportado ( Supported ) e o padrão ativo ( Active ), se o Suportado for igual ao ativo, isso é o máximo que seu HD pode fazer. Caso contrário, verifique o que pode está acontecendo, use o Google. Observe a imagem do HD Tune:

Meu HD está funcionando como é pra ser. O seu está ?

111

Utilizando o HD Tune, você também pode detectar a velocidade de tranferência, leitura e gravação. Na aba Error Scan você pode fazer um teste para encontrar setores defeituosos (os bad block )no HD. Indo na aba Health, você confere informações sobre a saúde do hard disk, fornecidas pelo Smart. Entenda um pouco mais sobre os cabos de 40 e 80 vias, modos de operação do HD eSmart Disk. Estresse sua memória RAM Inúmeros problemas são causados por memórias defeituosas ou sujas. Problemas como tela azul, travadas e reinicializações aleatórias, erros na utilização de certos programas… Enfim, motivos é que não faltam para desconfiar da memória RAM. Para fazer a verificação delas, foi criado o MemTest86 que acessa todos os setores da sua memória para encontrar erros. O programa dispõe de 11 modos de teste que rodam em loop, e acessando os setores da memória, encontram erros e os reporta para o usuário. Quando erros são detectados, linhas vermelhas como as da imagem abaixo aparecem fornecendo informações sobre o problema.

112

Você pode tentar limpar os contatos da memória com um Spray limpa contatos ( ou com borracha ) ou substituir a memória, porque mais cedo ou mais tarde, ela irá apresentar problemas. Existe uma versão que roda sobre o Sistema Operacional, mas que por não poder acessar os setores que já estão sendo utilizados pelo SO e pelos programas, faz com que o teste não tenha a confiabilidade que teria rodando em um LiveCD. Baixe o arquivo ISO, que possui apenas 523Kb,e grava-o num CD. Conheça o MemTest86 neste artigo do Guia do Hardware. Conclusão Esses são os programas que utilizo para diagnosticar problemas nos computadores dos meus clientes. Quase sempre descubro se o problema é ou não no componente testado. Se for substituo ou tento reparar, se não for, não perco tempo e parto para outra possibilidade. Conhece outras ferramentas ? Compartilhe o conhecimento, coopere conosco e com seus colegas de profissão escrevendo nos comentários os programas que você indica para descobrir problemas. Espero que você tenha aprendido um pouco mais sobre como e quando utilizar estas ferramentas. Faça bom uso.

7 Perguntas e Respostas sobre Energia Estática Muitas pessoas, inclusive técnicos, têm dúvidas quando o assunto é energia estática. A fim de tirarmos algumas dessas dúvidas, fizemos este FAQ com perguntas e respostas. 1.Basta tocar no gabinete pra descarregar a energia estática ? Não. O simples ato de tocar no gabinete não vai descarregar a energia estática. Para que o “descarrego” ( isso me lembra o Igreja Universal ? ) aconteça, o gabinente precisa está ligado à tomada e a tomada deve está aterrada. Além disso, você deve tocar na parte que não esteja com nenhum tipo de tinta, pois estas tintas que cobrem o latão (zinco) de que o gabinete é feito, tem como função o isolamento elétrico. 2.Usando uma pulseira anti-estática estarei protegido?

113

Não. A pulseira por si só não apresenta nenhuma proteção. A “garra-jacaré” que existe na pulseira deve está presa a algo aterrado, como o gabinete ou o próprio fio de aterramento., caso contrário, a pulseira não servirá de nada. 3.As luvas protegem contra energia estática ? As luvas comuns, de borracha ou tecido não têm propriedades para dissipar energia estática. Além do mais a energia estática não precisa de um material condutor para surgir, basta haver atrito entre os materiais. Vale lembrar que existem luvas anti-estáticas que são feitas especialmente para dissipar a energia.

4.Como a estática pode queimar um chip ? A carga estática acumulada no nosso corpo pode ser de milhares de volts, por exemplo,40.000 Volts! Imagina 40 mil volts num chip que funciona a 3 volts… Seria um estrago… 5.Porque com 40 mil volts no meu corpo não levo um tremendo choque ? O que faz você sentir o choque não é a tensão, mas sim a corrente , que na energia estática é muuuuito pequena. 6.Componentes guardados em gavetas, pedaços de jornal, sacola estão imunes à estática ? NÃO! Esse é um grande erro de técnicos. Aqui perto da minha casa mesmo, semana passada, vi um técnico guardando uma memória num pedaço de jornal, lamentável .Materiais como papel, plástico, roupas, são potenciais geradores de cargas eletrostáticas. Componentes devem ser guardados nas embalagens originais, em sacos anti-estáticos. Existem lojas online que vendem embalagens anti-estáticas, como a embalagem abaixo:

114

7.A pulseira anti-estática tira a energia da outra mão também ? Acreditem, essa pergunta existe. A pulseira retira toda a carga eletrostática do seu corpo, consequentemente, todo seu corpo estará protegido, inclusive sua outra mão. Em breve, iremos bem a fundo sobre como surgem as cargas eletrostáticas. Se alguém tiver alguma pergunta a respeito do assunto, fique a vontade e poste nos comentários para tirarmos as dúvidas. Fontes: Fórum do Guia do Hardware

Atualização da Bios: 3 mocinhos e 1 vilão

Embora seja um processo simples, a atualização da BIOS é um processo perigoso e que muitas vezes pode acabar fazendo com que seu computador deixe de funcionar, literalmente. Para mostrar a você que nem sempre vale a pena correr o risco de inutilizar sua placa-mãe, preparamos este artigo afim de lhe mostrar, que as vezes, atualizar a BIOS não é uma boa. Primeiramente, vamos ver quais os motivos nos levam a atualizar a BIOS… 1º Mocinho: Suporte à hardware é o principal mocinho que leva os fabricantes a lançarem novas versões da BIOS. Placas-mãe com socket AM2, costumam

115

sempre ter novas versões para suportar os processadores da AMD. Em placas-mãe antigas, houve um intenso número de lançamento de BIOS para suportar a tecnologia UltraDMA. 2º Mocinho: O aumento de desempenho de algum recurso da placa-mãe é o segundo mocinho na atualização da uma BIOS. Por exemplo, podemos ter um aumento no desempenho do vídeo on-board do computador, ou para aumentar o desempenho de certos barramentos; 3º Mocinho: Corrigir algum (uns) bug (s) das versões anteriores como oferecer suporte a discos de grande capacidade, ou então destravar alguma opção de overclock. 1º Vilão: O único motivo para não atualizar a BIOS é não ter motivo. Isso mesmo. Milhares de pessoas decidem atualizar a BIOS simplesmente porque saiu uma versão nova. Se você é uma dessas pessoas, tome cuidado, você pode está correndo um risco desnecessário. Por exemplo, uma nova versão foi lançada, a única modificação foi o suporte ao Phenom X4 II 940BE, se você não tem o maldito Phenom X4 II 940BE, pra que diabos você vai atualizar a BIOS ? Durante a atualização da BIOS, todo cuidado é pouco. Uma versão que não é pra sua placa-mãe, uma queda de energia, um arquivo de atualização corrompido… Tudo isto conspira para que a operação de atualização dê errado. Agora que você sabe todos os motivos e “desmotivos” para atualizar a BIOS, cabe a você decidir se vale ou não a pena atualizá-la. Fonte:InfoWester

Placa de Vídeo… Memória é tudo ? É comum chegarmos em lojas de informática e vermos aquelas placas de vídeo com 512Mb ou até mesmo 1Gb de Vram (memória RAM da VGA) e compulsivamente comprar a mais barata com a maior memória, mas quando se fala em placa de vídeo, nem sempre quantidade é sinônimo de qualidade. Na introdução deste artigo, vimos que memória não é tudo numa placa de vídeo. Mas porque memória não diz tudo? É simples, muitas dessas placas não tem um GPU (Núcleo de processamento gráfico) que use adequadamente toda essa memória, além disso temos dois outros problemas :

116

Normalmente as placas com mais memória operam em velocidades mais lentas.Por exemplo, a GeForce 8600GT pode trabalhar com memórias GDRR3 a 1800Mhz ou DDR800Mhz, a escolha fica a critério do fabricante. Ainda temos a diferença de tecnologia e preço. Alguns fabricantes, além de fazer com que o usuário pense que quanto mais memória melhor, ainda cobram mais por essas placas, um exemplo clássico é o caso da GeForce FX5200 de 256Mb que é inferior (em mais de 30%) a uma GeForce 6200 com 128Mb,e ainda sim é mais cara que a 6200. Mas porque essa diferença ? A FX5200 oferece suporte ao DirectX 9, enquanto a GeForce 6200 suporta o DirectX 9.0c. É esse suporte (mais algumas modificações, já que se trata de outra arquitetura) que faz com que a 6200 tenha uma performance superior em jogos mais atuais, já que ela suporta nativamente o DirectX 9.oc. Se você pretende jogar um Crysis em 1280×1024 com AA (Anti-Serrilhado) 4x e AF (Filtro Anisotrópico) 16x, você deve superdimensionar sua placa de víde, por exemplo, comprar um Radeon 4850, para extrair o máximo que a placa tem a oferecer. Devemos também nos atentar as saídas existentes na placa. Passou-se o tempo em que uma saída DVI era suficiente, hoje, no mínimo, tem que ter uma saída HDMI. Usamos a saída HDMI quando vamos ligar uma placa de vídeo em qualquer televisão de Alta Definição. HDMI já está virando passado! Isso mesmo, já temos uma porta mais nova, a Display Port. Ela usa um conector mais fino e com maior largura de banda e é mais resistente que outros conectores. O DisplayPort tem mais largura de banda que o DVI, por exemplo, ele pode enviar dados em apenas um cabo para uma TV de 30”, enquanto o DVI precisa de um conector duplo. Abaixo, uma DisplayPort:

117

O gargalo no hardware do computador Se seu computador possui um gargalo de hardware, certamente sua placa de vídeo não terá o desempenho que teria com um hardware a altura. Como já foi dito em outro artigos, gargalo de hardware é quando um item do computador ( HD, memória… ) limitam o desempenho de outro ( placa de vídeo, processador ). Então, não adianta você comprar uma placa de vídeo Radeon 4870×2 para rodar Quake Wars em 2560×1600 com um processador Celeron de 1,8Ghz single-core. Moral da história, se você quer ter um um bom desempenho da sua placa de vídeo, tenha um hardware a altura dela, para que os outros componentes não sejam um fator limitante de seu desempenho.Pense no sistema como um todo. Como exemplo, preparamos esses dois “modelos” para que não haja gargalos no seu computador: Para uma VGA até GeForce 9600GT ou Radeon 4670 use no mínimo um Athlon X2 5200+ ou Core 2 Duo E7300. Para uma VGA até a Radeon 4870 ou GeForce GTX280 use um AMD Phenom X3 720 ou um Core 2 Quad Q6600, para VGAs Dual-Chip (Radeon 4850×2 , 4870×2 ou GeForce GTX295) use um AMD Phenom X4 940 ou Core 2 Quad Q9650. Conclusão. Não basta ter memória para ter qualidade, é necessário que haja recursos atualizados como DirectX10, entradas novas e acima de tudo, ter um hardware à altura da sua placa de vídeo. Em breve, mostraremos o que você deve saber antes de investir seu dinheiro em uma placa de vídeo.

118

Até logo. Artigo criado por Jefferson Igor

HDs Sata – Porquê você deve comprar um Quase todos os computadores fabricados hoje já vêm equipados com HDs Sata, mas muitas pessoas ainda possuem discos rígidos PATA ( como alguns preferem, IDE ). Será que está na hora de fazer um upgrade no seu pc… Será que vale a pena substituir ou incrementar mais um disco rígido ?É o que veremos…

1. Refrigeração e Organização: HDs Sata são amigos da refrigeração do computador. Eles não possuem aqueles largos cabos flat que atrapalham na circulação de ar do seu micro. Além disso, eles deixa o interior do seu gabinete mais organizado;

2. Velocidade:O mais veloz disco rígido IDE, teoricamente, alcança a velocidade de no máximo 133Mb/s.Já os HDs Sata tranferem a uma velocidade máxima de 300Mb/s. E o padrão Sata promete mais, já está em desenvolvimento o Sata com tranferência de 600Mb/s;

3. Custo:Os discos IDE custam muito mais caro que um Sata. Por exemplo, naWaz Store, fizemos a comparação entre dois HD Seagate Barracuda, confira na tabela abaixo:

119

4. Praticidade: Em alguns HDs Sata ( principalmente aquele usados em servidores ) possuem o recurso Hot Swap, que ao pé da letra significa “troca quente”, ou seja, mesmo com o computador ligado você pode retirar o HD da máquina, sem ter que desligar o servidor e interromper os serviços, assim como fazemos com os pen drivers. Também temos os HDs eSata ( eSata = HD Sata externo ), que ao invés de usar adaptadores USB ( que limitam a transferência de dados ) usa conectores feitos para a própria interface, que garantem a velocidade do padrão;

Abaixo, um conector eSata:

É… As cartas estão na mesa, agora resta a você decidir se vale a pena ou não investir num HD mais veloz, mais prático e por incrível que pareça… Mais Barato! Fonte: Wikipedia HDs Comparados: Seagate Barracuda IDE Seagate Barracuda Sata

Fontes de Alimentação: 4 coisas para se preocupar Neste artigo não pretendo fazer uma análise técnica das fontes e seus componentes, mas sim, lhe orientar e mostrar como escolher a fonte adequada, explicar alguns conceitos, e acima de tudo, mostrar o porquê de escolher uma fonte de qualidade. Todo componente do computador tem um determinado consumo de energia e a escolha correta de uma fonte começa por aí, sabendo o seu consumo. Mas

120

será que sabendo o consumo da fonte temos as informações necessárias para comprar uma boa fonte? A resposta é Não. Devemos conhecer outros fatores que influenciam na hora da escolha de uma fonte de alimentação. Abaixo listo alguns que com certeza vão fazer diferença na vida útil do seu computador e no seu bolso também. 1.Eficiência:Todo componente eletrônico trabalha com uma determinada eficiência, por exemplo, se a eficiência de uma fonte for igual a 50%, para cada 300 watts entregues pela fonte, ela estará consumindo 600 watts ! Vamos fazer os cálculos.Supondo que essa fonte com 50% de eficiência fica ligada 8 horas por dia, durante 30 dias, trabalhando com sua capaciade máxima de 300watts.

Tempo = Horas por dia * Dias do mês; Consumo Total=(Potência*Tempo)/ 1000; Então… Tempo = 8 horas por dia * 30 dias = 240 horas Sendo assim… Consumo Total = (600 watt * 240 horas)/1000 = 144 kW/h Aqui em Natal, onde moro, 1 kW/h custa R$0,42, então multiplicando os 144 kW/h por R$0,42 temos um total de R$60,48 na nossa conta de energia. Metade desse valor, ou seja, R$30.24 foi embora devido à baixa eficiência da fonte. Daí você se pergunta, pra onde vão os 300 watts que não são consumidos ? Fácil, eles se transformam em calor e são dissipados. Portanto, se você não quer pagar por energia que é transformada em calor, compre fontes eficientes. 2.Fabricante : O mercado brasileiro sofre com a comercialização de fontes genéricas, que não são capazes de fornecer a potência especificada na embalagem, nem são fabricadas com compenentes de qualidade. Chegar na loja pedindo “A fonte mais barata” não é uma boa, pois a mais barata certamente será genérica e certamente comprometerá seu computador futuramente. Alguns fabricantes se destacam no mercado mundial de fontes

121

como Corsair, Zalman, OCZ, Thermaltake, Seventeam, Enermax e Cooler Master. 3.Capacidade para upgrades : Hoje em dia cada vez mais comum um computador com uma placa de vídeo “mid-end” (9600GT ou 4670, por exemplo) que exigem o uso de um conector adicional de energia, agora imagine você comprar uma boa fonte mas não prestar atenção neste detalhe ? Precisa nem falar… Outro exemplo é a quantidade de conectores SATA. Muitas fontes vem com apenas 2 onectores Serial ATA, limitando um futuro upgrade com discos rígidos ou com leitores. 4.Potência :Existe um ditado que diz assim: “Desgraça só presta se for grande”, pois bem, com a potência das fontes não é diferente, quanto mais potência, melhor.Obviamente, se você possui um extinto K6-II, não há necessidade de comprar uma fonte de 700W. Mas se você vai comprar um computador, ou apenas a fonte, deve-se pensar no futuro, comprando fontes com pelo menos 30% de potência acima do que você necessita. Afinal, ninguém merece ter que trocar uma boa ( e cara ) só porque comprou uma processador novo. Essas são as nossas dicas para que você ao comprar uma fonte faça um compra mais inteligente, economizando na conta de luz e na manutenção do seu computador Em breve, falaremos sobre como calcular o consumo do seu computador e como tirar proveito de alguns recursos oferecidos para diminuir o consumo de energia. Até breve! Leia nosso artigo “Computador: O que considerar na hora da compra”

5 Programas que não podem faltar a um bom técnico O I/O Tecnologia preparou esta lista onde você confere 5 ótimos programas share ou freeware que não podem faltar no seu bolso, quer dizer, no seu pen driver.

122

1.Faça o backup dos seus drivers antes de formatar o PC: O Driver Magician é um programinha que faz o backup dos seus drivers para que você não se preocupe mais com CDs de instalação, nem perca tempo procurando os drivers nos sites dos fabricantes Apesar de ser shareware ( software pago ), ele executa as principais funções que você precisa para o backup;

2.Estresse seu processador e verifique problemas de aquecimento: O SpeedFan e o CPU Stability Test juntos formam uma dupla imbatível para identificar problemas de aquecimento no seu computador. O CPU Stability também exibe as tensões das principais entradas e dispositivos do computador. Execute os dois ao mesmo tempo e confira os resultados. Ambos são freewares;

3.Desinstale programas na força bruta: Aquele programa chatinho não quer desinstalar ? Revo Uninstaller nele! O Revo Uninstaller possui dois modos de desinstalação, o Standart e o Modo de Caça, que remove até a alma dos programas teimosos. Além da ferramenta da remoção, o Revo possui um “msconfig” mais completo e um limpador de rastros do Office e do IE.O software é free e possui a opção de Português brasileiro;

123

4.Verifique a configuração do seu PC: Se você quer ver as características de hardware e software do seu computador, você precisa do HWiNFO32. Com sua versão portable, o HWiNFO32 é leve e intuitivo. Além de listar seu hardware e software, esse programa faz Benchmark ( teste em determinado dispositivo ) e o monitora as temperaturas dos sensores do seu computador. O programa é free e possui sua versão com instalador e versão portátil.

5.Dê suporte remoto ao seu vizinho, a sua namorada, ao seu cliente: Você precisa ajudar alguém que está longe? O Team Viewerfoi feito pra você. Este software supre todas as suas necessidades durante um suporte remoto, ele possui bate-papo, transferência de arquivos, VPN, modo de apresentação e além do mais, é em português e free para uso não comercial. O Team Viewer funciona mesmo em redes roteadas, você não precisar abrir nem direcionar portas no firewall. Espero que com essas dicas você possar desenvolver um trabalho melhor, mais prático e consequentemente, mais rápido. Se achar algum programa interessante e útil nos diga.Fique a vontade para tirar suas dúvidas.

124

Computador: O que considerar na hora da compra

Atualmente, com essa onda de compras de computadores em lojas como Carrefour, Casas Bahia, Insinuante e afins, fica a pergunta: O que é um computador BOM ? O que faz dele ser de boa ou de má qualidade ? Com o corte de impostos por parte do governo, as empresas integradoras de PC como, Megaware, Lenovo, Kennex, passaram a ter grandes lucros vendendo computadores de baixo custo. Mas até onde esse baixo custo vale a pena? Será que as empresas não adotam o Linux somente pra participar do programa de incentivo fiscal do governo? Ou elas realmente põe nas nossas mãos computadores de “vergonha”? Para não cair nas armadilhas do marketing, nós preparamos este artigo pra você Adiante! Primeiro devemos ter em mente que um computador é a soma dos componentes, isso quer dizer que não basta ter um excelente processador para ter uma boa máquina, é necessário que se analise o “conjunto da obra”, porque senão esbarraremos num gargalo.Mas o que seria esse tal de gargalo ? É simples, gargalo de hardware é quando um componente limita a performance do computador como um todo, por exemplo, imagine uma máquina top de linha, tudo de primeira qualidade, mas só tem 256Mb de memória RAM. Nem é preciso dizer o desempenho que essa máquina terá.Para montar uma máquina com qualidade temos que conhecer um pouco dos componentes, então vamos lá:

Placa-mãe : Esse item é um dos mais subestimados É comum vermos pessoas escolhendo produtos apenas pela marca, mas não é bem assim, todas as marcas tem seus altos e baixos e sempre devemos nos apegar as especificações e testes realizados, por exemplo, tem placas-mãe da ECS que são melhores que da ASUS, isso nos mostra a discrepância que pode existir entre as marcas e modelos. Devemos nos atentar a pequenos detalhes na hora de escolher uma placa-mãe, por exemplo, temos que ver

125

se ainda há capacitores eletrolíticos na placa-mãe, esse é um sinal de baixa qualidade, temos que ver os processadoresque a placa suporta, o tipo de memória, o chipset, enfim, como eu disse, há uma série de características que devem ser levadas em conta.

Processador: Esse é um item bastante curioso, antes de pensar em escolher um bom processador, devemos nos atentar a longevidade da plataforma como um todo, não adianta comprar um PC hoje, se amanhã sairá um melhor e custando o mesmo preço, por isso devemos nos atentar principalmente a plataforma INTEL. A INTEL é famosa por “esquecer” dos usuários quando cria uma nova plataforma, por exemplo, em 2006 foi lançado o Core 2 Duo e todos pensaram “e agora ?”, a INTEL simplesmente disse, que para se usar um Core 2 Duo tínhamos que trocar a placa-mãe, já que a retro-compatibilidade não existia, isso deixou muita gente na mão, porquê tinham Pcs novos, mas não podiam fazer um Upgrade de processador, mas na frente a INTEL lançou o Nehalem (2008), e novamente esqueceram dos usuários, resumindo, quem tinha um Pentium 4, estava fadado a morrer com ele, ou comprar quase um PC novo por causa da INTEL, isso tudo somado ao “custo Brasil”, torna difícil fazer qualquer Upgrade no PC.

Memória : Esse item é talvez o que mais sofre com a falta de pesquisa dos usuários, que só querem saber da quantidade e não da qualidade da memória, tem uma enorme gama de parâmetros a serem analisados, mas muitas vezes deixamos de lado só por preguiça ou por não pesquisar, para comprar memórias, devemos atentar para as latências (tempos de espera para uma determinada tarefa), frequência e tensão de operação, devemos também comprar sempre aos pares, para assim, desfrutarmos do Dual-Channel, que nos ajuda a obeter uma maior taxa de transferência e assim aumentar o desempenho do PC. Muitos dizem erroneamente, que o Dual Channel aumenta a frequência de operação das memórias, mas esse é um grande erro, o Dual Channel aumenta a largura da banda ( de 64 bits pra 128 bits), o que proporciona um teórico aumento de 100% na taxa de transferência, outro detalhe é a nova plataforma da INTEL que usa Triple Channel, ao invés do Dual Channel, isso faz com que sejam necessários 3 pentes para poder usar o recurso. Outro ponto que também merece destaque são os fabricantes, sempre que pudermos (e o orçamento der) devemos optar por memórias de fabricantes renomados como:Patriot, Corsair, G.Skill, Kingston, OCZ. Eles normalmente usam chips de boa qualidade. Chamo a atenção também para a excelente capacidade de overclock das memórias Patriot.

126

HD : Ultimamente temos dado atenção à grande capacidade dos Disco Rígidos. Mas assim como os outros componentes,devemos pesquisar outras características que fazem a diferença entre um HD e outro. Por exemplo, muitos discos Seagate sofreram bastante com um firmware “podre” que foi lançado, onde os Hds viravam “tijolos” sem utilidade, talvez se eles participasse de fóruns, comunidades ou pelo menos consultassem o Google, não teria caido nessa cilada. Outro fato importante, e atentar para a escolha de HDs SATA-II, pois assim garantimos um disco rígido com uma velocidade teórica de 300Mb/s, ao contrário dos antigos HDs IDE com taxa de transferência máxima de 133Mb/s,Boas marcas de Hds são a Western Digital, Seagate, a Samsung também pode entrar na lista, apesar de ter uma fama de “fraca”, quando o assunto é armazenamento.

Em breve, falaremos sobre as fontes e suas peculiaridades. Acompanhe!

Dissecando o Hiren’s CD – Criando imagens e clonando partições Hoje vamos aprender um pouco mais sobre as ferramentas de clonagem que o Hiren’s CD tem a nos oferecer. Na verdade não pretendo fazer desse post um tutorial para utilização desses programas, mas sim um comparativo entre eles, cabendo a você leitor, o apronfundamento no tema. Quem nunca desejou não ter o trabalho de formatar o computador, que atire a primeira pedra! Pois é… a coisa mais chata para os técnicos e alguns usuários entendidos é a tal da formatação. O HD ferrou, a partição foi perdida, o MBR foi apagado! Oh meu Deus, quanta miséria. Lá vai você atrás de drivers, atualizações, programas, enfim, a maior perda de tempo e um trabalhão danado. E quando você perde aquela monografia que já estava na conclusão, ou o save daquele jogo que você passou o ano todo pra conseguir zerar… Seria ótimo se existisse alguma programa que criase imagens perfeitas do seu HD, com seus arquivos, seu papel de parede, suas atualizações, seus drivers e programas e tudo mais que você achasse que deveria está lá. Pois bem, esses programinhas existem e no post de hoje, vamos fazer um comparativo das 3 principais ferramentas de clonagem existentes no Hiren’s CD. Teremos no paredão os softwares: 1.Symantec Image Center; 2.Norton Ghost;

127

3.Acronis True Image; !!!Todos os programas foram testados com modo de compactação normal e com todas as suas opções em modo padrão. !!!Ao contrário do que alguns pensam, o clone feito é do espaço ocupado, e não da partição. Foram levados em consideração características como usabilidade, design e compactação da imagem criada. Vamos aos testes! O Symantec Image Center:

O software da Symantec,que eu não conhecia, à primeira vista me pareceu conciso e que ia direto ao ponto, não foi diferente.O Symantec Image Center logo na primeira tela mostra pra que veio. Apesar de não possuir um design muito elegante, o programinha faz o que promete e com apenas 4 cliques você restaura sua partição.Nos nossos testes, com uma partição de 5 GB totais e 2.7 GB ocupados, o Image Center conseguiu obter uma taxa de compactação de 31,5%. O Norton Ghost:

Quando se fala em clonagem o primeiro programa que nos vem a cabeça é o Ghost! Com versões que rodam no Windows e rodam no DOS ( no caso do Hiren’s ), o Ghost possui as mesmas funções do Symantec Image Center, nada de diferente. Agora, se o design do Symantec já não era essas coisas, o que dizer do Ghost ?! Apesar de ter um design menos privilegiado de efeitos ( mais feio ), o Ghost também é objetivo nos seus menus, mas algumas pessoas ainda

128

conseguem clonar a partição suja sobre a limpa ¬¬’. Além do suporte aos HDs e drivers de CD, este programa ainda oferece suporte a rede,pen drivers e discos SCSI .O Norton Ghost alcançou uma compactação de 31,8%. Acronis True Image: Este programinha desbanca os concorrentes quanto ao design e usabilidade.

Com uma interface e temas idênticos aos do Windows XP, o True Image é bem intuitivo e além das funções básica de clonagem, possui 2 ferramentas, o “Manage Acronis Secure Zone”, que cria uma zona secura para o Windows, afim de isolá-lo de modificações, e o “Acronis Startup Recovery Manager”, que a cada vez que o computador é reinicializado, ele é restaurado ao ponto definido, ideal para lan houses. Uma coisa que senti falta nesse programa foi o não suporte a drivers de CD-ROM, sendo que voce só tem a opção de backup em pen driver ( que é bastante lento ) e em outra partição ou disco local. Com uma compactação de 37% na taxa normal ( ele possui ainda a o modo mega e o modo ultra ) o Acronis True Image sai na frente quanto ao tamanho das imagens geradas. Conclusão: O Symantec, visivelmente, não é o melhor deles, possui a menor taxa de compactação e poucos recursos. O Ghost, apesar do design seco, é objetivo e ainda é uma boa opção para quem deseja criar imagens de HDs em diversos tipos de mídia. O Acronis, foi o que mais me chamou atenção pelos recuros extras que dispõe, pela usabilidade e pela taxa de compressão, o que mais pesou na sua avaliação foi a ausência de suporte a drivers de CD-ROM.Concluído os testes, deixo a critério de vocês a escolha do melhor programa de clonagem de discos. O próximo artigo da série Dissecando o Hiren’s CD vai falar sobre as ferramentas de anti-vírus deste fantástico CD. Fique ligado

129

Hoje nós vamos falar sobra a principal ferramenta de particionamento de HDs, vamos falar sobre o Partition Magic.Esse programa pode ser útil para pessoas que fizeram um particionamento errado do HD, e desejam criar mais uma partição para instalar outro sistema operacional sem precisar formatar o computador, ou para criar uma partição onde possa guardar seus arquivos. Além da função de particionamento, o Partition Magic faz testes no seu HD a procura de erros, mescla partições, formata unidades e converte sistemas de arquivos. Agora mãos à obra! Nestes artigos vou trabalhar com o Hiren’s na versão texto, que é a mais comum de se encontrar. Para chegarmos ao menu do Hiren’s devemos dar boot pelo CD-ROM. Feito isso, chegaremos à seguinte tela:

Selecionamos a opção “Start BootCD”, damos um “enter” e chegamos à próxima tela, o menu principal do Hiren’s:

Este menu resume todas as funcionalidades desse fantástico CD. Como já foi dito, utilizaremos o Partition Magic neste tutorial de particionamento, que é uma das funções que o Hiren’s CD disponibiliza. Vá na primeira opção do Menu acima, dê um enter. Ao dar um enter, você verá uma tela semelhante à do menu e lá terá a opção do Partition Magic, selecione-a. PS: Antes de utilizar esta ferramenta, faça um backup de seus arquivos. Ao abrir o Partition Magic, você irá se deparar com a seguinte tela:

130

Na tela acima, você pode observar algumas informações que o Partiton traz, como o tipo de sistema de arquivos ( neste caso é o NTFS ), o tamanho da partição em MB (4,988.9 MB), o espaço utilizado (2,083.6 MB) e o espaço livre (2,905.3 MB). Esse espaço livre ou “Unused MB” é o espaço que pode ser utilizado para a criação de uma nova partição. Criando uma nova partição a partir de uma já existente: Selecione uma das partições que aparecem no Partition Magic, clique com o botão direto sobre ela e selecione a primeira opção “Resize / Move”. Abrirá a janela abaixo:

Na lacuna “Free Space Before” é onde você vai configurar o tamanho de sua nova partição ( que não deve ultrapassar o espaço livre ). Você pode definir o tamanho digitando os números na lacuna, ou então, puxando a barrinha cor de rosa conforme o tamanho desejado. Ao fim do processo, você deve formatar a nova partição e enfim utilizá-la. Lembre-se, ao terminar uma ação, você deve clicar no botão “Apply” para aplicar as modificações. Dica:Antes de redimensionar e/ou criar suas partições, desfragmente o HD.

131

Ainda nesta semana aprenderemos como clonar partições a partir do Hiren’s CD Boot. Fique de Olho!

Verifique se um produto Kingston é falsificado. Em 1 minuto. Você por acaso encontrou uma loja onde vendem-se pen drives Kingston 8GB por R$50,00 ( eu encontrei ) e está em dúvida se ele é original ? A Kingston oferece no seu próprio site um validador para verificar a genuidade de seus produtos. No site, você pode verificar tanto a genuinidade das memórias flash ( pen drives, por exemplo ) como pode verificar também os módulos de memória. Todo o processo em português. Para quem não tem a embalagem, pode observar alguns detalhes do pen drive. Dê uma passadinha por lá e verifique seu pen drive. Afinal, leva somente 1 minutinho. Em breve, falaremos o porquê de não comprar um pen drive falsificado.Fique ligado

Registro de garantia A Kingston, com seus produtos de memória, tornou-se sinônimo de garantia em todo o mundo. Isso é evidente, sobretudo, com o enorme crescimento sustentado que há ocorrido na Ásia. A Kingston utiliza somente componentes de alta qualidade, projetos de engenharia rigorosos, cada produto é testado 100% e todos os produtos de memória estão respaldados por una garantia ilimitada. (Visitehttp://www.Kingston.com/warranty para mais detalhes.) No entanto, como outras empresas globais que fabricam produtos de qualidade, o fato de Kingston ter aumentado o reconhecimento de sua marca na Ásia, não a torna imune à falsificação. A Kingston encontrou vários módulos de memória falsificados, que são vendidos no mercado como so fossem fabricados pela empresa Kingston, representando sua marca. Para proteger da melhor maneira possível os interesses de nossos clientes e a imagem da Kingston, bem como a qualidade de sua marca, criamos este site

132

para permitir a verificação de forma instantânea, se a memória que você adquiriu é genuína da Kingston, ou não. Clique aqui para registrar / verificar módulos de memória Clique aqui para registrar / verificar produtos de memória flash Como Identificar Pendrive Kingston Falsificado Publicador por Dito na categoria Dicas

Muitos de vocês devem conhecer o Pendrive Kingston DataTraveler, já que ele é um dos mais vendidos (se não for o mais vendido) aqui no Brasil.

Para quem não conhece pelo nome, talvez já tenha visto, são esses aqui:

Devido à grande quantidade de vendas desse modelo (como eu havia dito), aumentam muito mais as chances desse pendrive ser falsificado. Por esse motivo, eu vou dar algumas dicas para não ser enganado e diferenciar o original do falsificado:

1. A Kingston não fabrica pendrives OEM. Portanto, comprar o produto (supostamente novo) sem embalagem é pedir pra ser enganado.

2. O blister dos pendrives Kingston são fechados a vácuo. Isso significa que você pode precisar de uma tesoura ou algo do tipo para abrir a embalagem. Se ao tentar abrir sua embalagem, você perceber que conseguiu abrir com muita facilidade, desconfie!

3. No verso da embalagem, você encontra instruções de uso do seu pendrive. Essas instruções aparecem em diferentes idiomas, e devem obrigatoriamente estar em Português também. Se a embalagem mostra Instruções em um idioma só, ou não tem instruções em Português, seu produto provavelmente é falso.

Embalagem original

133

134

4. Nunca compre qualquer produto Kingston se a embalagem contiver textos em Chinês, Japonês, ou qualquer outro idioma asiático. Os idiomas dos textos nas embalagens geralmente são Inglês, Francês, Espanhol, Português, e nas mais antigas também em Italiano, Holandês e Polonês.

5. Analise bem o código de barras do produto. Se encontrar as letras FE ao lado do número da peça ou em qualquer parte da etiqueta (como DTI/xxxFE), não compre, isso só existe em pendrives falsos.

6. Os pendrives DataTraveler (não retráteis) originais, são vendidos somente nas seguintes cores e capacidades:

Vermelho – Capacidade de 128MB

135

Verde – Capacidade de 256MB

Azul – Capacidade de 512MB

Cinza – Capacidade de 1GB

Verde-Limão – Capacidade de 2GB

Roxo – Capacidade de 4GB

Preto – Capacidade de 8GB

Há também o modelo Preto Retrátil, também de 8GB, que tem um visual diferente. Agora tem todas as capacidades no modelo retrátil também, mas cuidado pois o nome da linha também mudou, a linha dos retráteis se chama DT100, a linha convencional se chama DTI

8. O mais importante! Saiba de quem você está comprando! Alguns produtos falsificados são difíceis de serem identificados, por isso, se você conhece e confia na pessoa/loja em que está comprando, obviamente corre bem menos risco! Está desconfiado que seu pendrive é falso? Vamos fazer o teste então!

Há duas formas de descobrir se seu pendrive Kingston realmente é original. No próprio site oficial da Kingston, há uma ferramenta que verifica se seu produto é original. Não só os pendrives, mas qualquer produto Kingston. Clique aqui e verifique se seu produto Kingston é original! (Para pendrives, escolha a opção ‘Verificar produtos de memória flash’)

Se você acabou de descobrir que seu pendrive é falsificado, ainda resta uma esperança! Será que pelo menos ele tem a mesma capacidade que o vendedor (ou a embalagem) diz que tem? Esse teste também funciona para pendrives de outros fabricantes:

Veja neste link como fazer o teste de capacidade do seu Pendrive

136