novas tecnologias, Áudio e vídeo

35
1 INTRODUÇÃO No mundo atual em que vivemos os meios de comunicação estão cada vez mais dinâmicos e rápidos. Aquele que não se atualiza e está antenado com os acontecimentos acaba sendo deixado para trás. Para impedir que isso aconteça os aparelhos eletrônicos estão aí, fundidos com o nosso cotidiano, presentes a cada momento. Eles se tornaram tão comuns que mal percebemos o seu verdadeiro valor e a dimensão de sua importância. Neste trabalho iremos mostrar vários destes aparelhos dentro do universo do áudio e do vídeo. Uma ampla pesquisa foi feita com o intuito de buscar as últimas notícias e os mais recentes produtos lançados no mercado consumidor, com a finalidade de transmitir sons e imagens na mais alta qualidade e velocidade, diminuindo as distâncias entre os homens. Nos 4 primeiros capítulos serão estudados a fundo o funcionamento de cada tecnologia já feita para conectores, televisores, caixas de som e cinema. Por fim, no último capítulo será mostrado o que há por vir, dispositivos ainda em processo de fabricação que prometem revolucionar o modo de interação com o mundo digital. 2 CONECTORES Um conector é um dispositivo que efetua uma ligação entre uma porta de saída de um determinado dispositivo e a porta de entrada de outro dispositivo, por exemplo, um computador e o monitor. Existem vários tipos de conectores e para o propósito deste artigo discursaremos apenas sobre conectores de áudio e vídeo relacionados à computação, dando ênfase especial aos mais recentes e os projetos de conectores para o futuro. Reproduzir um sinal de vídeo em um dispositivo de vídeo (um televisor ou monitor, por exemplo) é um processo bem simples, mas que acaba se tornando complicado devido a multitude de fontes de sinais. DVDs, computadores e videogames todos processam e enviam os sinais de vídeo usando métodos diferentes. Foram criados vários conectores que utilizam diferentes métodos para tentar manter a clareza do sinal. Começaremos pelos conectores RCA. 2.1 Conectores RCA Os conectores RCA são um tipo de conector elétrico utilizado para carregar sinais de áudio e vídeo (fig. 2.1). O nome “RCA” deriva da Radio Corporation of America, que

Upload: thatiane-sugiyama

Post on 02-Jul-2015

193 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Novas Tecnologias, Áudio e Vídeo

1 INTRODUÇÃO

No mundo atual em que vivemos os meios de comunicação estão cada vez mais dinâmicos e rápidos. Aquele que não se

atualiza e está antenado com os acontecimentos acaba sendo deixado para trás. Para impedir que isso aconteça os aparelhos

eletrônicos estão aí, fundidos com o nosso cotidiano, presentes a cada momento. Eles se tornaram tão comuns que mal

percebemos o seu verdadeiro valor e a dimensão de sua importância.

Neste trabalho iremos mostrar vários destes aparelhos dentro do universo do áudio e do vídeo. Uma ampla pesquisa

foi feita com o intuito de buscar as últimas notícias e os mais recentes produtos lançados no mercado consumidor, com a

finalidade de transmitir sons e imagens na mais alta qualidade e velocidade, diminuindo as distâncias entre os homens.

Nos 4 primeiros capítulos serão estudados a fundo o funcionamento de cada tecnologia já feita para conectores,

televisores, caixas de som e cinema. Por fim, no último capítulo será mostrado o que há por vir, dispositivos ainda em

processo de fabricação que prometem revolucionar o modo de interação com o mundo digital.

2 CONECTORES

Um conector é um dispositivo que efetua uma ligação entre uma porta de saída de um determinado dispositivo e a porta de

entrada de outro dispositivo, por exemplo, um computador e o monitor. Existem vários tipos de conectores e para o propósito

deste artigo discursaremos apenas sobre conectores de áudio e vídeo relacionados à computação, dando ênfase especial aos

mais recentes e os projetos de conectores para o futuro.

Reproduzir um sinal de vídeo em um dispositivo de vídeo (um televisor ou monitor, por exemplo) é um processo

bem simples, mas que acaba se tornando complicado devido a multitude de fontes de sinais. DVDs, computadores e

videogames todos processam e enviam os sinais de vídeo usando métodos diferentes. Foram criados vários conectores que

utilizam diferentes métodos para tentar manter a clareza do sinal. Começaremos pelos conectores RCA.

2.1 Conectores RCA

Os conectores RCA são um tipo de conector elétrico utilizado para carregar sinais de áudio e vídeo (fig. 2.1). O nome “RCA”

deriva da Radio Corporation of America, que introduziu o conector no inicio dos anos de 1940 para minimizar a interferência

em sinais de pequena amplitude e ligar os antigos fonógrafos a amplificadores.

Assim como muitos outros conectores, o RCA é adotado para vários outros usos além do seu intuito original,

incluindo como conector de força, de sinais de rádio e também de áudio digital no formato S/PDIF (Sony/Philips Digital

Interconnect Format, sendo diferenciado por plugs laranjas), mas seu uso mais comum ainda continua sendo para

transferência de sinais de vídeo composto.

Vídeo composto é o formato do sinal de uma televisão analógica utilizado, por exemplo, antes de ser combinado

com áudio e enviado por ondas de rádio. Ele é composto de três sinais fontes denominados Y, U e V (ou YUV quando

juntos). Y representa o brilho ou luminance e inclui pulsos de sincronização, U e V representam matiz e saturação das cores

ou chrominance.

Porém a mixagem dos vários sinais no sinal de vídeo composto causa a perda da qualidade do sinal, e um tipo de

artefato (nome dado a anomalias durante representas visuais) conhecido como Dot Crawl (fig. 2.2).

Esse efeito é resultado de interferência entre os sinais de brilho e cor durante a modulação e transferência. Este tipo

de problema deu origem a proliferação de conectores como S-Video e Vídeo Componente, para manter os sinais separados.

2.2 S-Video

Separate Video ou S-Video (ou Y/C), é um conector de vídeo analógico que carrega os dados de vídeo em dois sinais

diferentes, luma (luminance ou brilho) e chroma (cor) sendo assim diferente do vídeo composto, que transfere brilho, matiz e

Page 2: Novas Tecnologias, Áudio e Vídeo

saturação em um só sinal de baixa qualidade, e do vídeo componente, que transfere a informação de vídeo em três sinais

separados de alta qualidade.

O conector de 4 pinos (fig 2.3) é o mais comum dos conectores S-Video, sendo os 2 superiores o sinal Y ou de

brilho (pino 3) e sinal C ou cor (pino 4) e os inferiores os respectivos terras. Existem algumas variantes que contêm até 7

pinos.

S-video mantêm os sinais Y (brilho que no caso se torna a imagem em escala cinza) e C (as cores da imagem)

separados eliminando o problema do Dot Crawl, mantendo mais informações do vídeo original intactas e oferecendo assim

melhor qualidade se comparado ao vídeo composto.

Devido a separação entre os componentes de brilho e cores da imagem, o S-Video pode ser considerado um tipo de

sinal de vídeo componente, mas o que separa o S-Video dos modelos de vídeo componente mais complexos como o RGB, é

o fato do sinal de cor ser transmitido como um só sinal, o que significa que as cores tem de ser codificadas de alguma

maneira.

Isso significa que além dos dispositivos de vídeo terem de ser compatíveis com S-Video, eles também tem de ser

compatíveis em termos de codificação e decodificação de cor. A introdução então do vídeo componente, oferecendo melhor

qualidade de imagem e compatibilidade com versões anteriores, substituiu o S-Video como alternativa para o vídeo

composto.

2.3 Vídeo Componente

Uma maneira de manter a clareza do sinal é separar os componentes do sinal de modo que eles não interfiram uns com os

outros. Um sinal separado dessa maneira é chamado de “vídeo componente”.

Geralmente quando se refere a vídeo componente (fig. 2.4) na verdade está se referindo ao esquema Y’PbPr. Por ser

um nome um pouco complicado de ser pronunciado algumas pessoas o chamam de Yipper, ou somente vídeo componente,

apesar do termo na verdade se referir a vários tipos de vídeo componente como dito anteriormente.

YPbPr é convertido de um sinal de vídeo RGB, e dividido em 3 componentes, Y, Pb e Pr respectivamente. Y sendo

o sinal de brilho (ou luma) e informações de sincronia, e em essência uma versão preto e branco da imagem original. Pb

carrega a diferença entre o azul e o brilho (B – Y) e Pr carrega a diferença entre vermelho e o brilho (R – Y). Enviar um sinal

carregando as informações da cor verde redundante, pois ela pode ser derivada utilizando o azul, o vermelho e o brilho.

Separando o sinal desta maneira (fig. 2.5.), YPbPr, ou qualquer outro tipo de vídeo componente, oferece ótima

isolação dos sinais, assim não causando interferência entre si e mantendo uma alta qualidade da imagem.

Outro exemplo de conector que utiliza sinais de vídeo componente é o conector VGA.

2.4 Conector VGA

O Video Graphics Array (VGA) é um conector introduzido no mercado pela IBM no ano de 1987, mas como foi muito bem

aceito, o termo VGA pode se referir tanto ao conector quanto a um monitor analógico ou até mesmo a resolução então

utilizada 640x480.

O conector VGA (fig. 2.6) é um conector de 3 linhas e 15 pinos. É até hoje o tipo de conector mais comum

encontrado em placas de vídeo, monitores e até mesmo em televisões e monitores de Alta Definição com suporte para

conectores VGA.

Eles carregam os sinais de componentes de vídeo analógico RGBHV (vermelho, verde, azul, horizontal sync,

vertical sync), sinal de Display Data Channel ou DDC, usado na comunicação do monitor com o adaptador de vídeo (um

exemplo seria o monitor informar para o adaptador quais as resoluções de vídeo suportadas), e dados (fig. 2.7).

Page 3: Novas Tecnologias, Áudio e Vídeo

Este método não utiliza nenhuma compressão e também não impõe nenhum limite real na definição da cor ou da

resolução, mas contêm muita informação redundante já que cada canal contém pelo menos a mesma imagem na versão preta

e branca. O vídeo componente aos poucos está perdendo popularidade sendo substituído pelo Digital Video (DVI).

2.5 Conector DVI

Os conectores DVI (Digital Visual Interface) são conectores (fig. 2.8) projetados para transferir imagens de alta qualidade

visual para dispositivos de display digital como monitores LCD e projetores digitais. Foram desenvolvidos por um consórcio

de indústrias chamado Digital Display Working Group (DDWG) para substituir o “legado da tecnologia analógica”, o

conector padrão VGA.

A interface DVI utiliza um protocolo digital no qual a desejada iluminação de pixels é transmitida como dados

binários. Dessa maneira, cada pixel no buffer de saída do dispositivo fonte corresponde diretamente a um pixel no dispositivo

de exibição, ao contrário que, um sinal analógico pode ter a aparência de cada pixel afetada pelo pixel adjacente ou por ruído

elétrico e por outras formas de distorção analógica.

O formato utilizado na transmissão dos dados é o Transition Minimized Differential Signaling (ou TMDS)

desenvolvido pela Silicon Image Inc, que consiste na utilização de um algoritmo avançado da redução de interferência

eletromagnética através de cabos de cobre, resultando em uma transferência de alta velocidade de dados seriais entre os

dispositivos. Esse tipo de transmissão também é utilizado na interface HDMI.

Com um único link DVI é possível atingir uma resolução máxima de 2.75 megapixels ou uma resolução de tela

máxima de 1915x1436 pixels (numa proporção 4:3). Porém o conector DVI pode conter uma pinagem adicional para um

segundo link, aumentando a resolução máxima para 4.0 megapixels (fig. 2.9).

Além dos sinais digitais, o conector DVI inclui pinos adicionais que fornecem o mesmo sinal analógico encontrado

em um conector VGA. Esta característica foi incluída com o propósito de fazer o conector DVI universal, permitindo que

qualquer tipo de monitor (digital ou analógico) seja operado usando o mesmo conector (com o auxílio de um adaptador para

monitores analógicos).

O conector então recebe um nome diferente para cada tipo de sinal que ele implementa:

DVI-D para somente digital

DVI-A para somente analógico

DVI-I para integrado, digital e analógico

DVI-DL para dual link

Notável também que o pino longo e achatado de um conector DVI-I (digital e analógico) é maior do que o mesmo

pino em um conector DVI-D (somente digital) tornando impossível conectar um macho DVI-I a uma fêmea DVI-D.

É possível, no entanto, conectar um DVI-D macho a um DVI-I fêmea. A maioria dos monitores LCD de tela plana

tem somente a interface digital e, portanto, somente a necessidade dos dados digitais, tornando possível a utilização do

conector DVI-D no caso do dispositivo fonte ser um computador com saída DVI-I.

Sucessores propostos para o DVI são: a interface IEEE 1394 (também conhecida pela marca Firewire da Apple), a

High-Definition Multimedia Interface (HDMI), a Unified Display Interface (UDI) que foi proposta pela Intel para substituir

as interfaces DVI e HDMI, mas foi preterida em favor da DisplayPort, proposta pela VESA (Video Eletronic Standards

Association) para suceder o DVI, apresentando capacidades de controle de direitos autorais digitais.

A UDI junto com o DisplayPort eram competidores do padrão HDMI, porém a Intel (desenvolvedora do UDI) parou

o desenvolvimento e agora também suporta o DisplayPort.

Page 4: Novas Tecnologias, Áudio e Vídeo

2.6 Conector HDMI

HDMI é uma compacta interface de transmissão de dados digitais de áudio/vídeo. Representa a alternativa digital

para os conectores de áudio/vídeo analógicos como os RCA ou cabo coaxial. O HDMI estabelece conexões digitais de

áudio/vídeo entre vários dispositivos fonte compatíveis com dispositivos de áudio digital, monitores e televisões digitais.

O HDMI (fig.2.10) suporta, em um único cabo, qualquer formato de TV ou PC, normal ou de alta definição, com até

oito canais de áudio e uma Consumer Eletronics Control (CEC). O CEC é uma conexão bidirecional de um cabo só utilizado

para funções de controle remoto, permitindo que o usuário controle múltiplos dispositivos que tenham o suporte para CEC

com apenas um controle remoto.

O conector sofreu várias atualizações desde o seu lançamento em 9 de dezembro de 2002 e cada atualização, teve

um documento e um número de versão diferente.

A versão 1.0 lançada em 2002 era capaz de transmitir 4.9 Gbit/s de dados digitais, sendo até 3.96 Gbit/s de banda de

vídeo e 8 canais de 192 kHz/24-bit de áudio.

A versão 1.1 foi lançada em 20 de maio de 2004 e adicionou suporte para DVD-Audio (um formato de áudio que

possui altíssima fidelidade com o conteúdo do DVD).

A versão 1.2 lançada em 8 de agosto de 2005 adicionou suporte para One Bit Audio, utilizado em Super Audio CDs

(SACD), um formato de cd de áudio de alta capacidade. Além de disponibilizar o conector HDMI Tipo A para

computadores. HDMI versão 1.2a foi lançada em 14 de Dezembro de 2005 e implementava o suporte para CEC.

A versão 1.3 aumenta a largura de banda para 340MHz (10.2 Gbit/s), suporte para alguns tipos de decodificação

externa de áudio, definiu duas categorias de cabos (sendo a Categoria 1 testada até 74.25 MHz e a Categoria 2 testada até

340MHz), e incluiu o novo conector Tipo C Mini para dispositivos portáteis. Versão 1.3a lançada em 10 de novembro de

2006 implementou algumas mudanças técnicas no conector Tipo C, na capacidade do CEC e no suporte do SACD. As

versões 1.3b, 1.3b1 e 1.3c somente descrevem testes com os conectores da versão 1.3a.

A versão 1.4 lançada em 28 de maio de 2009 aumentou a resolução máxima para 3840x2160p de 24 a 30hz e

4096x2160 a 24hz (que é a resolução utilizada em cinemas digitais). Uma HDMI Ethernet Channel, que possibilita uma

conexão de 100mb/s entre os dispositivos HDMI conectados. Um conector micro tipo D, e o suporte para áudio e vídeo 3D.

HDMI 1.4a lançado em 4 de março de 2010 adiciona mais 2 formatos de vídeo 3D que foram adiados na versão 1.4 devido à

incerteza do mercado 3D.

Os quatro tipos de conectores HDMI são:

Tipo A (fig. 2.11): 19 pinos com banda suficiente para todos os modos SDTV, EDTV e HDTV. Sendo eles Standard

Definition (definição padrão), Enhanced Definition (definição melhorada) e High Definition (alta definição)

respectivamente.

Tipo B: contem 29 pinos e pode carregar até o dobro da banda do Tipo A. Planejado para uso em dispositivos futuros de

resolução muito alta.

Tipo C: mini conector definido na versão 1.3, previsto para dispositivos portáteis. É menor que o conector tipo A mais

tem a mesma configuração de 19 pinos, sendo possível converter o um conector tipo C para um tipo A apenas com um

adaptador A-para-C.

Tipo D: micro conector definido na versão 1.4. Mantêm o padrão dos conectores A e C de 19 pinos, mas tão pequeno

que parece um conector micro USB.

O conector DVI é compatível eletricamente com o sinal de vídeo do HDMI, utilizando um adaptador é o suficiente

para converter o tipo do conector, sem causar perda na qualidade do vídeo. Porém o áudio e o CEC (funções de controle

remoto) não vão estar disponíveis. Além disso, nem todos os dispositivos DVI suportam o protocolo HDCP (High-bandwidth

Digital Content Protection) e sem tal suporte, um dispositivo sem HDCP recebendo sinal com HDCP não irá mostrar

nenhum conteúdo.

Page 5: Novas Tecnologias, Áudio e Vídeo

2.7 DisplayPort

DisplayPort é uma interface digital desenvolvida pela VESA desde 2006 (fig. 2.12). Define um novo conector áudio/vídeo

royality-free (uso de uma obra licenciada e patenteada, porém, sem ter que pagar royalties adicionais) intencionado para uso

entre um computador e um monitor, ou um computador e um home theater.

O DisplayPort (fig 2.13) suporta 1, 2 ou 4 pares de dados em uma conexão principal (em taxas de 1.62, 2.7 e 5.4

Gbit/s) que também transfere sinais adicionais de áudio. Apesar de não ser compatível com HDMI e DVI, o DisplayPort

pode transferir os sinais de HDMI e DVI, porque apesar de terem um clock de sinal diferente, o DisplayPort envia o clock

junto com o sinal (funcionalidade chamada de auto-sincronização), sendo possível a conversão através de um cabo.

A versão 1.1 adicionou o suporte para cabos de fibra ótica, uma alternativa para os de cobre, permitindo um alcance

bem maior entre a fonte e o display sem degradação do sinal, e também implementou o opcional DPCP (DisplayPort Content

Protection) com suporte para o HDCP utilizado pelo HDMI.

A versão 1.2 foi aprovada em 22 de dezembro de 2009, mostrando melhoras significativas para com as versões

anteriores, por exemplo, tendo agora o dobro da largura de banda das versões anteriores (17.2 Gbit/s atuais contra os 8.64

Gbit/s anteriores).

O DisplayPort tem o suporte de empresas como Apple, Dell, Toshiba, Acer, Intel e a AMD/ATI entre outras, e é

atualmente royalty-free, enquanto o HDMI custa 4 centavos americanos por dispositivo e um custo anual de $10,000 dólares

para fabricantes de larga escala, apesar de não apresentar suporte para sinais CEC e compatibilidade elétrica com DVI

(encontrados no HDMI).

3 MONITORES E APARELHOS DE TV

Neste capítulo iremos abordar os mais novos monitores e suas respectivas tecnologias de formação da imagem,

desde a função de cada pixel à imagem completa na tela.

3.1 Pixel

Um pixel, é a menor unidade de uma imagem, é formado por três sub-pixels: vermelho, verde e azul (RGB). O número de

pixels no display e sua disposição determinam a resolução da tela.

3.2 Plasma

Sua tela é formada por milhares de micro-células com gases nobres (Xenônio e Neônio) em seu interior, montadas

entre duas partes de vidro (fig. 3.1), que emitem ondas eletromagnéticas quando excitadas pela corrente elétrica. Eletrodos

extensos também são colocados entre as placas de vidro, em ambos os lados das células. Os eletrodos emissores ficam atrás

das células, ao longo da placa traseira de vidro. Os eletrodos de exposição transparentes, que são cercadas por um material

isolante dielétrico e cobertos por uma camada protetora de óxido de magnésio, são montados acima da célula, ao longo do

vidro da frente. O gás então ionizado pela presença da corrente elétrica se transforma em plasma (quarto estado da matéria),

emitindo luz.

O brilho da tela é reforçado pela presença de uma camada de fósforos que brilham, excitados pela luz ultravioleta do

plasma. Cada célula (fig. 3.2) é capaz de emitir 256 tonalidades, que combinadas no padrão RGB resultam em mais de 16

milhões de cores.

Vantagens do Plasma

- Emissão de luz pelas células da tela, proporcionando melhor brilho, contraste e resolução;

- Cenas escuras, com corte de luz;

Page 6: Novas Tecnologias, Áudio e Vídeo

- Melhor ângulo de visão;

- Melhor uniformidade da luz em todas as partes da tela.

Desvantagens do Plasma

- Maior índice de desgaste e defeito, devido às fontes para excitar as células;

- Maior emissão eletromagnética – luz ultravioleta;

- Aparelho com maior profundidade e mais pesado;

- Dificuldade de montagem de telas menores do que 40”.

3.3 LCD (Liquid Crystal Display)

O LCD é formado por material que se denomina cristal líquido. Suas propriedades foram primeiramente observadas em 1888

por um botânico austríaco, Friedrich Reinitzer. A primeira tela de matriz ativa foi produzida no começo da década de 70 nos

Estados Unidos, hoje existem menos de dez fabricantes de telas de cristal liquido. As moléculas desse material são

distribuídas entre duas lâminas transparentes polarizadas. Essa polarização é orientada de maneira diferente nas duas lâminas,

de forma que estas formem eixos polarizadores perpendiculares, como se formassem um ângulo de 90º. As moléculas de

cristal líquido são capazes de orientar a luz, assim tornando-se transparentes ou opacas.

A seguir é apresentado resumidamente o caminho da luz nos monitores LCD (fig. 3.3):

A luz da fonte (1) incide sobre o filtro polaróide (2), que deixa passar apenas a luz polarizada no plano paralelo ao de

polarização. Depois de atravessar o vidro (3), a luz chega à matriz (4) de eletrodos (transistores), que armazena os padrões de

imagem. A luz polarizada atinge o "sanduíche" de cristal líquido (5), que reproduz os padrões da matriz. Em seguida, cruza a

camada de filtros (6), o vidro (7) e alcança o filtro polarizador horizontal (8). Apenas os feixes que conseguem atravessá-lo

chegam aos pixels do mostrador (9).

O TFT (Thin Film Transistor – Transistor de película fina) é composto por uma linha de dados e uma “linha de

porta” (TFT on/off para transferência de sinal). Existe um transistor TFT para cada sub-pixel (fig. 3.4), que controla a

diferença de tensão entre o eletrodo TFT de vidro e o eletrodo no filtro de vidro colorido, ajustando assim o arranjo

molecular dos cristais líquidos e determinando qual a intensidade da luz que passará.

3.3.1 Monitor com lâmpadas CCFL

A base da iluminação de um LCD convencional é a luz fornecida por uma lâmpada CCFL (Cold Cathode

Fluorescent Lamp). Nos LCD monocromáticos, cada ponto da tela corresponde a um ponto da imagem. Já nos

policromáticos, cada ponto é um pixel. Estas lâmpadas ficam acesas constantemente (fig. 3.5).

Vantagens LCD - CCFL

- Baixo consumo de energia;

- Melhor eficiência comparando-se com os antigos televisores de tubos (CRT);

- Menor desgaste da tela (Display);

- Custo de manutenção menor do que os de plasma e CRT;

- Melhor geometria, Tela fina e leve.

Desvantagens do LCD - CCFL

- Ângulo de visão reduzido;

- Iluminação mínima constante das partes pretas, reduzindo o contraste;

- Falta de uniformidade da luz traseira provocando deformação da imagem.

Page 7: Novas Tecnologias, Áudio e Vídeo

3.3.2 Monitor com lâmpadas LED

Uma grande desvantagem da tela de LCD para as telas de Plasma é no quesito de contraste, pois como plasma tem

uma fonte de iluminação para cada sub-pixel da tela, em que ele pode estar aceso ou completamente apagado, e o LCD tendo

sua fonte de luz constantemente ligada, permite que “muita” dessa luz passe pelo display, não mostrando o negro total,

apenas um cinza escuro.

Para solucionar esse impasse do LCD, substituíram as lâmpadas CCFL por centenas de lâmpadas LED (Light-

Emitting Diodes, ou diodos emissores de luz), posicionadas nas bordas do monitor (Sidelight) ou num painel atrás da tela

(Backlight), que podem ser ligadas ou desligadas sempre que necessário, economizando energia e tendo um nível de

contraste muito grande (fig. 3.6).

Quando os LEDs são posicionados nas bordas do monitor são de luzes brancas e consegue-se uma espessura da TV

muito reduzida, porém o nível de contraste não é tão alto quando comparado ao outro modelo de posicionamento do LED.

Esse outro modelo de posicionamento refere-se ao LED posicionado atrás da tela, assim como as lâmpadas CCFL,

porém pode ser constituído de LEDs brancos ou LEDs coloridos (2 Verdes, 1 Vermelho e 1 Azul), essa disposição faz com

que o monitor fique um pouco mais espesso, porém sua capacidade de contraste é muito melhor, chegando ao negro quase

que absoluto (fig. 3.7).

Vantagens do LCD – LED

- Permanece com Baixo consumo de energia;

- Maior uniformidade da luz traseira;

- Melhor resolução em vídeo componente e HDMI;

- Profundidade ainda mais reduzida - os Leds ocupam menos espaço que lâmpadas (backlight).

Desvantagem do LCD - LED

- Também apresenta baixa resolução em vídeo composto analógico;

- Como é uma tecnologia nova, o custo ainda está muito alto.

3.4 OLED (Organic Light-Emitting Diodo)

Inventado no começo da década de 80 pela Kodak o Diodo Orgânico Emissor de Luz é baseado no conceito de substratos

orgânicos capazes de emitir luz. Similar ao conceito do LED, o qual é composto de materiais metálicos, o OLED quando

excitado por uma corrente elétrica libera luz em uma freqüência determinada pela sua composição química e intensidade da

corrente.

O display OLED pode ser flexível e extremamente fino, como uma folha de papel. Ele é um semicondutor de estado

sólido, formado por duas ou três camadas de material orgânico, um substrato, um ânodo e um cátodo (fig. 3.8).

Substrato (plástico transparente, vidro, lâmina) – o substrato dá suporte ao OLED;

Ânodo (transparente) -o ânodo remove elétrons (adiciona "buracos" de elétron) quando uma corrente passa através

do dispositivo;

Camadas orgânicas - estas camadas são feitas de moléculas orgânicas ou polímeros;

Camada condutora - esta camada é feita de moléculas de plástico orgânico que transportam "buracos" do

ânodo. Um polímero condutor usado nos OLEDs é a polianilina;

Camada emissiva - esta camada é feita de moléculas plásticas orgânicas (são diferentes da camada

condutora), que transportam elétrons do cátodo. É aqui que a luz é gerada. Um polímero usado na camada

emissiva é o polifluoreno.

Page 8: Novas Tecnologias, Áudio e Vídeo

Cátodo - pode ou não ser transparente dependendo do tipo de OLED - o cátodo injeta elétrons quando a corrente

passa através do dispositivo.

O processo funciona da seguinte maneira (fig. 3.9):

1. A fonte de alimentação do dispositivo contendo o OLED aplica uma voltagem através do OLED;

2. Uma corrente elétrica flui do cátodo para o ânodo através das camadas:

O cátodo fornece elétrons à camada emissiva das moléculas orgânicas;

O ânodo remove elétrons da camada condutiva das moléculas orgânicas, isto é equivalente a entregar buracos de elétrons à

camada condutiva.

3. No limite entre as camadas emissiva e condutiva os elétrons encontram buracos de elétrons:

Quando um elétron encontra um buraco de elétron, preenche o buraco (esse elétron  cai no nível de energia do átomo que

perdeu um elétron);

Quando isso acontece, o elétron fornece energia na forma de um fóton de luz.

4. A cor da luz depende do tipo de molécula orgânica na camada emissiva. Os fabricantes colocam vários tipos de

filmes orgânicos no mesmo OLED para fazer displays coloridos;

5. A intensidade ou brilho da luz depende da quantidade de corrente elétrica aplicada. Quanto maior for a corrente,

maior será o brilho da luz

3.4.1 AMOLED e PMOLED

Assim como no LCD os OLEDs tem matriz ativa (AMOLED) e passiva (PMOLED):

3.4.1.1 AMOLED

Os AMOLEDs (fig. 3.10) têm camadas completas de cátodo, moléculas orgânicas e ânodo, mas a camada de ânodo

se sobrepõe a uma estrutura de transistor de filme fino (TFT) que forma uma matriz. A própria estrutura TFT é o circuito

elétrico que determina quais pixels ficam ligados para formar uma imagem.

Os AMOLEDs consomem menos energia do que os PMOLEDs porque a estrutura TFT requer menos energia do

que o circuito externo, portanto, são eficientes para grandes displays. Os AMOLEDs também têm taxas de atualização mais

rápidas, adequados para vídeo.

3.4.1.2 PMOLED

Os PMOLEDs (fig. 3.11) têm tiras de cátodo, camadas orgânicas e tiras de ânodo. As tiras de ânodo são arranjadas

perpendicularmente às tiras de cátodo. As interseções do cátodo com o ânodo formam os pixels onde a luz é emitida. O

circuito elétrico externo aplica uma corrente às tiras selecionadas de ânodo e cátodo, determinando quais pixels serão ligados

e quais permanecerão desligados. Portanto, o brilho de cada pixel é proporcional à quantidade de corrente aplicada.

Os PMOLEDs são fáceis de fazer, mas consomem mais energia do que outros tipos de OLED, principalmente

devido à energia necessária para alimentar o circuito externo. Os PMOLEDs são mais eficientes para textos e ícones e mais

adequados para telas menores (2 a 3 polegadas de diagonal) como aquelas que você encontra nos telefones celulares, PDAs e

MP3 players. Mesmo com o circuito externo, os OLEDs com matriz passiva consomem menos energia da bateria do que os

LCDs que são usados atualmente nesses dispositivos.

Vantagens do OLED

- Emissão e corte de luz pelas próprias células da tela. Não necessita de backlight adicional;

- Melhor brilho e contraste;

- Melhor ângulo de visão;

Page 9: Novas Tecnologias, Áudio e Vídeo

- Tela fina e flexível;       

- Maior resolução;

- Baixíssimo consumo.

Desvantagens do OLED

- Custo ainda muito alto;

- As telas ainda são reduzidas, não chegando a 40”;

- A durabilidade da tela ainda é baixa e depende da evolução dos processos de fabricação.

3.5 Monitor 3D

Atualmente, nenhum monitor é capaz de criar imagens em 3 dimensões, eles apenas iludem o cérebro para ele entender que a

imagem em 2 dimensões possui profundidade. O método de gravação de imagens em 3D para monitores é o mesmo usado

para o cinema.

O primeiro filme em 3D foi a ser exibido ao publico foi "Power of Love" em 1922, claro que com toda a

simplicidade de imagem e som da época, esse efeito de simulação 3D vem fascinando o público desde então. Hoje temos

filmes em 3D com ótima qualidade de imagem e som, porem ainda apenas uma simulação.

Um dos grandes empecilhos a esta tecnologia de imagem são os incômodos óculos, ou eles são leves, porém não

proporcionam uma imagem com grande gama de cores, ou proporcionam esta imagem, podem são desconfortáveis, na

maioria dos monitores 3D de hoje usa-se esses óculos para obter o efeito 3D.

Uma saída para isso é uma nova tecnologia de monitores 3D, dispensando o uso de óculos, ela consiste na Barreira

Paralaxe. Neste método de autoestereoscopia, as imagens são lançadas na tela simultaneamente, uma para cada olho, então as

linhas verticais do monitor alteram a visualização da imagem através das barras opacas, estas com a função de alternar a

leitura entre os olhos esquerdo e direito (fig. 3.12). Porém esta tecnologia também não é perfeita. Se o usuário não estiver

posicionado no local correto a imagem 3D não se forma corretamente e ainda pode ficar uma com uma imagem um pouco

menos definida.

3.6 TV Digital

A TV Digital teve inicio na década de 70 no Japão com o intuito de desenvolver TVs de alta definição.

De maneira simplificada, podemos dizer que a TV analógica forma a imagem e o som de modo contínuo, daí

qualquer diminuição no sinal já é suficiente para fazer a imagem e som ficarem instáveis, com chuviscos, ruídos etc. (fig.

3.13). A Televisão digital converte os dados em sinais binários, como um computador, para enviar vídeo, áudio e sinais de

dados aos aparelhos compatíveis com a tecnologia, proporcionando uma transmissão sem perda e recepção com alta

qualidade e quantidade de dados. Assim mesmo que o sinal esteja fraco, imagem e som serão perfeitos, e caso o sinal esteja

muito fraco, simplesmente não haverá imagem e som.

O padrão em operação comercial é capaz de transportar até 19 Mbps de dados, ou seja, capacidade suficiente para

transmitir um programa em alta definição, que ocupa em media 15 Mbps ou quatro programas em simultâneo com definição

padrão, que ocupa em media 4 Mbps cada.

Existem três tipos padrões de TV Digital:

- Americano (ATSC): privilegia uma televisão com alta definição.

- Europeu (DVB): privilegia a interação e multiprogramação.

- Japonês (ISDB): alem da alta definição, privilegia a mobilidade do receptor.

Para as necessidades brasileiras, foi adotado o padrão japonês com algumas melhorias desenvolvidas aqui mesmo no

país (fig. 3.14). Aqui este sinal ficou denominado pela sigla SBTVD (Sistema Brasileiro de TV Digital Terrestre) e

Page 10: Novas Tecnologias, Áudio e Vídeo

freqüência de transmissão em UHF (470 MHz à 890 MHz). O primeiro sinal digital foi transmitido em São Paulo no dia 2 de

Dezembro de 2007. Hoje o sinal digital terrestre está presente em 21 capitais e 8 cidades pólo. O prazo para substituição total

do sistema analógico para o digital é ate 2016.

Alem da TV digital terrestre, existe a TV digital rural (TVDR). Esta por enquanto é disponibilizada apenas para o

estado do Rio de Janeiro. Enquanto o sinal da TV digital terrestre é originado em torres de transmissão, na TVDR, o sinal é

enviado para o satélite e este disponibiliza o sinal para quem possuir antenas parabólicas.

Além de a TV Digital proporcionar vídeos de alta definição sem chuviscos e interferência, com som em 6 canais,

grande mobilidade dos receptores, como celulares, ela também oferece uma interatividade impensável nas TVs analógicas.

3.6.1 Interatividade

Interatividade Local: O Conteúdo é transmitido para o receptor. A partir daí, o usuário pode interagir livremente

com os dados que ficam armazenados no seu receptor, como consultar a programação, condições climáticas para região.

Interatividade com Canal de Retorno Não-Dedicado: A interatividade é estabelecida a partir da troca de

informações por uma rede à parte do sistema de televisão, como uma linha telefônica. O recebimento das informações ocorre

via ar, mas o retorno à central de transmissão se dá pelo telefone, assim o usuário pode fazer compras pela TV, fazer

perguntas em programas educativos.

Interatividade com Canal de Retorno Dedicado: Com a expansão das redes de banda larga, pode ser

desenvolvido um meio específico para operar como canal de retorno. Para isso, o usuário da TV digital necessitaria não

apenas de antenas receptoras, mas também de antenas transmissoras, e o sistema, a capacidade de transportar os sinais até a

central de transmissão, assim terá toda interatividade mencionada nos outros dois modelos, como realizar operações

bancarias, etc.

4 ÁUDIO

4.1 Diferença entre as tecnologias analógicas e digitais

Na tecnologia analógica, uma onda é gravada ou usada em sua forma original. Assim, por exemplo, em um gravador

analógico, um sinal é levado diretamente do microfone e colocado em uma fita. A onda do microfone é uma onda analógica,

e, portanto, a onda sobre a fita também é. Essa onda pode ser lida, amplificada e enviada a um alto-falante para produzir o

som.

Na tecnologia digital, a onda analógica é transformada em números, que são armazenados no dispositivo digital. 

O som digital, ou áudio digital, consiste na representação digital de uma onda sonora por meio de código binário. O

processo que envolve, na captação ou gravação, a conversão do som analógico para digital é o Analog to Digital Converter

(ADC). Na reprodução, a conversão do som digital para analógico é o Digital to Analog Converter (DAC), que permite que o

som seja armazenado e reproduzido por meio de um CD, MiniDisc ou DAT, de bandas sonoras de filmes digitais, de arquivos

de áudio em diversos formatos, como WAV, AIFF, MP3, OGG, e de outros meios.

O processo de conversão do som analógico para digital acarreta uma perda, e é sabido que o som digital nunca

poderá representar o som analógico de maneira plena. No entanto, a evolução tecnológica dos processos de conversão atingiu

um grau elevado de precisão ao ponto de não deixar transparecer nenhuma distinção perceptível ao ouvido humano entre o

som analógico e sua representação digital.

A precisão da representação digital do som varia de acordo com a taxa de amostragem de freqüência e a quantidade

(profundidade) de bits para cada amostra, ou bit depth. Quanto maiores esses valores, maior será a fidelidade do som digital

em relação ao som analógico. Um CD de áudio padrão, por exemplo, possui a taxa de amostragem de freqüência, ou taxa de

amostragem (sampling rate), de 44.100 Hz e a profundidade de 16 bits.

Page 11: Novas Tecnologias, Áudio e Vídeo

4.2 Som Surround

É uma série de técnicas utilizadas para enriquecer a qualidade de uma fonte de áudio, reproduzida com canais de áudio. 

As gravações surround adicionam mais canais de áudio. Assim, o som vem de três ou mais direções. Muitas vezes, o

termo "som surround" se refere tecnicamente ao sistema multicanal desenvolvido pela Dolby (em inglês), mas normalmente é

usado como um termo genérico para os sistemas multicanal.

A esfera tridimensional (3D) da audição humana pode ser virtualmente alcançada através dos canais de áudio

localizados acima e abaixo do ouvinte (left-surround, right-surround, back-surround). Já no plano 2D, tais canais se

localizam no centro, à frente, à esquerda e à frente à direita.

A tecnologia de som surround é aplicada em cinemas e em sistemas de home theater, consoles de videogame,

computadores pessoais e outras plataformas. Formatos comerciais de som surround incluem videocassetes, DVDs de vídeo e

transmissões HDTV codificados como Dolby Pro Logic, Dolby Digital ou DTS. Outros formatos comerciais incluem os

concorrentes DVD-Audio (DVD-A) e Super Audio CD (SACD) e MP3 Surround. O formato surround Cinema 5.1 inclui a

Dolby Digital e DTS. A Sony Dynamic Digital Sound (SDDS) é uma configuração 7.1 de cinema que dispõe de 5 canais de

áudio independentes na parte dianteira, com dois canais surround independentes, e uma Low Frequency Effects (LFE).  

4.2.1 Criando um som surround

O som surround é criado de várias maneiras. O primeiro método, e também o mais simples, consiste numa técnica

de gravação que utiliza um microfone de som surround, e depois, para reprodução, utiliza de alto-falantes com o intuito de

cercar o ouvinte para reproduzir o áudio vindo de diferentes direções.

Uma segunda abordagem é o processamento de áudio com os métodos de localização de som psico-acústico para

simular um campo bidimensional (2D) de som com fones de ouvido. 

A terceira abordagem, baseada no princípio de Huygens, tenta reconstruir a frente do campo de ondas do som

gravada dentro do espaço de escuta. 

4.2.2 Mapeamento de canais para alto-falantes

Na maioria dos casos, sistemas de som surround contam com o mapeamento de cada fonte do canal ao seu próprio

alto-falante. Sistemas de “Matrix” recuperam o número e o conteúdo dos canais da fonte e aplicam aos seus respectivos alto-

falantes. Com som surround discreto, o meio de transmissão permite (pelo menos) o mesmo número de canais de origem e de

destino. No entanto, mapear de um por um, cada canal ao alto-falante, não é a única forma de transmissão de sinais de som

surround.

O sinal transmitido pode codificar a informação (que define o campo original do som) para um maior ou menor

grau. A informação do som surround é processada para um decodificador para ser repetida, gerando o número e a

configuração do alto-falante, sendo em seguida distribuído para os alto-falantes disponíveis para repetição. 

4.2.3 Acessando o canal surround

A maneira mais fácil de acessar o canal surround é por meio de um receptor com um  decodificador de som

surround. O decodificador reorganiza a informação fora de fase que é transportada para um terceiro canal. Para balancear o

som, o receptor também aumenta o volume do canal e faz pequenos ajustes de tempo. Se você tem um aparelho de som

estéreo comum, é possível acessar o som surround, já que toda informação está gravada nos canais direito e esquerdo.

Para fazer isso, deve-se conseguir um par de alto-falantes traseiros e posicioná-los ao lado direito e esquerdo do

ouvinte. Conectar o terminal positivo do amplificador para o canal direito no terminal positivo do falante traseiro direito.

Depois, é preciso conectar o terminal positivo do amplificador para o canal esquerdo no terminal positivo do alto-falante

traseiro esquerdo. Para terminar, deve-se conectar os dois terminais negativos nos alto-falantes traseiros (fig. 4.1).

Page 12: Novas Tecnologias, Áudio e Vídeo

Os sinais estéreos que estão em fase nos canais frontais se cancelam nos falantes traseiros. As correntes positivas do

canal esquerdo e direito vão chegar aos terminais positivo e negativo de cada alto-falante ao mesmo tempo. Dessa forma, a

corrente não vai mudar a posição do eletro-ímã.

No entanto, os sinais que estão fora de fase no canal estéreo vão formar uma nova corrente. A corrente destes sinais

sairá do terminal positivo do amplificador para o canal esquerdo enquanto o terminal positivo do alto-falante vai em direção

ao terminal positivo do amplificador e então, para o canal direito. Estes sinais fora de fase movem o eletro-ímã do alto-

falante traseiro e controlam o som que vem deles.

Para configurar um simples alto-falante central (o que une os alto-falantes estéreos direito e esquerdo) basta ligar

a TV. Se for uma televisão mono, ela vai reproduzir os dois canais ao mesmo tempo.

Outra peça fundamental desta configuração é um potenciômetro, dispositivo que aplica diferentes graus de

resistência a uma corrente e com isso reduz a voltagem de um circuito. Na configuração, o potenciômetro funciona como

um controle de volume para os alto-falantes traseiros. Pode-se colocá-lo em qualquer ponto do circuito que vai para estes

alto-falantes.

Obviamente, esta configuração não vai dar a mesma qualidade de som que um receptor de som surround, mas é um

ótimo exercício para entender o funcionamento do som surround analógico.

4.3 Bass Management

Sistemas surround de repetição podem fazer o uso da gestão de graves (Bass Management), o princípio fundamental que é

que o conteúdo de graves no sinal de entrada, independentemente do canal, deve ser direcionado apenas para os alto-falantes

capazes de lidar com ele, independentemente se estes são os alto-falantes do sistema principal ou de um ou  mais alto-falantes

especiais de baixa freqüência chamada subwoofers. Há uma diferença de notação antes e depois do sistema de gestão de

graves. Antes dele, há um canal de efeito de baixa freqüência LFE. Depois dele, há um sinal do subwoofer. Um equívoco

comum é a crença de que o canal LFE é o canal de subwoofer. O sistema pode direcionar o grave para um ou mais

subwoofers (se houver) de qualquer canal, e não apenas do canal LFE. Além disso, se não houver nenhum subwoofer

presente, o sistema de gestão de grave pode direcionar o canal LFE para um ou mais dos alto-falantes principais.

4.4 Canal de Efeitos de Baixa Freqüência (LFE – Low Frequency Effects)

Devido ao fato de que o canal LFE requer apenas um décimo da largura de banda de outros canais de áudio, é referido como

o "canal de .1", como por exemplo "5.1" ou “7.1 ". 

O LFE é originado de alguma confusão no som surround. O canal LFE foi originalmente desenvolvido para

transportar efeitos sonoros cinematográficos extremamente graves em seu próprio canal (por exemplo, o barulho alto de

trovão ou explosões). Quando os efeitos sub-bass estão em um canal diferente, isso permite que cinemas controlem o volume

dos efeitos sub-bass, de modo que se adéqüe ao tamanho do seu sistema de reprodução de som e do ambiente acústico do seu

cinema. O controle independente dos efeitos sub-bass também reduziu o problema da distorção de intermodulação na

reprodução sonora de filme analógico. 

Na implementação original de cinema, o LFE era um canal separado que era interligado a um ou mais

subwoofers. No entanto, os sistemas de repetição em casa podem não ter um subwoofer separado, que é capaz de lidar com

os efeitos sub-bass. Como resultado, decodificadores modernos e sistemas incluem muitas vezes um bass management que

permite o som grave em qualquer canal (principal ou LFE) para ser alimentado apenas para os alto-falantes que podem lidar

com sinais de baixa freqüência. O ponto importante aqui é que o canal LFE não é o canal de subwoofer. 

Page 13: Novas Tecnologias, Áudio e Vídeo

4.5 Notação

Esta notação, por exemplo, "5.1", remete à variedade de canais, incluindo um "0.1" para caracterizar o alcance limitado do

canal LFE. Por exemplo:

2 alto-falantes estéreo básicos com nenhum canal LFE = 2.0

5 canais de alcance completo + 1 canal LFE = 5.1

3 canais frontais + 2 canais laterais + 1 canal LFE = 3/2.1

Nota: O termo estéreo, embora popularizado em função dos dois canais de áudio, também pode ser adequadamente

utilizado para se referir a som surround, já que rigorosamente significa som “sólido”. No entanto, este não é mais um uso

comum e som estéreo é quase exclusivamente usado para descrever dois canais de som, esquerdo e direito.

4.6 Gerando Som Digital

Quem faz a conversão do sinal analógico em sons digitalizados, é um circuito chamado ADC. Basicamente, um ADC extrai

amostras da onda elétrica gerada por um aparelho analógico, como um microfone, que são transformadas em sinais digitais.

Estes sinais podem ser facilmente manipulados pelo processador e transmitidos como qualquer outro tipo de dado,

permitindo que você converse com outras pessoas via Internet, por exemplo.

Quando é necessário tocar um som digital previamente gravado, é preciso fazer o caminho inverso, ou seja,

transformar as amostras novamente em uma onda analógica, que possa ser tocada pelas caixas acústicas da placa de som.

Esta conversão é feita pelo DAC. O ADC e o DAC são os dois componentes básicos de uma placa de som.

Gravar os sons digitalmente permite reproduzir qualquer som com qualidade. O problema é que os arquivos gerados

acabam sendo muito grandes, o que dificulta seu uso. Apenas um minuto de áudio gravado com qualidade de CD equivale a

um arquivo WAV de 10,5 Megabytes. Para contornar este inconveniente, duas técnicas são utilizadas: a compactação de

áudio, e a síntese de áudio.

4.7 Compressão de Áudio

Até certo ponto, é possível compactar o som sem nenhuma perda de qualidade (substituindo seqüências de sons iguais por

códigos que dizem que o som deve ser repetido, por exemplo) Mas chega uma hora que é preciso abrir mão de um pouco da

qualidade, para gerar arquivos menores, assim como sacrificamos um pouco da qualidade de uma imagem gravada em BMP

quando a convertemos para o formato JPG, passando a ter, porém, um arquivo muito menor. Exemplos de algoritmos de

compactação de áudio são o ADPCM, o True Speech e o MPEG, mais popularmente conhecido como MP3, um formato de

compactação extremamente eficiente e popular, muito utilizado atualmente para transmitir músicas via Internet.

Outro formato que vem ganhando bastante popularidade é o VQF, que usa um algoritmo de compactação mais

eficiente que o usado pelo MP3, gerando arquivos até 30% menores. O problema do VQF é que, devido à complexidade do

algoritmo, a descompactação dos arquivos é extremamente trabalhosa, exigindo um processador poderoso. 

Mais um formato relativamente novo é o WDM da Microsoft. Além de remover as freqüências que não são audíveis,

este formato destaca os sons que são mais perceptíveis, recurso chamado de “ringing”. O objetivo principal deste formato é

concorrer com o Real Audio no ramo de transmissões de áudio via Internet, no qual, devido à banda estreita, o som precisa

ser altamente compactado.

Atualmente, o único formato de áudio capaz de gerar arquivos menores que o MP3 mantendo a mesma qualidade

ainda é o VQF.

4.8 Som Mono

Mono ou reprodução de som monofônico (muitas vezes abreviado para mono) é canal único. Mono significa que todo o som

foi gravado em uma pista de áudio ou canal. Normalmente, há apenas um microfone, um alto-falante, ou canais são

Page 14: Novas Tecnologias, Áudio e Vídeo

alimentados a partir de um caminho de sinal comum. No caso de vários microfones, os caminhos são misturados em um

caminho único de sinal em algum momento.

O som mono foi substituído pelo som estéreo na maioria das aplicações de entretenimento. No entanto, ele continua

sendo o padrão para comunicações de rádio telefone, redes de telefone e loops de indução para uso com aparelhos auditivos.

4.9 Som Estéreo

O som estéreo é a reprodução do áudio que utiliza dois canais de som monaurais distintos (direito e esquerdo) sincronizados

no tempo, que é reproduzido em alto-falantes, um em cada lado do ouvinte. É o padrão de reprodução encontrado nos CDs de

música, porém vem sendo substituído nos cinemas e em algumas gravações musicais pelo áudio multicanal (5.1/7.1). No

entanto, aparelhos de som de alta fidelidade ainda usam principalmente a estereofonia.

Esse tipo de reprodução sonora foi baseado no fato de que temos dois ouvidos, portanto temos uma audição

estereofônica, que nos permite saber se um som vem da esquerda ou da direita e de qual distância provém.

Portanto um aparelho de som estereofônico procura reproduzir a posição em que os instrumentos musicais e

os cantores estavam no momento da gravação de áudio, sendo muito mais prazerosa que a reprodução monoaural, que

provém de um único canal.

Quando um som que está posicionado ao centro dos microfones é gravado, esse som terá o mesmo sinal em ambos

os canais durante a reprodução e é escutado um som central. O som parece vir de um ponto médio entre as caixas acústicas.

No entanto, quando o som está mais próximo de um microfone do que do segundo, durante a reprodução esse som

terá mais volume no alto-falante correspondente.

4.10 Som Multicanal

O termo “som multicanal” designa a utilização de várias pistas áudio com vista à restituição sobre um sistema que comporta

vários alto-falantes. É a gravação e reprodução do áudio em múltiplos canais, isto é, fontes de som independentes entre si. Ao

contrário da estereofonia tradicional, o áudio multicanal usa mais do que dois canais simultaneamente, daí o nome. O

objetivo deste tipo de reprodução, geralmente encontrada em cinemas e home theaters, é envolver o ouvinte com caixas de

som e simular a ambiência da gravação. Formatos populares de áudio multicanal são o DTS e os Dolby.

Existe uma terminologia associada, constituída por dois números separados por um ponto (2.1, 5.1, 6.1, 7.1, etc.),

permitindo classificar o tipo de configuração espacial das colunas em função do número de pistas áudio utilizadas. 

O primeiro número indica o número de canais principais destinados a cada um a ser restituído num alto-falante,

enquanto o segundo designa a presença de efeitos baixa freqüência LFE. Assim, 1.0 corresponde a um som áudio mono

(subentendido monocanal) e 2.0 corresponde a uma fonte sonora estéreo. 

A notação 5, 6 ou 7 significa canais de médio-alta freqüência (médios e agudos) para caixas de som frontais, central,

laterais e traseiros, e o .1 da sigla para 1 canal de graves. O canal de graves, chamado de LFE, é normalmente usado

por subwoofers para a reprodução das baixas freqüências.

4.11 Configuração Espacial

De acordo com o número de canais áudio, existe uma configuração espacial dos alto-falantes que permitem aperfeiçoar o

efeito desejado. Assim, ícones específicos presentes nos suportes multicanais permitem simbolizar o número de canais e a

distribuição dos alto-falantes no espaço, graças a pequenos quadrados pretos (que representam cada canal) repartidos sobre

um quadrado que representa a divisão (fig. 4.2). 

4.11.1 Configuração 5.1

Page 15: Novas Tecnologias, Áudio e Vídeo

A configuração espacial dos alto-falantes de um sistema 5.1 é de uma importância primordial, porque condiciona

diretamente a qualidade de escuta e o realismo dos efeitos sonoros. 

Existem diversas regras a serem respeitadas a fim de posicionar o melhor possível cada alto-falante (fig. 4.3): 

Os alto-falantes frontais devem ser idealmente colocados à altura de escuta do ouvinte sentado. Já os traseiros

(surround) devem ser posicionados ligeiramente acima desta linha de escuta.

Os alto-falantes frontais da esquerda e da direita devem ser dispostos de um lado e doutro da televisão, tendo o

cuidado de respeitar o lado de cada uma delas. Na prática, deverão cada uma formar um ângulo de 25° a 45° com o

ouvinte.

O alto-falante central deve ser colocado diretamente acima ou debaixo da TV, já que serve principalmente para os

diálogos dos atores principais.

O subwoofer pode ser disposto em qualquer lugar da divisão, preferivelmente posto no chão para transmitir melhor

as vibrações. O melhor é testar diferentes posições na divisão.

A posição ideal para os alto-falantes traseiros é recuado em relação ao ouvinte, de maneira a formar um ângulo de

90° a 110° com o ouvinte.

4.11.2 Configuração 6.1

A configuração 6.1 é similar a uma configuração 5.1, exceto que ela acrescenta uma via traseira central a fim de

compensar o “buraco” entre as duas colunas traseiras. 

Dolby e DTS usam codecs para extensão do som surround estéreo, chamados respectivamente de Dolby Digital

Surround EX e DTS Extended Surround. Eles adicionam um canal traseiro central, mono, chamado de Surround Back: são os

sistemas 6.1. A diferença para o 5.1 é apenas esta nova caixa na parte de trás.

Este canal pode, entretanto, ser usado para um subwoofer traseiro (o subwoofer tradicional fica na frente) ou ainda

ser dividido em Surround Back Esquerdo e Direito (fig. 4.4). Se for este o caso, é possível usar 7 amplificadores no lugar de

6, mas o sistema não é necessariamente 7.1.

O objetivo de se instalar duas caixas acústicas Surround Back no lugar de uma é aumentar a dispersão do som na

parte traseira da sala. Também se pode evitar o chamado “efeito de headphone”, que é a sensação de reprodução do som

dentro da cabeça do ouvinte, ao invés de ao redor dela, como manda as especificações do som surround (fig. 4.5).

4.11.3 Configuração 7.1

Uma configuração 7.1 propõe preencher o “buraco” entre os dois alto-falantes traseiros não por um, mas por dois

alto-falantes (fig 4.6). 

Som surround 7.1 é um padrão comercial de áudio que adiciona dois alto-falantes para os mais convencionais. Essa

configuração utiliza o padrão da frente, centro e a configuração de alto-falante LFE (baixo), mas, além disso, inclui dois alto-

falantes posicionados ao lado e dois na parte traseira. Usando essa configuração de som, quase todos os ângulos de som

podem, teoricamente, ser capturados, para uma experiência totalmente imersiva. O formato de disco de vídeo Blu-ray Disc

pode suportar até oito canais de áudio sem perdas ou que não foram descompactados. 

4.11.3.1 O que é áudio 7.1?

O Som surround digital pode fazer com que a experiência de assistir um filme em DVD se assemelhe mais a ver o

filme em um teatro. Uma das mais recentes variações nos sistemas de home theater são os que oferecem recursos de som

surround 7.1. Enquanto que o som surround 5.1 proporciona o áudio vindo da parte dianteira, do meio e da parte traseira, o

surround 7.1 digital rodeia totalmente a pessoa, com o áudio vindo da parte dianteira, do meio, da parte traseira e das laterais.

Page 16: Novas Tecnologias, Áudio e Vídeo

4.11.3.2 A Repartição dos Alto-falantes

Como um sistema de alto-falantes 7.1 é criado: dois alto-falantes na parte frontal transmitem o som espacial para a

direita e para a esquerda. Um alto-falante na frente, posicionado no meio, proporciona o diálogo. Dois alto-falantes, um em

cada lado, oferecem um som espacial vindo dos lados. Dois alto-falantes na parte traseira oferecem um som espacial vindo de

trás do espectador. 

Os sete principais alto-falantes compõem o 7 com o 0.1, que está sendo atribuído ao LFE ou subwoofer, portanto, a

configuração 7.1.

4.11.3.3 Como o áudio 7.1 funciona

Os padrões de DVDs oferecem taxas máximas de 1.5 Mbps. Atualmente, os discos de Blu-Ray e DVDs HDs podem

lidar com até 6 Mbps, dependendo do formato. Este aumento da capacidade significa que o áudio agora pode ser armazenado

nestes discos sem haver perdas de dados, o que significa que o áudio não é comprimido. Sendo assim, isso permite que os

canais 7.1 tenham uma freqüência de amostragem de 96 kHz e 24 bits de resolução.

Quando você coloca um DVD HD ou um disco Blu-Ray em um aparelho com um decodificador DTS interno, o

sinal de áudio DTS é enviado ao decodificador e ao mixer DTS do leitor de discos.  Do mixer, ele é enviado através do cabo

HDMI para o receptor DTS. Lá, ele é recolhido no pós-processador DSP. De lá, o sinal de áudio é enviado para o DAC.

O sinal é então enviado ao amplificador, que separa o sinal em canais discretos 7.1 e emite o sinal correto para o

devido alto-falante. 

4.11.3.4 Formatos Compatíveis de Áudio

Equipamentos que possuem Dolby Digital Plus, DTS-HD, Blu-Ray ou compatibilidade com o Dolby TrueHD.

4.12 Introdução ao formato surround 10.2

A praticidade deste formato é um pouco limitada, devido à logística de integração dos alto-falantes adicionais, e devido ao

fato de que ela não exige muito mais poder de processamento. A motivação por trás do 10.2 foi demonstrar que o foco das

indústrias de áudio em atingir taxas de amostragem mais elevadas não vai produzir uma diferença mais perceptível ao ouvido

humano. Uma vez que os limites de percepção humana já foram atingidos, em quesito comprimento de palavra e taxa de

amostragem, a próxima revolução será inevitavelmente o número de canais de áudio para melhor corresponder à percepção

sonora espacial humana. 

Na avaliação das alterações importantes que poderiam ser feitas para o padrão 5.1, a fim de melhorar o som

surround, o primeiro quesito a ser melhorado seriam os lados. Pesquisas psicoacústicas dizem que os reflexos laterais são

importantes na percepção da largura, amplitude da fonte, e a direção preferencial para tais reflexos é de 55 graus.  Em

resposta a esta pesquisa, 10.2 acrescenta novos alto-falantes de amplitude “Left Wide” e “Right Wide” e canais (com um

atraso de 35 ms para simular o primeiro reflexo de uma típica caixa de sapatos em formato de uma sala de concertos). 

Um simples e discreto alto-falante surround traseiro é utilizado no 10.2 para preencher a grande lacuna deixada

pelos alto-falantes surround padrão a mais ou menos 110 graus (fig. 4.7). Um canal “Left Height” e “Right Height” foram

adicionados mais para recriar com exatidão a "profundidade" no estúdio. 

Finalmente, dois canais subwoofer independentes são fornecidos, cada um gerenciado pelo bass management de

seus respectivos lados e também disponíveis para as faixas de LFE separadas da esquerda e da direita. Na maioria das faixas

isso ainda resultará em um sistema de subwoofer dual mono, mas o potencial para uma maior fidelidade existe com os canais

subwoofer independentes “Left & Right”. Audyssey ainda está realizando pesquisas para a ciência por trás desta

decisão. Eles acreditam que, apesar de ondas graves inferiores a 80 Hz são omnidirecionais. Há evidências de pesquisa que

Page 17: Novas Tecnologias, Áudio e Vídeo

mostram que o som estéreo de graves pode melhorar a sensação de envolvimento e adicionar um senso de realismo à

experiência de surround.

O "0.2" em 10.2 refere-se ao fato de que um canal LFE extra é adicionado, não apenas um segundo subwoofer para

aumentar a sensação de envolvimento. Todos os graves dos canais da esquerda são direcionados a um canal LFE da

esquerda, enquanto que o grave do canal direito é direcionado ao canal LFE da direita.

O som surround 10.2 acrescentara mais quatro canais na área frontal de escuta e apenas um canal surround.  Isso

ocorre porque a percepção espacial humana do som é muito mais precisa na frente do que na parte de trás.

4.13 Formato Surround 12.2

A única diferença entre o 12.2 em relação ao 10.2 são os canais de pontos de "surround". Estes seriam colocados nos mesmos

ângulos que os alto-falantes surround padrão em mais ou menos 120 graus, mas seriam radiadores difusos, usando alto-

falantes dipolo. Eles iriam emitir som para refletir nas paredes antes de chegar à área de audição do espectador.

O .2 do 12.2 refere-se à adição de um segundo subwoofer. O sistema de graves é gerenciado de tal forma que todos

os alto-falantes do lado esquerdo usam o sub da esquerda, e todos os alto-falantes da direita usam o sub da direita.  O alto-

falante surround central e o de trás estão divididos entre os dois subwoofer. Os dois subwoofer também servem como dois

canais discretos LFE (fig. 4.8).

4.14 Placas de Som 3D

Os efeitos de áudio 3D são um grupo de efeitos sonoros que buscam ampliar a imagem estéreo produzida por dois alto-

falantes ou fones de ouvido estéreo, ou para criar a ilusão de fontes de som colocados em qualquer lugar no espaço em três

dimensões, incluindo atrás, acima ou abaixo do ouvinte.

Existem vários tipos de efeitos de áudio 3D:

1. Aqueles que só ampliam a imagem estéreo, modificando a informação de fase.

2. Aqueles que podem colocar sons fora da base estéreo.

3. Aqueles que incluem uma simulação completa em 3D.

A primeira empresa a desenvolver uma API de som tridimensional foi a Aureal, com seu Aureal 3D, ou

simplesmente A3D. As primeiras placas de som compatíveis com esta API, como a Monster Sound foram lançadas no início

de 97. O A3D 1.0 permite simular 3 eixos: frente e trás, direita e esquerda e frente e baixo, aplicando filtros especiais para

que o som realmente pareça vir de todas as direções. Estes filtros são capazes de distorcer sutilmente as ondas sonoras,

conseguindo enganar nossos ouvidos, fazendo-nos pensar que elas vêem de diferentes direções. Estes filtros consomem uma

enorme quantidade de poder de processamento e seu uso é o principal motivo dos chipsets de som atuais serem tão

poderosos. A vantagem é que como tudo é processado na própria placa de som, não há quase utilização do processador

principal. Na maioria dos casos, substituir uma placa de som ISA antiga por uma placa de som 3D irá melhorar a

performance geral do micro, principalmente o FPS nos jogos. Em alguns casos, além da melhora da qualidade sonora, o FPS

chega a subir mais de 10%.

Normalmente, as placas 3D podem trabalhar tanto com um par de caixas acústicas, quanto com fones de ouvido ou

sistemas de quatro caixas. Uma das maiores dificuldades em conseguir aplicar os efeitos 3D é manter um posicionamento

exato do espectador em relação às fontes de som. Usando tanto um par de caixas acústicas quanto conjuntos de quatro caixas

é preciso posicioná-las de modo a formar um ângulo de aproximadamente 45 graus com seus ouvidos, e que estejam mais ou

menos na mesma altura destes. Nem sempre isso é fácil de conseguir, principalmente considerando que durante o jogo

normalmente você mexerá a cabeça, tirando seus ouvidos da posição mais adequada. Devido a isto, o mais indicado é o uso

de fones de ouvido, pois mesmo mexendo a cabeça eles estarão sempre posicionados corretamente, já que estarão encaixados

nos seus ouvidos.

Page 18: Novas Tecnologias, Áudio e Vídeo

As placas de som que suportam quatro caixas possuem duas saídas line-out, que deverão acoplar duas caixas em

cada saída, totalizando as quatro.

Para ouvir perfeitamente o áudio 3D, usar fones de ouvido é a melhor opção. Em segundo lugar vem o uso de

apenas duas caixas. O uso de quatro caixas só deve ser considerado se o espectador realmente tiver paciência para ficar

procurando o posicionamento mais adequado. Quatro caixas podem dar um efeito melhor do que apenas duas por tornarem

mais forte o eixo frente e trás, mas será bem mais trabalhoso lidar com elas.

Quase sempre os drivers da placa de som incluem um utilitário que permite configurar se as duas ou as quatro caixas

acústicas serão utilizadas. Em muitos casos também existe uma opção específica para fones de ouvido e até mesmo para

outros tipos de conjuntos de caixas.

A simulação 3D é o grupo mais avançado de efeitos de áudio 3D.  Estes efeitos incluem a localização de fontes

sonoras por trás, acima e abaixo do ouvinte.

Algumas tecnologias 3D também convertem gravações binaurais para gravações em estéreo. Os efeitos de áudio 3D

posicional surgiram na década de 1990 para PC e jogos. No entanto, apesar de algumas tecnologias parecerem funcionar

melhor do que outras, o som 3D nos jogos ainda não é muito convincente, especialmente nos alto-falantes.

As técnicas de áudio 3D também têm sido incorporadas na música. O projeto de pesquisa da Audioscape

proporciona músicos com criação de conteúdo audiovisual 3D em tempo real e ambiente de processamento, adequado para

aplicações de performance ao vivo.

5 CINEMA DIGITAL

O cinema digital tem sido uma nova maneira de fazer e mostrar os filmes, mudança que tem sido considerada pelos

profissionais da área algo tão importante quanto o advento do som e da cor nos filmes no início do século XX. O processo

fotoquímico aplicado à película vem sendo substituído pelo processo fotoelétrico, onde a luz é transformada em eletricidade e

codificada em fileiras de zero e um. O resultado é a facilidade, economia de tempo e de dinheiro na produção, distribuição e

projeção dos filmes.

Desde a existência do primeiro filme, em 1895, pelos irmãos Lumière, o cinema sempre usou rolos de filme para

transmitir as imagens. Isso começou a ser mudado quase um século depois e de lá para cá as transformações têm ganhado

velocidade. Os computadores passaram a ser utilizados na pós-produção dos filmes facilitando a edição das imagens.

O ano de 2002 é marcado pelo lançamento de Star Wars II, considerado o primeiro filme digital de alta definição.

Nessa época o cinema digital já tinha chegado a Europa e o Japão e já existiam mais de cem salas preparadas para esse

formato.

Hoje, há centenas de cinemas digitais espalhados pelo mundo, mas estão concentrados principalmente nos Estados

Unidos, pois os grandes estúdios uniram-se para criar um padrão de equipamentos e um formato para financiar essa troca.

Lançaram o padrão Digital Cinema Initiatives (DCI) e os filmes produzidos por esse poderoso grupo só poderão ser exibidos

em salas com certificado DCI. No Brasil, a conversão ainda está insipiente. Existem aproximadamente 145 salas e um total

de 2,1 mil cinemas com projetores digitais. No entanto, apenas duas salas estão no padrão DCI, o que significa que os

exibidores digitais correm o risco de ficar sem conteúdo em suas salas por não terem o certificado DCI.

O cinema digital afeta as três áreas mais importantes da produção dos filmes.

Produção - como um filme é feito.

Distribuição - como o filme vai da produtora para as salas de cinema.

Projeção - como a sala apresenta o filme.

O sucesso do cinema digital está na vantagem do baixo custo na produção. Com o sistema analógico, as companhias

cinematográficas gastavam, e ainda gastam, muito dinheiro com a gravação de fitas, distribuição e recolha de filmes para os

cinemas do mundo inteiro.

Page 19: Novas Tecnologias, Áudio e Vídeo

Antigamente, a edição do filme era feita na moviola, um equipamento que literalmente era responsável pelos cortes

na montagem. Com a ajuda dos computadores houve um grande avanço, mas agora é possível editar as imagens logo após a

sua gravação, sem ser necessário passar por qualquer processo de conversão. O sistema de projeção também desfrutou de

facilidades e se tornou um ponto fundamental do novo cinema. Os filmes analógicos produzem imagens com grande beleza e

expressividade, porém, o projetor mecânico acaba desgastando a qualidade do filme, ou seja, quanto mais o filme é exibido

mais sua imagem tende a piorar. Com o cinema digital a imagem não perde qualidade conforme vai sendo exibida, a nitidez

de um filme feito em 2007 e exibido em 2057 deverá ser a mesma. Além disso, o formato digital possibilita flexibilidades

como maior manipulação da imagem e reprodução do filme em várias línguas.

Quando o assunto é pirataria, o sistema digital também oferece saída. O difundido sistema de reprodução ilegal

provoca prejuízos de mais de três bilhões de dólares anuais para a indústria cinematográfica, e encontra no cinema digital um

método que pode ser eficaz. Os filmes digitalizados são cifrados e protegidos por um eficaz sistema chamado AES Advanced

Encryption Standard, em português, Padrão de Criptografia Avançado, e guardados num disco rígido que é enviado para as

salas de espetáculos, evitando assim os DVDs e a transmissão por difusão ou terrestre, que poderia ser facilmente copiada.

Enquanto o filme estiver em trânsito encontra-se assim protegido e a cada vez que os cinemas pretendem exibir o filme, têm

de inserir um smart card e obter uma autorização online para desbloquear o disco rígido e poderem projetar o filme.

5.1 Cinema 3D

O cinema tem evoluído desde que foi criado. Passou a ter som, cores e efeitos especiais. Agora o que tem revolucionado são

as técnicas e tecnologia implantada para dar mais realismo, o cinema 3D.

A técnica usada no cinema 3D se chama estereoscopia e consiste em captar com uma câmera uma imagem do lado

esquerdo, e com outra câmera captando a imagem do lado direto, obtendo assim ângulos diferentes da mesma imagem. É

dessa forma que funciona o olho humano (fig. 5.1).

O principal objetivo da estereoscopia é simular o que cada olho vê, de acordo com sua posição (fig. 5.2 e 5.3).

Assim aumenta a profundidade da imagem e dá mais realismo.

Há duas maneiras de projetar a imagem para os espectadores:

Anáglifos

A projeção anáglifa funde as duas imagens da estereoscopia com uma filtragem vermelha na direita e ciano ou verde

na esquerda. Para visualizá-la é necessário um óculos com lentes que filtram as cores âncora de acordo com o olho.

Essa técnica tem sido rejeitada nos cinemas atualmente por diminuir a qualidade das cores e causar dor de cabeça,

náusea, tontura e vômito a quem assiste.

Polarizado

Esse sistema é mais caro e complicado, porém é mais fiel e mantém as cores originais.

Cada imagem é projetada com uma polaridade diferente e às vezes chega usar dois projetores simultaneamente. Para

a visualização também são necessários óculos com lentes especiais. Cada lente dos óculos possui filtro de polarização

diferente, uma lente filtra as ondas polarizadas na vertical e a outra na horizontal. Por a lente polarizada escurecer um pouco

as imagens, a tela para projeção é prateada para aumentar o brilho da imagem.

5.2 Óculos 3D

Para usufruir da tecnologia de efeitos de três dimensões, é preciso usar um equipamento especial: os óculos 3D. Os óculos

fazem o filme ou o programa de televisão que está sendo assistido parecer estar em 3D. O seu uso faz com que o expectador

sinta parte da ação - não somente alguém que se senta e assiste a um filme.

Page 20: Novas Tecnologias, Áudio e Vídeo

5.2.1 Visão binocular

Mais do que dois olhos, o ser humano possui espetacular visão binocular. Para objetos até aproximadamente 6 a 7 m

de distância, o sistema de visão binocular permite calcular com boa exatidão a que distância um objeto está.

O sistema de visão binocular se baseia no fato que os dois olhos são separados em aproximadamente 5 centímetros.

Por isso, cada olho vê o mundo de uma perspectiva ligeiramente diferente, e o sistema de visão binocular no cérebro usa a

diferença para calcular a distância. O cérebro tem a capacidade de correlacionar as imagens que ele vê  por dois olhos embora

elas sejam ligeiramente diferentes.

5.2.2 Assistindo em 3D

Em um cinema, a razão para o uso de óculos tridimensionais é para exibir imagens diferentes para os olhos. A tela,

na verdade, exibe duas imagens. Os óculos fazem com que uma das imagens alcance um dos olhos e a outra, o outro olho. Há

dois sistemas para se fazer isso, que serão especificados abaixo.

5.2.2.1 Vermelho/Verde ou Vermelho/Azul

Embora o sistema vermelho/verde ou vermelho/azul seja utilizado principalmente nos efeitos tridimensionais na

televisão, ele era usado em diversos filmes 3D antigos. Nesse sistema, duas imagens são exibidas na tela, uma em vermelho e

outra em azul ou verde. Os filtros nas lentes permitem que apenas uma imagem atinja cada um dos olhos e o cérebro faz o

resto (fig. 5.4). Não se pode realmente ter um filme a cores quando usa a cor para fazer a separação; portanto, a qualidade da

imagem não é tão boa como no sistema polarizado.

5.2.2.2 Polarização

Na Disney World, na Universal Studios e em outros estúdios 3D, o método preferido é o de lentes polarizadas,

porque permitem a visualização de cores. Dois projetores sincronizados colocam duas visões respectivas na tela, cada uma

com uma diferente polarização. Os óculos permitem que apenas uma das imagens entre em cada olho, porque elas contêm

lentes com diferentes polarizações (fig. 5.5).

Existem também alguns sistemas mais complicados. No entanto, devido ao alto custo são pouco utilizados. Como

exemplo, em um dos sistemas uma tela de TV exibe as duas imagens, alternando uma após a outra. Óculos especiais de LCD

(fig. 5.6) bloqueiam a visão de um olho e depois do outro, em rápidas sucessões. Este sistema permite assistir  a televisões

coloridas normais, mas exigem a compra de equipamentos especiais.

5.3 IMAX

IMAX é a nova tecnologia que pretende dar ainda mais impulso ao cinema. O nome é uma abreviatura para Image Maximum,

tecnologia que promete uma experiência inovadora aos telespectadores a partir de suas telas gigantes. Atualmente, existem

mais de 300 salas IMAX, distribuídas em 40 países. Cerca de 60% delas estão nos Estados Unidos. Apenas 40% das salas

ficam em shoppings ou centros comerciais. O restante está dentro de museus e centros científicos.

No Brasil, a única sala equipada com IMAX foi inaugurada em 16 de janeiro, no Unibanco Arteplex do shopping

Bourbon, em São Paulo. Produzidas pela empresa canadense de mesmo nome, as telas IMAX têm como padrão telas de 22

metros de largura por 16,1 metros de altura - as telas de cinema convencionais medem 12 metros por 5,1 metros (fig. 5.7).

Mas não é só o tamanho da tela que diferencia o IMAX do cinema comum. A chamada IMAX Experience promete

levar o telespectador para dentro do filme. Esse efeito é criado pela combinação da projeção gigante, tela de design especial,

com maior curvatura, sistema de som digital sorround sound mais potente (são 12.000 watts de potência, mais que o dobro

de uma sala comum) e o ambiente montado de forma geometricamente favorável.

Page 21: Novas Tecnologias, Áudio e Vídeo

Além do tamanho impressionante, o IMAX tem um sistema chamado "rolling loop" para movimentar o filme. São

duas faixas de filme correndo pelo projetor ao mesmo tempo, na velocidade de 24 frames por segundo. Assim, cada quadro

fica perfeitamente imóvel quando projetado. A imagem não treme e nem borra, tornando o efeito 3D ainda mais real.

5.4 Games em 3D

Outra mídia responsável pela “explosão” do 3D neste novo século é o videogame, que aproveita o impulso dado pelos

televisores 3D. Em janeiro de 2009, a Nvidia, famosa por suas placas de vídeo para PCs, lançou o 3D Vision (fig. 5.8), um

óculos 3D feito para games em 3D. O acessório é uma combinação de óculos sem fio de alta tecnologia com softwares

avançados para transformar centenas de jogos em 3D estereoscópico. Também é possível assistir filmes e fotos digitais em

3D com qualidade enorme. No entanto, para poder usufruir do 3D Vision, o gamer precisa de uma placa de vídeo e um

monitor compatíveis com gráficos 3D.

Agora, em 2010, a Sony já se pronunciou a respeito da tecnologia 3D e lançará duas atualizações de firmware para o

PlayStation 3: a primeira capacitará o console a rodar todos os jogos já lançados e os futuros lançamentos com gráficos 3D, e

a segunda possibilitará ao dono do PS3 ver filmes em Blu-Ray também com gráficos 3D.

6 O FUTURO

Após tantas tecnologias surpreendentes e inovadoras é difícil imaginar onde fica o limite para o imaginário dos

cientistas, se é que ele existe. Neste capítulo mostraremos alguns produtos que servem como exemplo desta busca em

expandir o horizonte tecnológico. Muitos deles ainda são apenas protótipos e outros possivelmente jamais entrarão para o

mercado consumidor, por este motivo pouco se sabe sobre eles, mas vamos dar uma idéia do que cada um faz.

6.1 OLED Transparente

Há alguns anos que este tipo de tela vem sendo desenvolvido pela Samsung e parece que já estamos próximos de vê-

los disponíveis no mercado. O OLED transparente consiste numa fina camada composta somente por componentes

transparentes (substrato, cátodo e ânodo) que, quando desligados, chegam a até 85% de transparência em relação ao

substrato. Quando a tela é ligada ela permite que a luz passe por ela em ambas as direções (fig. 6.1), ficando com uma

transparência de 40%. A matriz destes tipos de tela pode ser tanto ativa quanto passiva.

6.2 TV wireless

Haeir, uma empresa chinesa, anunciou neste ano uma TV completamente sem fios, tanto para a transmissão de som e

imagem quanto para a alimentação de energia. É apenas um protótipo e está longe de ser fabricada em larga escala, no

entanto o seu potencial estético pode atrair muitos consumidores.

Ela foi feita em cima do modelo de 32 polegadas de uma TV CCFL LCD da própria Haier. O sinal de vídeo é

transmitido usando-se uma nova tecnologia, a WHDI (Wireless Home Digital Interface), que é semelhante ao Wi-Fi, mas

voltada para alta definição, podendo alcançar uma taxa de transferência de até 3 Gbps (1080p).

A tecnologia de energização sem fio é chamada de Dupla Ressonância Magnética, que não é realmente nova, mas

foi aplicada a televisores pela primeira vez. A energia vem de uma bobina que fica numa caixa preta atrás da TV (fig. 6.2).

Dentro da TV está a bobina receptora. Elas são conectadas por uma baixa freqüência de ondas, menos de 10 MHz. A

distância máxima para que a corrente seja criada é de 2 metros e sua eficiência é de 80%.

A empresa WiTricity é que possui este conhecimento de energização wireless e está aplicando-a a vários aparelhos

eletrônicos, mas nenhum deles ainda está disponível para venda.

6.3 Sonic Emotion 3D Sound

Page 22: Novas Tecnologias, Áudio e Vídeo

Sonic Emotion é atualmente a empresa líder no segmento de tecnologia em som 3D. Seu último lançamento foi o

surpreendente Sonic Emotion 3D Sound, que nada mais é do que uma única caixa de som composta por 6 alto-falantes que é

capaz de dar a sensação de som 3D ao espectador, sem a necessidade de 6 caixas, como no sistema clássico 5.1 (fig. 6.3),

dando a liberdade ao consumidor de colocar a caixa em qualquer local de qualquer ambiente, favorecendo todos os ouvintes.

O modo como isso é feito não foi divulgado.

6.4 Toshiba Cell TV

A Toshiba anunciou neste ano uma nova engine para aparelhos de TV que promete tornar todas as experiências visuais de

entretenimento muito melhores, alcançando um nível inimaginável até hoje. Sua capacidade interna de processamento é 143

vezes superior aos outros televisores do mercado, isso possibilita a criação de imagens em full HD com perfeição, além de

exibir imagens em menores resoluções com maior qualidade, devido a um sistema de correção de falhas e ruídos.

A tela de uma Cell TV é feita de um tipo específico de tela de LED, o que permite exibir vídeos de alta resolução

com tecnologia 3D. Caso a imagem seja em 2D o TriVector entra em ação, uma ferramenta que converte para 3D qualquer

vídeo em 2D, tudo em tempo real. Não foi divulgado como isso é feito e muitos ainda desconfiam de sua real capacidade.

Além destas implementações no vídeo, a TV ainda conta com um sistema wireless de HDMI, oito processadores de

3.2 Ghz, disco rígido de 1 TB e acesso à internet.

6.5 Intel Light Peak

O Light Peak é uma nova tecnologia desenvolvida pela Intel para transmissão de dados através de fibra óptica. É capaz de

transferir dados entre componentes eletrônicos numa velocidade de 10 Gbps, ou seja, um filme em blu-ray em menos de 30

segundos. Promete substituir todos os meios já existentes que funcionam eletricamente, devido ao limite físico de velocidade

e comprimento que eles possuem, como o USB, DVI, VGA, etc.

O Light Peak consiste de um chip controlador e de um módulo óptico que irá converter sinal elétrico em luz e vice-

versa, utilizando lasers e detectores fotossensíveis. Sua placa é um pouco menor do que uma placa de vídeo convencional

(fig. 6.4) e poderá ser colocada em qualquer computador, com pretensões de ser padrão num futuro bem próximo.

6.6 Light Touch

Desenvolvido pela Light Blue Optics e utilizando-se da tecnologia HLP (Holographic Laser Projection) o Light Touch é um

projetor de vídeos 2D com qualidade muito superior aos projetores comuns. As imagens projetadas por laser são enviadas

separadamente em cores (RGB) e em diversos frames, resultando numa imagem limpa e extremamente colorida.

A grande inovação do Light Touch está na capacidade dele de criar interatividade na projeção, pois a superfície

onde o vídeo está projetado se torna uma tela sensível ao toque. Desta maneira é possível utilizar na projeção qualquer

software que precise de um mouse ou seja sensível a toque, inclusive multi-toque, e trabalhar com ele como se estivesse num

PC (fig. 6.5).

7 CONCLUSÃO

Somente após tanto estudo e empenho em pesquisas é que pudemos perceber o quão a tecnologia está desenvolvida,

alcançando níveis antigamente inimagináveis. E tudo isso é devido ao fato da vida do homem estar cada vez mais rápida e

agitada, tal ritmo demanda uma comunicação rápida e efetiva, por este motivo é que a tecnologia vem expandindo os seus

limites a cada ano que se passa.

Esperamos que o leitor se sinta como nós nos sentimos ao fazer esta pesquisa, uma sensação que mistura curiosidade

e fascínio pelas possibilidades infinitas que a atual tecnologia nos oferece, sem nem imaginar onde tudo isso vai parar, se é

que um dia vai.