princípios de comunicações

259
PRINCÍPIOS DE COMUNICAÇÕES João Célio Brandão, Abraham Alcaim e Raimundo Sampaio Neto Centro de Estudos em Telecomunicações da PUC-Rio Rio de Janeiro – Novembro de 2010 É proibida a reprodução deste material, exceto para uso didático, sem fins lucrativos, mediante autorização dos autores.

Upload: andre-eurico-morais

Post on 21-Oct-2015

349 views

Category:

Documents


96 download

DESCRIPTION

Introdução à teoria das comunicações escrita pelos professores da PUC-Rio João Célio Brandão, Abraham Alcaim e Raimundo Sampaio Neto.

TRANSCRIPT

Page 1: Princípios de Comunicações

PRINCÍPIOS DE COMUNICAÇÕES

João Célio Brandão, Abraham Alcaim e Raimundo Sampaio Neto

Centro de Estudos em Telecomunicações da PUC-Rio Rio de Janeiro – Novembro de 2010

É proibida a reprodução deste material, exceto para uso didático, sem fins lucrativos, mediante autorização dos autores.

Page 2: Princípios de Comunicações

1

SUMÁRIO

1. INTRODUÇÃO..................................................................................................................... 3 2. ANÁLISE DE SINAIS E SISTEMAS.................................................................................. 4

2.1 SÉRIE DE FOURIER ..................................................................................................... 6 2.2 TRANSFORMADA DE FOURIER ............................................................................... 9 2.3 PROPRIEDADES DA TRANSFORMADA DE FOURIER........................................ 14 2.4 TRANSFORMADAS DE FOURIER DE SINAIS DE ENERGIA INFINITA............ 25

2.4.1 Função Impulso ..................................................................................................... 25 2.4.2 Transformadas de Fourier baseadas na função impulso ........................................ 28

2.5 SISTEMAS LINEARES.............................................................................................. 33 2.5.1 Caracterização de sistemas lineares....................................................................... 33 2.5.2 Obtenção do sinal de saída em um sistema linear.................................................. 34 2.5.3 Função de transferência ......................................................................................... 35 2.5.4 Filtros..................................................................................................................... 37

2.6 ENERGIA E POTÊNCIA DOS SINAIS ...................................................................... 40 2.7 TEOREMA DA AMOSTRAGEM ............................................................................... 42 2.8 APÊNDICE: PRINCIPAIS TRANSFORMADAS DE FOURIER ............................. 44 2.9 EXERCÍCIOS ............................................................................................................... 47

3. PRINCÍPIOS DA MODULAÇÃO...................................................................................... 51 3.1 MODULAÇÃO DE AMPLITUDE .............................................................................. 51

3.1.1 Modulação AM-DSB-SC....................................................................................... 57 3.1.2 Modulação AM...................................................................................................... 58 3.1.3 Modulação AM-SSB ............................................................................................. 64 3.1.4 Modulação AM-VSB............................................................................................. 69 3.1.5 Modulação de amplitude em quadratura................................................................ 70 3.1.6 Translação de frequência ....................................................................................... 71

3.2 MODULAÇÃO DE FREQUÊNCIA ............................................................................ 74 3.2.1 Definições básicas ................................................................................................. 74 3.2.2 Modulação FM....................................................................................................... 75 3.2.3 FM de faixa estreita ............................................................................................... 78 3.2.4 FM com sinal modulador senoidal......................................................................... 79 3.2.5 Geração de FM – Método Indireto ........................................................................ 80 3.2.6 Espectro de um sinal FM com sinal modulador senoidal ...................................... 82 3.2.8 Demodulação de sinais FM.................................................................................... 84

3.3 EXERCÍCIOS ............................................................................................................... 86 4. TÉCNICAS DE CODIFICAÇÃO DE MENSAGENS ....................................................... 90

4.1 CODIFICAÇÃO DE FONTES DISCRETAS SEM MEMÓRIA................................. 90 4.1.1 Informação própria e entropia................................................................................ 91 4.1.2 Princípios da codificação de bloco ........................................................................ 91 4.1.3 Codificação de Huffman........................................................................................ 93

4.2 CODIFICAÇÃO DE FONTES CONTÍNUAS – SINAIS DE VOZ............................. 94 4.2.1 Sistema PCM ......................................................................................................... 95 4.2.2 Quantização adaptativa........................................................................................ 103 4.2.3 Codificação diferencial ........................................................................................ 105 4.2.4 Codificação no domínio da frequência ................................................................ 111 4.2.5 Codificação paramétrica ...................................................................................... 118

4.3 - EXERCÍCIOS........................................................................................................... 121 5. TRANSMISSÃO DIGITAL.............................................................................................. 123

5.1 MODELO GERAL DO TRANSMISSOR E DO RECEPTOR.................................. 123 5.1.1 Filtro casado......................................................................................................... 127 5.1.2 Receptores com filtro casado............................................................................... 128

5.2 – SISTEMAS DE MODULAÇÃO DIGITAL............................................................ 132 5.2.1 Sistemas com modulação de pulsos em amplitude.............................................. 133

Page 3: Princípios de Comunicações

2

5.2.2 Sistemas com modulação de amplitude e fase..................................................... 140 5.2.3 Sistemas com modulação de frequência .............................................................. 155 5.2.4 Sistemas com recepção não coerente................................................................... 159

5.3 LARGURA DE FAIXA DA TRANSMISSÃO DIGITAL......................................... 164 5.3.1 A interferência entre símbolos............................................................................. 165 5.3.2 Eliminação da interferência entre símbolos - Critério de Nyquist....................... 170 5.3.3 Largura de faixa e interferência entre símbolos................................................... 173

5.4 APÊNDICE: O DIAGRAMA DO OLHO .................................................................. 175 5.5 APÊNDICE: OTIMIZAÇÃO CONJUNTA TRANSMISSOR- RECEPTOR............ 178 5.6 EXERCÍCIOS ............................................................................................................. 179

6. RUÍDO EM SISTEMAS DE COMUNICAÇÕES............................................................ 184 6.1 CARACTERIZAÇÃO MATEMÁTICA DO RUÍDO................................................ 184

6.1.1 Ruído branco filtrado........................................................................................... 185 6.1.2 Decomposição de um ruído passa-faixa .............................................................. 189

6.2 CARACTERIZAÇÃO DO RUÍDO NOS RECEPTORES......................................... 195 6.2.1 Ruído nos resistores............................................................................................. 195 6.2.2 Temperatura equivalente de ruído e fator de ruído.............................................. 196 6.2.3 Modelo equivalente do receptor .......................................................................... 203

6.3 EXERCICIOS ............................................................................................................. 204 7. DESEMPENHO DE SISTEMAS AM E FM EM PRESENÇA DE RUÍDO................... 206

7.1 SISTEMA AM-DSB-SC............................................................................................. 207 7.2 SISTEMA AM-SSB.................................................................................................... 208 7.3 SISTEMA AM ............................................................................................................ 209 7.4 SISTEMA FM............................................................................................................. 212

7.4.1 Pré-ênfase ............................................................................................................ 216 7.5 COMPARAÇÃO DE DESEMPENHO ...................................................................... 218 7.6 EXERCÍCIOS ............................................................................................................. 221

8. DESEMPENHO DE SISTEMAS DE TRANSMISSÃO DIGITAL EM PRESENÇA DE RUÍDO .................................................................................................................................. 223

8.1 SISTEMAS BINÁRIOS ............................................................................................. 224 8.2 SISTEMAS PAM........................................................................................................ 232 8.3 SISTEMAS COM MODULAÇÃO DE AMPLITUDE E FASE................................ 234

8.3.1 ASK .................................................................................................................... 234 8.3.2 QAM................................................................................................................... 235 8.3.3 PSK..................................................................................................................... 238

8.4 SISTEMA FSK ........................................................................................................... 240 8.5 SISTEMAS COM RECEPÇÃO NÃO COERENTE.................................................. 240 8.6 ANÁLISE DE DESEMPENHO ................................................................................. 243

8.6.2 Comparação ......................................................................................................... 246 8.6.3 Limitantes da taxa de bits .................................................................................... 249 8.6.4 Capacidade do Canal ........................................................................................... 250

8.7 APÊNDICE: DESEMPENHO COM CÓDIGO CORRETOR DE ERRO ................. 253 8.8 APÊNDICE : TABELA DA FUNÇÃO Q(α) ............................................................. 255 8.9 EXERCÍCIOS ............................................................................................................. 256

Page 4: Princípios de Comunicações

3

1. INTRODUÇÃO O objetivo principal deste texto é servir como texto básico para uma disciplina introdutória sobre sistemas de comunicações em um curso de Engenharia Elétrica. O texto tem abrangência limitada, abordando apenas os conceitos mais importantes dos sistemas analógicos e digitais - para um estudo mais profundo e amplo sobre o assunto, existe uma excelente e conhecida bibliografia(!). Por outro lado, incorpora resultados de muitos anos de experiência dos seus autores como professores do Centro de Estudos em Telecomunicações da PUC-Rio, o que permitiu um tratamento didático do assunto em nível adequado aos alunos típicos do curso de graduação. Além disso, inclui um bom número de exercícios, todos eles com solução. O texto está estruturado em duas partes. Na primeira parte são descritas as técnicas básicas de processamento de sinais nos sistemas de telecomunicações. Este processamento consiste na criação de sinais adequados à transmissão da informação a longa distância e na recepção destes mesmos sinais no local de destino, considerando a influência do meio físico de transmissão, denominado canal. As técnicas de transmissão e recepção de sinais são baseadas nas propriedades matemáticas desenvolvidas através da análise espectral, também conhecida como análise de Fourier. E, para caracterizar o canal, é necessário utilizar as propriedades dos Sistemas Lineares. Assim, o presente texto começa com os fundamentos da análise de Fourier e dos sistemas lineares, apresentados no capítulo 2. A principal técnica utilizada na criação de sinais adequados à transmissão a longa distância é denominada modulação e consiste em associar a informação aos parâmetros de uma senóide – amplitude, frequência e fase. No capítulo 3, apresentam-se os princípios da modulação e, em particular, as propriedades da modulação de amplitude e de frequência. Para sinais de informação analógicos, estas técnicas podem ser vistas como técnicas de transmissão analógica. As modulações também podem ser usadas para transmitir informação digital. Porém, a análise da transmissão digital requer um tratamento especial. Em geral antes de passar pelo processo da modulação, na transmissão digital há a necessidade de codificar a informação, transformando-a em uma sequência de bits. As técnicas de codificação de mensagens são apresentadas no Capítulo 4. Em seguida, no Capítulo 5, são descritas as técnicas de transmissão digital, incluindo a transmissão em banda básica através da Modulação de Pulsos em Amplitude (PAM) e as principais modulações utilizadas, conhecidas pelas siglas ASK (Amplitude Shift Keying), PSK (Phase Shift Keying), QAM (Quadrature Amplitude Modulation) e FSK (Frequency Shift Keying). Uma breve análise do efeito de distorções lineares e de sua relação com a ocupação espectral é feita no final do capítulo. A segunda parte do texto aborda o desempenho das técnicas de transmissão da informação em presença de ruído. Para isso, o ruído, presente nos receptores de todo sistema de telecomunicações, é caracterizado no Capítulo 6, sob aspectos teóricos e práticos. E, nos capítulos seguintes, o desempenho dos diversos sistemas de transmissão, analógicos e digitais, é analisado. O Capítulo 7 trata, essencialmente, de calcular a razão sinal-ruído na saída dos receptores dos sistemas analógicos enquanto no Capítulo 8, são desenvolvidas as expressões para cálculo da probabilidade de erro nos sistemas de transmissão digital. Ao final, é desenvolvido um modelo para a análise comparativa de desempenho dos sistemas. (!)

• Communications Systems, Simon Haykin and Michael Moher, Wiley, 5th Ed., 2009 • Modern Digital and Analog Communications Systems, B.P. Lathi and Zhi Ding, Oxford

University Press, 4th Ed. 2009 • Communications Systems, B. Carlson and Paul Crilly, McGraw Hill, 5th Ed., 2009

Page 5: Princípios de Comunicações

4

2. ANÁLISE DE SINAIS E SISTEMAS

Neste capítulo serão apresentados os conceitos básicos relacionados a sinais e sistemas lineares, começando pelo conceito de sinal e de suas propriedades. Sinal

O problema básico das telecomunicações é a transmissão de mensagens através de

sinais. Um sinal é uma sequência de valores relacionados a instantes de tempo, contendo uma mensagem, ou informação, a ser transmitida. Em geral, os valores que constituem um sinal são convertidos em valores de tensão ou corrente elétrica para que possam ser transmitidos através de um meio físico.

As mensagens podem ser de natureza contínua ou discreta e, em princípio, são representadas, respectivamente, por sinais analógicos e sinais digitais.

Sinal analógico Um sinal é dito analógico quando seus valores podem variar de forma contínua, de modo a representar uma mensagem de natureza contínua. Assim, em um determinado instante, o sinal analógico pode apresentar um número infinito de valores, mesmo se estes valores estiverem limitados por um valor máximo e um mínimo.

Um exemplo de sinal analógico é a sequência de valores de tensão na saída de um telefone. Estes valores acompanham as variações de intensidade da voz do locutor, que ocorrem de forma contínua, como ilustrado na Fig. 2.1.

Fig. 2.1 – Exemplo de sinal analógico: sinal de voz Sinal Digital Um sinal digital apresenta apenas um conjunto finito de valores entre um máximo e um mínimo, representando uma mensagem de natureza discreta. Um exemplo típico de sinal digital é aquele que representa a mensagem gerada por um teclado de computador. Sabemos que cada tecla é associada a uma sequência de valores binários (bits), representados por 0 e 1, como ilustrado na Fig. 2.2 (a).

Diversos tipos de sinal digital podem ser criados para transmitir as sequências correspondentes a cada tecla. Na Fig 2.2 (b) temos um sinal digital com 2 níveis, onde o bit 0 corresponde à tensão -1 volt e o bit 1 à tensão 1 volt. Na Fig. 2.2 (c) temos um sinal digital com 4 níveis de tensão, -3, -1, 1 e 3 volt, cada nível representando um par de bits.

t

Page 6: Princípios de Comunicações

5

Fig. 2.2 – Exemplo de sinal digital: sinal que representa os caracteres de um computador - (a) codificação do teclado; (b) sinal binário; (c) sinal multinível

Conversão A/D Sinais analógicos podem ser digitalizados através de um processo de amostragem e discretização. Este processo, também conhecido como conversão Analógico/Digital ou Conversão A/D, surgiu com o chamado sistema PCM – sigla de Pulse Code Modulation. O sistema PCM foi utilizado para digitalizar sinais de voz para telefonia e assim permitir a transmissão de sinais de voz na forma digital. Representação temporal e espectral Pela própria definição, um sinal é representado por uma função do tempo, como se vê nas ilustrações das Figuras 2.1 e 2.2. No entanto, para análise de propriedades físicas importantes no processo de transmissão dos sinais, é conveniente desenvolver uma outra forma de representação dos sinais, denominada representação espectral. Esta representação é desenvolvida expressando-se um sinal como a soma de senóides de diferentes amplitudes e frequências e determinando a função amplitude versus frequências destas senóides. Esta técnica é denominada Análise de Fourier e será estudada ao longo deste capítulo.

Bits Amplitudes 0 1

-1 1

1

-1

t

1 0 0 1

Bits Amplitudes 00 01

-3 -1

1

-1

t

10 01 11 00

10

3 11

1

-3

3

(b)

(c)

A: 0 0 0 1 0 0 1 1 B: 0 0 1 0 0 0 1 1 C: 0 0 1 1 0 0 1 0 etc.

(a)

Page 7: Princípios de Comunicações

6

2.1 SÉRIE DE FOURIER

Seja 0( )Tg t um sinal periódico de período T0. Este sinal pode ser expresso como uma

soma infinita de senos e cossenos da seguinte forma:

( ) ( )0 0 0 0

1

( ) cos 2 2T n nn

g t a a nf t b sen nf tπ π∞

== + +∑ (2.1)

onde

00

1f

T= (2.2)

0

00

/2

0 /20

1( )

T

TTa g t dt

T −= ∫ (2.3)

( )0

00

/2

0/20

2( )cos 2 ; 1, 2,....

T

n TTa g t nf t dt n

−= = ∞∫ (2.4)

( )0

00

/2

0/20

2( ) 2 ; 1, 2,....

T

n TTb g t sen nf t dt n

−= = ∞∫ (2.5)

A expressão (2.1) é chamada Série de Fourier na forma trigonométrica.

Em resumo, podemos mostrar que qualquer função periódica pode ser obtida por uma soma de senóides de frequências múltiplas de uma frequência denominada frequência fundamental que é igual ao inverso do período T0 da função. As senóides cujas frequências fn são múltiplas da frequência fundamental (f=nf0) são denominadas componentes de frequências harmônicas ou, simplesmente, harmônicos. Para que a soma de senóides reproduza a função, as amplitudes das senóides devem ser calculadas através de (2.3), (2.4) e (2.5).

A Fig. 2.3 ilustra o significado da série de Fourier. A figura mostra a aproximação de uma função periódica – gráfico (a) - com apenas 2 termos da série - gráfico (b) - e com 3 termos da série – gráfico (c). Observamos que, com 3 termos, a aproximação já começa a esboçar a função original. Pode-se mostrar que, à medida que aumenta o número de termos da série, a aproximação fica cada vez melhor.

Fig. 2.3 – Aproximação pela série de Fourier - ilustração

t

t

(b)

(c)

(a)

Page 8: Princípios de Comunicações

7

A série de Fourier dada por (2.1) pode ser representada de forma mais compacta usando números complexos. Sabemos que

2)cos(

φφ

φjj ee −+= (2.6)

j

eesen

jj

2)(

φφ

φ−−= (2.7)

Usando estas duas propriedades em (2.1) e fazendo algumas manipulações, chegamos à seguinte expressão:

0

0

2( ) j nf tT n

n

g t c e π∞

=−∞

=∑ (2.8)

onde 0

0

00

/22

/20

1( ) ; 0, 1, 2,...

Tj nf t

n TT

c g t e dt nT

π−

−= = ± ± ∞∫ (2.9)

Podemos verificar que

( )0 01

; ; 02n n nc a c a jb n= = − ≠ (2.10)

Podemos verificar também que, se

0( )Tg t for uma função real, cn = c-n*.

. Espectro de frequências A função que relaciona os coeficientes cn às frequências fn é denominada espectro de frequências. Como em geral os coeficientes cn são números complexos, temos 2 tipos de espectros: o espectro de amplitude |cn| – correspondente ao módulo do coeficiente e o espectro de fase ∠cn, correspondente à fase do coeficiente. A Fig. 2.4 ilustra o espectro de amplitude de um sinal periódico.

Fig. 2.4 – Espectro de amplitude de um sinal periódico

|cn|

|c0|

|c1| |c2|

|c3|

-3f0 -2f0 -f0 0 f0 2 f0 3 f0 f

|c-1| |c-2|

|c-3|

Page 9: Princípios de Comunicações

8

Exemplo 2.1 – Série de Fourier complexa de uma sequencia de pulsos retangulares Neste exemplo desenvolvemos o cálculo da série de Fourier complexa para a sequência de pulsos retangulares mostrada na Fig. 2.5. Aplicando (2.9), temos

2 20 0

22

2 2

0 0 0

1 1

2

T T

TT

j nf t j nf tn

Ac Ae dt e

T T j nfπ π

π− −

−− = = −∫

Após algumas manipulações, chegamos a

( )0

0 0n

sen nf TATc

T nf T

ππ

=

(2.11)

Fig. 2.5 – Sequência periódica de pulsos retangulares Função sinc

Uma função muito importante na análise de sinais é a função sinc(x) definida como

sen( )sinc( )

xx

x

ππ

= (2.12)

Esta função está representada na Fig. 2.6. Note que a função sinc (x) se anula para valores inteiros de x, pois sen(nπ) = 0 para n inteiro. Porém, para n = 0, resolvendo a indeterminação (0/0), chegamos ao valor 1.

Fig. 2.6 – Função sinc

-3 -2 -1 0 1 2 3 x

sinc(x) 1

-T/2 0 T/2

T0

A

t

….. …..

Page 10: Princípios de Comunicações

9

Expressando (2.11) através da função sinc obtemos

0

0

sinc( ) |n f nfT

c A TfT == (2.13)

O espectro de amplitude é dado por

00

sinc( )n f nf

Tc A Tf

T == (2.14)

e está representado na Fig. 2.7 para o caso em que T = T0/2. Note que, neste caso, f0= 1/(2T).

Fig. 2.7 – Espectro de amplitude para a sequência periódica de pulsos retangulares

2.2 TRANSFORMADA DE FOURIER

Considere uma função periódica 0( )Tg t formada pela repetição de uma função g(t)

em intervalos regulares iguais a T0, onde T0 é maior do que a duração de g(t), como ilustrado na Fig. 2.8. Pode-se verificar que, como no intervalo [-T0/2, T0/2],

0( )Tg t = g(t), a expressão

(2.9) que calcula os coeficientes da série, é equivalente a

02

0

1( ) ; 0, 1, 2,...j nf t

nc g t e dt nT

π∞

−∞= = ± ± ∞∫ (2.15)

Alternativamente, podemos escrever

00 ( )n f nfT c G f == (2.16)

onde 2( ) ( ) j ftG f g t e dtπ∞ −

−∞= ∫ (2.17)

Observamos, portanto, que os coeficientes da série de Fourier de 0( )Tg t podem ser obtidos a

partir das amostras de G(f) em f = nf0 como ilustrado na Fig. 2.9.

|c-1|

-2/T -1/T 0 f0 1/T 2/T 3/T f

3 3

Ac

π=

sinc( )2

ATf

Page 11: Princípios de Comunicações

10

Fig. 2.8 – Sinal periódico 0( )Tg t formado pela repetição de um sinal g(t)

Fig. 2.9 – Espectro do sinal periódico 0( )Tg t obtido a partir das amostras de G(f)

Aumentando o valor de T0, diminui o valor de f0 e assim, como ilustrado nas Figs

2.10 (a) e (b), as componentes de frequência correspondentes às amostras de G(f) vão ficando cada vez mais próximas. No limite, quando T0 tende a infinito, as frequências harmônicas nf0 podem assumir qualquer valor, as amostras se tornam contínuas e o espectro de frequências é a própria função contínua G(f). Este espectro é o espectro da função g(t), pois observamos através da Fig.2.8 que se 0T → ∞ a função periódica

0( )Tg t se reduz à função g(t) (se as

repetições só ocorrem depois de um intervalo infinito, isto significa que não ocorrerão).

Fig. 2.10 – Espectro do sinal periódico

0( )Tg t obtido a partir das amostras de G(f) à medida

que aumenta o valor de T0 - em (b) T0 tem o dobro do valor observado em (a).

-3f 0 -2f0 -f0 0 f0 2f0 3f0 f

T0c0

T0c1

T0c2

T0c-1

G(f)

-T0/2 0 T0/2 T0 2T0 t

g(t) g(t-T0) g(t+T0) g(t-2T0) 0( )Tg t

-6f 0 -5f0 -4f0 -3f0 -2f0 -f0 0 f 0 2f0 3f0 4f0 5f0 6f0 f

G(f) (a)

-f0 0 f 0 f

G(f) (b)

Page 12: Princípios de Comunicações

11

A função G(f) dada por (2.17) que recebe o nome de Transformada de Fourier da função g(t) e, como se viu nos exemplos, permite determinar os coeficientes da expansão de Fourier da versão repetida desta função. Pode-se verificar ainda que se 0T → ∞ , o somatório

em (2.8) tende à integral

∫∞

∞−= dfefGtg ftj π2)()( (2.18)

que é a Transformada Inversa de Fourier. A Transformada de Fourier pode ser vista como uma versão contínua do espectro de frequências do sinal, ou seja, valores complexos que permitem determinar a amplitude e a fase das componentes de frequência do sinal. A transformada inversa corresponde à expressão do sinal como a soma contínua (integral) de suas componentes. No quadro a seguir são mostradas as expressões para o par de transformadas de Fourier e a notação usada para representar estas transformadas.

Exemplo 2.2 - Transformada de Fourier de um pulso retangular A transformada de um pulso retangular de amplitude unitária e duração T, centrado em t = 0 e representado na Fig. 2.11 pode ser obtida calculando-se a integral em (2.17), que neste caso se reduz a

/22

/2( ) sinc( )

Tj ft

TG f Ae dt AT Tfπ−

−= = ⋅∫ (2.19)

O espectro está mostrado na Fig. 2.12 Observando as duas figuras, vemos que a transformada de Fourier de um pulso retangular simétrico em relação à origem é dada pela função sinc com as seguintes características: (i) seu valor máximo é igual ao produto da amplitude pela duração do pulso; (ii) seus nulos ocorrem em múltiplos do inverso da duração do pulso.

Transformada de Fourier

2( ) ( ) j ftG f g t e dtπ∞

−∞= ∫

∫∞

∞−= dfefGtg ftj π2)()(

)()( fGtg ↔

G(f) = F[g(t)]

g(t) = F-1 [G(f)]

Page 13: Princípios de Comunicações

12

Fig. 2.11 – Pulso retangular simétrico

Fig. 2.12 – Transformada de Fourier de um pulso retangular de amplitude A e duração T Exemplo 2.3 – Transformada de Fourier de um Pulso Exponencial O pulso exponencial representado na Fig. 2.13 é definido como

g(t) = e-atu(t); a>0 onde

<>

=00

01)(

t

ttu (2.20)

Fig. 2.13 – Pulso Exponencial

Aplicando (2.17) temos

2 [ 2 ] [ 2 ][ 2 ]

0 0

1( )

0at j ft a j f t a j f t

a j fG f e e dt e dt eπ π π

π

∞ ∞− − − + − +

− +

∞= = =∫ ∫

Substituindo os limites de integração, obtemos

fjafG

π2

1)(

+= (2.21)

O espectro de amplitude correspondente é dado por

-T/2 0 T/2 t

T

A g(t)

-3/T -2/T -1/T 0 1/T 2/T 3/T f

AT

G(f)

g(t)

0 t

Page 14: Princípios de Comunicações

13

( )22 2

1)(

fafG

π+= (2.22)

e está representado na Fig. 2.14. Deve-se observar que, quanto maior o valor de a, mais rápido é o decaimento da função e-at e |G(f)| se espalha para frequências mais altas.

Fig. 2.14 – Espectro de amplitude de um pulso exponencial

Exemplo 2.4 - Transformada de Fourier de um pulso exponencial duplicado Para o pulso exponencial duplicado mostrado na Fig. 2.15, e expresso por

taetg −=)( ; a>0 (2.23)

a integral de Fourier pode ser colocada da seguinte forma

02 2

0( ) at j ft at j ftG f e e dt e e dtπ π

∞− − −

−∞= +∫ ∫

Resolvendo a integral obtemos

22 )2(

2)(

fa

afG

π+= (2.24)

Fig. 2.15– Pulso exponencial duplicado

|G(f)|

-a/2π 0 a/2π f

1/a

a

1

2

1

1

t

g(t)

Page 15: Princípios de Comunicações

14

2.3 PROPRIEDADES DA TRANSFORMADA DE FOURIER Propriedade 1 - Relação entre série e transformada de Fourier Observando (2.16) podemos estabelecer a seguinte propriedade: os coeficientes cn da série de Fourier de uma função periódica

0( )Tg t formada pela repetição, com período T0,

de uma função g(t), cuja duração é menor do que T0, podem ser obtidos através da transformada de Fourier de g(t), de acordo com a seguinte expressão:

)( 00 nfGfcn = (2.25)

onde f0 = 1/T0

Propriedade 2 – Transformada de Fourier de uma função real

Se g(t) for uma função real, então

G*(f) = G(-f) (2.26) Para demonstrar a expressão basta desenvolver o conjugado da integral em (2.17). Escrevendo

)()()( fjefGfG θ= (2.27)

onde |G(f)| é o espectro de amplitude e θ (f) é o espectro de fase, e substituindo em (2.26) obtemos

|G(f)|e-jθ(f) =|G(-f)|ejθ(-f) (2.28) o que resulta em

|G(f)| =|G(-f)| (2.29)

θ(-f) = - θ(f) (2.30) Ou seja, o espectro de amplitude de uma função real no domínio do tempo é uma função par no domínio da frequência e o espectro de fase é uma função ímpar. Propriedade 3: Linearidade

Se

)()(

)()(

22

11

fGtg

fGtg

↔↔

(2.31)

então, para duas constantes a e b,

)()()()( 2121 fbGfaGtbgtag +↔+ (2.32) Esta propriedade decorre diretamente da definição da transformada de Fourier e significa que (i) a transformada de Fourier de uma soma de funções é a soma das transformadas de cada função; (ii) se uma função que é multiplicada por uma constante, sua transformada também é multiplicada pela mesma constante.

Page 16: Princípios de Comunicações

15

Propriedade 4: Mudança de escala

Se )()( fGtg ↔ , então

↔a

fG

aatg

1)( (2.33)

No caso particular em que a = -1, (2.33) se reduz a )()( fGtg −↔− .

A Fig.2.16, apresenta uma ilustração da propriedade da mudança de escala. Observamos que a função g(2t) corresponde a uma compressão do sinal no domínio do tempo enquanto a função G(f/2) corresponde a uma expansão no domínio da frequência. Comprimir o sinal no domínio do tempo faz com que este sinal varie mais rapidamente e assim seu espectro terá componentes de frequências mais altas como indica o alargamento do espectro mostrado na Fig. 2.16-d.

Fig. 2.16 – Ilustração da propriedade de mudança de escala (contração e expansão) (a) sinal original (b) sinal comprimido (c) espectro original (d) espectro expandido Propriedade 5: Dualidade Se )()( fGtg ↔ então

)()( fgtG −↔ (2.34) Para demonstrar esta propriedade basta analisar as expressões das transformadas direta e inversa dadas por (2.17) e (2.18).

g(t)

-T/2 0 T/2 t

A

0 f

AT/2

22

1 fG

2/T

-T/4 0 T/4 t

A g(2t)

0 f

A

G(f)

1/T

AT

(a) (b)

(c) (d)

Page 17: Princípios de Comunicações

16

Exemplo 2.5

Neste exemplo será calculada a transformada de Fourier de g(t) = Asinc(2Bt), representada na Fig. 2.17, usando a propriedade da dualidade e da linearidade.

Fig. 2.17- Asinc(2Bt) No Exemplo 2.2 obtivemos a transformada de Fourier de um pulso retangular

centrado em t = 0 de amplitude A e duração T. Vamos expressar este pulso como

( ) rectt

g t AT = ⋅

onde 1 1

2 21rect( )

0

tt

fora

− < <=

(2.35)

Assim,

rect sinc( )t

A AT TfT ⋅ ↔ ⋅

(2.36)

Pela propriedade da dualidade,

sinc( ) rectf

AT Tt AT

− ⋅ ↔ ⋅

(2.37)

Fazendo T = 2B e observando que a função rect é par, vem

2 sinc(2 ) rect2

fAB Bt A

B ⋅ ↔ ⋅

(2.38)

e daí

sinc(2 ) rect2 2

A fA Bt

B B ⋅ ↔

(2.39)

O espectro está mostrado na Fig. 2.18.

Fig. 2.18 –Espectro da função g(t) = Asinc(2Bt)

-3/2B -2/2B -1/2B 0 1/2B 2/2B 3/2B t

A

Asinc(2Bt)

- B 0 B f

A/2B

G(f)=F-1[Asinc(2Bt)]

Page 18: Princípios de Comunicações

17

Propriedade 6 : Deslocamento no tempo

Se )()( fGtg ↔ , então

ftjefGttg 020 )()( π−↔− (2.40)

Utilizando a representação introduzida em (2.27), temos

0( ) 20( ) ( ) j f j t fg t t G f eθ π−− ↔ (2.41)

Ou seja: se um sinal for deslocado no tempo de um intervalo t0, sua transformada de Fourier

fica multiplicada pela exponencial complexa ftje 02π− . .Isto significa que o espectro de amplitude do sinal (dado pelo módulo do espectro) não se altera e o espectro de fase tem uma parcela adicional que varia linearmente com a frequência. Exemplo 2.6 Neste exemplo serão calculadas duas transformadas para ilustrar a propriedade do deslocamento no tempo. Primeiramente, consideremos o pulso retangular da Fig 2.19. Podemos observar que este pulso pode ser visto como o pulso Arect(t/T) da Fig.2.11 deslocado no tempo de T/2, isto é,

2( )Tt

g t A rectT

− = ⋅

(2.42)

Fig. 2.19 – Pulso retangular com início em t = 0

Como

sinc( )t

A rect AT TfT ⋅ ↔ ⋅

(2.43)

então, aplicando-se a propriedade 6, obtemos

( ) sinc( ) j TfG f AT Tf e π−= ⋅ (2.44) Para o pulso da Fig. 2.20 podemos escrever

2 2( )T Tt t

g t A rect A rectT T

+ − = ⋅ − ⋅

(2.45)

A

0 T t

g(t)

Page 19: Princípios de Comunicações

18

Fig. 2.20 – Pulsos retangulares deslocados e invertidos

Aplicando a propriedade do deslocamento obtemos

( ) sinc( ) sinc( )2 sen( )j Tf j TfG f AT Tf e e AT Tf j Tfπ π π− = ⋅ − = ⋅ (2.46)

O espectro de amplitude correspondente está mostrado na Fig. 2.21.

Fig. 2.21 – Espectro de amplitude da soma de pulsos retangulares deslocados e invertidos Propriedade 7 - Deslocamento na frequência

Se )()( fGtg ↔ , então

)()( 02 0 ffGetg tfj −↔π (2.47)

Esta propriedade pode ser demonstrada através da manipulação do integrando em (2.17). Ela pode ser deduzida também pela aplicação da propriedade 5 (dualidade) à propriedade 6 (deslocamento no tempo). Teorema da Modulação A propriedade 7 permite calcular a transformada da função

0( ) ( )cos(2 )x t g t f tπ= (2.48) Usando (2.6) em (2.48) temos

( )0 02 20

( )( )cos(2 )

2j f t j f tg t

g t f t e eπ ππ −= + (2.49)

-2T -1/T 0 1/T 2/T f

|G(f)|

A

-T 0 T t

g(t)

-A

Page 20: Princípios de Comunicações

19

Aplicando a propriedade 5, obtemos o Teorema da Modulação, de grande importância para os sistemas de telecomunicações:

[ ])()(2

1)2cos()( 000 ffGffGtftg ++−↔π (2.50)

Este resultado tem o seguinte enunciado: quando se multiplica um sinal por um cosseno de frequência f0, o espectro resultante é o espectro original dividido por 2 e deslocado no eixo das frequências de ± f0 . O teorema da modulação está ilustrado na Fig. 2.22.

Fig. 2.22 – Ilustração do Teorema da Modulação Analogamente, temos

( )0 02 20

( )( ) (2 )

2j f t j f tg t

g t sen f t e ej

π ππ −= −

[ ]0 0 01

( ) (2 ) ( ) ( )2

g t sen f t G f f G f fj

π ↔ − − + (2.51)

0 0(2 ) ( 2 )0

( )( )cos(2 )

2j f t j f tg t

g t f t e eπ θ π θπ θ + − + + = +

0 0 01

( )cos(2 ) ( ) ( )2

j jg t f t G f f e G f f eθ θπ θ − + ↔ − − + (2.52)

Exemplo 2.7

Neste exemplo será calculada a transformada de Fourier de um cosseno truncado como mostrado na Fig. 2.23 e expresso por

0cos(2 ) / 2 / 2( )

0 fora

A f t T t Tx t

π − < <=

-B B f

A G(f)

-f0 0 f0 f

A/2 )(

2

10ffG − )(

2

10ffG +

2B 2B

X(f)

Page 21: Princípios de Comunicações

20

Fig. 2.23 – Cosseno truncado

Como indicado na Fig. 2.23, pode-se escrever x(t) na forma

0( ) rect cos(2 )t

x t A f tT

π = ⋅

(2.53)

Como

sinc( )t

A rect AT TfT ⋅ ↔ ⋅

(2.54)

usando o teorema da modulação obtemos

( ) ( ) 0 0( ) sinc sinc2

ATX f T f f T f f = − + + (2.55)

O espectro correspondente está mostrado na Fig. 2.24

Fig. 2.24 – Espectro de um cosseno truncado

Propriedade 8 – Espectro em f = 0 e valor médio do sinal

Se )()( fGtg ↔ , então

∫∞

∞−= )0()( Gdttg (2.56)

Ou seja: o valor da transformada de Fourier em f =0 fornece o valor da integral do sinal ao longo de toda sua duração. O valor médio do sinal ao longo do tempo é definido como

- T/2 0 T/2 t

A x(t)

-f0 0 f0 f

AT/2

2/T

X(f)

Page 22: Princípios de Comunicações

21

2

2

1lim ( )

T

TTg t dt

→∞ −= ∫ (2.57)

Um sinal que oscila em torno de zero, de tal forma que a soma dos valores positivos é igual à soma dos valores negativos, tem média nula. Observando (2.57) e (2.56) verificamos que um sinal só tem média nula se seu espectro for nulo em f = 0. Uma propriedade dual da propriedade 8 é

∫∞

∞−= )0()( gdffG (2.58)

Propriedade 9 : Diferenciação

Se )()( fGtg ↔ , então

( )'( ) 2 ( )

dg tg t j f G f

dtπ= ↔ (2.59)

Ou seja: ao se aplicar a derivada a um sinal no domínio do tempo, seu espectro fica multiplicado por j2πf. Propriedade 10 – Integração

Se )()( fGtg ↔ e

∫∞

∞−== 0)0()( Gdttg (2.60)

então

∫ ∞−↔

t

fj

fGdg

παα

2

)()( (2.61)

Ou seja: ao se fazer a integração no domínio do tempo de um sinal com valor médio nulo, seu espectro fica dividido por j2π f. Se o sinal não tiver valor médio nulo, haverá um termo adicional na transformada de Fourier constituído pela função impulso a ser definida na seção 2.4.1. Propriedade 11: Convolução

Define-se a convolução de duas funções g1(t) e g2(t) como

1 2 1 2 2 1( ) ( ) ( ) ( ) ( ) ( ) ( )c t g t g t g g t d g g t dα α α α α α∞ ∞

−∞ −∞= ∗ = − = −∫ ∫ (2.62)

A convolução é uma operação linear e comutativa, isto é, 1 2 2 1( ) ( ) ( ) ( )g t g t g t g t∗ = ∗

com a seguinte propriedade: se 1 2( ) ( ) ( )g t g t c t∗ = , então

1 0 2 1 2 0 0( ) ( ) ( ) ( ) ( )g t t g t g t g t t c t t− ∗ = ∗ − = − (2.63)

Page 23: Princípios de Comunicações

22

ou seja, quando se desloca uma das funções no tempo de um valor, a convolução fica deslocada do mesmo valor. A propriedade da convolução pode ser enunciada da seguinte forma. Se

)()( 11 fGtg ↔

)()( 22 fGtg ↔ então

)()()()( 2121 fGfGtgtg ↔∗ (2.64) Ou seja: a transformada de Fourier da convolução entre duas funções é igual ao produto das transformadas de cada uma das funções. Exemplo 2.8 Neste exemplo é calculada a convolução entre dois pulsos retangulares de amplitude unitária. O cálculo é ilustrado passo a passo na Fig. 2.25 onde o valor da integral de convolução é obtido visualmente através do cálculo da área sob a curva correspondente ao integrando. O resultado final mostra que a convolução de dois pulsos retangulares de duração T é um pulso triangular de duração 2T. Isto é,

( ) ( ) ( )Tt

Tt

Tt triTrectrect ⋅=∗ (2.65)

onde

( ) 1 | |

0

tt TT

t Ttri

fora

− ≤=

(2.66)

Aplicando (2.19) e (2.64) verificamos que

( ) ( ) ( ) 21 sinc ( )t t tT T T T

tri rect rect T Tf= ∗ ↔

Exemplo 2.9 Neste exemplo é calculada a convolução entre um pulso retangular e um pulso exponencial. O cálculo é ilustrado passo a passo na Fig. 2.26 e, neste caso, as integrais de convolução são calculadas analiticamente.

Page 24: Princípios de Comunicações

23

Fig. 2.25 – Convolução entre duas funções retangulares

-T 0 T α

g2(α) g2(-α)

-T+t 0 t α

g2(-α)

t

0 T t 0 T t

g1(t)

t ≤ 0

1

( ) 1c t t t= × =

1 2 1 2( ) ( ) ( ) ( ) ( )c t g t g t g g t dα α α∞

−∞= ∗ = −∫

t 0 T α

1

c(t) = 0

0≤ t ≤ T

-T+t 0 t T α

1

T≤ t ≤ 2T

0 t-T T t α

1

( ) 1 [ ( )] 2c t T t T T t= × − − = −

0 T t

0 0; 2

( ) 0

2 2

t t T

c t t t T

T t T t T

< >= ≤ ≤ − ≤ ≥

0 T 2T t

g2(t)

1

g2(t-α)

T

T

0 T 2T t

T

t > 2T

0 T t α

1

T

Page 25: Princípios de Comunicações

24

Fig. 2.26 – Convolução entre um retângulo e uma exponencial

0 α

g2(α) g2(-α)

0 α

g2(-α)

t

0 t

2( ) ( )btg t e u t−=

0 T t

g1(t)

t ≤ 0

1

( )( ) 1

0( ) 1

tb t bt

bc t e d eα α− − −= = −∫

1 2 1 2( ) ( ) ( ) ( ) ( )c t g t g t g g t dα α α∞

−∞= ∗ = −∫

( )2( ) ( )b tg t e u tαα α− −− = −

t 0 T α

1 c(t) = 0

0≤ t ≤ T

0 t T α

1

t ≥ T

0 T t α

1

( )( ) 1

0( ) 1

Tb t bT bt

bc t e d e eα α− − − −= = −∫

0 T t

0 T t

( )( )

1

1

0 0

( ) 1 0

1

btb

bT btb

t

c t e t T

e e t T

− −

<= − ≤ ≤

− ≥

0 T t

Page 26: Princípios de Comunicações

25

Propriedade 12 (dual da propriedade 11) Se

)()( 11 fGtg ↔

)()( 22 fGtg ↔ então

)()()()( 2121 fGfGtgtg ∗↔ (2.67) onde

1 2 1 2( ) ( ) ( ) ( )G f G f G G f dα α α∞

−∞∗ = −∫ (2.68)

Propriedade 13 Se )()( 11 fGtg ↔ e )()( 22 fGtg ↔ então

∫∫∞

∞−

∞−= dffGfGdttgtg )()()()( 2

*12

*1 (2.69)

No caso particular em que g1(t) = g2(t), tem-se o Teorema de Parseval

∫∫∞

∞−

∞−= dffGdttg

22)()( (2.70)

Como será visto na seção 2.6, a integral do módulo ao quadrado de um sinal no domínio do tempo em [-∞, ∞] fornece a energia deste sinal. Assim, o teorema de Parseval é bastante importante, pois permite calcular a energia de um sinal integrando no domínio do tempo ou no domínio da frequência.

2.4 TRANSFORMADAS DE FOURIER DE SINAIS DE ENERGIA INFINITA A condição para o cálculo da integral de Fourier definida em (2.17) é que o sinal g(t) tenha energia finita, isto é,

∞<∫∞

∞−dttg )(2 (2.71)

Assim, em princípio, sinais com valores constantes em um intervalo de duração infinita ou sinais periódicos, não teriam transformada de Fourier. No entanto, através da definição de uma função denominada função impulso, pode-se estender a aplicação da transformada de Fourier a estes sinais. A função impulso será definida a seguir.

2.4.1 Função Impulso

A função impulso no instante t = t0 é uma função cujo valor é infinito neste instante e é diferente de zero fora. Além disto, sua integral, ou área sob a curva, é finita. O gráfico da função impulso é usualmente representado por uma seta vertical no ponto correspondente ao instante t0 e um número entre parênteses igual à integral do impulso. A seguinte definição

Page 27: Princípios de Comunicações

26

formal é usualmente feita para uma função impulso de área unitária em t = 0, representada por δ(t) :

=

≠=

∫∞

∞−1)(

0;0)(

dtt

tt

δ

δ (2.72)

A Fig.2.27 ilustra a representação da função impulso.

Fig. 2.27. – Função impulso

Da definição apresentada, resulta que a integral de uma função impulso Aδ(t-t0) ao longo de um intervalo [t1, t2] pode ser igual a A ou 0, dependendo se o intervalo contém ou não o instante t0. Em particular, a integral desta função impulso de -∞ até um instante t qualquer, será nula se t < t0 e A se t > t0. Considerando um impulso de área unitária, podemos escrever

∫ ∞−

><

==t

t

ttud

01

00)()( ααδ (2.73)

onde u(t) é a função degrau unitário representada na Fig. 2.28

Fig. 2.28 – Função degrau unitário

Portanto, a função degrau é a integral da função impulso e, consequentemente, a função impulso pode também ser expressa como a derivada da função degrau, isto é:

dt

tdut

)()( =δ (2.74)

A função impulso pode também ser vista como o limite de uma função que vai se

comprimindo sem mudar a sua área. O caso mais simples é o de um pulso retangular de amplitude igual ao inverso da duração T. Como ilustrado na Fig. 2.29, quando diminui a largura do pulso, aumenta sua amplitude, de forma que a sua área se mantém sempre constante e igual a 1. Formalmente temos

=→ T

trect

Tt

T

1lim)(

0δ (2.75)

(A)

t0 t

Aδ(t-t0) (1)

0 t

δ(t)

0 t

u(t) 1

Page 28: Princípios de Comunicações

27

Fig. 2.29 – Pulsos retangulares de área unitária Propriedades da função impulso O produto de uma função impulso por uma função qualquer g(t) resulta em um impulso no mesmo instante, porém com área multiplicada pelo valor da função no instante considerado, isto é,

)()()()( 000 tttgtttg −=− δδ (2.76)

Resolvendo a integral, obtém-se o valor da função no instante considerado, ou seja:

∫∫∞

∞−

∞−=−=− )()()()()( 0000 tgdttttgdttttg δδ (2.77)

A convolução de uma função impulso de área unitária no instante t0 com uma função qualquer é igual à própria função deslocada de um intervalo de tempo igual a t0. Isto é,

∫∞

∞−−=−−=−∗ )()()()()( 000 ttgdtgttttg αααδδ (2.78)

Transformada de Fourier da função impulso A partir da definição e das propriedades enunciadas anteriormente, pode-se verificar que a transformada de Fourier de uma função impulso de área unitária em t = 0 é igual a 1. Ou seja,

[ ] ∫∞

∞−=== 1)()( 022 fjftj edtettF ππδδ (2.79)

O par de transformadas está ilustrado na Fig. 2.30.

Fig. 2.30 – Transformada de Fourier da função impulso

t

1/T1

1/T2

T1

T2

1

0 f

δ(t)

0 t

(1)

Page 29: Princípios de Comunicações

28

Pela propriedade da simetria, a transformada de Fourier de uma constante unitária é um impulso de área 1 em f = 0, isto é, .

[ ] 21 ( )j ftF e dt tπ δ∞

−∞= =∫ (2.80)

O par de transformadas está mostrado na Fig. 2.31.

Fig. 2.31 – Transformada inversa da função impulso Usando a propriedade 6 do deslocamento no tempo dada por (2.40) em (2.80) temos

020)( ftjett πδ −↔− (2.81)

Usando a propriedade 7 do deslocamento na frequência dada por (2.47) em (2.80) temos

020( )j f te f fπ δ↔ − (2.82)

2.4.2 Transformadas de Fourier baseadas na função impulso A definição da função impulso permite estender o cálculo da transformada de Fourier a diversas funções que, em princípio, não satisfazem a condição de energia finita dada por (2.71). A seguir são apresentadas algumas destas transformadas. Funções senoidais Para calcular a transformada de Fourier de senóides de frequência f0, podemos escrever, observando (2.6), (2.7) e (2.82),

( ) [ ])()(2

1

2

1)2cos( 00

220

00 ffffeetf tfjtfj ++−↔+= − δδπ ππ (2.83)

( ) [ ])()(2

1

2

1)2( 00

220

00 ffffj

eej

tfsen tfjtfj +−−↔−= − δδπ ππ (2.84)

As duas transformadas estão representadas nas Fig. 2.32.

0 t

1

0 f

δ(f) (1)

Page 30: Princípios de Comunicações

29

Fig. 2.32 – Transformadas de Fourier das funções cosseno e seno

Função degrau unitário Para obter a transformada da função degrau, vamos inicialmente obter a transformada da função sgn(t) ilustrada na Fig. 2.33 e definida como

1 0

sgn( ) ( ) ( ) 0 0

1 0

t

t u t u t t

t

>= − − = =− <

(2.85)

Fig. 2.33 – Função sgn(t)

Podemos escrever

0sgn( ) lim ( ) ( )at at

at e u t e u t−

→ = − −

Usando (2.21) e a propriedade 4, obtemos

( )2 2 20 0

1 1 4 1sgn( ) lim lim

2 2 4a a

j fF t

a j f a j f j fa f

ππ π ππ→ →

− = − = = + − +

(2.86)

Este resultado permite determinar a transformada de Fourier da função degrau unitário u(t). Basta observar que

1 1( ) sgn( )

2 2u t t= +

e aplicar (2.85) e (2.80) para obter

-1

1

t

sgn(t)

-f0 0 f0 f

(1/2) (1/2) F[cos(2π f0t)]

-f0 0 f0 f

(1/2j)

(1/2j)

F[sen(2π f0t)]

Page 31: Princípios de Comunicações

30

1 1( ) ( ) ( )

2 2u t U f f

j fδ

π↔ = + (2.87)

Exemplo 2.10 – Generalização da propriedade da integração Neste exemplo é deduzida a propriedade da integração para um sinal g(t) de valor médio diferente de zero, isto é, G(0) ≠0. Para isso, verificamos inicialmente que a integral em (2.61) pode ser expressa através da convolução entre g(t) e a função degrau u(t), isto é,

( ) ( ) ( ) ( ) ( )t

g d g u t d g t u tα α α α α∞

−∞ −∞= − = ∗∫ ∫

Aplicando (2.64) e (2.87) chegamos a

( ) 1( ) ( ) ( ) (0) ( )

2 2

t G fg d G f U f G f

j fα α δ

π−∞↔ = +∫

Sinais periódicos Sabemos que um sinal periódico de período T0 (frequência fundamental f0 =1/T0), pode ser expandido em série de Fourier exponencial, de acordo com (2.8) e (2.9). Aplicando a transformada de Fourier a (2.8) temos

0

0

20( ) ( )j nf t

T n nn n

F g t c F e c f nfπ δ∞ ∞

=−∞ =−∞

= = − ∑ ∑ (2.88)

Observamos, portanto, que a transformada de Fourier de uma função periódica de período T0 é uma sequência de impulsos no domínio da frequência igualmente espaçados. O espaçamento entre os impulsos é igual à frequência fundamental da série de Fourier. As amplitudes de cada impulso são iguais aos coeficientes da série de Fourier da função periódica. Trem de pulsos Funções periódicas formadas pela repetição em intervalos iguais a T0, de um pulso g(t) de duração menor que T0 são geralmente denominadas trem de pulsos. Um trem de pulsos pode ser expresso por

0 0( ) ( )Tk

g t g t kT∞

=−∞= −∑ (2.89)

A propriedade 2.1 estabelece, através de (2.25), que, conhecendo a transformada de Fourier de g(t), podemos determinar os coeficientes da série de Fourier para um trem de pulsos

0( )Tg t . Substituindo (2.25) em (2.88) temos então

0 0 0 0( ) ( ) ( )T

n

F g t f G nf f nfδ∞

=−∞

= − ∑ (2.90)

A Fig. (2.34) ilustra as expressões (2.89) e (2.90).

Page 32: Princípios de Comunicações

31

Fig. 2.34 (a) Trem de pulsos no tempo; (b) Espectro do trem de pulsos

Pela propriedade da dualidade podemos também estabelecer que, para um espectro

0( )fG f formado pela repetição periódica de um espectro G(f), isto é,

0 0( ) ( )f

k

G f G f kf∞

=−∞

= −∑ (2.91)

o sinal correspondente no domínio do tempo será

0

10 0 0( ) ( ) ( ) ( )a f

n

g t F G f T g nT t nTδ∞

=−∞

= = − ∑ (2.92)

As expressões (2.91) e (2.92) estão ilustradas na Fig (2.35), onde podemos observar que ga(t) é o sinal g(t) amostrado por impulsos de área T0.

Fig. 2.35 - (a) sinal amostrado por impulsos; (b) espectro do sinal amostrado por impulsos para f0 > 2W; (c) espectro do sinal amostrado por impulsos para f0 < 2W.

t -T0 0 T0 2T0

g(t) g(t-T0) g(t+T0) g(t-2T0)

(a) 0( )Tg t

f0G(f)

-2f0 -f0 0 f0 2f0 3f0 f

(b)

0( )TF g t

T0g(t)

t -2T0 -T0 0 T0 2T0 3T0

-f0 -W 0 W f0 2f0 f

G(f) G(f-f0) G(f+f0) G(f-2f0)

(b) 0( )fG f ; f0 > 2W

(a) ga(t)

(c) 0( )fG f ; f0 < 2W

-f0 -W 0 W f0 2f0 f

G(f) G(f-f0) G(f+f0) G(f-2f0)

Page 33: Princípios de Comunicações

32

O par de transformadas dado por (2.91) e (2.92) pode ser obtido de outra forma, como mostrado no exemplo a seguir. Exemplo 2.11 - Transformada de Fourier de um sinal amostrado por um trem de impulsos. Na Fig. 2.36 está representado um trem de impulsos, isto é, uma sequência de impulsos ao longo do tempo, regularmente espaçados de um intervalo T0, e expresso analiticamente por

0 0( ) ( )T

k

t t kTδ δ∞

=−∞

= −∑

Fig. 2.36 – Trem de impulsos

Observando (2.79), verificamos que, neste caso, G(nf0) = 1. Substituindo em (2.90) obtemos

0 0 0( ) ( )T

n

F t f f nfδ δ∞

=−∞

= − ∑ (2.93)

Ou seja, a transformada de um trem de impulsos de mesma área no domínio do tempo, com período T0, é um trem de impulsos de mesma amplitude no domínio da frequência com período f0 = 1/T0. O sinal amostrado por impulsos expresso por (2.92) pode também ser escrito como

00( ) ( ) ( )a Tg t T t g tδ=

Aplicando (2.93) e a propriedade da convolução, dada por (2.67), obtemos para Ga(f) a mesma expressão de

0( )fG f dada por (2.91), levando à seguinte conclusão: a amostragem de

um sinal g(t) através de um trem de impulsos periódicos, de período T0, corresponde a um trem de pulsos no domínio da frequência, formado pela repetição do espectro G(f) com período 1/T0. Aplicação à digitalização de sinais analógicos A propriedade expressa por (2.91) e (2.92) é fundamental para se entender o processo da digitalização de um sinal analógico, o qual é precedido por uma amostragem do sinal. Em termos ideais, a amostragem é feita colhendo-se amostras periódicas do sinal e gerando impulsos com áreas iguais a estas amostras. A expressão (2.91) e a Fig 2.35 (b) e (c) nos dizem que o efeito da amostragem de um sinal é replicar periodicamente seu espectro de frequências em intervalos iguais à frequência de amostragem. Note, observando as Figs 2.35 (b) e (c) que, dependendo dos valores da frequência de amostragem f0 em relação à frequência máxima do sinal, W, os espectros replicados podem ou não se superpor. Havendo superposição, os espectros se somam e não seria possível restaurar o espectro original G(f). Esta questão é a essência do teorema da amostragem, abordado na seção 2.7.

0( )Tg t

-3T0 -2T0 -T0 0 T0 2T0 t

δ(t) δ(t-T0) δ(t+T0)

Page 34: Princípios de Comunicações

33

2.5 SISTEMAS LINEARES Os sinais podem passar por diversas transformações entre sua geração e sua observação final. Os agentes destas transformações são denominados sistemas de processamento ou, simplesmente, sistemas. Genericamente podemos representar um sistema através da equação

[ ])()( txRty = (2.94) onde x(t) é o sinal de entrada, ou excitação, e y(t) é o sinal de saída, ou resposta do sistema. Na Fig. 2.37 mostra-se um diagrama típico usado na representação de um sistema.

Fig. 2.37 – Representação de um sistema linear

Suponha que x1(t) e x2(t) são dois sinais de entrada em um sistema e y1(t) e y2(t) suas respectivas saídas, isto é,

[ ])()( 11 txRty = (2.95)

[ ])()( 22 txRty = (2.96) Um sistema é linear se, para duas constantes quaisquer a1 e a2,

[ ]1 1 2 2 1 1 2 2( ) ( ) ( ) ( )R a x t a x t a y t a y t+ = + (2.97)

Em resumo, um sistema linear obedecer ao princípio da superposição: a saída correspondente a uma combinação linear de sinais de entrada é igual à mesma combinação linear das saídas correspondentes a cada um dos sinais individualmente.

2.5.1 Caracterização de sistemas lineares Um sistema linear é geralmente caracterizado por sua saída quando a entrada é uma função impulso. Este sinal de saída é denominado resposta ao impulso. No caso mais geral, a resposta ao impulso pode depender do instante da ocorrência do impulso. Porém vamos nos restringir aos sistemas invariantes no tempo, cuja resposta é basicamente a mesma, independentemente do instante de ocorrência do impulso. Ou seja, para os sistemas invariantes no tempo, se a resposta a um impulso δ(t) (ocorrência em t = 0) é h(t), a resposta a um impulso δ (t-T) (ocorrência em t = T) é a mesma função atrasada de T, isto é, h(t-T). Sendo assim, a resposta a um impulso de um sistema linear e invariante no tempo é, por definição, a resposta h(t) a um impulso em t = 0. A Fig. 2.38 resume estas definições e propriedades.

Fig. 2.38 – Definições e propriedades de um sistema linear invariante no tempo

Sistema x(t)

y(t)

resposta

h(t)

x(t)=δ(t) y(t) = h(t)

y(t) = h(t-t0) x(t)=δ(t-t0)

Page 35: Princípios de Comunicações

34

Condição de causalidade Para que um sistema linear possa corresponder a um sistema real, fisicamente realizável, sua caracterização matemática, através da resposta ao impulso, deve atender à condição de causalidade, ou seja, não apresentar saída antes de ser aplicada a entrada. Isto implica em

0para0)( <= tth (2.98) Condição de Estabilidade Sistema estável é aquele cuja saída é limitada para entrada limitada, ou seja, se

( ) , ( )x t y t< ∞ < ∞ . A condição necessária e suficiente para a estabilidade é

∫∞

∞−

∞<dtth )( (2.99)

2.5.2 Obtenção do sinal de saída em um sistema linear Um sistema linear e invariante no tempo fica completamente determinado pela sua resposta ao impulso. Isto significa que, através da resposta ao impulso, pode-se determinar a saída y(t) de um sistema linear e invariante no tempo para qualquer sinal de entrada x(t). O sinal y(t) será dado pela convolução entre x(t) e h(t), ou seja,

( ) ( ) * ( ) ( ) ( )y t x t h t x h t dτ τ τ∞

−∞= = −∫ (2.100)

Este resultado pode ser mostrado aproximando-se inicialmente a função x(t) por uma sequência de degraus como mostrado na Fig. 2.39. Esta aproximação pode ser escrita como

( ) ( ) ( )k

x t x k t p t k t∞

=−∞

≅ ∆ − ∆∑ (2.101)

Multiplicando e dividindo o somatório por ∆t temos

1

( ) ( ) ( )k

x t x k t p t k t tt

=−∞

≅ ∆ − ∆ ∆∆∑ (2.102)

Usando o princípio da superposição podemos escrever

( ) ( ) ( )k

y t x k t q t k t t∞

=−∞

≅ ∆ − ∆ ∆∑ (2.103)

onde q(t) é a resposta do sistema ao pulso 1( ) ( )tu t p t∆= . Quando ∆t→0, u(t)→δ(t),

q(t)→h(t) e o somatório tende a uma integral. Isto é,

( ) ( ) ( ) ( ) ( ) ( ) ( )k k

x k t q t k t t x k t h t k t t x h t d y tτ τ τ∞ ∞ ∞

−∞=−∞ =−∞

∆ − ∆ ∆ → ∆ − ∆ ∆ → − =∑ ∑ ∫

Page 36: Princípios de Comunicações

35

Fig. 2.39 – Aproximação de uma função qualquer por uma sequência de degraus

2.5.3 Função de transferência A transformada de Fourier da resposta ao impulso h(t), representada por H(f) é denominada Função de Transferência ou Resposta de Frequência do sistema. Aplicando a transformada de Fourier a (2.100) e usando a propriedade 11 da transformada de Fourier expressa por (2.64), obtemos

)()()( fXfHfY = (2.104) Note que, se o sinal de entrada for um impulso, isto é, x(t) = δ(t), então X(f) = 1 e consequentemente, Y(f) = H(f), o que está de acordo com a definição de H(f). A expressão (2.104) contém uma das principais motivações para a utilização da análise de Fourier e da consequente caracterização dos sinais no domínio da frequência. Observa-se que, através de (2.104), a operação de um sistema linear pode ter uma interpretação muito simples: sua atuação no sinal de entrada é caracterizada pela multiplicação do espectro de frequências deste sinal por uma determinada função, a função de transferência. Assim, ao passar por um sistema linear, cada frequência do sinal de entrada será atenuada ou amplificada de acordo com o valor da função de transferência para aquela frequência. Esta mudança dos níveis das componentes de frequência produzirá um determinado efeito no domínio do tempo que poderá ser determinado aplicando-se a transformada inversa no produto resultante. Em geral H(f) é uma função complexa e pode ser escrita como

)()()( fjefHfH β= (2.105)

onde |H(f)| é a resposta de amplitude e β(f) é a resposta de fase. Usando esta expressão em (2.104) podemos escrever

x(t)

( ) ( )x k t p t k t∆ − ∆∑

p(t)

t

1

∆t

0

0 ∆t 2∆t 3∆t 4∆t t

Page 37: Princípios de Comunicações

36

)()()( fXfHfY = (2.106)

)()()( fff xy θβθ += (2.107)

onde θx(f) e θy(f) são os espectros de fase de x(t) e y(t). Se h(t) for uma função real, então, pela propriedade 2 expressa em (2.26), temos

H*( f) = H(-f) (2.108)

|H(f)| =|H(-f)| (2.109)

β(-f) = - β(f) (2.110) Observa-se, portanto, que a resposta de amplitude é uma função par e a resposta de fase é uma função ímpar. Exemplo 2.12 - Resposta de um sistema linear a uma senóide Este exemplo é bastante ilustrativo do significado da função de transferência.

Consideremos inicialmente a exponencial tfj cetx π2)( = . Este sinal só tem uma componente de frequência, um impulso em f = fc, de acordo com (2.82). Assim, ao passar pelo sistema linear de função de transferência H(f), este impulso será multiplicado pelo valor de H(f) em f = fc, como mostrado na Fig. 2.40 (a). A operação descrita tem o seguinte desenvolvimento matemático:

)()( cfffX −= δ (2.111)

)()()()()( ccc fffHfffHfY −=−= δδ (2.112)

Aplicando-se a transformada inversa temos

[ ] tfjccc

cefHffFfHty πδ 21 )(()()( =−= − (2.113)

Portanto, para uma entrada de frequência única, o sistema linear apenas multiplica sua amplitude pelo valor da função de transferência na frequência do sinal, não alterando sua forma como ilustrado na Fig 2.40 (b).

Fig. 2.40 – Resposta de um sistema linear a uma exponencial complexa

H(f)

f fc

[H (fc)]

h(t)

2 cj f te π 2( ) cj f t

cH f e π

(a)

(b)

Page 38: Princípios de Comunicações

37

Para um sinal )2cos()( tfAtx cπ= , pode ser feito um desenvolvimento semelhante.

Note que

( )tfjtfj cc eeA

tx ππ 22

2)( −+= (2.114)

e assim o resultado obtido anteriormente pode ser usado para escrever

[ ]tfjc

tfjc

cc efHefHA

ty ππ 22 )()(2

)( −−+= (2.115)

Aplicando (2.108) verificamos que o segundo termo dentro do colchete é o conjugado do outro. Assim temos

[ ] [ ]tfjfjc

tfjc

ccc eefHAefHA

ty πβπ 2)(2 )(Re)(Re22

)( == (2.116)

e, finalmente,

[ ])(2cos)()( ccc ftffHAty βπ += (2.117)

Observa-se, portanto, que o efeito de um sistema linear sobre um sinal senoidal de frequência fc é multiplicar sua amplitude pelo valor do módulo da função de transferência (resposta de amplitude) e adicionar uma fase igual ao valor da fase da função de transferência (resposta de fase), ambos os valores calculados na frequência f = fc.

2.5.4 Filtros Como comentado na seção anterior, a operação de um sistema linear leva a uma modificação nas componentes de frequência do sinal de entrada, resultando na atenuação ou na amplificação de cada uma das componentes, de acordo com a função de transferência. Este processo pode ser usado para realizar uma filtragem, ou seja, uma forma de selecionar determinadas componentes e rejeitar outras. Obviamente, para eliminar determinadas componentes de frequência de um sinal, basta passá-lo por um sistema linear que apresente uma função de transferência nula para aquelas frequências. Assim, em geral um filtro ideal é um sistema linear cuja função de transferência é nula em uma determinada faixa de frequência que se pretende rejeitar e é constante em uma faixa que se pretende selecionar. Note que, para as faixas de frequência em que o sinal de entrada não apresenta componentes, a função de transferência não tem influência no sinal de saída. A seguir serão definidos alguns filtros ideais típicos. Filtro Passa-baixa Um filtro passa-baixa ideal é um sistema linear que seleciona frequências no intervalo [-fm, fm]. Nesta faixa, portanto, o valor da função de transferência tem um valor constante diferente de zero e fora dela tem valor nulo. A função de transferência de um filtro passa-baixa ideal está representada na Fig. 2.41.

Page 39: Princípios de Comunicações

38

Fig. 2.41-Filtro passa-baixa ideal Filtro passa-faixa Um filtro passa-faixa ideal seleciona frequências nas faixas [f1, f2] e [-f2, -f1], de acordo com a representação da Fig. 2.42.

Fig. 2.42 – Filtro passa-faixa ideal

Note-se que as respostas de amplitude especificadas para os filtros obedecem à propriedade 2, ou seja, são funções pares.

Largura de faixa A largura de faixa de um filtro, também chamada de banda passante, é a largura da faixa do espectro em que as componentes de frequência são selecionadas. Na realidade, convenciona-se que esta largura é medida apenas para frequências positivas. Assim, a largura de faixa do filtro passa-baixa representado na Fig. 2.41 é B = fm e a do filtro passa-faixa da Fig. 2.42 é B = f2-f1. Na prática, é impossível construir um filtro ideal e os filtros reais têm função de transferência que se aproximam das ideais. Neste caso, a largura de faixa é definida através de algum critério. O mais comum é o critério de 3 dB que define a largura de faixa pela frequência onde

o espectro de amplitude é reduzido pelo fator 1/ 2 , como ilustrado nas Figs. 2.43 e 2.44. Assim, para o filtro passa-baixa, a banda passante de 3dB corresponde ao valor da frequência para a qual

2

1

)0(

)(2

2

=H

fH

Para o filtro passa-faixa, a banda passante é a diferença entre os valores de freqüência que satisfazem a

2

2

( ) 1

2( )c

H f

H f=

-fm 0 fm f

H(f)

-f2 -f1 0 f1 f2 f

H(f)

Page 40: Princípios de Comunicações

39

Fig. 2.43- Largura de faixa de 3 dB de um filtro passa-baixa

Fig. 2.44 – Largura de faixa de 3 dB de um filtro passa-faixa

Transmissão sem distorção Na transmissão de sinais para comunicação a longa distância espera-se que os sinais cheguem ao destino com a mesma forma original, embora com níveis de amplitude diferentes. Por outro lado, considerando que a transmissão não é instantânea, é inevitável a ocorrência de atrasos neste processo. Assim, podemos estabelecer a seguinte relação desejável entre entrada x(t) e saída y(t) de um sistema linear que represente um meio de transmissão:

)()( 0ttkxty −= (2.118)

onde k é um fator de amplitude e t0 é o atraso. No domínio da frequência isto equivale a

)()( 02 fXkefY ftj π−= (2.119) Observando (2.104) podemos escrever

02)( ftjkefH π−= (2.120) que é a característica da função de transferência de um sistema linear que não produz distorção. Esta característica está ilustrada na Fig. 2.45.

|H(0)| |H(f)|

2

)0(H

B

0 f

|H(fc)| 2

)( cfH |H(f)|

B

-fc 0 fc f

Page 41: Princípios de Comunicações

40

Fig. 2.45 – Função de transferência para transmissão sem distorção

2.6 ENERGIA E POTÊNCIA DOS SINAIS Como já observado na introdução deste capítulo, os sinais de comunicações, são funções que representam matematicamente tensões e correntes. Se g(t) é a função que representa a variação de uma tensão ou uma corrente ao longo do tempo, a potência instantânea dissipada por esta tensão ou corrente em um resistor de 1Ω é dada por g2(t). Como a energia é a integral da potência, a energia dissipada neste mesmo resistor pela tensão ou pela corrente representadas por g(t) é dada por

2( )gE g t dt∞

−∞= ∫ (2.121)

Com base nestas propriedades, define-se a potência instantânea de um sinal g(t) como g2(t) e sua energia através de (2.121). Se Eg < ∞, g(t) é chamado de sinal de energia. A potência média de um sinal em um intervalo [-T/2, T/2] é definida como

2

2

2,

1( )

T

Tg TP g t dt

T −= ∫ (2.122)

Se o intervalo T tender a ∞, tem-se a potência média de g(t), Pg. Ou seja,

2

2

21lim ( )

T

Tg

TP g t dt

T→∞ −= ∫ (2.123)

Se g(t) for um sinal de energia, pode-se mostrar que Pg =0. Em resumo, um sinal de energia tem potência média nula. Aplicando o Teorema de Parseval (Propriedade 12) temos

22( ) ( )gE g t dt G f df∞ ∞

−∞ −∞= =∫ ∫ (2.124)

Observa-se, portanto, que a integral do quadrado do espectro de amplitude de um sinal fornece a energia deste sinal. Pode-se mostrar ainda que, se a integral em (2.124) abranger apenas uma faixa do espectro, ela fornecerá a energia das componentes de frequência que estão nesta faixa. A função |G(f)|2 tem, assim, as características de uma densidade espectral de energia. Define-se então a Densidade Espectral de Energia do sinal g(t) como

β(f)=2πft0

α=tg-1 (-2πt0) f

f

k

|H(f)|

Page 42: Princípios de Comunicações

41

2

)()( fGfg =ε (2.125)

Tomando o módulo ao quadrado na relação entrada-saída de um sistema linear dada por (2.104) temos

222)()()( fXfHfY = (2.126)

Ou seja, a densidade espectral de energia do sinal de saída é a da entrada multiplicada pelo módulo ao quadrado da função de transferência. Os sinais periódicos apresentam energia infinita e, portanto, não são sinais de energia. Na realidade são denominados sinais de potência, pois sua potência média será sempre não nula e pode ser calculada por

02

02

2

0

1( )

T

TgP g t dtT −

= ∫ (2.127)

onde T0 é o período do sinal. De forma semelhante ao que foi feito para a energia, define-se, para um sinal periódico g(t) a função Densidade Espectral de Potência Sg(f) com a seguinte propriedade:

( )g gS f df P∞

−∞=∫ (2.128)

Pode-se chegar a uma expressão geral para a densidade espectral de potência de um sinal periódico a partir da série de Fourier dada por (2.8). Substituindo (2.8) em (2.127) e desenvolvendo as expressões, obtemos

2

0

1g n

n

P cT

=−∞

= ∑ (2.129)

Esta expressão é conhecida como a propriedade de Parseval para a série de Fourier e estabelece que a potência de um sinal periódico pode ser determinada pela soma dos quadrados do módulos das amplitudes complexas de suas componentes. A expressão vale também para uma determinada faixa de frequências e permite definir a seguinte expressão para a densidade espectral de potência

20

0

1( ) ( )g n

n

S f c f nfT

δ∞

=−∞

= −∑ (2.130)

Note que

2 20

0 0

1 1( ) ( )g n n g

n

S f df c f nf df c PT T

δ∞∞ ∞

−∞ −∞ =−∞

= − = =∑∫ ∫ (2.131)

Comparando (2.130) com (2.90) nota-se que a densidade espectral de potência de uma função periódica é semelhante à sua transformada de Fourier, ou seja, uma sequência de impulsos nas frequências harmônicas, nf0. A diferença é que na transformada de Fourier cada impulso tem área cn igual à amplitude da componente e no caso da densidade espectral de potência a área do impulso fornece a potência da componente. Pode-se verificar que, de forma semelhante ao observado para a densidade espectral de energia, através de (2.126), as funções densidade espectral de potência de um sinal de entrada x(t) e de saída y(t) em um sistema linear, também se relacionam pelo quadrado do módulo da função de transferência, isto é,

2

( ) ( ) ( )y xS f H f S f= (2.132)

Page 43: Princípios de Comunicações

42

Exemplo 2.13 - Potência de um sinal senoidal A potência de um sinal senoidal de período T0 é calculada aplicando (2.122), da seguinte forma. Para 0( ) cos(2 )g t A f tπ θ= + , onde f0 = 1/T0, temos, inicialmente,

02

02

2 20cos (2 )

T

TgP A f t dtπ θ−

= +∫

Aplicando no integrando a identidade trigonométrica,

[ ]2 1cos ( ) 1 cos(2 )

2α α= +

e calculando a integral, obtemos 2

2gA

P =

2.7 TEOREMA DA AMOSTRAGEM Um dos principais resultados práticos obtidos a partir da análise de Fourier é conhecido como o teorema da amostragem. Este teorema estabelece que um sinal pode ser totalmente reconstituído a partir de suas amostras no tempo, desde que a amostragem seja feita a uma taxa fs maior ou igual a 2W, onde W é a frequência máxima do sinal. O teorema da amostragem pode ser demonstrado a partir da propriedade da digitalização de sinais dada por (2.91) e (2.92) e ilustrada na Fig.2.35. Como observado anteriormente, o efeito da amostragem de um sinal é replicar periodicamente seu espectro de frequências em intervalos iguais à frequência de amostragem. Observando a Fig 2.35, nota-se que, se a frequência de amostragem for maior que 2W, não haverá superposição entre os espectros. Neste caso, se o sinal amostrado por impulsos passar por um filtro passa-baixa de amplitude unitária e largura de faixa B = f0/2, como ilustrado na Fig. 2.46, o espectro do sinal de saída será G(f) e, portanto, este sinal é exatamente o sinal original g(t).

Fig. 2.46 – Recuperação de um sinal amostrado através de filtragem

- f0/2 0 f0/2 f

H(f) 0 0 0( ) ( ) ( )a

n

g t T g nT t nTδ∞

=−∞

= −∑

gr(t) 1

-f0 -W 0 W f0 2f0 f

G(f)

G(f-f0) G(f+f0) G(f-2f0)

f0/2 -f0/2

0( )fG f

Page 44: Princípios de Comunicações

43

No domínio do tempo, esta operação de filtragem corresponde à seguinte equação:

0 0 0( ) ( ) ( ) ( ) * ( ) ( )r a

n

g t g t h t h t T g nT t nTδ∞

=−∞

= ∗ = −∑ (2.133)

Considerando que a resposta ao impulso δ(t-nT0) é h(t-t0), a resposta à soma de impulsos dada por (2.133) será

0 0 0( ) ( ) ( )r

n

g t T g nT h t nT∞

=−∞

= −∑ (2.134)

Observando que

=

00

sinc1

)(T

t

Tth (2.135)

e substituindo em (2.134) obtemos

[ ]0 0 0( ) ( )sinc ( )r

n

g t g nT f t nT∞

=−∞

= −∑ (2.136)

Este resultado interpretado através da Fig. 2.47, mostra a maneira pela qual o sinal representado por suas amostras é transformado em um sinal analógico. Observa-se que o sinal analógico é construído pela soma de funções sinc, cujas amplitudes são as amostras de g(t). Como acabamos de mostrar, se f0 = 1/T0 > 2W, gr(t) = g(t). Caso contrário, gr(t) será uma versão distorcida de g(t).

Fig. 2.47 – geração do sinal analógico a partir de suas amostras

t

g(t)

g(nT0)

Page 45: Princípios de Comunicações

44

2.8 APÊNDICE: PRINCIPAIS TRANSFORMADAS DE FOURIER

1. ( )( ) rect ( ) sinc( )tTg t G f T Tf= ⇔ =

2. 1

( )=sinc( ) ( ) rectf

g t Bt G fB B

⇔ =

3. 21 ,( ) ( ) sinc ( )

0,

tt Tt

g t tri G f T TfTT

t T

− < = = ⇔ =

4. 1

( ) ( ) ( )2

atg t e u t G fa j fπ

−= ⇔ =+

-T/2 0 T/2 t

1

T

g(t)

-3/T -2/T -1/T 0 1/T 2/T 3/T f

T

G(f)

1

g(t)

0 t

|G(f)|

-a/2π 0 a/2π f

1/a 1

2a

1

4

-2/T -1/T 0 1/T 2/T f

G(f)

T

1

g(t)

2T

-T 0 T t

3

Page 46: Princípios de Comunicações

45

5. 2 2

2( ) ( )

(2 )a t a

g t e G fa fπ

−= ⇔ =+

6. 2 2

( ) ( )t fg t e G f eπ π− −= ⇔ =

7. ( ) ( ) ( ) 1g t t G fδ= ⇔ =

8. 020( ) ( ) ( ) j ftg t t t G f e πδ −= − ⇔ =

9. 020( ) ( ) ( )j f tg t e G f f fπ δ= ⇔ = −

10. [ ]0 0 0

1( ) cos(2 ) ( ) ( ) ( )

2g t f t G f f f f fπ δ δ= ⇔ = − + +

11. [ ]0 0 0

1( ) (2 ) ( ) ( ) ( )

2g t sen f t G f f f f f

jπ δ δ= ⇔ = − − +

1

0 t

g(t) G(f)

-a/2π 0 a/2π f

2/a 1

a

5

g(t)

0

(1)

0 f

1

G(f) 7

t

g(t)

-f0 0 f0 f

(1/2) (1/2)

G(f) 10

Page 47: Princípios de Comunicações

46

12. 1

( ) sgn( ) ( )2

g t t G fj fπ

= ⇔ =

13. 1 1

( ) ( ) ( ) ( )2 2

g t u t G f fj f

δπ

= ⇔ = +

14. 0

10 0 0 0( ) ( ) ( ) ( );p p T

k n

g t t kT F g t f f nf fδ δ∞ ∞

=−∞ =−∞

= − ⇔ = − = ∑ ∑

gp(t)

-3T0 -2T0 -T0 0 T0 2T0 t

(1)

F[gp(t)]

-3f0 -2f0 -f0 0 f0 2f0 f

(f0)

(1) (1)

(f0) (f0)

14

g(t)

1

0 t

13

g(t)

-1

1

0

12

Page 48: Princípios de Comunicações

47

2.9 EXERCÍCIOS 2.1 Analise cada uma das funções da Fig. E2.1 e verifique se podem ser transformadas de Fourier de uma função real.

Fig. E2.1

2.2 Calcule a transformada de Fourier das seguintes funções:

(a)5 | | 4

( )0

tg t

fora

≤=

; (b)5 0 4

( )0

tg t

fora

≤ ≤=

(c) 2

1( )

1g t

t=

+ (d)

2

221

( )2

t

g t e σ

πσ−

=

Utilize a tabela e as seguintes propriedades da transformada de Fourier (a) linearidade e mudança de escala (b) linearidade, mudança de escala e deslocamento no tempo (c) dualidade e mudança de escala (d) linearidade e mudança de escala (e) diferenciação e dualidade (f) linearidade e deslocamento (g) linearidade

1

0 1 t

(e)

2

3

0 2 4 t

(f)

-1

-1

2

-2 0 2 t

(g)

0 f -f0 0 f0 f

-f0 0 f0 f

(a) (b)

(c)

Page 49: Princípios de Comunicações

48

2.3 Considere do sinal da Fig. E2.3, cuja transformada de Fourier foi calculada no Exemplo 2.6. Obtenha essa mesma transformada usando (a) a propriedade 9 (diferenciação) e (b) a propriedade 10 (integração)

Fig. E2.3

2.4 Utilize a propriedade 8 para calcular a integral do item (a) e o teorema de Parseval dado por (2.69) para calcular a integral do item (b).

(a) sinc( )Tf df∞

−∞∫ ; (b) 2sinc ( )Tf df∞

−∞∫

2.5 Usando as propriedades da função impulso calcule:

(a) ( )2 3( 3) 2 tt e eδ − −− ∗ ; (b) 3( 1)2 1( 1)

1tt

e t dtt

δ∞

−∞

+ −+∫

2.6 Usando as propriedades da convolução e do deslocamento na frequência, calcule

(a) ( ) 8sinc(3 ) sinc 4 j tt t e π ∗ ; (b) ( ) 4sinc(4 ) sinc 4 j tt t e π ∗

2.7 Usando a propriedade da modulação calcule a transformada de Fourier das funções abaixo e esboce o seu espectro de amplitude para f0 >> 1

(a) 0( ) cos(2 ) ( )tg t e f t u tπ−=

(b) 0( ) cos(2 )tg t e f tπ−=

(c) 0( ) sen(2 )tg t e f tπ−= 2.8 Utilize o resultado do exemplo 2.8 e as propriedades da integral de convolução para calcular a convolução entre as funções da Fig. E2.8.

A

-T 0 T t

-A

Page 50: Princípios de Comunicações

49

Fig. E2.8

2.9 Calcule g1(t)*g2(t), representadas na Fig. E2.9, para t = 6.

Fig. E2.9

2.10 Utilizando a tabela de transformadas, a propriedade 13 – expressão (2.69), e outras propriedades, determine o valor das integrais:

(a) 2

1cos(2 )

1cf t dt

−∞ +∫ ; (b) 1

sinc( ) j BtBt e dtt

π

π

−∞∫

2.11 Para cada um dos três pulsos definidos na Fig. E2.11, (a) determine sua amplitude para que eles tenham a mesma energia; (b) determine a expressão da densidade espectral de energia definida em (2.125).

Fig. E2.11

2.12) Determine a função de transferência, a largura de faixa de 3 dB e a resposta ao impulso e do filtro RC cujo circuito está representado na Fig. E2.12.

-T/2 0 T/2 t

A1

-T/4 T/4 t

- T/2 0 T/2 t

g1(t) g2(t)

g3(t)

A3

A2

g1(t) 2

0 1 2 3 4 5 6 7 8 t

g2(t) 3

0 1 2 3 4 5 t

(2)

0 1 2 t

5

0 1 2 3 t

5

Page 51: Princípios de Comunicações

50

Fig. E2.12

2.13 Um filtro RC tem resposta ao impulso dada por 100( ) 100 ( )th t e u t−= .Determine a saída deste filtro no domínio do tempo quando a entrada é ( ) 2cos(2 50 )x t tπ= × . 2.14 Um pulso retangular de amplitude unitária e duração 0,01 ms passa pelo filtro passa-baixa H(f) representado na Fig. E2.14. Esboce a transformada de Fourier do sinal na saída deste filtro.

Fig. E2.14

2.15 A relação entre a entrada x(t) e a saída y(t) de um sistema linear é dada por y(t) = 2x(t) + x(t-τ) + x(t+τ) Determine a função de transferência deste sistema. 2.16 A função

2( ) sinct

g tT =

é amostrada por impulsos de área unitária em t = kT0, onde T0 = T/2, obtendo-se o sinal x(t). (a) Faça um gráfico de x(t) e de sua transformada de Fourier X(f). (b) Suponha que o sinal x(t) passa pelo filtro H(f) mostrado na Fig. E2.14. Determine a expressão do sinal y(t) na saída do filtro.

Fig. E2.16

C

R

X(f) Y(f)

-1/T0 0 1/T0 f

2/T 2/T H(f)

1

H(f)

- 200 0 200 f (kHz)

1

Page 52: Princípios de Comunicações

51

3. PRINCÍPIOS DA MODULAÇÃO O problema fundamental dos sistemas de transmissão da informação é fazer com que um sinal na sua forma eletromagnética se propague através de um meio físico permitindo que a informação seja adequadamente interpretada em algum ponto distante. O meio físico pode ser um par de fios, um cabo coaxial, uma fibra ótica ou a atmosfera. A propagação direta de um sinal eletromagnético através do meio físico é a forma mais simples de transmissão. Um exemplo disto é a primeira etapa de uma transmissão telefônica convencional. Em uma conversação telefônica, a fala do usuário é convertida em um sinal elétrico que se propaga diretamente no par de fios que liga a residência até a central telefônica. A propagação direta de sinais em um meio físico nem sempre é possível ou conveniente. Em geral, o meio físico pode ser representado por um sistema linear com uma determinada função de transferência. Se esta função de transferência apresentar valores pequenos na faixa de frequências ocupada pelo sinal, isto leva a grande atenuação deste sinal, inviabilizando sua recepção. Consideremos o caso da transmissão através do espaço feita pelas ondas eletromagnéticas. Sabe-se que as propriedades do fenômeno da propagação das ondas eletromagnéticas são afetadas pela frequência da onda e pelo ambiente. Assim, dependendo do caso, pode ser mais conveniente transmitir em uma determinada faixa de frequências do que em outra. Por outro lado, para que diversas mensagens possam ser transmitidas ao mesmo tempo, pode ser necessário usar faixas diferentes para cada mensagem. Pelas razões explicitadas acima, é comum usar nos sistemas de comunicações a técnica da modulação, que tem o objetivo de mudar a forma do sinal de modo a adequá-lo ao meio de transmissão. Em geral, utiliza-se uma senóide de frequência mais elevada do que as componentes de frequência do sinal e faz-se com que a amplitude, a frequência ou a fase desta senóide varie linearmente com o sinal que se deseja transmitir. Neste capítulo serão apresentadas as formas de típicas de implementação deste processamento. Em geral tem-se a seguinte nomenclatura:

• a mensagem a ser transmitida é o sinal modulador • a senóide de frequência mais elevada é chamada de portadora; • sinal resultante do processo de modulação é o sinal modulado ou portadora

modulada. Além das técnicas de geração da portadora modulada a partir da mensagem, ou sinal

modulador, é necessário, obviamente, desenvolver técnicas de recepção, ou seja, de recuperação da mensagem a partir da portadora modulada. Este processamento é denominado demodulação.

3.1 MODULAÇÃO DE AMPLITUDE

A forma básica e mais simples da modulação de amplitude é estabelecida através da seguinte expressão

( ) ( )cos(2 )c cs t A m t f tπ θ= + (3.1)

onde m(t) é o sinal modulador ou mensagem, Accos(2πf0t+θ) é a portadora e s(t) é a portadora modulada. Vemos, portanto, que a portadora modulada em amplitude é uma senóide cuja amplitude deixa de ser constante e acompanha a variação do sinal modulador. Esta amplitude variável é também denominada envoltória do sinal. Aplicando a (3.1) a propriedade da modulação dada por (2.52), obtemos o espectro da portadora modulada:

Page 53: Princípios de Comunicações

52

( ) ( ) ( )2

j jcc c

AS f M f f e M f f eθ θ− = − + + (3.2)

O esquema de geração da portadora modulada em amplitude está representado na Fig. 3.1 acompanhado de ilustrações dos sinais no domínio do tempo e da frequência. No domínio do tempo, observa-se que a multiplicação de m(t) pelo cosseno de amplitude Ac produz um cosseno de amplitude variável, acompanhando a forma de m(t). No domínio da freqüência, a modulação de amplitude faz com o espectro da mensagem se desloque para a faixa em torno da frequência da portadora e, consequentemente, a portadora modulada em amplitude ocupa uma faixa de frequências cuja largura é o dobro da largura de faixa ocupada pela mensagem. Deve-se notar também que, como o espectro da mensagem é simétrico em relação à frequência zero, o espectro do sinal modulado é simétrico em relação à frequência da portadora. As porções deste espectro situadas abaixo e acima da frequência da portadora são denominadas, respectivamente, faixa lateral inferior e faixa lateral superior.

Fig. 3.1 – Modulação de amplitude – (a) esquema do modulador; (b) sinal modulador (mensagem); (c) portadora modulada e sua envoltória; (d) espectro de amplitude da mensagem; (e) espectro de amplitude da portadora modulada.

s(t)

Accos(2πfct+θ)

m(t)

|M(f)|

t

s(t)

-W 0 W f

(c)

(a)

(d)

-fc 0 fc f

|S(f)|

Ac|M(0)|/2

BT = 2W

(e) faixa lateral superior

faixa lateral inferior

t

m(t) (b)

Acm(t)

Page 54: Princípios de Comunicações

53

Demodulação coerente A demodulação é o processo inverso da modulação, destinado a extrair da portadora modulada o sinal modulador que é a mensagem transmitida. A demodulação de uma portadora modulada em amplitude pode ser implementada simplesmente multiplicando a portadora modulada pela portadora sem modulação, gerada no receptor e denominada portadora local. A portadora local deve ter a mesma frequência fc e a mesma fase θ da portadora usada na modulação e, por isso, a demodulação é chamada de coerente. Este demodulador está representado na Fig. 3.2 onde a portadora local tem, em geral, uma fase

θ)

qualquer e Ho(f) representa a função de transferência de um filtro passa-baixa ideal. Para analisar a operação do demodulador coerente, vamos observar a Fig. 3.2 e a equação (3.1) para escrever a expressão do sinal u(t) antes do filtro passa-baixa:

( ) ( )ˆ( ) ( )cos 2 cos 2c c cu t A m t f t f tπ θ π θ= + + (3.3)

Aplicando a identidade trigonométrica, cos a cos b = ½ cos (b-a) + ½ cos (b+a) obtemos

( ) ( )ˆ ˆ( ) ( )cos ( )cos 42 2c c

cA A

u t m t m t f tθ θ π θ θ= − + + + (3.4)

O último termo da equação é eliminado pelo filtro passa-baixa, pois corresponde a um sinal com espectro de frequências em torno de 2fc. Resulta então, na saída do demodulador, o sinal

( )0ˆ( ) ( )cos

2cA

s t m t θ θ= − (3.5)

Obtém-se, portanto, na saída do demodulador, o sinal m(t) multiplicado por uma constante

que é proporcional a ˆcos( )θ θ− . Se θ)

=θ, tem-se o caso ideal, com máxima intensidade do

sinal de saída. Por outro lado, note-se que, se a diferença de fase for igual a π/2, o sinal de saída será nulo e, neste caso, o demodulador não consegue realizar a demodulação. Α implementação do demodulador coerente exige o emprego de circuitos de sincronismo capazes de estimar a frequência e a fase da portadora modulada. Na realidade, o sincronismo de frequência pode ser considerado mais simples, uma vez que, em geral, existe uma boa precisão nas frequências dos osciladores utilizados. A fase, no entanto, flutua bastante ao longo do tempo e o circuito de sincronismo deve ser capaz de acompanhar estas variações

Fig. 3.2 – Demodulação coerente de uma portadora modulada em amplitude

s(t)

ˆcos(2 )cf tπ θ+

H0(f) u(t)

oscilador local

s0(t)

Page 55: Princípios de Comunicações

54

Relações de Potência A potência de um sinal foi definida por (2.123). Aplicando esta definição à portadora modulada dada por (3.1) temos

[ ]2

2

21lim ( )cos(2 )

T

Ts c c

TP A m t f t dt

Tπ θ

→∞ −= +∫ (3.6)

Usando identidade trigonométrica obtemos

[ ] [ ] 2

2

2 21 12 2

1lim ( ) ( ) cos(4 2 )

T

Ts c c c

TP A m t A m t f t dt

Tπ θ

→∞ −= + +∫ (3.7)

Considerando que m(t) é um sinal que varia bem mais lentamente do que a portadora, podemos concluir que o segundo termo do integrando tende a zero quando T→ ∞. A potência do sinal modulado será dada então por

212s c mP A P= (3.8)

onde Pm é a potência da mensagem dada por

2

2

21lim ( )

T

Tm

TP m t dt

T→∞ −= ∫ (3.9)

Este resultado pode ser generalizado da seguinte forma: a potência da portadora modulada é igual à metade da potência da sua envoltória. Geração da portadora modulada através de chaveamento Em princípio, de acordo com a definição em (3.1), para gerar uma portadora modulada em amplitude seria necessário um circuito que multiplicasse, em cada instante, o sinal modulador pelo valor da portadora. Entretanto, será mostrado a seguir que um processamento mais simples de ser implementado é o chaveamento periódico do sinal modulador seguido de um filtro, como ilustrado na Fig. 3.3.

Fig. 3.3 – Geração da portadora modulada através de chaveamento

Filtro Passa-faixa

m(t) x(t) s(t)

Page 56: Princípios de Comunicações

55

O chaveamento do sinal modulador m(t) corresponde a multiplicar este sinal por um trem de pulsos retangulares de duração T e período T0 como ilustrado na Fig. 3.4(a), (b) e (c).

Fig. 3.4 – Chaveamento de um sinal; (a) sinal original; (b) trem de pulsos; (c) sinal chaveado; (d) espectro do trem de pulsos; (e) espectro do sinal chaveado.

-T0 0 T0 2T0 t

T

-T0 0 T0 2T0 t

-1/T0 0 1/T0 2/T0 3/T0 4/T0 f

G(f) = Tsinc(Tf)

1/T -1/T

Gp(f)

-1/T0 0 1/T0 2/T0 3/T0 f

X(f)

t

m(t)

0( )Tg t

x(t)

(a)

(b)

(c)

(d)

(e)

Page 57: Princípios de Comunicações

56

A expressão do sinal chaveado será

0( ) ( ) ( )Tx t m t g t= (3.10)

onde 0( )Tg t é o trem de pulsos retangulares representado na Fig. 3.4(b) e dado por

0

0( ) rectT

k

t kTg t

T

=−∞

− =

∑ (3.11)

Aplicando (2.88) para determinar a transformada de Fourier de

0( )Tg t e a propriedade da

convolução em (3.10), podemos escrever

0

( ) ( ) * n

n

nX f M f c f

=−∞

= −

∑ (3.12)

onde cn é o coeficiente de ordem n da série de Fourier de 0( )Tg t , calculado no Exemplo 2.1 e

dado por (2.13). Desenvolvendo a expressão e usando (2.13), neste caso com A=1, obtemos

0 0 0

( ) sincn

T n nX f T M f

T T T

=−∞

= −

∑ (3.13)

Vemos, portanto, que o espectro de frequências do sinal m(t) chaveado é a repetição do seu espectro M(f) em intervalos iguais à frequência do chaveamento, f0 = 1/T0, de forma semelhante ao que ocorre quando o sinal é amostrado por um trem de impulsos, como analisado no Exemplo 2.11. Note, observando (3.13), que cada repetição do espectro é multiplicada por uma constante igual à transformada da função sinc para certo valor de f. No caso da amostragem por impulsos, como a transformada do impulso é constante para todo f, todas as repetições são multiplicadas pela mesma constante. O chaveamento é a versão realista da amostragem por impulsos em que o impulso é substituído por um pulso retangular causando apenas uma redução dos valores dos espectros repetidos. Isto não impede, porém, que se possa recuperar o sinal m(t) através de uma filtragem, como foi mostrado na discussão do Teorema da Amostragem apresentada na seção 2.7. Na realidade, aqui o interesse não é recuperar o sinal chaveado m(t), mas sim obter uma portadora modulada. Observando a forma de X(f) na Fig. 3.4(e), vemos que, se o sinal x(t) passar pelo filtro passa-faixa mostrado na Fig. 3.5, obtemos, na saída, o espectro da Fig. 3.6.

Fig. 3.5 – Filtro passa-faixa para obtenção de portadora modulada

Fig. 3.6 - Espectro da portadora modulada obtida através de chaveamento

-1/T0 0 1/(2T0) 1/T0 3/(2T0 ) f

H(f) 1

-1/T0 0 1/T0 f

S(f) 0 0 0

1sinc

T TM f

T T T

Page 58: Princípios de Comunicações

57

Aplicando a transformada inversa ao espectro da Fig. 3.6, chegamos a

0 0 0

2 1( ) sinc ( )cos 2

T Ts t m t t

T T Tπ

=

(3.14)

que corresponde a uma portadora de frequência 1/T0 e amplitude (2T/T0)sinc(T/T0) modulada pelo sinal m(t). Esquemas típicos A modulação de amplitude, cujo princípio foi apresentado acima, pode apresentar variações em seu processamento cuja finalidade é atender a objetivos de ordem prática na transmissão e na recepção dos sinais. Existem três formas principais de modulação de amplitude designadas pelas siglas AM, AM-DSB-SC e AM-SSB-SC. A sigla AM pura corresponde ao sistema de modulação mais antigo e ainda usado para radio difusão. Neste sistema, além da portadora modulada, é transmitida uma portadora sem modulação, cuja finalidade é facilitar o processo de demodulação. Isto explica a sigla SC (Suppressed Carrier) utilizada nos demais sistemas para enfatizar a não transmissão da portadora adicional. As siglas DSB (Double Side Band) e SSB (Single Side Band) correspondem à largura de faixa ocupada pela portadora modulada. Como se verá a seguir, no sistema SSB, esta largura de faixa se reduz à metade daquela resultante da forma mais simples de modulação de amplitude descrita nesta introdução.

3.1.1 Modulação AM-DSB-SC A modulação AM-DSB-SC é a implementação do princípio da modulação de amplitude apresentado na seção anterior. Utiliza a demodulação coerente, implementada

através do esquema da Fig. 3.2 onde, idealmente, deve-se ter ˆθ θ= . Embora conceitualmente simples, o esquema tem implementação relativamente complexa, devido à necessidade de um circuito capaz de sincronizar a fase da portadora local com a fase da portadora usada na modulação. As principais características da modulação AM-DSB-SC estão mostradas no Quadro 3.1

Quadro 3.1 – Características da modulação AM-DSB-SC

Modulação AM-DSB-SC Sinal transmitido

( ) ( )cos(2 )c cs t A m t f tπ θ= + 21

2s c mP A P=

Sinal demodulado

10 2( ) ( )cs t A m t=

0

21

4s c mP A P=

Largura de Faixa 2TB W=

Page 59: Princípios de Comunicações

58

3.1.2 Modulação AM Esta é a modulação usada tradicionalmente em radio difusão AM. O sinal transmitido é dado por(!)

[ ] )2cos()(1)2cos()2cos()()( tftmkAtfAtftmkAts caccccac πππ +=+= (3.15)

Observa-se portanto que, além de uma portadora com amplitude modulada pelo sinal kam(t), transmite-se também uma portadora não modulada. Agrupando-se as duas portadoras, verificamos que o sinal resultante equivale à modulação de uma portadora de amplitude Ac pelo sinal e(t) = 1+ka m(t). O uso da modulação AM com portadora permite simplificar o receptor, que pode ser um detetor de envoltória. O detetor de envoltória é um dispositivo simples, capaz de fornecer em sua saída o módulo da envoltória de uma portadora modulada. A forma básica do circuito de um detetor de envoltória é constituída por um diodo um resistor e um capacitor conectados como na Fig. 3.7.

Fig. 3.7- Detetor de envoltória

Para explicar a operação do detetor de envoltória, note que, se a tensão de entrada do circuito da Fig. 3.7 for maior do que a tensão no capacitor (tensão de saída), o diodo conduzirá e, neste caso, a tensão no capacitor passa a ser igual à tensão de entrada. Considerando inicialmente que a tensão no capacitor é zero e que a portadora modulada s(t) está iniciando um ciclo positivo, a tensão de saída v(t) acompanha a portadora modulada, como ilustrado na Fig. 3.8. Quando a portadora modulada começa a cair, depois de atingir o seu valor máximo, a tensão no capacitor tende a se manter, ficando maior do que a tensão de entrada. Neste ponto o diodo deixa de conduzir e a tensão de saída passa a ser a tensão do capacitor que vai se descarregando no circuito RC, isolado da entrada. A descarga do capacitor se interrompe quando a portadora modulada, em um novo ciclo positivo, apresenta um valor de tensão igual à tensão no capacitor. A partir deste ponto volta-se à primeira fase do processo, em que a saída acompanha a entrada, até um novo pico da portadora modulada, nova abertura do diodo, descarga do capacitor etc. Como se observa na Fig. 3.8, a saída do detetor de envoltória vai acompanhando a envoltória do sinal de entrada, de forma aproximada. A aproximação apresenta uma flutuação indesejada (ripple) que pode ser reduzida posteriormente através de uma filtragem adequada.

(!) Para simplificar o desenvolvimento fazemos a fase da portadora igual a zero, o que não altera as conclusões obtidas.

C R e(t)cos(2πfct) v(t)≈ |e(t)|

Page 60: Princípios de Comunicações

59

Fig. 3.8 – Acompanhamento da envoltória do sinal pelo detetor de envoltória

Uma condição necessária para o funcionamento do detetor de envoltória como demodulador de uma portadora modulada em amplitude é que o sinal modulador seja sempre positivo. Suponha o contrário, como ilustrado na Fig. 3.9 (a). Observando a portadora modulada, representada na Fig. 3.9 (b) e de acordo com o que foi explicado no parágrafo anterior, verifica-se que a saída do detetor de envoltória, neste caso, será o sinal da Fig. 3.9 (c) que é diferente do sinal modulador. Na realidade, o detetor de envoltória fornece sempre o módulo da envoltória o que será igual à própria envoltória desde que esta seja sempre positiva.

Fig. 3.9 – Deteção de envoltória no caso de um sinal modulador com valores positivos e negativos; (a) sinal modulador; (b) portadora modulada; (c) saída do detetor de envoltória A finalidade da portadora adicional em (3.15) é garantir uma envoltória sempre positiva para utilização do detetor de envoltória, isto é

e(t) =Ac[1+ka m(t)] ≥ 0 (3.16)

Neste caso, a envoltória fornecida pelo detetor de envoltória corresponde ao sinal desejado, proporcional a m(t), somado a uma constante (valor DC). Esta constante pode ser eliminada através de um circuito adequado, obtendo-se assim, para o sinal demodulado, a expressão

0( ) ( )c as t A k m t= (3.17)

m(t) (a)

t

(b)

t

|m(t)|

(c)

t

e(t)

e(t)cos(2πfct) t

v(t)

Page 61: Princípios de Comunicações

60

Sinal modulador senoidal No caso de um sinal modulador senoidal, dado por

( ) cos(2 )m mm t A f tπ= (3.18) define-se índice de modulação do sinal AM como

µ = ka Am (3.19) Substituindo (3.18) e (3.19) em (3.15) obtém-se a seguinte expressão para um sinal AM com sinal modulador senoidal

[ ]( ) 1 cos(2 ) cos(2 )c m cs t A f t f tµ π π= + (3.20)

Analisando (3.20), verificamos que a condição (3.16) equivale, neste caso, a µ ≤ 1. Na Fig. 3.10 mostram-se dois sinais AM gerados com amplitude Ac = 1 e com índice de modulação igual a 1 (Fig 3.10-b) e índice de modulação igual a 0,7 (Fig. 3.10-c).

Fig. 3.10 – Modulação AM; (a) mensagem ou sinal modulador; (b) sinal AM com índice de modulação igual a 1; (c) sinal AM com índice de modulação igual a 0,7.

t

(c)

1,7

0,3

t (a)

-Am

m(t)= A mcos(2πfmt)

Am

2

1+µcos(2πfmt)

(b) t

-2

1+µcos(2πfmt)

Page 62: Princípios de Comunicações

61

Espectro de um sinal AM Aplicando-se a transformada de Fourier a (3.15) obtém-se

[ ] [ ])()(2

)()(2

)( ccac

ccc ffMffM

kAffff

AfS ++−+++−= δδ (3.21)

Os espectros de amplitude do sinal modulador e do sinal modulado estão representados na Fig. 3.11, para um sinal modulador qualquer e para um sinal modulador senoidal. Neste último caso, os espectros correspondem às transformadas de Fourier de (3.18) e (3.20).

Fig. 3.11 -Espectro do sinal AM – (a) sinal modulador qualquer; (b) sinal modulador senoidal Observamos que o espectro de amplitude do sinal AM é sempre simétrico em relação à frequência da portadora e a largura de faixa de transmissão, isto é, a largura de faixa ocupada pelo sinal modulado, é o dobro da largura de faixa do sinal modulador. Relações de Potência no sinal AM Sabemos que em condições típicas a potência de uma portadora modulada é igual à metade da potência da envoltória. Para o sinal AM dado por (3.15) a envoltória é dada por

-W 0 W f

|M(f)|

BT = 2W

-fc 0 fc f

(Ac/2) |S(f)|

-fc 0 fc f

(a)

M(f)

S(f)

(Am/2) (Am/2)

-fm 0 fm f

(Acµ/4)

(Ac/2)

BT = 2fm

(Acµ/4)

(b)

Page 63: Princípios de Comunicações

62

(3.16). Supondo que o sinal m(t) tem valor médio nulo, pode-se mostrar que a potência desta

envoltória é dada por 2 2 2c c a mA A k P+ e, assim, a potência do sinal AM será

2 2 2

2 2c c a m

sA A k P

P = + (3.22)

onde o primeiro termo corresponde à potência da portadora não modulada, que não contém informação, e o segundo à potência da portadora modulada pela mensagem. Devido à forma do espectro, esta potência é usualmente denominada, potência das bandas laterais.

Um parâmetro de interesse em uma transmissão AM é razão entre a potência das bandas laterais e a potência total que pode ser expressa genericamente como

2

21a m

a m

k P

k Pη =

+ (3.23)

No caso de um sinal modulador senoidal dado por (3.18) temos

2

2m

mA

P = (3.24)

Lembrando que o kaAm foi definido em (3.19) como o índice de modulação µ e substituindo em (3.23) obtemos

2

22

µηµ

=+

(3.25)

Como µ ≤ 1, o valor máximo de η será obtido para µ =1 e será igual a 1/3. Comparando o sistema de modulação AM com o sistema AM-DSB-SC, observa-se que o primeiro apresenta uma eficiência menor, no que se refere à potência, pois, parte da potência transmitida não é usada na transmissão da mensagem e sim na transmissão de uma portadora extra, sem modulação. Por outro lado, isto é compensado com a simplificação do receptor. Dimensionamento de um detetor de envoltória Como explicado anteriormente, quando o sinal de entrada do detetor de envoltória da Fig. 3.7 cai abaixo da tensão no capacitor, o diodo abre e o capacitor descarrega através do resistor. Considerando um resistor de resistência R e um capacitor de capacitância C, a tensão no capacitor decairá de acordo com a expressão

0

0( )t t

RCv t v e−−

= (3.26) onde v0 = v(t0) é o valor máximo correspondente ao pico da portadora. O capacitor deve descarregar lentamente de forma que v(t) acompanhe aproximadamente a envoltória, ou seja, durante um intervalo igual ao ciclo da portadora (t-t0=1/fc), a descarga deve ser muito pequena. Isto equivale à seguinte condição:

11

1cf

c

RCRC f

<< ⇒ >> (3.27)

Page 64: Princípios de Comunicações

63

Porém, se RC é muito grande, a tensão v(t) pode não acompanhar variações rápidas da envoltória descendente, como acontece na parte central da Fig. 3.12. Uma condição para evitar esta situação é que a largura de faixa do sinal v(t) seja bem maior do que W, a frequência máxima do sinal modulador. Como a largura de faixa de 3 dB do sinal v(t) é igual a 1/(2πRC) temos então.

1

2W

RCπ>> (3.28)

1

2RC

Wπ<< (3.29)

Juntando (3.28) e (3.29) chegamos à seguinte condição para dimensionamento do circuito detetor de envoltória

1 1

2c

RCf Wπ

<< << (3.30)

Fig. 3.12 – Ilustração para dimensionamento do detetor de envoltória

As principais características do sistema AM estão resumidas no Quadro 3.2

Quadro 3.2 – Principais características da modulação AM

MODULAÇÃO AM Sinal transmitido

[ ]( ) ( )cos(2 ) cos(2 ) 1 ( ) cos(2 )c a c c c c a cs t A k m t f t A f t A k m t f tπ π π= + = + 2 2 2

2 2c c a m

sA A k P

P = +

Sinal demodulado

0( ) ( )c as t A k m t= 0

2 2s c a mP A k P=

Largura de Faixa 2TB W=

t

0

0( )t t

RCv t v e−

−=

1/fc

Page 65: Princípios de Comunicações

64

3.1.3 Modulação AM-SSB A sigla AM-SSB corresponde a Amplitude Modulation-Single Sideband. Isto é, Modulação AM com Banda Lateral Única. Enquanto na modulação AM-DSB a largura de faixa do sinal modulado é duas vezes a largura de faixa da mensagem (BT = 2W), na modulação AM-SSB, a largura de faixa do sinal modulado é igual à largura de faixa da mensagem (BT = W). Esta redução da faixa à metade é possível por causa da simetria existente no espectro do sinal modulador, o que se aplica a qualquer sinal real. Como indicado na Fig. 3.11, o espectro do sinal modulado em amplitude tem duas partes, denominadas bandas laterais superior e inferior. Pela simetria existente, basta conhecer uma das bandas laterais para determinar o espectro do sinal. Assim, na modulação SSB é transmitida apenas uma das bandas laterais. O esquema mais simples de geração do sinal AM-SSB está mostrado na Fig. 3.13(!) onde o filtro passa-faixa tem a finalidade de eliminar uma das faixas laterais da portadora modulada em amplitude. Neste caso, o filtro seleciona a banda lateral superior.

Fig. 3.13 – Geração do sinal SSB através de filtragem de uma portadora modulada em amplitude (a) modulador; (b) função de transferência do filtro Sinal SSB no domínio da frequência Considerando )()( fMtm ↔ temos, de acordo com a Fig. 3.13

[ ]( ) ( ) ( ) ( )2c

c cA

S f M f f M f f H f= − + + (3.31)

Para obter uma expressão analítica do espectro do sinal AM-SSB, é conveniente definir

( ) 0( ) ( ) ( )

0 0

M f fM f M f u f

f+≥

= = < (3.32)

( ) 0( ) ( ) ( )

0 0

M f fM f M f u f

f−≤

= − = > (3.33)

(!) Para facilitar o desenvolvimento, sem alterar as principais conclusões, a fase da portadora é considerada nula

s(t)

Ac cos(2πfct )

H(f) x(t) m(t)

-fc -W -fc 0 fc fc+W f

H(f) 1

(a)

(b)

Page 66: Princípios de Comunicações

65

De acordo com as definições, podemos escrever

( ) ( ) ( )M f M f M f+ −= + (3.34)

Substituindo (3.34) em (3.31) obtemos

[ ]( ) ( ) ( ) ( ) ( ) ( )2c

c c c cA

S f M f f M f f M f f M f f H f+ − + −= − + − + + + + (3.35)

Como observamos na Fig. 3.13, o filtro passa-faixa H(f) deixa passar apenas a faixa lateral superior, resultando assim,

[ ]( ) ( ) ( )2c

c cA

S f M f f M f f+ −= − + + (3.36)

Um filtro semelhante pode ser usado para fornecer um sinal SSB com faixa lateral inferior com espectro dado por

[ ]( ) ( ) ( )2c

c cA

S f M f f M f f−= − + + + (3.37)

A análise desenvolvida acima está ilustrada na Fig. 3.14.

Fig. 3.14 – Obtenção do espectro de um sinal SSB através de filtragem de uma portadora modulada em amplitude - (a) decomposição do espectro da mensagem nos espectros M+ e

M-; (b) portadora modulada com faixas laterais superior e inferior; (c) espectro do sinal SSB com faixa lateral superior.

-fc 0 fc f

-fc 0 fc f

X(f)

2W

(1/2)M+(f-fc) (1/2)M-(f-fc) (1/2)M-(f+fc) (1/2)M+ (f+fc)

(b)

-W 0 W f

M(f)

M+ (f) M- (f)

(a)

S(f)

W

(c)

Page 67: Princípios de Comunicações

66

O esquema de geração do sinal SSB analisado acima é um esquema de discriminação de frequência (filtragem). Um método alternativo é o método de discriminação de fase explicado mais a frente. Antes é necessário definir a transformada de Hilbert de um sinal. Transformada de Hilbert A transformada de Hilbert de um sinal g(t) é definida como

1 ( )ˆ ( )

gg t d

t

τ τπ τ

−∞=

−∫ (3.38)

Usando a definição de convolução, pode-se expressar a transformada de Hilbert como

1ˆ( ) ( )g t g t

tπ= ∗ (3.39)

Para prosseguir, vamos usar (2.86), que expressa a transformada de Fourier da função sgn(t). Usando a propriedade 5 (dualidade) concluímos que

1sgn( ) sgn( )j f j f

tπ↔ − = − (3.40)

Com este resultado, podemos expressar a transformada de Hilbert no domínio da frequência como

ˆ ( ) sgn( ) ( )G f j f G f= − (3.41) ou, equivalentemente,

( ) 0ˆ ( ) 0 0

( ) 0

jG f f

G f f

jG f f

− >= = <

(3.42)

Notando que -j = e-jπ/2, podemos então observar que a transformada de Hilbert é uma operação que adiciona uma fase de -π/2 nas componentes de frequência do sinal (para manter a simetria deve-se adicionar uma fase π/2 para as frequências negativas). Com base nos resultados acima, podemos chegar à seguinte expressão para um sinal SSB:

ˆ( ) ( )cos(2 ) ( ) (2 )2 2c c

c cA A

s t m t f t m t sen f tπ π= ± (3.43)

Para isso, basta mostrar que a transformada de Fourier de (3.43) é igual ao espectro do sinal SSB dado por (3.36) ou (3.37). Observando (3.32), (3.33) e (3.34) e aplicando (3.42) podemos escrever

ˆ ( ) ( ) ( )M f jM f jM f+ −= − + (3.44) Usando (2.50) e (2.51), obtemos

Page 68: Princípios de Comunicações

67

[ ]

[ ]

( ) ( ) ( ) ( ) ( )4

( ) ( ) ( ) ( )4

cc c c c

cc c c c

AS f M f f M f f M f f M f f

AjM f f jM f f jM f f jM f f

j

+ − + −

+ − + −

= − + − + + + +

± − − + − + + − + (3.46)

Tomando, respectivamente, os sinais – e + no início da segunda linha da expressão em (3.46), chegamos às expressões (3.36) e (3.37). Demodulação coerente de sinais AM-SSB Mostra-se a seguir, através de análise no domínio da frequência, que a demodulação coerente utilizada para os sistemas AM-DSB e representada na Fig. 3.2, pode ser usado também para o sistema SSB. Para simplificar a análise, consideremos o receptor da Fig. 3.2 com fase igual a zero para a portadora modulada e para a portadora local, conforme representado na Fig. 3.15. Podemos então escrever

[ ]1( ) ( ) ( )

2 c cY f S f f S f f= − + + (3.47)

Fig. 3.15 – Receptor coerente com fase das portadoras igual a zero

Substituindo (3.36) em (3.47) temos

[ ]( ) ( 2 ) ( ) ( ) ( 2 )4c

c cA

Y f M f f M f M f M f f+ − + −= − + + + + (3.48)

Fazendo o mesmo com (3.37),

[ ]( ) ( 2 ) ( ) ( ) ( 2 )4c

c cA

Y f M f f M f M f M f f− + − += − + + + + (3.49)

Estas funções estão ilustradas na Fig. 3.16. Nos dois casos o filtro passa-baixa H0(f) elimina os termos em torno de ± 2fc, deixando passar um sinal proporcional a m(t), ou seja,

0

0

( ) ( )4

( ) ( )4

c

c

AS f M f

As t m t

=

= (3.50)

s0(t)

cos(2 )cf tπ

s(t) H0(f)

y(t)

Page 69: Princípios de Comunicações

68

Fig. 3.16 - Demodulação de sinais SSB – (a) faixa lateral superior; (b) faixa lateral inferior. O resultado acima também pode ser obtido no domínio do tempo. Para isto basta desenvolver o produto de (3.43) por cos(2πfct), de acordo com a Fig. 3.15, e aplicar identidades trigonométricas básicas. Relações de Potência Pode-se mostrar que a potência da portadora modulada no sistema SSB é igual à soma das potências de cada uma das parcelas em (3.43). Usando a propriedade expressa através de (3.8) e (3.9), isto é, “a potência da portadora modulada é igual à metade da potência da sua envoltória” podemos escrever

( ) ( )2 21 1

ˆ2 2 2 2c cA A

s m mP P P= + (3.51)

Notando que, pela definição da transformada de Hilbert, que ˆm mP P= , chegamos a

214s c mP A P= (3.52)

O Quadro 3.3 resume as principais características da modulação AM-SSB

Y(f)

H0(f)

-2fc 0 2 fc f

Y(f) H0(f)

(a)

(b)

-2fc 0 2fc f

Page 70: Princípios de Comunicações

69

Quadro 3.3 - Principais características da modulação AM-SSB

3.1.4 Modulação AM-VSB Um sistema intermediário entre o sistema AM-DSB e o sistema AM-SSB é denominado sistema VSB (Vestigial Side Band). Analogamente ao SSB, esse sistema também pode ser gerado através da filtragem de um sistema AM-DSB, de acordo com o esquema da Fig. 3.13 (a) e demodulado pelo mesmo demodulador coerente da Fig. 3.15. Porém, o filtro passa-faixa H(f), em vez de eliminar completamente uma das bandas laterais do sinal modulado, elimina apenas parte dela. Uma forma possível para a função de transferência desse filtro está representada na Fig. 3.17.

Fig. 3.17 – Função de transferência de um filtro passa-faixa para o sistema VSB

Mostra-se a seguir que, para não introduzir distorção irrecuperável no sinal e permitir sua demodulação coerente, a função de transferência H(f) deve satisfazer a seguinte condição:

( ) ( ) ;c cH f f H f f K W f W− + + = − ≤ ≤ (3.53) onde K é uma constante. Para isso, vamos usar para o sinal VSB, a expressão (3.31), correspondente à Fig. 3.13(a) e substituí-la em (3.47) para analisar o processo de demodulação através do demodulador coerente da Fig. 3.15. Obtemos então

[ ] 1( ) ( ) ( ) ( ) ( 2 ) ( ) ( 2 ) ( )

4 c c c c c cY f M f H f f H f f M f f H f f M f f H f f= − + + + − − + + + (3.54)

O filtro H0(f) da Fig. 3.15 elimina os dois últimos termos do lado direito de (3.54), resultando

MODULAÇÃO AM-SSB

Sinal transmitido

ˆ( ) ( )cos(2 ) ( ) (2 )2 2c c

c c

A As t m t f t m t sen f tπ π= ±

214s c mP A P=

Sinal demodulado 1

0 4( ) ( )cs t A m t= 0

2116s c mP A P=

Largura de Faixa

TB W=

-fc-W -fc 0 fc fc+W f

H(f)

Page 71: Princípios de Comunicações

70

[ ] 01

( ) ( ) ( ) ( )4 c cS f M f H f f H f f= − + + (3.55)

Obviamente, a condição (3.53) deve ser satisfeita para que o sinal demodulado s0(t) reproduza a mensagem m(t) sem distorção. Note-se que o filtro passa-faixa da Fig. 3.13(b), correspondente ao sinal SSB, e o filtro da Fig. 3.17, correspondente ao sinal VSB, satisfazem a essa condição, como ilustra a Fig. 3.18.

Fig. 3.18 - Filtros que satisfazem a (3.53)

3.1.5 Modulação de amplitude em quadratura Uma forma muito importante de modulação de amplitude, muito utilizada na transmissão digital, como se verá mais a frente, é a modulação de amplitude em quadratura, conhecida pela sigla QAM (Quadrature Amplitude Modulation). Esta técnica é particularmente interessante por permitir usar um mesmo canal para transmitir duas mensagens ao mesmo tempo. Chamando de m1(t) e m2(t) duas mensagens a serem transmitidas, o sinal QAM é definido como

1 2( ) ( )cos(2 ) ( ) (2 )c cs t m t f t m t sen f tπ θ π θ= + ± + (3.56)

Ou seja, o sinal transmitido consiste de duas portadoras moduladas em amplitude. Estas duas portadoras, seno e cosseno, apresentam uma diferença de fase de 90 o, o que se define como quadratura de fase. Pode-se verificar que o receptor da Fig. 3.19, onde H0(f) é a função de transferência de um filtro passa-baixa ideal, permite demodular os dois sinais moduladores, m1(t) e m2(t),

sem interferência mútua, desde que esteja sincronizado, isto é, com a fase θ dos osciladores locais igual à fase θ do sinal modulado. Para isso, basta estender o desenvolvimento feito no início deste capítulo para o demodulador coerente. Neste caso, optando pelo sinal negativo antes de m2 em (3.56) e analisando o demodulador da Fig. 3.19, temos as seguintes expressões

( ) ( ) ( )1 2ˆ( ) ( )cos 2 ( )sen 2 cos 2c c cu t m t f t m t f t f tπ θ π θ π θ = + − + + (3.57)

( ) ( ) ( )1 2ˆ( ) ( )cos 2 ( )sen 2 sen 2c c cv t m t f t m t f t f tπ θ π θ π θ = − + + + + (3.58)

Desenvolvendo estas expressões e aplicando as identidades trigonométricas,

-W 0 W f

-W 0 W f

H(f-fc) H(f+fc)

H(f-fc) H(f+fc)

Page 72: Princípios de Comunicações

71

cos a cos b = ½ cos (a-b) + ½ cos (a+b) sen a sen b = ½ cos (a-b) - ½ cos (a+b) sen a cos b = ½ sen (a-b) + ½ cos (a+b)

obtemos

( )( )

1 11 12 2

1 12 22 2

ˆ ˆ( ) ( )cos( ) ( )cos 4

ˆ ˆ( )sen( ) ( )sen 4

c

c

u t m t m t f t

m t m t f t

θ θ π θ θ

θ θ π θ θ

= − + + +

− − + + + (3.59)

( )( )

1 11 12 2

1 12 22 2

ˆ ˆ( ) ( )sen( ) ( )sen 4

ˆ ˆ( )cos( ) ( )cos 4

c

c

v t m t m t f t

m t m t f t

θ θ π θ θ

θ θ π θ θ

= − + + +

+ − − + + (3.60)

Considerando que os filtros passa-baixa eliminam os sinais de alta frequência, obtemos

1 11 1 22 2

ˆ ˆ( ) ( )cos( ) ( )sen( )r t m t m tθ θ θ θ= − − − (3.61) 1 1

2 2 12 2ˆ ˆ( ) ( )cos( ) ( )sen( )r t m t m tθ θ θ θ= − + − (3.62)

Se o sincronismo não for perfeito, isto é, ˆ 0θ θ− ≠ , cada sinal demodulado conterá uma

parcela interferente proveniente da outra mensagem. Obviamente, se ˆθ θ= , 11 12( ) ( )r t m t= e

12 22( ) ( )r t m t= .

Fig. 3.19 Demodulador QAM

3.1.6 Translação de frequência A translação de frequência é uma operação bastante utilizada nos processamentos de transmissão e recepção de sinais e consiste no deslocamento do espectro de um sinal de uma faixa de frequências para outra, de acordo com a conveniência. Um exemplo típico é a conversão de frequência nos receptores de sistemas de transmissão através do espaço, denominados Sistemas RF (Radio Frequência). Esta operação consiste em trazer o espectro da portadora modulada para uma faixa mais baixa do espectro de frequências, denominada faixa de frequência intermediária, ou FI, com o objetivo de facilitar a implementação do circuito do demodulador e permitir que um mesmo demodulador seja usado para portadoras com diferentes frequências. O esquema está mostrado na Fig. 3.20. Como se observa nesta figura, o sinal de entrada é multiplicado por uma portadora local de frequência f0 e, em seguida, é filtrado por um filtro passa-faixa situado na faixa de FI. O espectro da portadora modulada e a

s(t)

ˆcos(2 )cf tπ θ+

ˆ(2 )csen f tπ θ− +

v(t)

u(t) H0(f)

H0(f)

1( )r t

2( )r t

Page 73: Princípios de Comunicações

72

função de transferência do filtro de FI estão também representados na Fig. 3.20. Note que a largura de faixa do filtro de FI é a mesma da portadora modulada, BT.

Fig. 3.20 – Esquema da conversão de frequências nos receptores de RF; (a) diagrama de blocos; (b) espectro da portadora modulada; (c) função de transferência do filtro de FI.

A operação de conversão de frequência está ilustrada na Fig. 3.21. De acordo com o teorema da modulação, a multiplicação do sinal s(t) pela senóide de frequência f0 desloca seu espectro de um valor f0. Escolhendo adequadamente o valor de f0, pode-se levar o espectro do sinal para a região do filtro de FI. Como mostram as Figs.3.21 (a) e (b), existem duas possibilidades, respectivamente,

0 c If f f= − (3.63)

0 c If f f= + (3.64) Em geral, é implementada a primeira opção, conhecida como recepção superheterodina.

Fig.3.21 – Ilustração da conversão de frequência

-fc -fI 0 fI fc f

f0

-fc -fI 0 fI fc f

(a)

(b)

f0

Filtro de entrada

Filtro de FI

Demodulador

cos(2πf0t)

s(t)

-fc 0 fc f

S(f)

BT

-fI 0 fI f

HFI(f)

BT

(a)

(b)

(c)

Page 74: Princípios de Comunicações

73

Sintonia e frequência imagem Em geral, um receptor é usado para receber portadoras com diferentes valores de frequência dentro de uma determinada faixa. Este é, por exemplo, o caso dos receptores AM e FM de rádio difusão onde se tem a padronização mostrada na Tabela 3.1. Ajustando-se adequadamente o valor de f0, pode-se selecionar a portadora a ser sintonizada, ou seja, aquela que, após a conversão de frequência, terá seu espectro coincidente com a faixa do filtro de FI. Por exemplo, a frequência f0 = 90 MHz sintoniza uma emissora de FM na frequência de 100,7 MHz e a frequência f0 = 80 MHz sintoniza uma emissora de FM na frequência de 90,7 MHz.

TABELA 3.1 Parâmetros de frequência das Emissoras de Radio AM e FM

Rádio AM Rádio FM Faixa 540 a 1610 kHz 88,1 a 107,9 MHz

Frequência de FI 455 kHz 10,7 MHz Espaçamento 10 kHz 200 kHz

A existência de 2 possibilidades de sintonia, de acordo com (3.63) e (3.64) faz com que, ao sintonizarmos uma portadora, outra portadora indesejada seja também sintonizada. Ou seja, se uma portadora de frequência fc é sintonizada com a frequência do oscilador local f0 dada por (3.63), essa mesma frequência sintoniza uma frequência fc´ cujo valor é dado por (3.64). Igualando (3.63) e (3.64), onde fc é substituido por fc´, chegamos a

2c c If f f′ = − (3.65) Esta relação está ilustrada na Fig.3.22. Analogamente, verifica-se que se f0 for dado por (3.64), a frequência imagem fc´ será

2c c If f f′ = − (3.66) Pode-se verificar que no sistema de Radio difusão FM, com o valor da frequência de FI = 10,7 MHz, não há possibilidade de haver frequência imagem, pois ela estaria fora da faixa de sintonia. Ou seja, aplicando (3.65) para os extremos da faixa de 88,1 a 107,9 MHz, obtemos valores de frequência imagem entre 66,7 e 86,5 MHz. Como estes valores estão fora da faixa de sintonia, não passam pelo filtro de entrada que deixa passar apenas a faixa de 88,1 a 107,9 MHz. Já no sistema AM, é possível ocorrer frequência imagem. Tomando a frequência máxima da faixa, 1610 kHz, obtemos uma frequência imagem de 700 kHz que está dentro da faixa de entrada.

Fig. 3.22 – Ilustração da frequência imagem

-fc -fc´ -fI 0 fI fc

´ fc f f0

f0

Page 75: Princípios de Comunicações

74

3.2 MODULAÇÃO DE FREQUÊNCIA Historicamente, a modulação de frequência surgiu após a modulação de amplitude e trouxe como grande vantagem a possibilidade de melhorar a qualidade da transmissão em presença de ruído. Seguindo o princípio geral da modulação, utiliza-se uma portadora senoidal para transmitir uma mensagem. Neste caso, a frequência da portadora é que varia linearmente com a mensagem ou sinal modulador enquanto a amplitude fica constante.

3.2.1 Definições básicas Para analisar a modulação de frequência, vamos inicialmente definir, de forma mais geral, os parâmetros de uma portadora. Sabemos que uma portadora não modulada é uma senóide definida como

0( ) cos(2 )c cx t A f tπ θ= + (3.67) onde Ac e fc são constantes correspondentes à amplitude e à frequência da senóide e θ0 é a fase no instante t = 0 (usualmente chamada apenas de fase). Neste caso, a fase em um instante t qualquer, ou seja, a fase instantânea, é dada por 0( ) 2 ct f tθ π θ= + . Esta fase varia linearmente

com o tempo, com velocidade angular constante dada por ωc = 2πfc (rad/s). Note que fc=ωc/2π é a velocidade angular expressa em Hz. No caso geral de uma portadora modulada, temos

[ ]( ) ( )cos ( )cx t A t tθ= (3.68)

onde Ac(t) e θ(t) representam as variações da amplitude e da fase com o tempo. Neste caso, a velocidade angular também pode variar com o tempo e deve ser calculada em cada instante através da derivada da fase, isto é

( ) ( )id

t tdt

ω θ= rad/s (3.69)

Esta velocidade, expressa em Hz, é a frequência instantânea

( ) 1( ) ( )

2 2it d

f t tdt

ω θπ π

= = Hz (3.70)

Note que, invertendo (3.70) podemos escrever

0( ) 2 ( )it f t dtθ π θ= +∫ (3.71)

onde θ0 é uma fase constante qualquer. Exemplo 3.1 Neste exemplo, consideramos uma portadora modulada [ ]( ) cos ( )cs t A tθ= onde

θ(t) é o sinal representado na Fig. 3.23(a). Aplicando (3.70), e notando que a escala de tempo é em ms, obtemos o gráfico da variação da frequência instantânea da portadora com o tempo, mostrado na Fig. 3.23(b).

Page 76: Princípios de Comunicações

75

Fig. 3.23 – Ilustração para o Exemplo 3.1 - variação de fase e de frequência com o tempo 3.2.2 Modulação FM Uma portadora modulada em frequência, ou simplesmente um sinal FM, é uma portadora com amplitude constante e com frequência instantânea variando linearmente com o sinal de informação m(t) em torno de um frequência central fc. Ou seja,

fi(t) = fc +kf m(t) (3.72) O termo kf m(t) é denominado desvio instantâneo de frequência. Considerando que o sinal m(t) é expresso em Volt e tanto fi como fc em Hz, a constante kf tem unidade Hz/Volt. Ou seja, kf é numericamente igual ao desvio de frequência observado quando m(t) = 1 Volt. A constante kf é denominada constante de sensibilidade de frequência do modulador e tem importância fundamental na construção do sinal FM, pois modificando seu valor, é possível gerar sinais FM com diferentes ocupações espectrais. Pela sua definição acima, vemos que, quanto maior o valor de kf, maior será o desvio de frequência provocado pelo sinal modulador e, consequentemente, maior a ocupação espectral. Aplicando (3.71) temos

0( ) 2 2 ( )c ft f t k m t dtθ π π θ= + +∫ (3.73)

Assim,podemos escrever a seguinte expressão geral para um sinal FM:

0( ) 2 2 ( )c c fs t A cos f t k tπ π φ θ = + + (3.74)

onde

( ) ( )t m t dtφ = ∫ (3.75)

O termo 2π kfφ (t) é denominado desvio instantâneo de fase.

-2π

0 1 2 3 4 5 t (ms)

θ(t)

(a)

103

0 1 2 3 4 5 t (ms)

fi(t)

-103

(b)

Page 77: Princípios de Comunicações

76

O sinal FM está representado na Fig. 3.24, junto com o sinal modulador, m(t). Observa-se que a amplitude da portadora é constante e a sua frequência acompanha a variação de m(t), aumentando até certo ponto e depois decrescendo.

Fig. 3.24 – Sinal modulador e portadora FM no domínio do tempo

Desvio máximo de frequência e de fase O desvio máximo de frequência é um parâmetro importante na modulação FM e pode ser definido pela expressão

∆f = kf max|m(t)| (3.76)

Analogamente, o desvio máximo de fase pode ser definido por

2 max ( ) fk tθ π φ∆ = (3.77)

Potência O cálculo da potência do sinal FM é feito, em princípio, pela substituição de (3.74) em (2.127). Usando o argumento heurístico de que a potência é basicamente definida pela amplitude da portadora, e não pela fase, chegamos a

2

2c

sA

P = (3.78)

Sinal FM no domínio da frequência Uma interpretação interessante do sinal FM no domínio da frequência pode ser obtida se substituirmos o sinal modulador m(t) por sua versão amostrada por pulsos retangulares, como ilustrado na Fig. 3.25(a). Nesse caso, se a i-ésima amostra for igual a mi, o sinal FM será uma senóide de frequência fi =f c+ kf mi, em um intervalo de duração T. A transformada de Fourier desta parcela do sinal FM será a função “sinc” ilustrada na Fig. 3.25(b), com centro em f = fc+ kf mi. Assim, podemos interpretar o sinal FM no domínio da

t

Ac

t

m(t)

s(t)

Page 78: Princípios de Comunicações

77

frequência como uma soma de funções “sinc” situadas em diferentes regiões do espectro, de acordo com o valor do sinal modulador m(t). Como indicado na Fig. 3.25(c), supondo que o sinal m(t) tem máximo e mínimo de mesmo valor absoluto, a faixa varrida pela função “sinc” é igual a 2∆f. Para determinar com mais precisão a ocupação espectral do sinal FM, precisaríamos ainda considerar a parcela correspondente aos lobos da função “sinc”. Como a duração dos pulsos retangulares é igual a T, o primeiro zero do “sinc” está a uma distância do seu eixo central igual a 1/T. Supondo que a aproximação de m(t) seja feita na taxa mínima definida pelo Teorema da Amostragem, isto é, 1/T = 2W, essa distância é igual a 2W. Assim, dentro das condições acima, uma estimativa da largura de faixa do sinal FM seria 2∆f + 4W. Na prática, porém, utiliza-se a chamada Regra de Carson, onde o termo adicional é igual a 2W.

Fig. 3.25 - Interpretação do sinal FM no domínio da frequência

t

m(t)

t

f 0 fc+ kfmi

T

1/T = 2W

mi

f

0 fc-∆f fc+∆f

2∆f

(a)

(b)

(c)

Page 79: Princípios de Comunicações

78

Fórmula de Carson A fórmula usualmente utilizada na prática para estimar a largura de faixa de um sinal FM é conhecida como Fórmula de Carson e é dada por

BT = 2(∆f +W) (3.79) onde ∆f é o desvio máximo de frequência e W é a frequência máxima do sinal modulador.

3.2.3 FM de faixa estreita Quando o desvio de fase é muito pequeno tem-se a modulação FM de faixa estreita. Para obter a expressão do sinal FM de faixa estreita desenvolvemos (3.74) (com θ0 = 0 para simplificar) e chegamos à seguinte expressão:

( ) ( )( ) cos 2 ( ) 2 2 ( ) 2c f c c f cs t A k t cos f t A sen k t sen f tπ φ π π φ π = − (3.80)

A condição de desvio de fase muito pequeno significa

2 ( ) 1fk tπ φ << (3.81)

o que permite fazer as seguintes aproximações

cos 2 ( ) 1fk tπ φ ≅ (3.82)

2 ( ) 2 ( )f fsen k t k tπ φ π φ ≅ (3.83)

Usando estas aproximações em (3.80) obtemos

( ) ( )( ) 2 2 ( ) 2c c c f cs t A cos f t A k t sen f tπ π φ π≅ − (3.84)

Observa-se então que o sinal FM se reduziu a um sinal AM com sinal modulador

2 ( )c fA k tπ φ . Aplicando a transformada de Fourier obtém-se o espectro do sinal FM

[ ] [ ]( ) ( ) ( ) ( ) ( )2

c fcc c c c

A kAS f f f f f f f f f

j

πδ δ= − + + − Φ − − Φ + (3.85)

O espectro está mostrado na Fig. 3.26. Como se observa na figura, o espectro de amplitude é o mesmo de um sinal AM com sinal modulador proporcional a φ(t).

Fig. 3.26 – Espectro de um sinal FM de faixa estreita

( )S f

BT = 2W

( )2cA

Acπ kf|Φ(f-fc)|

Acπ kf|Φ(f+fc)|

-fc 0 fc f

( )2cA

Page 80: Princípios de Comunicações

79

Aplicando a propriedade da integração dada por (2.61) temos

( )( )

2

M ff

j fπΦ = (3.86)

Assim, podemos concluir que, se a frequência máxima da mensagem m(t) é W, a frequência máxima de φ(t) é também W. Logo, a largura de faixa da portadora FM é igual à de um sinal AM que transmite a mesma mensagem m(t), ou seja, BT = 2W. Esta é a menor ocupação espectral que um sinal FM pode apresentar e, por esta razão, este tipo de sinal FM aqui analisado é chamado de FM de faixa estreita. Na Fig. 3.27 está representado o diagrama de blocos da geração de um sinal FM de faixa estreita obtido a partir de (3.84), fazendo-se K = 2π kf.

Fig. 3.27 – Esquema para geração de um sinal FM de faixa estreita

3.2.4 FM com sinal modulador senoidal Seja m(t) um sinal modulador senoidal dado por

)2cos()( tfAtm mm π= (3.87)

onde fm << f c. Neste caso o desvio máximo de frequência definido em (3.76) é expresso por

∆f = kf Am (3.88) e o desvio de fase é dado por

2 ( ) 2 cos(2 )f f m mk t k A f t dtπ φ π π= ∫ (3.89)

Fazendo-se a integral, e simplificando, obtemos

2 ( ) (2 )f mk t sen f tπ φ β π= (3.90)

onde

mf

f∆=β (3.91)

Defasador 90o

Oscilador

+

− s0(t)

Accos(2πfct)

Acsen(2πfct)

modulador AM-DSB

m(t) φ(t) K

K|φ(t)|<<1

Page 81: Princípios de Comunicações

80

A constante β é definida como índice de modulação do sinal FM. Substituindo (3.90) em (3.74), e fazendo θ0 = 0, obtemos a seguinte expressão para o sinal FM.

[ ])2(2)( tfsentfcosAts mcc πβπ += (3.92)

Note-se que o desvio máximo de fase é igual a β e que a condição para FM de faixa estreita é

β << 1 (3.93) Em termos práticos, podemos considerar β ≤ 0,1 como uma condição equivalente a (3.93).

3.2.5 Geração de FM – Método Indireto A partir de um sinal FM de faixa estreita, pode-se obter um sinal FM de faixa larga. Para isso, utiliza-se um dispositivo multiplicador de fase como indicado na Fig. 3.28. O multiplicador de fase gera, a partir de um sinal

0( ) cos 2 2 ( )c c fs t A f t k tπ π φ = + (3.94)

um sinal

( ) cos 2 2 ( )c c fs t A n f t n k tπ π φ = + (3.95)

Fig. 3.28 – Geração de um sinal FM de faixa larga a partir de um sinal FM de faixa estreita Como vemos, o sinal obtido tem sua fase instantânea multiplicada por n. Aplicando (3.70) obtemos

fi(t) = nfc + nkf m(t) (3.96) Assim, após a passagem pelo multiplicador de fase, obtemos um sinal FM com desvio n vezes maior e com frequência central também n vezes maior. Este método de geração de sinais FM é denominado Método Indireto. Exemplo 3.2 No esquema de geração de um sinal FM pelo método indireto, mostrado na Fig. 3.29, o objetivo é gerar um sinal FM para transmissão de sinais de áudio na faixa de 100 Hz a 12000 Hz, com portadora de frequência 100 MHz e desvio máximo de frequência igual a 75 kHz. Como mostrado na Fig. 3.29, o modulador FM de faixa estreita tem frequência de portadora igual a 40 kHz, sensibilidade de frequência igual a 100 Hz/v e desvio máximo de frequência igual a 10 Hz. O esquema é analisado a seguir, (i) verificando-se a condição de faixa estreita; (ii) determinando-se a amplitude do sinal modulador; (iii) calculando-se os valores adequados de n1, n2, e f2; (iv) determinando-se a frequência central do filtro H(f), sua largura de faixa, bem como a largura de faixa do sinal FM na saída do esquema.

Modulador FM faixa estreita

Multiplicador de fase (× n)

m(t) s0 (t) s (t)

Page 82: Princípios de Comunicações

81

Fig. 3.29 – Diagrama de blocos do Exemplo 3.2

(i) Para garantir que o desvio máximo de 10 Hz, especificado para o primeiro estágio da modulação, garante a condição de faixa estreita, consideramos um sinal modulador senoidal )2cos()( tfAtm mm π= , onde fm está dentro da faixa [100, 12000]. Tomando fm =

100, valor que corresponde ao maior índice de modulação na faixa especificada, e aplicando (3.91), obtemos β = 0,1. Ou seja, ao longo dessa faixa, β ≤ 0,1, o que atende à condição de faixa estreita.

(ii) Como kf =100, aplicando (3.88), obtemos Am = 0,1 - ou seja - a amplitude do sinal modulador deve ser limitada a 0,1 V. (iii) Os valores dos multiplicadores n1 e n2 devem ser escolhidos adequadamente para que o desvio máximo de frequência e a frequência da portadora na saída do conjunto sejam iguais aos valores especificados. Note-se, porém, que a multiplicação por cos(2πf2t) representada no diagrama de blocos, correspondente a uma translação de frequência, deve ser levada em conta. Temos então o seguinte sistema de equações:

31 2 1 2

3 62 1 1 2 2 1 2

10 75 10

( ) ( 40 10 ) 100 10

n n f n n

n n f f n n f

× ∆ = × = ×

± = × × ± = ×

Uma possível solução é arbitrar n1, determinando-se a partir daí os demais parâmetros. Fazendo n1 = 75, obtemos n2 = 100 e f2 = 2×106.

(iv)Como n1f1=3×106, isso significa que o primeiro multiplicador leva a frequência da portadora para 3 MHz. A translação de frequência deve deslocar esta frequência para 1MHz de modo que ao ser multiplicada por n2 = 100 resulte o valor de 100 MHz, como especificado. A Fig. 3.30 ilustra a operação de translação de frequência e a função de transferência do filtro H(f), que deve ser um filtro passa-faixa em torno de 1 MHz. Usando a Fórmula de Carson, a largura de faixa deste filtro deve ser igual a BT = 2(75×10+12000) = 25500 Hz. Após a passagem pelo segundo multiplicador de frequências (× n2) resulta um sinal FM com largura de faixa BT = 2(75000+12000) = 174000 Hz.

Fig. 3.30 – Translação de frequência do Exemplo 3.2

0 1 MHz 3 MHz f

2 MHz

H(f)

FM faixa estreita

f1 = 40 kHz kf = 100 Hz/V ∆ f = 10 Hz

× n1

cos(2π f2t)

H(f) × n2

Page 83: Princípios de Comunicações

82

3.2.6 Espectro de um sinal FM com sinal modulador senoidal Ao contrário da modulação AM, não existe uma expressão analítica geral para o espectro de um sinal FM. Para o caso específico de um sinal modulador senoidal, embora o desenvolvimento seja relativamente elaborado, é possível obter uma expressão para esse espectro de frequências. O resultado é geralmente tomado como uma referência para se determinar o comportamento espectral de um sinal FM. Inicialmente, vamos escrever (3.92) da seguinte forma

2 sen(2 )( ) Re c mj f t f tcs t A e π β π+ = (3.97)

Definindo sen(2 )( ) mj f ts t e β π=% (3.98)

podemos expressar o sinal FM como

2( ) Re ( ) cj f tcs t A s t e π =

% (3.99)

A função )(~ ts é periódica de período 1/fm (frequência fundamental fm) e pode ser expandida em série de Fourier da seguinte forma

2( ) mj nf tn

n

s t c e π∞

=−∞

= ∑% (3.100)

onde 1 1

2 2

1 12 2

2 sen(2 ) 2( )f fm m

m m m

f fm m

j nf t j f t jn f tn m mc f s t e dt f e dtπ β π π− −

− −= =∫ ∫% (3.101)

Fazendo a mudança de variáveis x=2πfmt chegamos a

[ ]1( )

2j senx nx

n nc e dx Jπ β

πβ

π−

−= =∫ (3.102)

onde Jn(β) é a função de Bessel de 1a espécie e ordem n. Usando este resultado em (3.100) e posteriormente em (3.99) temos

∑∞

−∞=

=n

tnfjn

meJts πβ 2)()(~ (3.103)

[ ]∑∑∞

−∞=

−∞=

+ +=

=

n

mcnc

n

tnffjnc tnffcosJAeJAts mc )(2)()(Re)( )(2 πββ π (3.104)

Aplicando a transformada de Fourier, obtemos

[ ] [ ] ∑∞

−∞=

++++−=n

mcmcnc nfffnfffJ

AfS )()()(

2)( δδβ (3.105)

O espectro de amplitude está ilustrado na Fig. 3.31.

Page 84: Princípios de Comunicações

83

Fig. 3.31 – Espectro de Amplitude de um sinal FM com sinal modulador senoidal

Observamos, portanto, que o espectro de amplitude de um sinal FM com sinal modulador senoidal de frequência fm é constituído por impulsos espaçados de fm a partir da frequência da portadora fc. A área de cada impulso é uma função do índice de modulação β - função de Bessel de 1ª espécie. A Fig. 3.32 mostra o comportamento destas funções de ordem 0 a 4.

Fig. 3.32 – Funções de Bessel de 1ª espécie de ordem 0 a 4 Largura de faixa Como indicado na Fig. 3.31, a largura de faixa de um sinal FM com sinal modulador senoidal pode ser expressa por

BT = 2nmax fm (3.106) onde nmax é o número de componentes relevantes da expansão em (3.105). Para β <<1, tem-se um sinal FM de faixa estreita e, neste caso, sabe-se que a largura de faixa é a mesma de um sinal AM, ou seja, BT = 2W, onde W = fm.; ou seja, nmax = 1. Este resultado está de acordo com

fc -fm fc fc +fm fc+2fm f

(|J0(β)|)

(|J1(β)|)

(|J2(β)|)

(|J-1(β)|)

BT/2 = nmax fm

0

….

|S(f)|/(Ac/2)

Page 85: Princípios de Comunicações

84

as propriedades da função de Bessel. A função Jn(β) é uma função real com as seguintes propriedades:

J-n(β) = −Jn(β) (3107)

Para β <<1 J0(β) ≅ 1 ; J1(β) ≅ β/2; Jn(β) ≅ 0 para n >1 (3.108)

Além disto, para β >>1

Jn(β) ≅ 0 se n > β (3.109) Assim, para um sinal FM de faixa larga, nmax ≅ β e, portanto, BT ≅ 2 βfm = 2∆f No caso geral, um critério utilizado para definir a largura de faixa é considerar relevantes as componentes que tiverem uma amplitude maior do que 1% da amplitude da portadora não modulada. É interessante comparar a largura de faixa obtida acima com aquela que seria fornecida pela Fórmula de Carson dada por (3.79). No caso de sinais senoidais, ela pode ser colocada em função do índice de modulação β, ou seja,

BT = 2∆f(1 + 1/β) = 2fm(1+β) (3.110) Pode-se verificar que a Fórmula de Carson tende a subestimar os valores da largura de faixa.

3.2.8 Demodulação de sinais FM A demodulação de sinais FM se faz geralmente em duas etapas: (i) transformação do sinal FM em um sinal AM (com a mesma portadora de frequência variável); isto pode ser feito através de um dispositivo diferenciador; (ii) deteção de envoltória; (iii) pós-processamento (eliminação de valor DC, ajuste e filtragem). O esquema está representado na Fig. 3.33 e será detalhado a seguir.

Fig. 3.33 – Demodulador FM Inicialmente vamos mostrar que a diferenciação do sinal FM faz com que a modulação de frequência também apareça na amplitude da portadora. Derivando-se s(t) expresso por (3.74) (com θ0 = 0) temos

'( ) ( ) 2 2 ( ) 2 2 ( )c c f c fd

s t s t A f k m t sen f t k tdt

π π π π φ = = − + + (3.111)

Diferenciador Detetor de envoltória

s(t) s'(t) s0(t) Pós- processamento

Page 86: Princípios de Comunicações

85

Colocando 2πfc em evidência e usando a identidade -sen(a) = cos(a+π/2), chegamos a

( )( ) 2 1 cos 2 2 ( ) / 2f

c c c fc

k m ts t A f f t k t

fπ π π φ π

′ = + + +

(3.112)

Observamos, portanto, que a derivação gera uma portadora onde, além da frequência, também a amplitude, ou envoltória, varia linearmente com o sinal modulador m(t). Como, em geral,

max( )

1f

c c

k m t f

f f

∆= (3.113)

a envoltória em (3.112) é sempre positiva, e o detetor de envoltória pode ser utilizado, como na modulação AM analisada na Seção 3.1.2. Subtraindo o valor DC em (3.112), obtemos

0( ) 2 ( )c fs t A k m tπ= (3.114)

Uma forma simplificada de representar o demodulador FM é através do diagrama idealizado da Fig. 3.34 onde ∆θ (t) = 2πkfφ(t) é o desvio de fase em relação à fase da portadora e H0(f) é um filtro passa-baixa ideal, cuja largura de faixa W é igual à largura de faixa da mensagem.

Fig. 3.34 - Forma idealizada do demodulador FM

O Quadro 3.4 resume as principais características da modulação FM

Quadro 3.4 – Principais características da modulação FM

Modulação FM Sinal transmitido

0( ) 2 2 ( )c c fs t A cos f t k tπ π φ θ = + +

212s cP A=

Sinal demodulado

0( ) ( )fs t k m t= 0

2s f mP k P=

Largura de Faixa (Fórmula de Carson)

2( )TB f W= ∆ +

1

2

d

dtπ

∆θ(t) s0(t) = kfm(t) H0(f)

Page 87: Princípios de Comunicações

86

3.3 EXERCÍCIOS 3.1 Um sinal senoidal na frequência 4 kHz modula em amplitude uma portadora em 600 kHz. Considerando que a potência da portadora modulada é igual a 1 W, represente graficamente seu espectro de amplitude, nos seguintes casos: (a) modulação AM-SC-DSB (b) modulação AM-SSB - faixa lateral superior. (c) modulação AM com índice de modulação igual a 0,8 3.2 Determine a frequência da portadora, a potência, o índice de modulação, a eficiência da transmissão e a largura de faixa dos seguintes sinais AM: (a) s(t) = [10 + 4cos(20π .103 t) ] cos(2π.106 t) (b) s(t) = 0,2 cos(20x103πt) + 4cos(22 x103πt) + 0,2 cos(24 x103πt) 3.3 Observando o espectro de um sinal AM mostrado na Fig. E3.3, determine (a) o índice de modulação; (b) a expressão do sinal AM no domínio do tempo; (c) a potência da portadora modulada; (d) a eficiência da modulação.

Fig. E3.3 3.4 Considere o sinal AM

s(t) = [1+a cos(2πfmt)] cos(2πfct) onde fc>>f m e a = 3. É possível demodular o sinal utilizando um detetor de envoltória? Esboce como ficaria o sinal na saída de um detetor de envoltória ideal. 3.5 A Fig. E3.5 (a) mostra o espectro de um sinal AM que chega a um receptor. Este sinal é demodulado através do esquema da Fig. E3.5 (b). (a) determine o índice de modulação e escreva a expressão do sinal s(t); (b) determine um valor razoável para a constante RC que permita garantir que o detetor de envoltória acompanhe, aproximadamente, as variações da envoltória da portadora.

-50 -45 -40 0 40 45 50 f (kHz)

(10) (10)

(4) (4) (4) (4)

Page 88: Princípios de Comunicações

87

Fig. E3.5 3.6 A transmissão de um sinal de áudio com frequência máxima igual a 20 kHz é feita com portadora de frequência 100 kHz através do esquema da Fig. E3.6 (a). Verifique se os filtros das Figs E3.6 (b) , (c) e (d) permitem recuperar o sinal transmitido sem distorção. Se o filtro permitir, identifique o tipo de modulação.

Fig. E3.6

3.7 O sinal ( ) 5cos(2 )mm t f tπ= é transmitido através de um sistema AM-DSB. O sinal

transmitido, dado por ( ) 5cos(2 )cos(2 )m cs t f t f tπ π= é demodulado através do demodulador

coerente da Fig. E3.7, onde θ)

=π/4 e H0(f) é um filtro passa baixa ideal com largura de faixa maior do que fm. (a) determine S(f), o espectro de s(t); (b) determine a expressão do sinal demodulado r(t); (c) suponha que a portadora AM-DSB definida acima é filtrada por um filtro passa-faixa ideal para gerar um sinal SSB com faixa lateral superior; determine a expressão do sinal SSB assim obtido, no domínio do tempo; (d) usando o mesmo demodulador da Fig. E3.7, determine o sinal r(t) obtido pela demodulação do sinal SSB do item (c).

cos(2 )cf tπ

m(t) H(f) s(t)

(c)

H(f)

0 80 100 f (kHz)

H(f) (b)

(d) H(f)

0 95 105 120 f (kHz)

(a)

0 95 100 120 f (kHz)

0 995 1000 1005 f (kHz)

S(f) (a)

(1/16) (1/16)

(1)

R C

(b)

Page 89: Princípios de Comunicações

88

Fig. E3.7

3.8 Em uma transmissão AM de rádio difusão, as frequências das portadoras das emissoras vão de 540 a 1600 kHz e a faixa de cada canal é de 10 KHz. Sabendo que a frequência intermediária é 455 kHz e que a frequência do oscilador local deve estar sempre acima de 900 kHz (a) determine o maior e o menor valor da frequência do oscilador local para sintonizar todas as emissoras; (b) verifique se a frequência de portadora de alguma emissora pode ser frequência imagem de outra, isto é, verifique se seria possível sintonizar duas emissoras ao mesmo tempo. 3.9 Determine a relação entre a potência da portadora modulada na entrada do demodulador e a potência da mensagem recuperada na saída do demodulador, para os sistemas AM analisados nesse capítulo, considerando um sinal modulador senoidal de amplitude 1 mV, na frequência 4 kHz, com índice de modulação igual a 0,5 no caso do sistema AM. 3.10 Uma portadora de frequência 100 kHz é modulada em frequência pelo sinal

( ) cos(2 )mm t f tπ= , onde fm = 4 kHz. (a) Sabendo que a sensibilidade de frequência do modulador (constante kf) é igual a 400 Hz/Volt e que a potência do sinal FM é igual a 8 W., determine o espectro do sinal FM; (b) determine, usando a fórmula de Carson, a largura de faixa do sinal FM obtido pela passagem do sinal FM definido anteriormente por um multiplicador de frequências com n = 10. 3.11 A frequência da portadora em um modulador FM é igual a 1 MHz e a sensibilidade de frequência kf é igual a 40 kHz/volt. (a) Considere um sinal modulador dado por

( )0( ) ( ) cos 2m t x t f tπ= =

onde f0 = 5 kHz. (a) Determine o desvio máximo de frequência e o índice de modulação do sinal FM; (b) esboce o espectro de amplitude do sinal FM; (c) mostre que, para um sinal modulador m(t) = x2(t), a portadora modulada corresponde a um sinal FM cuja frequência de portadora é igual a 1,02 MHz; calcule o desvio máximo em relação a esta frequência e o índice de modulação correspondente. 3.12 Um sinal FM é gerado de acordo com o esquema da Fig. E3.12 onde o sinal modulador é um cosseno de amplitude unitária na frequência 10 kHz e a sensibilidade de frequência kf do modulador é igual a 100 Hz/volt. (a) Determine o desvio máximo de frequência, o índice de modulação e a largura de faixa do sinal s0(t). (b) Determine a frequência da portadora do modulador de faixa estreita e o fator de multiplicação n para gerar um sinal FM na frequência de portadora 100 MHz com desvio máximo igual a 20 kHz

Fig. E3.12

)ˆ2cos( θπ +tfc

s(t) H0(f)

r(t)

Modulador FM Faixa Estreita

Multiplicador de fase (× n )

m(t) s0(t) s(t)

Page 90: Princípios de Comunicações

89

3.13 Uma portadora é modulada em frequência pelo sinal m(t) representado na Fig. E.3.13. (a) Mostre que a condição de FM faixa estreita é satisfeita se a constante de sensibilidade kf for igual a 10 Hz/volt; (b) Usando este valor de kf e supondo que a potência do sinal FM é igual a 1 W, faça um esboço de seu espectro de amplitude.

Fig. E.3.13

3.14 Em um experimento em laboratório para calibrar um modulador FM, varia-se a amplitude do sinal modulador ( ) cos(2 )m mm t A f tπ= e observa-se o espectro de amplitude da

portadora modulada em um analisador de espectro. Verifica-se que, para uma frequência fm = 2 kHz, aumentando-se a amplitude Am do sinal modulador a partir do zero, a componente mostrada pelo analisador na frequência da portadora se reduz progressivamente até se anular completamente para o valor Am = 5 mV. Com esta observação, determine a constante de sensibilidade de frequência kf.

0 1 2 t(ms)

1

-1

m(t)

Page 91: Princípios de Comunicações

90

4. TÉCNICAS DE CODIFICAÇÃO DE MENSAGENS No capítulo anterior, foram apresentadas as técnicas básicas da modulação para transmissão de mensagens de natureza contínua, também denominada transmissão analógica. Neste tipo de transmissão, o objetivo é reproduzir no destino, com maior exatidão possível, a forma do sinal transmitido, diretamente associada à mensagem transmitida. Na transmissão digital, temos, em geral, duas etapas: a primeira delas é a codificação da mensagem - também chamada de codificação da fonte; a segunda é a transmissão propriamente dita. A codificação da mensagem visa, basicamente, gerar uma sequência de bits que represente essa mensagem. Uma vez gerados os bits, é feita a transmissão dos mesmos, através de pulsos, ou de portadoras senoidais. Neste caso, o objetivo não é reproduzir a forma do sinal, mas sim os bits que ele representa. Embora naturalmente aplicável a mensagens de natureza discreta, a transmissão digital pode ser usada para transmitir mensagens de natureza contínua que, neste caso, devem ser digitalizadas, ou seja, representadas por sequências de bits. Isto também pode ser visto como uma forma de codificação de mensagens. Neste capítulo, apresentamos os conceitos básicos da codificação de mensagens de natureza discreta e contínua, em particular, mensagens geradas pelas chamadas fontes discretas sem memória e mensagens de voz.

4.1 CODIFICAÇÃO DE FONTES DISCRETAS SEM MEMÓRIA Uma fonte geradora de mensagens discretas, ou simplesmente uma fonte discreta, é definida como uma fonte que gera um número finito de símbolos. Denomina-se alfabeto da fonte o conjunto de símbolos gerados, que pode ser representado por si, i = 1, 2, ... A. Em geral, o comportamento da fonte é aleatório e sua modelagem deve incluir as probabilidades de ocorrência dos símbolos que compõem o alfabeto. Assim, a cada símbolo si, é associada a probabilidade P(si). Como se verá depois, cada símbolo si é codificado em um bloco de bits, representado por Bi. A Fig. 4.1 ilustra o modelo. A fonte é dita sem memória quando ocorrências sucessivas de símbolos são estatisticamente independentes.

Fig. 4.1 – Modelo de uma fonte discreta sem memória

s1, P(s1) s2, P(s2) sA, P(sA)

Fonte Discreta

B1

B2

BA

Page 92: Princípios de Comunicações

91

4.1.1 Informação própria e entropia Define-se a informação própria associada a um símbolo da fonte como

( )21

( ) logii

I sP s

=

(4.1)

A unidade da informação própria é denominada bit, que é uma combinação de letras das palavras representando o termo Binary Unity. Observe que 1 bit é a quantidade de informação de um símbolo que tem probabilidade ½ . A entropia H é, por definição, a média das informações próprias de todos os símbolos do alfabeto, isto é,

( )2

1

1( ) log

A

iii

H P sP s

=

=

∑ (4.2)

A entropia mede, portanto, a quantidade média de informação da fonte. A definição adotada para a medida de informação expressa o conceito de que quanto menor a probabilidade de ocorrência de um evento, maior é a sua informação. O uso da função logarítmica é conveniente, pois leva a valores que refletem bem a realidade. Ou seja, um evento com probabilidade 1 tem informação nula enquanto eventos com probabilidades tendendo a zero correspondem a quantidades de informação tendendo a infinito.

4.1.2 Princípios da codificação de bloco O problema básico da codificação da fonte é associar, a cada símbolo de saída, uma sequência de bits, denominada palavra código, de forma que os símbolos possam ser decodificados, sem ambiguidade, a partir da observação desta palavra código. Isto pode ser feito de inúmeras formas, mas aqui apresentaremos apenas a forma mais simples denominada codificação de bloco, não singular, univocamente decodificável e com decodificação instantânea. Estes termos são definidos a seguir.

• Código de bloco é aquele onde cada símbolo da fonte é sempre mapeado em uma mesma palavra código.

• Um código de bloco é não singular quando todos os símbolos da fonte são codificados em palavras código distintas.

• Um código é univocamente decodificável quando todas as sequências distintas de símbolos da fonte resultam em sequências distintas de palavras código.

• A decodificação é dita instantânea quando a decodificação de uma palavra código não depende da observação de outras palavras código da sequência

A eficiência de um código é medida, geralmente, pelo número médio de símbolos da palavra código, ou comprimento médio, definido como

1

( )A

i i

i

n n P s=

=∑ (4.3)

onde ni é o número de bits do bloco Bi associado ao símbolo si. Pode-se mostrar que o comprimento médio de um código de bloco univocamente decodificável tem como limitante inferior a entropia da fonte, ou seja,

n H≥ (4.4)

Page 93: Princípios de Comunicações

92

e que a igualdade só é verificada se 2log ( )i in P s= − . Como ni deve ser inteiro, em termos

práticos, só é possível fazer uma codificação de comprimento médio igual à entropia se

( ) 2 ikiP s = (4.5)

onde ki é um inteiro. Obviamente, neste caso, ni = ki. Exemplo 4.1 Neste exemplo, considera-se um alfabeto com 24 letras, sendo 8 vogais e 16 consoantes. Sabendo que as vogais têm probabilidades iguais, o mesmo acontecendo com as consoantes, e que a probabilidade de ocorrência de uma vogal é 1/16, será inicialmente calculada a entropia desta fonte. Em seguida, o comprimento médio de 3 formas de codificação é comparado ao valor da entropia. Obviamente, a probabilidade de ocorrência de uma consoante será

11 8

116( )

16 32P consoante

− = =

Aplicando-se (4.2) temos

2 21 1

8 log (16) 16 log (32) 4,516 32

H = + =

Consideremos 3 formas de codificação (i): todas as 24 letras são codificadas em palavras de 5 bits; (ii) as vogais são codificadas em palavras de 4 bits e as consoantes em palavras de 5 bits; (iii) as vogais são codificadas em palavras de 3 bits e as consoantes em palavras de 4 bits. Com a codificação (i) temos evidentemente, um número médio de bits 5n = . Com a codificação (ii)

1 18 4 16 5 4,5

16 32n

= + =

E, com a codificação (iii)

1 18 3 16 4 3,5

16 32n

= + =

Pode-se observar que esta última regra de codificação leva a um comprimento médio menor do que a entropia da fonte. Porém, o esquema não é univocamente decodificável, pois, por exemplo, uma sequência de 7 bits poderia ser interpretada, ambiguamente, como uma consoante seguida de uma vogal ou o contrário. Este problema não ocorre com a regra (i) e pode ser evitado com a regra (ii), fazendo-se com que as vogais comecem com o bit 0 e as consoantes com o bit 1, ou vice-versa. Com esta estratégia, em uma sequência de 9 bits, podemos definir, sem ambiguidade, o que é vogal e o que é consoante.

Page 94: Princípios de Comunicações

93

4.1.3 Codificação de Huffman Quando o conjunto de probabilidades dos símbolos do alfabeto da fonte não satisfaz a (4.5), existe um procedimento, denominado Codificação de Huffmann, para obter um código de comprimento mínimo, 0n , de tal forma que qualquer outro código terá comprimento

0n n≥ . Note, porém, que 0n H≥ e, portanto, 0n n H≥ ≥ . Para explicar a codificação de Huffman, é conveniente utilizar, para o código, uma representação em árvore, em que cada extremidade está associada a uma palavra código, como ilustrado na Fig. 4.2. A sequência de dígitos componentes de uma palavra código é obtida a partir da base da árvore, percorrendo os ramos até sua extremidade. A cada bifurcação, define-se um novo dígito, de acordo com o sentido escolhido. No caso da Fig. 4.2, convenciona-se 1 para cima e 0 para baixo.

Fig. 4.2 – Representação em árvore para um conjunto de palavras código

O algoritmo para a obtenção do código de Huffman segue a seguinte regra geral: (i) para a construção da árvore, devem ser conectados, sucessivamente, dois a dois, os ramos com menor probabilidade; (ii) quando dois ramos são conectados formando um ramo de hierarquia superior, este novo ramo tem probabilidade igual à soma das probabilidades dos ramos conectados. A Fig. 4.3 ilustra o algoritmo de Huffman para um caso particular de uma fonte com 6 símbolos e o conjunto de probabilidades: 0,35 0,20 0,15 0,15 0,10 e 0,05. A sequência das ligações é a seguinte:

• conectam-se inicialmente s6 e s5 que têm as menores probabilidades (0,05 e 0,10); o ramo formado tem probabilidade 0,15;

• após esta operação, existem 3 ramos com probabilidade 0,15; neste caso, escolhem-se arbitrariamente dois deles para serem conectados; no exemplo, conecta-se s4 com o resultado da combinação de s6 e s5; o novo ramo tem probabilidade 0,30;

• agora, as menores probabilidades são de s3 e s2 que são conectados; • continua-se o processo até restarem apenas dois ramos a serem conectados; • observando a estrutura da árvore, determinam-se os blocos de bits de cada símbolo;

111

011

101

001

110

010

100

000

1

0

Page 95: Princípios de Comunicações

94

Fig. 4.3 – Diagrama para a codificação de Huffman Aplicando (4.3) obtemos o número médio de bits por bloco,

1 0,35 3 0,20 3 0,15 3 0,15 4 0,10 4 0,05 2,45n = × + × + × + × + × + × = Aplicando (4.2) obtemos a entropia,

H = 1,514 ×1 + 3×2,322 + 3× 2,737 +3×2,737 + 4×3,322 + 4×4,322 =2,36 e verificamos (4.4). Note, porém, que nenhum outro código terá comprimento médio menor do que 2,45, pois a entropia só seria igualada se todas as probabilidades fossem da forma dada por (4.5). 4.2 CODIFICAÇÃO DE FONTES CONTÍNUAS – SINAIS DE VOZ A forma básica de codificação de mensagens de natureza contínua é conhecida como sistema PCM (Pulse Code Modulation). O sistema PCM foi proposto inicialmente para digitalizar sinais de voz para telefonia e se mantém até hoje como uma referência para a transmissão de voz digitalizada. Porém, visando à obtenção de sistemas capazes de operar com taxas de bits menores, outras técnicas têm sido propostas, e algumas delas vêm se tornando padrões para telefonia digital. Os fundamentos de todos esses sistemas de digitalização serão apresentados a seguir.

sk P(sk)

s1 0,35

s2 0,20

s3 0,15

s4 0,15

s5 0,10

s6 0,05 (0,15)

(0,30)

(0,35)

(0,65)

1

1

0

1

1

0

1

0

0

0

Bk

B1 = 1

B2 = 011

B3 = 010

B4 = 001

B5 =0001

B6 =0000

Page 96: Princípios de Comunicações

95

4.2.1 Sistema PCM O sistema PCM consiste de três operações básicas representadas no diagrama de blocos da Fig. 4.5: amostragem, quantização e codificação. Estas operações são descritas a seguir e ilustradas através da Fig. 4.6.

Fig. 4.5-Diagrama de blocos do sistema PCM

Fig. 4.6- Ilustração do processamento no sistema PCM (i) amostragem: o sinal de voz s(t) é amostrado nos instantes t = kT, onde T é o intervalo de amostragem e k é um inteiro; (ii) quantização: para tornar finito o conjunto dos possíveis valores das amostras do sinal, são definidos N níveis de quantização, isto é, um conjunto de valores para os quais os valores das amostras devem ser aproximados; a diferença entre o valor exato da amostra e o nível de quantização correspondente é denominado erro de quantização; (iii) codificação: a cada um dos N níveis de quantização é associado um grupo de L bits, sendo N = 2L

; para cada amostra quantizada, o codificador procura em uma tabela a sequência de bits correspondente e faz a transmissão dos bits através de uma sequência de pulsos. O processo de amostragem e quantização altera a mensagem original, mas a alteração pode ser reduzida a um nível aceitável. Com relação à amostragem no tempo, de acordo com o teorema da amostragem, o sinal original poderá ser recuperado com exatidão, desde que a taxa de amostragem seja maior ou igual ao dobro da frequência máxima deste sinal. Quanto ao erro de quantização, este será irreversível, mas pode ser arbitrariamente reduzido, escolhendo-se um número relativamente grande de níveis de quantização. Para um sinal de voz típico de uma transmissão telefônica, limita-se a frequência máxima a 4000 Hz. Assim, a taxa de amostragem é usualmente feita a 8000 amostras por segundo. Como cada amostra é codificada em 8 bits, temos uma taxa de 8×8000 bits/s, ou seja, 64 kbit/s.

Amostragem Quantização Codificação s(t) s(kT) zk L bits

101010

s(t) 111000

010101

t

erro de quantização

0 T 2T t

Blocos de L bits

sequência de pulsos

111000 101010 010101 Níveis de quantização

Page 97: Princípios de Comunicações

96

Recuperação do sinal analógico Para obtenção do sinal analógico são realizadas as operações inversas àquelas realizadas no processo de geração do sinal digital, exceto a de quantização. Como já foi dito anteriormente, esta é uma operação irreversível, resultando no erro de quantização. Portanto as operações se reduzem a (i) obtenção da sequência de amostras quantizadas a partir da sequência de bits observada. (ii) obtenção do sinal analógico através de filtragem das amostras quantizadas por um filtro passa-baixa de largura de faixa igual à metade da taxa de amostragem, como explicado na seção 2.7. Modelagem do Processo de Quantização A função da Fig. 4.7, relacionando uma amostra s do sinal ao nível de quantização z correspondente, representa a operação do quantizador. Como se observa na figura, (i) os valores de s são enquadrados em intervalos delimitados por um conjunto de valores xk, k = 1, 2, ... N+1, denominados intervalos de quantização; se o conjunto de valores xk for igualmente espaçado, de forma que os intervalos de quantização tenham o mesmo tamanho, o quantizador é definido como quantizador uniforme. (ii) ao intervalo de quantização [xk, xk+1], é associado o nível de quantização yk. Em princípio, a escolha do conjunto de valores xi e yi é livre, mas, tipicamente, têm-se as seguintes condições(!):

1

1

0;

; 1,2..2

k kk

x

x xy k N+

=+= =

(4.6)

Ou seja, o primeiro intervalo começa em zero e os níveis de quantização correspondem ao ponto médio destas faixas. Como o sinal s(t) é sempre considerado de média nula, o quantizador é simétrico e, portanto, basta definir seu comportamento para s>0. Um quantizador é definido como Uniforme quando os intervalos de quantização Em geral, 1Nx V+ = , onde V é um limitante superior estabelecido para s, mas nem sempre verdadeiro. Ou seja, eventualmente o sinal pode ultrapassar este valor e, neste caso, tem-se o fenômeno denominado sobrecarga.

(!) Pode-se mostrar que estas condições minimizam o ruído de quantização, em situações típicas.

Page 98: Princípios de Comunicações

97

Fig. 4.7 – Modelo geral de um quantizador Ruído de Quantização O erro de quantização é a diferença entre a amostra do sinal s(t) e seu valor quantizado, ou seja,

q = s-z (4.7) Aplicando esta definição à sequência de amostras de s(t) e seus níveis de quantização correspondentes, tem-se uma sequência de valores do erro de quantização que geralmente é considerado um ruído. O ruído de quantização está ilustrado na Fig.4.8. Como ilustrado na figura, o ruído de quantização nos períodos de sobrecarga é denominado ruído de sobrecarga. Fora desta condição, o ruído de quantização é chamado de ruído granular.

Fig. 4.8 – Ruído de quantização

x2 x3 xN-1 xN V s

y3

y1

y2

yN

z

yN-1

s1

z1

t

s2

z2 z3

s3

t

q1 q2

q3

s(t)

V

-V

sobrecarga

ruído granular ruído

de sobrecarga

Page 99: Princípios de Comunicações

98

Com base na Fig, 4.7 podemos escrever

1k k kq s y x s x+= − ≤ ≤ (4.8)

Observando a Fig, 4.9 e lembrando que, de acordo com a condição (4.6), yk é o ponto médio do intervalo, podemos verificar que, quando a amostra do sinal estiver na faixa [xk,xk+1] considerada, o ruído de quantização varia entre -∆k/2 e ∆k/2 dependendo do valor de s.

Fig. 4.9 – erro de quantização no intervalo ∆k

Para avaliar o efeito do ruído de quantização na digitalização do sinal, procura-se calcular o valor médio quadrático do erro de quantização, isto é,

( )2 2q E qσ = (4.9)

Como em geral, o intervalo ∆k é relativamente pequeno, podemos adotar a seguinte hipótese: dado que o valor da amostra do sinal está em um determinado intervalo de quantização, este valor será uma variável aleatória uniforme dentro do referido intervalo. Ou seja, dado

1k kx s x +≤ ≤ , s será uma variável aleatória uniforme neste mesmo intervalo.

Consequentemente, analisando a Fig.4.9, podemos afirmar que, nas mesmas condições, o erro de quantização q será uma variável aleatória uniforme no intervalo [-∆k/2, ∆k/2]. Sabemos que o valor médio quadrático de uma variável aleatória x uniforme no intervalo [-a, a] pode ser calculado pela integral

221

2 3

a

a

aX dX

a−=∫ (4.10)

Usando este resultado podemos então escrever

( )2

21| ; 1,2,...

12k

k kE q x s x k N+∆≤ ≤ = = (4.11)

O valor de ( )2 2q E qσ = é a média dos valores médios quadráticos obtidos para todas

as faixas de quantização. Este cálculo pode ser aproximado por

22

1

212

Nk

q kk

Pσ=

∆= ∑ (4.12)

onde Pk é a probabilidade da amostra do sinal s estar na faixa [xk, xk+1], a qual é dada por

xk s yk xk+1

∆k

q

Page 100: Princípios de Comunicações

99

1

( )k

k

x

k sx

P p S dS+

= ∫ (4.13)

onde ps(S) é a função densidade de probabilidade das amostras do sinal. O fator 2 aparece porque o cálculo deve ser feito também para s<0, considerando a simetria do quantizador. No cálculo acima, supõe-se que não ocorre sobrecarga. Caso esta ocorra, existe ainda uma parcela adicional do ruído de quantização, denominada ruído de sobrecarga, cujo valor médio quadrático é calculado pela expressão

( )22 2 ( )sc N sV

S y p S dSσ∞

= −∫ (4.14)

Quantizador uniforme No quantizador uniforme, as faixas são iguais, ou seja,

1k kx x+ − = ∆ (4.15) Neste caso, a expressão (4.12) pode ser escrita como

22

1

212

N

q k

k

Pσ=

∆ = ∑ (4.16)

Supondo que não existe sobrecarga, o termo entre parênteses do lado direito de (4.16) é igual a 1 e o valor médio quadrático do ruído de quantização se reduz a

22

12qσ ∆= (4.17)

Razão Sinal-Ruído O impacto do ruído de quantização na qualidade da digitalização deve ser medida através do valor médio quadrático do erro de quantização comparado ao valor médio quadrático do sinal, o que pode ser feito através da razão sinal-ruído definida como

2

2s

q

RSRσσ

= . (4.18)

Para um quantizador uniforme, sem sobrecarga, isto é, com xN+1 = V, e –V ≤ s ≤ V, podemos escrever

2

2

V

N∆ = (4.19)

Chamando de n o número de bits usados para codificar cada amostra quantizada. temos

2 2nN = (4.20) Aplicando (4.17), (4.19) e (4.20) para calcular (4.18) obtemos

Page 101: Princípios de Comunicações

100

2

2

3 2 n

s

RSRV

σ

×=

(4.21)

A expressão (4.21) mostra que a razão sinal-ruído de quantização no caso considerado, depende do número de bits por amostra n e da razão entre o valor de pico V do sinal e seu valor RMS (raiz quadrada da potência). Esta razão é conhecida como fator de carga. Aumentando o número de bits por amostra, aumenta exponencialmente o número de níveis de quantização e com isto a razão sinal-ruído. Por outro lado, observa-se que valores mais altos de RSR são obtidos para sinais com menor valor de pico (sinais com uma menor faixa de variação). A razão sinal-ruído dada por (4.21) pode ser expressa em dB, isto é,

( ) 6 4,77 20logs

VRSR dB n

σ

= + −

(4.22)

Observa-se em (4.22) que, adicionando 1 bit nas palavras código associadas aos níveis de quantização, obtém-se um aumento de 6 dB na razão sinal-ruído de quantização. Sinal senoidal Para ilustrar a expressão (4.22), vamos considerar que o sinal é uma senóide de amplitude V ao longo do tempo, com fase aleatória uniformemente distribuída entre 0 e 2π. Neste caso,

[ ]22 22

00

1cos(2 )

2 2sV

V f t dπ

σ π θ θπ

= + =∫ (4.23)

e, portanto,

2s

V

σ= (4.24)

Substituindo em (4.22) obtemos, para uma quantização com 8 bits, RSR(dB)= 49,75. Sinais não limitados – Distribuição de Laplace Para um sinal aleatório não limitado, haverá probabilidade de sobrecarga, dada por

(| | )P s V> . Neste caso, a variância do ruído de quantização deve ser calculada pela soma de (4.12) e (4.14), correspondentes às variâncias do ruído de quantização granular e de sobrecarga. Em geral, o ruído granular aumenta com o valor de V, enquanto o ruído de sobrecarga diminui. Por ter uma expressão matemática simples e ser uma boa aproximação da realidade, a função densidade de probabilidade de Laplace é muitas vezes usada para caracterizar o comportamento do sinal de voz. Esta função é dada por

2| |

1( )

2

s

ss

s

p s eσ

σ

= (4.25)

Page 102: Princípios de Comunicações

101

e a probabilidade de sobrecarga pode ser expressa, genericamente, por

221

(| | ) 22

s

S V

s

V s

P s V e dS eσ σ

σ

− −∞> = =∫ (4.26)

Em situações típicas, a variância do ruído granular é bem maior do que a do ruído de sobrecarga. Neste caso, uma forma aproximada de relacionar a razão sinal-ruído de quantização com a probabilidade de sobrecarga é desprezar o fenômeno da sobrecarga no cálculo da razão sinal-ruído, considerando válida a expressão (4.26). Como observamos em (4.22) e (4.26), para um dado valor do fator de carga V/σs, podemos determinar um valor da razão sinal-ruído e da probabilidade de sobrecarga. Exemplo 4.2 Neste exemplo calculamos a razão sinal-ruído e a probabilidade de sobrecarga em um quantizador uniforme, supondo V = 4σs, o que é uma consideração usual. Neste caso, aplicando (4.26), obtemos uma probabilidade de sobrecarga igual a 3,5×10-3. Usando esta mesma relação V = 4σs em (4.22), obtemos, para um quantizador de 8 bits, RSR (dB) = 40,73 e para um de 7 bits, RSR(dB) = 34,73. Para sinais de voz, é desejável que RSR seja, pelo menos, da ordem de 35 dB para se conseguir uma qualidade de sinal comercialmente aceitável. Pelo Exemplo 4.2, verificamos que um quantizador de 7 bits (128 níveis) seria suficiente para esse propósito. Porém, na prática, observa-se a necessidade de um quantizador uniforme de 12 bits para se chegar à qualidade desejada. A razão disso é que as amplitudes do sinal de voz variam muito com o locutor e, mesmo para um mesmo locutor, esta variação é bastante acentuada, em função do tipo de som emitido. Uma possível solução para este problema será tratada a seguir. Melhoria na razão sinal-ruído pelo uso de compressão – codec log-PCM Como observamos em (4.12), o valor médio quadrático do ruído de quantização depende do conjunto de probabilidades Pk (probabilidades do sinal de voz pertencer aos diferentes intervalos de quantização). Essas probabilidades podem ser vistas como uma versão discreta da função densidade de probabilidade do sinal de voz. As distribuições de probabilidade obtidas por medidas estatísticas mostram que quanto menor é o valor de um sinal de voz, maior é sua probabilidade de ocorrência, o que pode ser observado também na função densidade de probabilidade de Laplace utilizada no Exemplo 4.2. Por outro lado, observando (4.12), podemos concluir que uma estratégia interessante para aumentar a razão sinal-ruído de quantização é usar intervalos de quantização menores para valores do sinal com maior probabilidade de ocorrência - os pequenos valores - e aumentar o tamanho do intervalo de quantização á medida que sobe o nível do sinal. Esta estratégia apresenta ainda uma outra vantagem importante: a razão sinal-ruído observada nos diferentes intervalos de quantização fica mais estável, ao contrário do que se observa na quantização uniforme. Nesta, o valor médio quadrático do erro de quantização é igual em todos os intervalos de quantização, mas a potência do sinal varia, de acordo com os níveis deste sinal em um determinado intervalo, levando a uma grande variação da razão sinal-ruído. A utilização de quantização com intervalos de quantização de tamanhos diferentes ou, simplesmente, quantização não uniforme, é feita, geralmente, de forma indireta, através de compressão do sinal como mostrado na Fig. 4.10. Ou seja, antes de entrar no quantizador uniforme, o sinal s(t) passa por um dispositivo que comprime o sinal de acordo com uma curva c(s). Como se observa na Fig. 4.10, intervalos de quantização iguais para o sinal comprimido, correspondem a intervalos diferentes para o sinal original.

Page 103: Princípios de Comunicações

102

Fig. 4.10 – Obtenção da quantização não uniforme através de compressão Existem duas curvas de compressão padronizadas para o sinal de voz denominadas Lei µ e Lei A. Suas respectivas expressões matemáticas são apresentadas abaixo, onde V é o valor máximo do sinal e µ e A são parâmetros de livre escolha, associados ao grau de curvatura das curvas. Como estas curvas são logarítmicas, o codificador-decodificador que utiliza estas curvas é denominado Codec log- PCM . Lei µµµµ

| |ln 1

( )ln(1 )

sV

Vc s

µ

µ

+ =

+ (4.27)

Lei A

( )

| |0 | |

1 log( )( )

1 log | || |

1 log( )

A s Vs

A Ac s

A s Vs

A A

≤ < += + ≥ +

(4.28)

A Lei µ está ilustrada na Fig. 4.11. Valores de µ usualmente empregados são 100 para n = 7 e 225 para n = 8.

s

C(s)

s s

z y3 y2 y1 0

Page 104: Princípios de Comunicações

103

Fig. 4.11 – Lei µ

Pode-se mostrar que, se o sinal apresentar distribuição de Laplace, a razão sinal-ruído de quantização para o codec Log-PCM usando lei µ é dada por

[ ]2

6 4,77 20log ln(1 ) 10log 1 2s s

V VRSR n µ

µσ µσ

= + − + − + +

(4.29)

Calculando a expressão (4.29) para diversos valores de µ e V/σs podemos obter as seguintes conclusões: (i) a variação de 1 bit no tamanho da palavra binária provoca um aumento de 6 dB em RSR; (ii) enquanto na quantização uniforme RSR varia significativamente com V/σs, com o codec Log-PCM, este parâmetro se mantém aproximadamente constante para uma determinada faixa de valores de V/σs; esta faixa de estabilidade aumenta quando aumenta o valor de µ; porém, o aumento do valor de µ leva a valores relativamente menores de RSR.

4.2.2 Quantização adaptativa O problema de projetar um quantizador adequado para certa classe de sinais está diretamente relacionado ao problema de determinar um método apropriado para casar os intervalos de quantização à variância do sinal de entrada. Como visto anteriormente, uma possibilidade é usar um quantizador com compressão logarítmica. Outra seria usar um quantizador cujos intervalos de quantização sejam ajustados, de forma otimizada, de acordo com as oscilações da variância do sinal ao longo do tempo. Neste caso, se a variância do sinal (constante ou variável) for desconhecida, torna-se necessário um esquema de estimação dessa variância. A partir desta estimação, é obtido um parâmetro de ajuste do quantizador que varia ao longo do tempo, de tal forma que o quantizador opere aproximadamente como um quantizador ótimo.

0 1 s/v

C(s)

µ = 100

µ = 5

µ = 0

1

Page 105: Princípios de Comunicações

104

A técnica de adaptação do quantizador ao longo do tempo é conhecida com quantização adaptativa. A idéia básica dos algoritmos de adaptação é fornecer um parâmetro de ajuste, σi, com valor alto quando o sinal de entrada apresenta níveis de energia correspondentemente altos. Com isso, as características do quantizador são expandidas através deste parâmetro. Por outro lado, quando o nível de energia do sinal é baixo, o algoritmo deve fornecer um parâmetro de ajuste com valor correspondentemente baixo, de forma a acomodar adequadamente os sinais de baixa amplitude. Para efeito de ilustração, a Fig. 4.12 mostra as características de um quantizador adaptativo em dois instantes diferentes. Na Fig. 4.12(a) a adaptação seria para sinais com energia relativamente alta e na Fig. 4.12(b) para sinais com energia relativamente alta.

Fig. 4.12 – Quantização adaptativa

A quantização adaptativa é usualmente implementada através de um quantizador com características fixas, projetado para um sinal com variância unitária. Levando em conta que os sinais têm uma variância qualquer, este quantizador é precedido de um dispositivo que introduz um ganho Gi, variante no tempo, cujo objetivo é manter constante a variância do sinal na entrada do quantizador. O ganho Gi deve receber um valor igual ao inverso de uma estimativa local do desvio padrão σi do sinal, isto é, Gi = σi

-1. Assim, o produto Gisi resultará em um sinal com variância unitária. Quando a quantização adaptativa é usada diretamente sobre as amostras de entrada, o codificador é chamado de PCM Adaptativo (APCM). Existem algoritmos de adaptação do quantizador em que o parâmetro de ajuste é calculado a partir da entrada, ou seja, a partir das amostras não quantizadas si. Como não se dispõe destas amostras no receptor, este cálculo não poderá ser refeito no processo de decodificação. Neste caso, o parâmetro de ajuste deve ser transmitido através do canal. Em outros algoritmos, calcula-se o parâmetro de ajuste a partir das amostras de saída do quantizador, zi, ou, equivalentemente, a partir das palavras código que a representam. Neste caso, não é necessário transmitir o parâmetro de ajuste, uma vez que o sinal quantizado é disponível no receptor e assim o mesmo cálculo feito no codificador pode ser refeito no decodificador.

t

s(t)

(a) (b)

z

s

z

s

s(t)

Page 106: Princípios de Comunicações

105

A segunda estratégia de adaptação descrita acima, sem transmissão do parâmetro, é mais eficiente que a primeira no que se refere à economia de bits transmitidos. No entanto, é menos vantajosa quando ocorrem erros nos bits ao longo da transmissão. Neste caso, além de levar à decodificação de palavras código com erro, os bits errados podem fazer com que a adaptação seja feita de forma indevida. A adaptação do quantizador pode ser de dois tipos: instantânea ou silábica. Na adaptação instantânea, o parâmetro σi é função apenas de uma história recente do sinal de entrada (poucas amostras anteriores). Por este motivo, qualquer alteração na amplitude do sinal é imediatamente refletida no valor de σi. Isto significa que σi apresenta variações rápidas com i. Por outro lado, na adaptação silábica, σi depende de uma história relativamente longa do sinal de entrada (tipicamente da ordem de vários milisegundos) de modo que mudanças na amplitude do sinal se refletem imediatamente no valor do parâmetro σi. Assim, na adaptação silábica, o parâmetro de ajuste do quantizador varia de forma relativamente lenta com o tempo. Um dos métodos de adaptação mais empregados é o método de Jayant, que consiste em obter a estimativa σi multiplicando-se a estimativa anterior σi-1 por um fator M que amplifica ou atenua esta estimativa e depende da magnitude da saída anterior do quantizador zi-1. Lembrando que a saída do quantizador no instante i é dada por ± yk, k = 1, 2,... N, nota-se que a magnitude está associada ao índice k. Para cada valor deste índice, tem-se um valor do multiplicador, M(k). A regra de adaptação pode ser expressa por

σi =M(I i-1)σi-1 (4.30) onde I i-1 = k se zi-1 = ± yk, sendo M(k) obtido através de uma tabela determinada com o objetivo de otimizar o desempenho do sistema. Conclui-se da observação de (4.30) que essa técnica não requer transmissão do parâmetro de ajuste do quantizador, uma vez que ele pode ser determinado a partir das amostras recebidas zi. De forma a casar as características do quantizador ao nível do sinal de entrada, a estimativa σi deve, obviamente, ser aumentada se houver indicação de que o nível do sinal é alto, o que é evidenciado por um nível de saída ± yk com k próximo de N. Por outro lado, se esse nível for baixo, o que é indicado por k próximo de 1, então σi deve sofrer um decréscimo. Isso significa que os multiplicadores M(k), k = 1, 2,... N devem satisfazer às seguintes condições:

M(N) >1 M(1) < 1 (4.31)

M(1) ≤ M(2) ≤ ... ≤M(N) No método de Jayant, o critério usado para a determinação dos multiplicadores para entradas de voz é o de maximização da razão sinal-ruído através de um procedimento de busca exaustiva. O método dos multiplicadores de Jayant não opera satisfatoriamente em canais de comunicações ruidosos, devido principalmente à propagação de erros.

4.2.3 Codificação diferencial Como foi visto na seção anterior, a quantização não-uniforme e a quantização adaptativa exploram apenas a informação relativa à distribuição de amplitudes do sinal de entrada. Entretanto, é possível também tirar proveito da informação relativa à função autocorrelação do sinal. Para sinais altamente correlacionados, a amplitude tende a variar lentamente de uma amostra para a seguinte. Isto significa que o valor da amplitude de uma amostra pode ser predito a partir das amostras anteriores com uma diferença relativamente

Page 107: Princípios de Comunicações

106

pequena em relação ao valor correto. Transmitir esta diferença e usá-la no receptor para corrigir o processo de predição é mais vantajoso, uma vez que os intervalos de quantização utilizados poderão ser menores, reduzindo o erro de quantização. Esta forma de codificação, denominada codificação diferencial pode ser implementada através do diagrama de blocos representado na Fig 4.13.

Fig. 4.13 – Esquema básico da codificação diferencial De acordo com a Fig. 4.13, no codificador é feita a predição do sinal no instante i, is

)

,

a partir das amostras do sinal si nos instantes anteriores, determinando-se então a diferença entre o valor correto e o valor estimado

ˆi i ie s s= − (4.32) Esta diferença será quantizada como no sistema PCM e transmitida. No receptor, o decodificador deveria, em princípio, realizar a operação inversa do codificador, ou seja, adicionar ao erro ei, o valor da predição, is . No entanto, nenhum destes dois valores é disponível no decodificador. Na realidade, o que se tem é o valor de ei quantizado, isto é, zi. Portanto, como se observa na Fig. 4.13, o sinal reconstruído será r i, uma aproximação de si, obtido através da operação

ˆi i ir z r= + (4.33)

Com base na formulação desenvolvida, podemos verificar que o sistema de codificação diferencial da Fig. 4.13 apresenta um pequeno problema: além do ruído de quantização, o esquema introduz uma perturbação relacionada à diferença entre os processos de predição realizados no transmissor e no receptor. Explicitando si em (4.32), isto é, escrevendo

ˆi i is e s= + (4.34) e levando em (4.33) temos

ˆ ˆ( ) ( )i i i i i is r e s z r− = + − + (4.35) Notando que

i i iz e q= − (4.36)

Preditor

Quantizador si

is

+

−−−−

ei zi

Preditor ir

+

+

r i ≅ si zi

codificador

decodificador

Page 108: Princípios de Comunicações

107

onde qi é o ruído de quantização, chegamos a

ˆ ˆ( )i i i i is r q s r− = + − (4.37) Ou seja, a diferença entre o sinal reconstruído e o sinal original, além do erro de quantização, contém uma parcela que corresponde à diferença entre as predições feitas no transmissor e no receptor. Predição A forma mais simples de se fazer uma predição é através de uma combinação linear de amplitudes anteriores do sinal, isto é:

1

ˆp

i j i j

j

s a s−=

=∑ (4.38)

onde p é a ordem do preditor e aj, j = 1, 2, ... p são os coeficientes de predição linear. Na predição linear de primeira ordem (4.38) se reduz a

1i is as−= (4.39) ou seja, o valor predito is é proporcional à amplitude da amostra anterior si-1. O erro de predição será dado por

1i i ie s as−= − (4.40)

O coeficiente a poderia, no caso mais simples, ser feito igual a 1. Podemos, entretanto, determiná-lo de modo a minimizar a variância do erro de predição expressa por

( )221e i iE s asσ −

= − (4.41)

Para isto, basta fazer 2

0ed

da

σ = (4.42)

e obter o valor de a. Neste caso, temos o preditor ótimo linear de primeira ordem. Desenvolvendo (4.41) obtemos

( )2 2 2 212e s s i ia aE s sσ σ σ −= + − (4.43)

Aplicando (4.42) a (4.43) chegamos a

( )12

i i

s

E s sa ρ

σ−= = (4.44)

onde ρ é o coeficiente de correlação entre as amostras do sinal. Substituindo (4.44) em (4.43) obtemos

2 2 21e sσ σ ρ = − (4.45)

Page 109: Princípios de Comunicações

108

Tendo em vista que 1ρ ≤ , verificamos que 2 2e sσ σ≤ . Além disso, observando (4.45)

concluímos que, quanto mais próximo de 1 é o valor absoluto de ρ, menor é a variância do erro de predição e mais vantajosa é a codificação diferencial. No outro extremo, se ρ = 0, as amostras são descorrelacionadas, o erro de predição tem variância igual à do sinal e a codificação diferencial não traria nenhuma vantagem. Sistema DPCM A forma usual do sistema DPCM está representada na Fig. 4.14 onde observamos que, diferentemente do esquema da Fig. 4.13, a predição é feita a partir das amostras quantizadas. Neste caso,

ˆi i ir z s= + (4.46) e a diferença entre o sinal reconstruído e o sinal original é dada por

ˆ ˆ( ) ( )i i i i i i i i is r e s z s e z q− = + − + = − = (4.47) isto é, será simplesmente igual ao erro de quantização, sem a influência de outros termos como observado em (4.37).

Fig. 4.14 - Esquema do sistema DPCM

Razão sinal-ruído no sistema DPCM A razão sinal-ruído de quantização no sistema DPCM pode ser expressa a partir da definição básica dada por (4.18), isto é,

2

2s

q

RSRσσ

= (4.48)

Preditor

Quantizador si

is

+ −−−−

ei zi

Preditor is

+

+

r i

Codificador

+

+

r i

Decodificador

Transmissão Canal

Recepção

zi

Page 110: Princípios de Comunicações

109

Definindo 2

2e

Qq

RSRσσ

= (4.49)

e 2

2s

pe

Gσσ

= (4.50)

obtemos

p QRSR G RSR= (4.51)

Ou seja, a razão sinal-ruído no sistema DPCM pode ser expressa como o produto da razão sinal-ruído do quantizador, RSRQ, com o ganho devido à configuração diferencial, ou simplesmente, ganho de predição, Gp. Substituindo (4.45) em (4.50) obtém-se, para o preditor linear ótimo de primeira ordem,

2

1

1pG

ρ=

− (4.52)

Como, tipicamente, o coeficiente de correlação ρ entre as amostras do sinal de voz é próximo de 1, o ganho Gp será elevado, aumentando substancialmente o valor final da razão sinal-ruído. Embora não seja necessariamente o procedimento ótimo, visando a otimização do sistema DPCM, uma prática usual é tratar independentemente o preditor e o quantizador, isto é, projetar o preditor para maximizar Gp e os intervalos de quantização para maximizar RSRQ, de acordo com os mesmos princípios apresentados na seção anterior. Sistemas DPCM adaptativos O princípio da quantização adaptativa discutido anteriormente pode também ser usado com o codificador DPCM. A motivação para seu uso neste caso é também o fato de que o desempenho do quantizador pode apresentar variação em função da energia de um sinal não estacionário como o sinal de voz. Os codificadores passam então a ser chamados de codificadores DPCM Adaptativos ou ADPCM. Assim com em codificadores APCM, a adaptação do quantizador de um sistema ADPCM pode ser feita com ou sem transmissão do parâmetro de ajuste, ou seja, com base no sinal não quantizado ou com base no sinal quantizado, respectivamente. Sistema Delta O sistema Delta pode ser visto com um sistema DPCM onde o processo de quantização, como ilustrado na Fig. 4.15, é reduzido à sua forma mais simples, ou seja, dois níveis de quantização, o que equivale a 1 bit por amostra. Isto significa que, em um sistema Delta, a taxa de bits é igual à taxa de amostragem. A Fig. 4.16 ilustra a operação de um sistema Delta no caso mais simples em que o preditor é de 1ª ordem com coeficiente a = 1 e o passo ∆ do quantizador é fixo. Como no sistema DPCM, o sistema Delta transmite a diferença ei entre o sinal si e sua predição is , que,

neste caso, é igual ao sinal reconstruído no instante anterior r i-1. Se si > is é transmitido o bit

1 (nível +∆) e o sinal reconstruído é incrementado de ∆. Caso contrário, é transmitido o bit 0 (nível -∆) e o sinal reconstruído sofre um decréscimo de ∆. Observamos então que o codificador ∆ mais simples, chamado de codificador ou modulador Delta linear, aproxima o sinal de entrada por um série de degraus de amplitude constante.

Page 111: Princípios de Comunicações

110

Fig. 4.15 – Quantizador de dois níveis utilizando em um sistema Delta

Fig. 4.16 - Ilustração da operação de um sistema Delta

Os erros de codificação em um sistema Delta também podem ser classificados como ruído granular e ruído de sobrecarga. O primeiro é inerente ao processo de quantização e ocorre quando o sinal reconstruído está acompanhando corretamente o sinal de entrada, porém, oscilando em torno do sinal, devido às variações discretas de r i. Neste caso, a amplitude do erro está limitada pelo passo do quantizador. O ruído de sobrecarga é caracterizado pela incapacidade do sinal reconstruído acompanhar o sinal de entrada em situações onde a inclinação da entrada é maior do que a inclinação obtida com o passo ∆. Na Fig. 4.16 estão ilustrados esses dois tipos de ruído. É claro que, para uma dada estatística da inclinação do sinal de entrada, o ruído de sobrecarga é predominante para pequenos valores do passo ∆, enquanto o ruído granular é predominante para valores ∆ relativamente grandes. No sistema Delta, a quantização de apenas 1 bit é, de certa forma, compensada pelo uso de uma frequência de amostragem consideravelmente maior do que a frequência de Nyquist. Com uma taxa de amostragem maior, o intervalo entre as amostras fica menor, aumentando a correlação entre as amostras e diminuindo o erro de predição. Por outro lado, a alta taxa de amostragem gera componentes de alta frequência que devem ser filtradas no receptor. A principal vantagem do sistema Delta é a simplicidade. Ele pode ser implementado com circuitos simples e, como é usado apenas 1 bit por amostra, não há necessidade de sincronização de grupos de bits entre transmissor e receptor. Os sistemas Delta podem também usar esquemas de adaptação para melhorar seu desempenho. No sistema Delta Adaptativo (ADM) o passo é aumentado quando ocorre ruído de sobrecarga e é reduzido em presença de ruído granular. Na Fig. 4.17, mostra-se uma comparação de desempenho entre sistemas típicos ADM, ADPCM e log-PCM em função da taxa de bits. O critério de desempenho é a razão sinal-ruído de quantização global obtida para sinais de voz filtrados entre 200 Hz e 3200 Hz. Nota-se que o desempenho do ADM, para

ruído de sobrecarga

ruído granular

bit transmitido: +1 +1 +1 +1 +1 -1 -1 +1 -1 +1 -1 tempo

T

is)

ei

si

r i

si

zi

-∆

bit = 1

bit = 0

Page 112: Princípios de Comunicações

111

taxas de bits moderadas, está entre o desempenho do ADPCM e do log-PCM, sendo que o ADPCM apresenta um ganho de aproximadamente 12 dB sobre o log-PCM. Por outro lado, a diferença de desempenho entre o ADM e o log-PCM é função da taxa de bits R, uma vez que a frequência de amostragem, que é responsável pelo melhor ou pior desempenho do ADM, varia com R. Já no ADPCM, a frequência de amostragem é fixa e o ganho ótimo é principalmente devido à codificação diferencial.

Fig. 4.17 - RSR em função da taxa de bits para codificadores log-PCM, ADPCM e ADM

4.2.4 Codificação no domínio da frequência As diversas técnicas de codificação estudadas até agora têm em comum a característica de codificar o sinal a partir de sua representação no domínio do tempo. Esta seção apresenta uma classe importante de codificadores em que a codificação do sinal é feita a partir de sua representação no domínio da frequência. Esses codificadores são, por isso, chamados de codificadores no domínio da frequência. Os codificadores no domínio da frequência representam o sinal através de um conjunto de componentes de frequência que são codificadas separadamente. Essa separação permite que as componentes mais relevantes para uma boa representação do sinal sejam quantizadas com menor erro. Tal procedimento é efetivado através de uma distribuição adequada do número de bits nas diversas componentes de frequência. No caso do sinal de voz, temos, com isso, a vantagem de poder utilizar critérios baseados nos modelos de produção e percepção da fala para representar melhor algumas componentes sem, contudo, tornar os algoritmos totalmente dependentes destes modelos. Assim, nas componentes de frequência mais baixas, por exemplo, onde a estrutura de periodicidade dos sons sonoros e a primeira frequência ressonante precisam ser cuidadosamente preservadas, é, em geral, alocado um maior número de bits por amostra. Por outro lado, nas componentes de frequência mais altas, onde os sons surdos são predominantes, um menor número de bits por amostra pode ser utilizado. Além disso, a alocação de bits pode ser feita de forma dinâmica, de modo a acompanhar apropriadamente as variações espectrais do sinal ao longo do tempo. Uma vantagem adicional dos codificadores no domínio da frequência é que o ruído de quantização fica restrito à faixa de frequências onde ele foi gerado, evitando com isso distorções fora de sua faixa. As duas técnicas mais representativas dessa classe de codificadores são denominadas codificação em sub-bandas e codificação por transformada. Em ambas as técnicas, geralmente, apenas parte dos recursos binários é utilizada para representar a informação principal, ou seja, as diversas componentes de frequência. Nesses casos, uma parte dos

10

20

30

0 10 20 30 40 50 60

ADPCM

ADM

log-PCM

Taxa de bits (kbit/s)

RSR(dB)

Page 113: Princípios de Comunicações

112

recursos binários é empregada para representar uma informação paralela que corresponde aos parâmetros utilizados na adaptação dos quantizadores e para alocação de bits às diversas componentes de frequência. Codificação em sub-bandas Na técnica de codificação em sub-bandas, o sinal de entrada é inicialmente filtrado por um banco de filtros passa-faixa adjacentes cobrindo todo o espectro do sinal. Os sinais em cada sub-banda são, em seguida, transladados para baixas frequências e amostrados em sua frequência de Nyquist. Se os sinais estiverem em forma digital, isso corresponde a um processo de decimação (redução da frequência de amostragem). O processamento final consiste em codificar os sinais nas diferentes sub-bandas (em geral através de codificadores PCM adaptativos) e multiplexá-los. No sistema de decodificação, a reconstrução do sinal, após o processo de demultiplexação, é realizada através de decodificadores em cada sub-banda, interpoladores, moduladores e filtros passa-faixa. Ou seja, um processo inverso ao do sistema de codificação. Os sinais obtidos em cada sub-banda são finalmente somados de modo a gerar o sinal reconstruído ( )s t . O princípio de decomposição espectral em duas sub-bandas de larguras iguais é ilustrado na Fig. 4.18. O sinal de entrada, amostrado a uma frequência F, é indicado nessa figura por s(n). Esse sinal é inicialmente filtrado por um filtro passa-baixa com resposta a impulso h1(n) e por um filtro passa-alta com resposta a impulso h2(n), Os sinais resultantes x1(n) e x2(n) ocupam, respectivamente, as metades inferior e superior do espectro de s(n). Logo, suas frequências de amostragem podem ser reduzidas (decimadas) por um fator 2, obtendo-se assim os sinais y1(n) e y2(n). Para reconstrução do sinal original, estes sinais são interpolados pela inserção de uma amostra nula entre cada duas, resultando os sinais u1(n) e u2(n), os quais são filtrados por um filtro passa-baixa k1(n) e por um filtro passa-alta k2(n), respectivamente. Obtemos, então, os sinais t1(n) e t2(n), que são somados de forma a gerar o sinal reconstruído ( )s n .

Fig. 4.18 Implementação de filtragem em duas sub-bandas seguida de recomposição

h1(n) k1(n)

x1(n) y1(n) u1(n) t1(n)

h2(n) k2(n)

x2(n) y2(n) u2(n) t2(n)

decimação 2:1 (F/2)

interpolação 1:2 (F)

s(n)

(F)

ˆ( )s n

(a)

1 ½ 0 π/2 π ω

(b) ( )1

jH e ω ( )2jH e ω

Page 114: Princípios de Comunicações

113

Banco de Filtros Espelhados em Quadratura Devido às características não ideais dos filtros utilizados para decomposição espectral do sinal de voz, o processo de decimação introduz componentes indesejáveis em cada um dos sinais nas sub-bandas, que são resultantes de uma superposição espectral. A utilização de filtros espelhados em quadratura designados pela sigla QMF (Quadrature Mirror Filter) permite, entretanto, que, após o processo de decimação, interpolação e recombinação dos sinais nas sub-bandas, o sinal resultante apresente distorções arbitrariamente pequenas. Isso é possível uma vez que as características desses filtros permitem o cancelamento das componentes resultantes de superposição espectral quando as bandas são recombinadas. Além disso, suas respostas em frequência se sobrepõem e se somam de tal forma que a resposta em frequência resultante para o banco de filtros é aproximadamente plana. Com a utilização de filtros QMF no esquema da Fig. 4.18, pode-se mostrar que

12

ˆ( ) ( 1)s n s n N= − + (4.53)

onde N é a ordem do filtro. Isso significa que o sinal reconstruído é uma réplica perfeita do sinal de entrada (a menos do fator ½ ), com um atraso de N – 1 amostras. A obtenção de um banco de M = 2m filtros QMF pode ser feita a partir da filtragem em duas sub-bandas, utilizando-se uma estrutura em árvore. No primeiro estágio de filtragem, o sinal é dividido em duas sub-bandas, sendo que os sinais em cada uma delas têm sua frequência de amostragem decimadas na razão 2:1. O segundo estágio consiste da composição espectral de cada um dos sinais nas sub-bandas em dois outros sinais, seguidos novamente de um processo de decimação na razão 2:1 e assim por diante. A reconstrução do sinal original se faz através de interpoladores, seguidos por filtros dispostos numa árvore simétrica à primeira. Para gerar sub-bandas com larguras distintas, ignora-se, simplesmente, na decomposição em árvore, os ramos apropriados. Uma decomposição em três sub-bandas, por exemplo, em que as duas sub-bandas inferiores têm faixa menor que a sub-banda superior, poderia ser feita ignorando-se a subdivisão do ramo correspondente à filtragem passa-alta(!). A Fig. 4.19 ilustra esse procedimento.

Fig. 4.19 - Decomposição em 3 sub-bandas através de uma estrutura em árvore

(!) Os ramos inferiores do esquema de decomposição em sub-bandas correspondem à filtragem passa-alta.

2:1

s(n)

2:1

s1(n)

2:1

2:1

s2(n)

s3(n)

Page 115: Princípios de Comunicações

114

Alocação de recursos binários Como foi visto anteriormente, os codificadores no domínio da frequência e, em particular, os codificadores em sub-bandas, têm a vantagem de poder controlar o ruído de quantização ao longo do espectro do sinal. Isso é feito através de uma alocação apropriada do número de bits disponíveis (recursos binários) às diversas sub-bandas. Uma possibilidade nesse sentido consiste em escolher uma distribuição do número de bits por sub-banda de modo a minimizar o valor médio quadrático da diferença entre o sinal na entrada do codificador s(k) e o sinal na saída do decodificador ˆ( )s k . Esse valor é expresso por

[ ] 2ˆ( ) ( )D E s k s k= − (4.54)

Considere um sistema com M sub-bandas em que o sinal de entrada tem variância 2sσ

e o sinal na i-ésima sub-banda, si(k) tem variância 2iσ . Deseja-se, então, determinar o número

de bits ni a ser usado na quantização do sinal na i-ésima sub-banda, si(k), i = 1, 2, ... M, de modo que D seja mínimo e que o número médio de bits por amostra do sinal de entrada seja uma constante igual a n . Note-se que, como o número de bits por amostra do sinal decimado na i-ésima sub-banda é ni, o número de bits por segundo usado para codificar essa sub-banda é niFi, onde Fi é a frequência de amostragem do sinal nessa sub-banda. Assim, a taxa de bits total é dada por

1

N

i i

i

R n F=

=∑ (4.55)

Para obter o número médio de bits por amostra do sinal de entrada, basta dividir R por F, a taxa de amostragem do sinal de entrada. A quantidade definida por

ii

Fw

F= (4.56)

corresponde à razão entre as taxas de amostragem (ou entre as larguras de faixa) do sinal na i-ésima sub-banda e do sinal de entrada. Assim, dividindo R por F e utilizando (4.56), a restrição de que o número médio de bits por amostra do sinal de entrada seja igual a uma constante n pode ser escrita como

1

M

i i

i

w n n=

=∑ (4.57)

Pode-se mostrar que, sob essa condição, a alocação de bits ótima é dada por

2

22

1

1log

2 k

i

ii wM

k

ki

wn n

w

σ

σ

=

= + ∏

, i = 1, 2, ....M (4.58)

Em uma alocação fixa dos recursos binários, o número de bits utilizados para a codificação do sinal em cada sub-banda é determinado a priori e, portanto, não varia ao longo do tempo. Entretanto, a alocação dos recursos binários pode também ser feita de forma dinâmica, através de algoritmos que fornecem, a cada intervalo de tempo τ, a distribuição de bits por sub-banda, julgada mais adequada para o sinal dentro daquele intervalo. Esse procedimento, embora mais complexo do que a alocação fixa, tem a vantagem de acompanhar melhor as variações espectrais do sinal de voz resultantes de sua não estacionariedade.

Page 116: Princípios de Comunicações

115

A alocação dinâmica dos recursos binários é realizada a cada bloco de amostras correspondente a um intervalo de τ segundos, durante o qual é razoável supor a condição de quase estacionariedade para o sinal de entrada. Tipicamente, τ é da ordem de 16 ms. Uma informação auxiliar, ou informação paralela, deve ser transmitida de modo que o decodificador também possa se adaptar ao sinal recebido. Essa informação adicional provoca, obviamente, um aumento da taxa de bits. Em muitos casos práticos, porém, utilizam-se, na alocação de bits, os mesmos parâmetros empregados para adaptação dos quantizadores. Nesses casos, portanto, o fato da alocação de bits ser dinâmica, não ocasiona nenhum acréscimo de taxa além do já existente. Codificação dos sinais nas sub-bandas Uma vez obtidos os sinais nas diversas sub-bandas e alocado o número de bits a cada sub-banda, resta agora codificar estes sinais. O primeiro aspecto importante a observar na escolha dos codificadores usados nas diversas sub-bandas é que, quando o número de sub-bandas é elevado, (M>4), o sinal dentro da sub-banda apresenta uma baixa correlação entre amostras. Isso é devido à sua faixa se tornar mais estreita quando M cresce e à amostragem ser feita em sua frequência de Nyquist. Assim, quando M for elevado, é preferível, em geral, utilizar codificadores PCM do que métodos de codificação diferencial (DPCM). Outro aspecto a ser considerado no procedimento de codificação diz respeito à configuração do quantizador. Dentre as possibilidades, uma consiste de um quantizador uniforme adaptativo cujo passo para o k-ésimo bloco de amostras da i-ésima sub-banda é dado por

,12 i

i ki n

V−∆ = (4.59)

onde Vi,k é o maior valor das amostras dentro do bloco e ni é o número de bits alocados à i-ésima sub-banda. Esta configuração que será aqui denotada por quantização V, tem a vantagem de evitar sobrecarga e, portanto, ceifagem do sinal. Codificação por Transformada A idéia básica do codificador por transformada consiste em multiplicar uma matriz B NxN por um vetor x que representa uma sequência de N amostras do sinal a ser codificado e quantizar separadamente os coeficientes do vetor resultante

y = Bx (4.60) Os coeficientes quantizados formam um novo vetor y . Este vetor é, então, transmitido e, no processo de decodificação, é transformado, através da matriz inversa B-1 no vetor

-1ˆ ˆ=x B y (4.61) que representa uma aproximação da sequência de amostras originais contidas no vetor x. A matriz da transformação pode ser expressa por

0

1

T

TN−

=

b

B

b

M (4.62)

onde b0, b1, ...bN-1 são chamados vetores base. Se a transformação for ortonormal

Page 117: Princípios de Comunicações

116

1;

0;T Ti j

i j

i j

== ≠

b b (4.63)

e o erro médio quadrático do sistema de codificação é igual ao erro médio quadrático de quantização total:

( ) ( ) ( ) ( )ˆ ˆ ˆ ˆT TE = Ε − − = Ε − −

x x x x y y y y (4.64)

Pode-se mostrar que a transformada ótima, ou seja, aquela que minimiza E , é composta pelos autovetores da matriz covariância da entrada. Esta transformada é conhecida como transformada de Karhunen-Loève. Embora a transformada de Karhunen-Loève seja ótima, em muitos sistemas práticos ela é substituída por outras transformadas (sub-ótimas), devido à sua excessiva complexidade. Uma dessas transformadas, que é, em geral, a mais usada, é a transformada cosseno discreta (DCT), cujo vetor base bk possui componentes definias por

( )2 12cos ; 0,1,... 1

2k

n kn N

N N

πα

+ = −

(4.65)

onde 1

2; 0

1; 0k

k

== ≠

(4.66)

A DCT pode ser calculada eficientemente, através da transformada discreta de Fourier (DFT), usando algoritmos da transformada rápida de Fourier (FFT). É importante também ressaltar que a DCT, embora sub-ótima, apresenta um desempenho próximo daquele obtido com a transformada de Karhunen-Loève. Codificação por Transformada Adaptativa Um método eficiente para codificação digital de sinais (em particular, sinais de voz a 16 kbit/s) é o método de codificação por transformada adaptativa (ATC). O diagrama em blocos do sistema ATC é mostrado na Fig. 4.20. Nesse sistema, o sinal de voz é dividido inicialmente em blocos de N amostras s(1), s(2), ...s(N)e normalizado através de uma estimativa ˆBσ do valor rms quantizado das amostras do bloco. Ou seja, cada amostra s(i) dentro de um bloco assume, após a normalização, o valor

( )ˆi

B

s ix

σ= (4.67)

Estas amostras formam um vetor x = (x1, x2,... xN) que é transformado para y = (y1, y2,... yN), usualmente através de uma DCT de N pontos. Os elementos de y representam componentes de frequência do sinal, que são codificadas separadamente através de codificadores PCM adaptativos. Na reconstrução do sinal, os elementos de y são decodificados e transformados por uma DCT inversa em um vetor x . Este vetor é multiplicado pelo fator de normalização Bσ , de modo a reconstruir as amostras do sinal. Assim como no codificador em sub-bandas, no método ATC, a alocação de bits deve ser feita de forma dinâmica, com o objetivo de acompanhar adequadamente as variações espectrais do sinalo ao longo do tempo.

Page 118: Princípios de Comunicações

117

Fig. 4.20 – Sistema ATC Os algoritmos utilizados para alocação de bits e adaptação dos quantizadores na ATC constituem os elementos fundamentais do sistema, uma vez que deles depende, em grande parte, o desempenho alcançado. Esses algoritmos dependem, essencialmente, de um conjunto de N parâmetros σ1, σ2,... σNque correspondem a uma estimativa dos desvios dos coeficientes (y1, y2,... yN) no domínio da transformada. Tal conjunto de parâmetros pode ser visto também como um modelo do espectro do sinal, chamado espectro-base. Em vez de se fazer a transmissão do espectro-base, este deve ser estimado a partir de um conjunto de parâmetros transmitidos como informação paralela, a cada bloco da amostras do sinal. Note-se, porém, que, para manter a eficiência do sistema de codificação, essa informação paralela deve conter o menor número possível de parâmetros, de modo a não

decodificador APCM1

decodificador APCMN

Estimação do espectro-base e alocação de bits

DCT inversa N pontos

do canal

x

ˆBσ

ˆ( )s i

÷÷÷÷ DCT

N Pontos

Cálculo e quantização

de σB

s(i)

codificador APCM1

y1

codificador APCMN

yN

Cálculo e quantização de parâmetros para

estimação do espectro-base

ˆBσ

Estimação do espectro-base e alocação de bits

x

y

para o canal

Page 119: Princípios de Comunicações

118

prejudicar a quantização da informação principal (y1, y2,... yN). A partir desses parâmetros, é feita a estimação de espectro base, tanto no codificador, como no decodificador.

A quantização das componentes no domínio da transformada é feita, após a sua normalização, pela estimativa do espectro-base. Ou seja, o que é quantizado é a razão yi/σi. O número de bits ni alocado para a quantização de cada coeficiente é determinado, em geral, a partir da expressão que minimiza o erro médio quadrático de quantização global (vide alocação de bits em codificadores em sub-bandas). Essa expressão é dada por

2 2

1

1log ( ) log ( ); 1,2,...

N

i i k

k

n n i NN

σ σ=

= + − =∑ (4.68)

onde n é o número médio de bits por amostra dedicados para transmissão da informação (vetor y). Os parâmetros associados ao espectro-base e o valor rms do bloco de amostras, σB, formam a informação paralela. Uma técnica proposta por Zelinski e Noll para estimação do espectro-base supõe um espectro-base suave. A partir dessa suposição, a técnica explora a similaridade de componentes de frequências adjacentes no domínio da DCT, tomando como representativas das componentes do espectro-base as médias dos valores quadráticos de componentes vizinhas. Mais especificamente, essa técnica consiste em, inicialmente, dividir o bloco de N componentes em L sub-blocos de M componentes. Os parâmetros a partir dos quais o espectro-base é estimado, são exatamente os valores médios quadráticos desses L sub-blocos, os quais são quantizados usualmente através de quantizadores logaritmicos de np bits por amostra. O valor RMS do bloco σB também utiliza o mesmo tipo de quantizador. A estimativa do espectro-base é obtida através de uma interpolação linear do logaritmo na base 2 dos parâmetros quantizados dos L sub-blocos. Tomando o anti-log, obtemos, finalmente, os parâmetros σ1, σ2,... σN que formam o espectro-base. Note-se, então, que nesse sistema, o espectro-base, composto de N coeficientes, é obtido a partir de apenas L parâmetros (L<<N). Assim, para cada bloco de amostras, (L+1)np bits são gastos para transmitir a informação paralela. A informação principal é codificada, em geral, utilizando-se quantizadores ótimos, projetados para entrada Gaussiana.

4.2.5 Codificação paramétrica Os sistemas de codificação anteriormente apresentados permitem uma reconstrução do sinal de voz com alta qualidade, porém, operam a taxas de bits relativamente elevadas (maiores do que 16 kbit/s). Para a taxa de 16 kbit/s, uma boa qualidade é obtida com as técnicas no domínio da frequência e, em 32 kbit/s, o ADPCM recomendado pelo CCITT é capaz de fornecer uma qualidade próxima daquela obtida com o log-PCM a 64 kbit/s. Nenhum desses codificadores, entretanto, fornece boa qualidade de voz a taxas mais baixas. Para codificar sinais de voz a taxas bastante reduzidas (abaixo de 9,6 kbit/s) é essencial que se utilize um modelo de produção da fala caracterizado por um número reduzido de parâmetros, a partir dos quais o sinal original possa ser reconstituído com um grau aceitável de fidelidade. Uma forma simplificada de um modelo de produção da fala é apresentado a seguir. O Modelo de Produção da Fala A voz é o resultado de vibrações originadas pela passagem do ar através das cordas vocais e pela ressonância destas vibrações no aparelho vocal. O aparelho vocal é um tubo acústico não uniforme que começa na glote (abertura entre as cordas vocais) e termina nos lábios, ou nas narinas, quando acoplado ao aparelho nasal. Sua forma pode ser variada com a

Page 120: Princípios de Comunicações

119

posição da língua, da mandíbula do palato e da úvula (campainha) que também controla o acoplamento com o aparelho nasal. Dependendo do som da fala a ser gerado, três mecanismos básicos de excitação podem ocorrer. No caso de sons sonoros, como as vogais, o fluxo de ar expelido dos pulmões provoca uma vibração das cordas vocais gerando uma sequência de pulsos quase periódicos de pressão de ar para excitação do aparelho vocal. Outra forma de excitação, usada para gerar sons fricativos surdos, como o som da letra f em fala, consiste em criar turbulência em contrições estreitas do aparelho vocal, produzindo uma fonte de ruído contínuo. O terceiro mecanismo de excitação, característico dos sons oclusivos, como o som da letra p em porta, consiste de um súbito desprendimento de excesso de pressão após um fechamento completo em algum ponto do aparelho vocal. As formas, ou envoltórias espectrais, dos sons da fala são determinadas pelas configurações geométricas do mecanismo vocal humano. Diferentes sons correspondem, univocamente, a diferentes formas espectrais, cada uma das quais caracterizada por um conjunto de frequências de ressonância denominadas formantes. A distinção entre os diversos tipos de som da fala está associada a variações temporais das formantes que são, tipicamente, em número de três, abaixo de 3 kHz. De maneira geral, pode-se dizer que os sons da fala são divididos em duas categorias principais – sonoros ou surdos – dependendo da presença ou ausência de vibração das cordas vocais. Para sons sonoros, o intervalo T0 entre picos adjacentes principais fornece uma medida do período fundamental da excitação. O inverso, F0, é a frequência fundamental, que pode variar de cerca de uma oitava durante a locução de uma sentença falada por uma pessoa. Valores médios típicos de F0 são 120 Hz para homens e 220 Hz para mulheres. Para sons surdos, a forma típica do sinal apresenta características de ruído e uma concentração de energia em altas frequências, evidenciada pelo grande número de cruzamentos de zero. Em geral, pode-se também dizer que estes sons são de intensidade mais baixa do que a de sons sonoros. Com base nas características fisiológicas da produção da fala, um modelo simplificado é mostrado na Fig. 4.21. Esse modelo consiste de uma fonte e(t) excitando um sistema com resposta ao impulso h(t) que caracteriza o aparelho vocal. Para sons sonoros, e(t) pode ser modelado por uma sequência de impulsos quase periódicos, cujo período T é determinado por um algoritmo adequado, de forma automática. Esse período é determinado em intervalos fixos, com duração da ordem de 30 ms, dentro do qual T pode ser considerado aproximadamente constante. Para sons surdos, e(t) pode ser modelado por um sinal do tipo ruído branco. O sinal de voz s(t) na saída do modelo da Fig. 4.21 é a convolução da função excitação com a resposta ao impulso do sistema que representa o aparelho vocal, isto é

( ) ( ) ( ) ( ) ( )t

s t e t h t e t h t dτ τ−∞

= ∗ = −∫ (4.69)

Tomando as magnitudes das transformadas de Fourier (designadas por letras maiúsculas) em ambos os lados de (4.69) resulta

( ) ( ) ( )S f E f H f= (4.70)

O espectro |S(f)| varia no tempo devido às variações de T0 ou do tipo do som (sonoro ou surdo) ou ainda à variação da forma do aparelho vocal |H(f)|, refletindo variações do aparelho vocal. Dessa forma, a análise dos parâmetros desse modelo deve ser feita em intervalos de curta duração (em torno de 30 ms), em que o sinal pode ser considerado aproximadamente estacionário. Estes parâmetros são os seguintes: (i) um parâmetro relacionado com a decisão entre sons sonoros ou surdos; (ii) o valor de T0 caso o som seja sonoro; (iii) parâmetros que caracterizam a envoltória espectral |H(f)|.

Page 121: Princípios de Comunicações

120

Fig. 4.21 - Modelo de produção da fala

Métodos de codificação paramétrica de sinais de voz Como foi visto, o modelo de produção da fala separa o espectro do sinal em duas parcelas: uma associada à excitação e outra ao aparelho vocal. Os métodos de codificação paramétrica, também chamados de análise/síntese, ou simplesmente de vocoders, buscam separar essas duas parcelas (análise) e recombiná-las de acordo com o modelo da Fig. 4.21 (síntese). Os diferentes esquemas existentes se distinguem pelas diversas escolhas dos parâmetros e pela forma de determiná-los. Para transmissão digital, esses parâmetros devem, obviamente, ser quantizados e transformados em bits. Observe-se que o parâmetro relativo à decisão sonoro/surdo necessita apenas de 1 bit por intervalo de análise. O método mais antigo de codificação paramétrica é o vocoder de canal e foi proposto por H. Dudley em 1939. Nesse método |H(f)| é representado, tipicamente, por 10 a 20 amostras, associadas ao conteúdo de potência média em diversas faixas ao longo do eixo das frequências. Essas amostras são obtidas filtrando-se o sinal por um banco de filtros passa-faixa e tomando-se a amplitude média do sinal em cada faixa de frequências. Outra possibilidade de caracterizar |H(f)| é através das formantes. Nesse caso, o número de parâmetros (tipicamente 3 para as frequências e 3 para as amplitudes) é bem reduzido, possibilitando operações a taxas de bits inferiores às utilizadas pelo vocoder de canal. O método baseado nessa caracterização de |H(f)| é chamado vocoder formante. Um método mais recente de codificação paramétrica de sinais de voz é o vocoder de predição linear (vocoder LPC). A idéia sobre a qual esse esquema é baseado consiste em representar cada amostra de voz si como a saída de um filtro linear variante no tempo, com excitação ei, de forma que

1

p

i i j i j

j

s e a s−=

= +∑ (4.71)

onde aj; j = 1, 2, ...p são chamados coeficientes de predição linear ou coeficientes LPC. Esses coeficientes definem um filtro digital que caracteriza a resposta ao impulso do sistema. Por outro lado, a função excitação ei pode ser interpretada com um erro de predição (resíduo) uma vez que ela representa a diferença entre si e uma predição linear de si a partir de amostras passadas. Testes de escuta indicam um vocoder LPC convencional deve usar um valor mínimo de p igual a 8 e que não há vantagem em usar um valor de p maior do que 12. Embora não caiba incluí-las no presente texto, é importante ressaltar que um número muito grande de outras técnicas de análise-síntese tem sido desenvolvidas e que todas essas técnicas têm encontrado diversas aplicações em comunicações entre pessoas e entre pessoas e máquinas. Com o contínuo desenvolvimento de técnicas dessa natureza, é possível prever que a codificação digital de sinais de voz encontrará aplicações significativas cada vez maiores nas comunicações modernas.

Trem de impulsos

Ruído

t0

Aparelho vocal

sistema h(t)

Controle sonoro/surdo

e(t) s(t)

... t0

Page 122: Princípios de Comunicações

121

4.3 - EXERCÍCIOS

4.1 Uma fonte discreta sem memória tem um alfabeto de 8 símbolos com probabilidades dadas por 0,25 0,20 0,15 0,12 0,10 0,08 0,05 e 0,05. (a) use o procedimento de codificação de Huffman para determinar um código binário para a saída da fonte; (b) calcule o número médio de dígitos binários por palavra código; (c) determine a entropia da fonte e compare com o resultado do item anterior. 4.2 Um quadro de imagem de TV é gerado através de um ponto luminoso que se desloca na tela formando um conjunto de 525 linhas. Suponha que, em cada linha, o ponto luminoso possa ocupar 600 posições distintas. Considerando todas as linhas, isto leva a um total de 315000 posições (pixels). Para cada pixel, suponha que existem 8 níveis de brilho e 3 níveis de cor, e que todas as combinações destes níveis tenham a mesma probabilidade. (a) calcule a entropia de cada pixel; (b) calcule a entropia de um quadro. 4.3 Um sinal é amostrado a uma taxa de 2000 amostras/s e, estas amostras são quantizadas nos níveis 0, ±1, ±2, ... ±7. (a) calcule a mínima taxa de bits por segundo quando todos os níveis de quantização são codificados (sem ambiguidade) com o mesmo número de bits; (b) sabendo que a probabilidade de ocorrência de um nível i ≠ 0 é dada por

1

1( )

2iP i

+=

determine a mínima taxa de bits por segundo, caso seja utilizada uma codificação com número diferente de bits por nível de quantização. 4.4 O sinal ( ) 4 (2 )cs t sen f tπ= , onde fc = 4 kHz é amostrado a uma taxa de 12000 amostras/s. (a) Considerando 3 amostras sucessivas, a partir de t = 0, determine a sequência de bits na saída de um sistema PCM com quantizador e tabela de codificação mostrados na Fig. E4.4.

Fig. E4.4

1 2 3 4 s

2,5

0,5

z

3,5

1,5

3,5 011 2,5 010 1,5 001 0,5 000 -0,5 111 -1,5 110 -2,5 101 -3,5 100

Page 123: Princípios de Comunicações

122

4.5 Determine a razão sinal-ruído de quantização para um quantizador uniforme de 8 bits, quando o sinal a ser quantizado é a função periódica “dente de serra” da Fig. E4.5, onde τ é uma variável aleatória uniformemente distribuída entre –T/2 e T/2.

Fig. E4.5 4.6 A transmissão PCM de um sinal de voz utilizando quantização uniforme de 7 bits é projetada para operar, sem sobrecarga, com razão sinal-ruído de 35 dB. Supondo que o sinal de voz tem função densidade de probabilidade de Laplace, calcule a probabilidade de sobrecarga. 4.7 Um sinal de voz com função densidade de probabilidade de Laplace é transmitido através de um sistema PCM de 7 bits com quantização uniforme e probabilidade de sobrecarga igual a 10-3. Calcule aproximadamente a razão sinal-ruído de quantização usando (4.22). 4.8 A codificação PCM de um sinal de audio, cuja frequência máxima é igual a 15 kHz, deve ser feita com quantizador uniforme e razão sinal-ruído maio ou igual a 36 dB. Supondo um fator de carga igual a 4, determine o menor valor possível da taxa de bits na transmissão deste sinal. 4.9 A função autocorrelação de um sinal analógico s(t), cuja frequência máxima é fm, é dada por

2 1( ) [ ( ) ( )] cos ; | |

5m

s sm

fR E s t s t

f

ττ τ σ τ = − = ≤

Este sinal deve ser digitalizado e transmitido através de um sistema DPCM com quantizador uniforme e com razão sinal-ruído maior ou igual a 40 dB. Supondo uma predição linear de primeira ordem, isto é, com base na amostra anterior, compare a taxa de bits da transmissão (a) para codificação com 4 bits; (b) para codificação com 5 bits. Obs: considere um fator de carga igual a 4 para o sinal a ser quantizado, isto é o erro de predição. 4.10 Considere um sinal de voz, com função densidade de probabilidade de Laplace dada no Exemplo 4.2, quantizado por um quantizador uniforme de n bits. Usando a aproximação yN = xN, calcule (a) as variâncias do ruído de sobrecarga e do ruído de quantização granular em função do fator de carga L = V/σs e de σs; (b) a expressão da razão sinal-ruído total (sobrecarga + granular); (c) faça um gráfico da razão sinal-ruído de quantização total, em função de L, para n = 8; (d) determine o o valor de L que corresponde ao valor máximo da razão sinal-ruído

-τ-T/2 τ τ+T/2 t

V

-V

s(t)

Page 124: Princípios de Comunicações

123

5. TRANSMISSÃO DIGITAL Como explicado anteriormente, a comunicação digital é geralmente precedida pela codificação da mensagem, que produz uma sequência de bits. O sistema de transmissão digital tem a finalidade de transmitir estes bits a um destinatário através de um sinal eletromagnético. No destino, um receptor observa uma versão do sinal transmitido (modificada pelo canal e corrompida por ruído) e procura determinar a sequência de bits que foi transmitida através deste sinal. Finalmente, o decodificador da fonte transforma os bits recebidos em uma mensagem. Este conjunto de operações está representado na Fig. 5.1. Neste capítulo, serão apresentados os princípios da transmissão digital, as estruturas do transmissor e do receptor e os sistemas básicos de transmissão digital.

Fig. 5.1 - Modelo de um sistema de comunicação digital

5.1 MODELO GERAL DO TRANSMISSOR E DO RECEPTOR

O modelo básico do transmissor em um sistema de transmissão digital está representado na Fig. 5.2. Inicialmente, define-se um bloco de L bits como a mensagem m a ser transmitida. Em seguida, gera-se um sinal analógico s(t) para transmitir esta mensagem. O processo se repete periodicamente, a cada nova sequência de L bits de entrada. Cada padrão diferente do bloco de L bits corresponde a uma mensagem distinta e o número total de mensagens distintas é dado por M = 2L

. Tem-se, portanto, um conjunto de mensagens m1, m2,... mM associado a um conjunto de sinais s1(t), s2(t),... sM(t); por definição, a mensagem m = mi é transmitida através do sinal s(t) = si(t).

Fonte Codificador da Fonte

Transmissor (modulador)

1 0 0 1 1 1 0 0 1 bits

s(t)

Receptor (demodulador)

sinal recebido

ruído

1 0 0 1 1 1 0 1 1 bits

sinal transmitido

Decodificador da Fonte

mensagens

mensagens

Transmissão digital

r(t)

Page 125: Princípios de Comunicações

124

Fig. 5.2 -Modelo geral do transmissor de um sistema de transmissão digital

Na Fig. 5.3 representa-se o modelo geral do receptor em um sistema de transmissão digital, onde o canal não introduz atenuação ou distorção no sinal transmitido s(t) e a única perturbação é a adição de um ruído n(t), na entrada do receptor(!). Neste caso, o sinal na entrada do receptor será r(t) = s(t) + n(t). Observando r(t), o receptor deve decidir qual dos sinais, s1(t), s2(t), ... sM(t), foi transmitido, o que equivale a decidir qual das mensagens m1,

m2,... mM foi transmitida. Na Fig. 5.3 m representa a mensagem escolhida e 1 2ˆ ˆ ˆ, .... Lb b b os

bits correspondentes. Idealmente, m=m e b1, b2, ...bL= 1 2ˆ ˆ ˆ, ,.... Lb b b , respectivamente, mas

podem ocorrer erros. Note que, embora o receptor não saiba qual sinal foi transmitido, ele tem pleno conhecimento do conjunto de sinais si(t).

Fig. 5.3 – Modelo genérico do receptor

Pode-se mostrar que, se o ruído n(t) for branco Gaussiano, como definido no Capítulo 6, e as mensagens forem equiprováveis, a regra de decisão ótima corresponde a escolher, entre os possíveis sinais transmitidos si(t), aquele que estiver à menor distância do sinal recebido r(t), definindo-se a distância iε entre os sinais si(t) e r(t) através da expressão

[ ]22 ( ) ( )i ir t s t dtε∞

−∞= −∫ (5.1)

Pode-se observar que o valor mínimo de εi será zero e ocorrerá se e somente se r(t)=si(t). Exemplo 5.1

Suponha que são transmitidos os sinais s1(t), s2(t) e s3(t) representados na Fig 5.4 e que o sinal observado no receptor é a forma de onda r(t), também representada na mesma figura. Pode-se verificar que o receptor de mínima distância escolhe o sinal s1(t), uma vez que este sinal está à menor distância de r(t). Isto é feito calculando-se as distâncias entre r(t) e cada um dos 3 sinais, através de (5.1), ou seja,

(!) Como será visto no Capítulo 6, o ruído é gerado nos dispositivos eletrônicos do receptor e seu efeito é geralmente levado em conta através de um ruído equivalente, colocado na entrada do receptor. Este ruído é um processo aleatório Gaussiano com média nula e densidade espectral de potência constante, geralmente chamado de Ruído Branco Gaussiano.

Receptor

1 2 1 2ˆ ˆ ˆ , ... , ....M Lm m m m b b b∈ →)

r(t)

si(t) n(t)

s(t)

Transmissor Bits

b1, b2, ...bL →m∈ m1, m1, ...mM

Sinal

s(t)∈ s1(t),..sM(t)

Page 126: Princípios de Comunicações

125

εεε

12 2

22 2

32 2

2

10

4

=

=

=

A T

A T

A T

Fig. 5.4 – Ilustração do Exemplo 5.1

A expressão (5.1) pode ser desenvolvida e colocada na seguinte forma:

εi i ir t dt r t s t dt s t dt2 2 22= − +−∞

−∞

−∞

∫ ∫∫ ( ) ( ) ( ) ( ) (5.2)

No processo de decisão, (5.2) deve ser calculada para todo valor de i. O menor valor indicará o sinal si(t) a ser escolhido. Note, então, que o primeiro termo de (5.2) não depende de i e, sendo assim, não influi na decisão. Eliminando este termo, e multiplicando os outros por -1/2, pode-se estabelecer um procedimento equivalente de decisão que consiste em calcular a expressão

21( ) ( ) ( )

2i i ir t s t dt s t dtγ∞ ∞

−∞ −∞= −∫ ∫ (5.3)

para i = 1, 2, ... M e tomar o valor de i que leva ao maior valor de γi como o índice da mensagem transmitida. Note que o primeiro termo do lado direito de (5.3) é a correlação temporal entre o sinal recebido r(t) e o sinal si(t) e o segundo termo é a metade da energia do sinal si(t). Com base na expressão (5.3), pode ser estabelecida uma estrutura básica genérica para os receptores digitais, que será ótima quando a única perturbação do canal for adição de ruído branco Gaussiano. Esta estrutura, que implementa o cálculo da mínima distância, está mostrada na Fig. 5.5 onde Ei representa a energia do sinal si(t).

0 T t 0 T 2T t 0 2T t

s1(t) s2(t) s3(t)

0 T 2T t

r(t)

2A 2A

A

A

-A

Page 127: Princípios de Comunicações

126

Fig. 5.5- Receptor de mínima distância para M sinais utilizando correlacionadores Receptor de mínima distância para sinais binários Para o caso binário, com sinais s1(t) e s2(t), o receptor de mínima distância se reduz à estrutura da Fig. 5.6. Observando a figura, podemos verificar que ela corresponde à seguinte regra de decisão

1 21 2 1

2

( ) ( ) ( ) ( )2 2

caso contrário

E Er t s t dt r t s t dt m m

m m

∞ ∞

−∞ −∞− ≥ − ⇒ =

⇒ =∫ ∫

)

)

(5.4)

Fig. 5.6 – Receptor de mínima distância para sinais binários Movendo e agrupando termos na desigualdade em (5.4), chega-se à seguinte regra de decisão equivalente

−∞∫

−∞∫

-E1/2

-E2/2

escolhe o maior

r(t)

s1(t)

s2(t)

−∞∫

-EM/2

sM(t)

−∞∫

−∞∫

-E1/2

-E2/2

escolhe o maior

r(t) s1(t)

s2(t)

Page 128: Princípios de Comunicações

127

2 1 2

1

ˆ( )[ ( ) ( )]

ˆ

r t s t s t dt m m

casocontrário m m

λ∞

−∞− ≥ ⇒ =

⇒ =∫ (5.5)

onde

2 1

2

E Eλ −= (5.6)

Esta regra de decisão pode ser implementada também através do esquema da Fig. 5.7, onde se vê que o receptor ótimo de um sistema binário deve fazer a correlação do sinal recebido com a diferença entre os dois sinais usados na transmissão. O resultado deve ser comparado com a metade da diferença entre as energias daqueles sinais. Este valor de referência é denominado limiar e o dispositivo que faz esta comparação é denominado detetor de limiar.

Fig. 5.7 – Receptor de mínima distância para sinais binários – versão reduzida 5.1.1 Filtro casado

Define-se um filtro casado a um sinal g(t) como o filtro cuja resposta ao impulso é dada por

0( ) ( )h t g t t= − (5.7)

A obtenção do filtro casado está ilustrada na Fig. 5.8. Note que, se g(t) se anular para t > T, o filtro casado só será realizável(!) se t0 ≥ T.

Fig. 5.8 – Obtenção do filtro casado

(!) Como foi visto na Seção 2.5.1, um filtro só é fisicamente realizável se for causal, isto é, se h(t) = 0 para t < 0.

−∞∫><

2 1?2

E E−

r(t)

s2(t)-s1(t)

0 T t

g(t)

-T 0 t

g(-t)

-T 0 t

g(t0-t)

t0

Page 129: Princípios de Comunicações

128

Propriedade fundamental do filtro casado Seja x(t) o sinal de entrada em um filtro casado de resposta ao impulso h(t) = g(t0-t). O sinal de saída no instante t0 será dado por

0( ) ( ) ( )y t x t g t dt∞

−∞= ∫ (5.8)

o que corresponde à correlação temporal entre x(t) e g(t). Esta propriedade está ilustrada na Fig. 5.9(a), considerando uma entrada qualquer, x(t), e na Fig. 5.9(b) para uma entrada igual a g(t). Neste caso, y(t0) será igual à energia de g(t). Para demonstrar a propriedade, basta aplicar, inicialmente, a relação geral entre saída e entrada de um sistema linear

( ) ( ) ( )y t x h t dτ τ τ∞

−∞= −∫ (5.9)

Substituindo a definição do filtro casado dada por (5.7) em (5.9), obtemos

y t x g t t d( ) ( ) ( )= − +−∞∞∫ τ τ τ0 (5.10)

Fazendo t = t0, chegamos a (5.8), demonstrando a propriedade.

Fig. 5.9 – Propriedade fundamental do filtro casado; (a) caso geral; (b) caso particular

5.1.2 Receptores com filtro casado A propriedade fundamental do filtro casado apresentada acima, permite que o receptor de mínima distância representado na Fig. 5.5 seja implementado através de filtros casados. Em particular, o receptor de um sistema binário representado na Fig 5.7 pode ser implementado por um filtro casado ao sinal diferença

sd(t) = s2(t)-s1(t) (5.11) seguido de um amostrador, como mostra a Fig 5.10.

h(t) = g(t0-t)

t0

x(t) y(t)

0( ) ( ) ( )y t x t g t dt∞

−∞= ∫

(a)

(b)

h(t) = g(t0-t)

t0

g(t) y(t)

20( ) ( ) gy t g t dt E

−∞= =∫

Page 130: Princípios de Comunicações

129

Fig. 5.10 - Receptor de mínima distância para sinais binários utilizando filtro casado Note que, se multiplicarmos por uma constante a resposta ao impulso do filtro, h(t), a decisão do receptor será a mesma, desde que o valor de referência da comparação, isto é, o limiar, seja multiplicado pela mesma constante. Na prática, é impossível construir filtros perfeitamente casados, e sendo assim, é conveniente analisar a estrutura do receptor quando o filtro não for casado. Para isso, vamos estabelecer o modelo mais geral da Fig. 5.11, onde o filtro de recepção é um filtro qualquer, com resposta ao impulso h(t) e, neste caso, o limiar deverá ser determinado em função deste filtro. A expressão mais geral para o limiar, genericamente representado por λ, é a média aritmética dos 2 possíveis valores observados na entrada do detetor de limiar, quando não há ruído no canal (condição ideal). Estes valores são dados por

01 0 1( ) ( ) ( ) |t ts t s t h t =′ = ∗ (5.12)

02 0 2( ) ( ) ( ) |t ts t s t h t =′ = ∗ (5.13)

Assim, a expressão geral para o limiar é

1 0 2 0( ) ( )

2

s t s tλ′ ′+

= (5.14)

Em resumo, a estrutura geral do receptor de um sistema de transmissão binário consiste de um filtro de recepção, um amostrador e um comparador ou detetor de limiar. Idealmente, o filtro deve ter uma resposta ao impulso casada ao sinal diferença, isto é, h(t) = sd(t0-t). Neste caso, pode-se verificar que

2 1

2

E Eλ −= (5.15)

Fig. 5.11- Estrutura geral do receptor digital para sinais binários A operação do detetor da Fig. 5.11 pode ser mais bem entendida com ajuda da Fig. 5.12. Nesta figura, representamos os dois possíveis valores idealmente obtidos pelo amostrador na ausência de ruído, cada um associado a um dos símbolos transmitidos. Com a presença do ruído, qualquer valor pode ser obtido pelo amostrador e, neste caso, devemos optar por um dos dois símbolos. O critério é decidir pelo símbolo que estiver mais próximo e, sendo assim, o limiar deve ser colocado no ponto médio entre os dois valores ideais.

≥λ r(t)

h(t)

t0

r´(t)

2m m=)

><

2 1 ?2

E E−

r(t) h(t) = sd(t0-t)

t0

Page 131: Princípios de Comunicações

130

Fig. 5.12 – Representação geométrica das amostras e regra de decisão no detetor de limiar do receptor binário Como veremos no Capítulo 8, o desempenho do receptor depende essencialmente da diferença entre os valores 2 0( )s t′ e 1 0( )s t′ , isto é,

2 0 1 0( ) ( )d s t s t′ ′= − (5.16) Quanto maior esta diferença, menor será o número de erros eventuais do receptor ao fazer a deteção da mensagem em presença de ruído. O parâmetro d pode ser visto como a distância entre os sinais no detetor de limiar. Note que a distância d também pode ser expressa por

[ ]02 1( ) ( ) ( ) |t td s t s t h t == − ∗ (5.17)

ou seja, d equivale à saída do filtro h(t) no instante t0 quando a entrada é o sinal diferença definido em (5.11). No caso do filtro casado, podemos verificar, com base nas propriedades ilustradas na Fig. 5.9, que

[ ]22 1( ) ( )sdd E s t s t dt

−∞= = −∫ (5.18)

Desenvolvendo o integrando podemos expressar Esd como

1 2 1 22 ( ) ( )sdE E E s t s t dt∞

−∞= + − ∫ (5.19)

Definindo a Energia Média como

1 2

2sE E

E+= (5.20)

podemos escrever

1 22 2 ( ) ( )sd sE E s t s t dt∞

−∞= − ∫ (5.21)

Pode-se mostrar (Exercício 5.6) que, para um determinado valor da energia média Es, a energia do sinal diferença - que equivale à distância entre os sinais na deteção ótima - pode ser maximizada escolhendo s2(t) = - s1(t). Neste caso Esd = 4Es. Exemplo 5.2 Na Fig. 5.13 são representados, graficamente, nos quadros (a) (b) e (c), três pares de sinais utilizados numa transmissão digital binária, os respectivos sinais diferença e as

s 1(t0) s 2(t0) r´(t0)

Decide por m2 Decide por m1

m2 m1

λ

Page 132: Princípios de Comunicações

131

respostas ao impulso dos filtros casados do receptor ótimo. Em cada quadro, são apresentados ainda os valores das energias relacionadas ao desempenho do recetpor assim definidas:

• Ei : energia do sinal si(t) • Es : energia média dos sinais • Esd : energia do sinal diferença, correspondente à distância d entre os sinais

Fig. 5.13 – sinal diferença, filtro casado e parâmetros de alguns pares de sinais.

Sinais com forma retangular Quando os sinais usados na sinalização binária são pulsos retangulares de amplitude qualquer, como representado na Fig. 5.13, o processamento no receptor pode ser simplificado. Para os sinais da Fig. 5.13 (a) e (b), a expressão (5.5) correspondente ao receptor ótimo da Fig 5.7 ficará reduzida a

20

ˆ( )T

A r t dt m mλ> ⇒ =∫ (5.22)

onde λ é dado por (5.14). Dividindo os 2 lados de (5.22) por A obtemos então a regra de decisão

20

ˆ( )T

r t dt m mA

λ> ⇒ =∫ (5.23)

0 T t

A

s2(t)

0 T t

A

s1(t)=0

sd(t) (a)

A

sd(t0-t) ; t0 = T E2 = A2T

E1 = 0

Esd = A2T

Es = A2T/2

d = 2Es

0 T t

0 T t

A

A

T 2T t

0 T 2T t

A

-A

s2(t)

s1(t)

sd(t)

(c)

sd(t0-t) ; t0 = 2T

0 T 2T t

A

-A

E2 = A2T

E1 = A2T

Es = A2T

Esd = 2A2T

d = 2Es

0 T t

A/2

-A/2

s2(t)

s1(t)

(b)

E2 = A2T/4

E1 = A2T/4

Es = A2T/4 sd(t)

Esd = A2T

d = 4Es

A A

0 T t 0 T t

sd(t0-t) ; t0 = T

Page 133: Princípios de Comunicações

132

o que corresponde ao esquema da Fig. 5.14, onde o sinal de entrada é integrado no intervalo [0,T] e o resultado comparado com o limiar λ/A. Note que, para os sinais simétricos da Fig 5.13 (b), λ = 0 e, assim, a utilização do integrador não modifica o limiar original.

Fig. 5.14 – receptor de um sistema on-off com pulso retangular O processamento da Fig. 5.14 pode ser implementado usando um simples capacitor e um amostrador. Alimentando o capacitor com uma corrente r(t) sabemos que a voltagem nos seus terminais é dada por

1( ) ( )

t

v t r dC

τ τ−∞

= ∫ (5.24)

Assim, podemos expressar a variável x na entrada do detetor de limiar como

[ ]( ) (0)x C v t v= − (5.25)

ou seja, x será proporcional à diferença entre as voltagens de saída do capacitor nos instantes t= T e t = 0. 5.2 – SISTEMAS DE MODULAÇÃO DIGITAL Como já definimos anteriormente, denomina-se modulação a geração de um sinal com propriedades adequadas à transmissão através de um determinado meio físico. Assim, a modulação é o principal processamento realizado pelo transmissor de um sistema de comunicação. No caso da transmissão digital, a modulação é denominada modulação digital. O modelo básico de um modulador digital está representado na Fig. 5.15 onde observamos que a modulação apresenta duas etapas. A primeira delas consiste em associar ao grupo de L bits de entrada (mensagem) um símbolo que, em geral, corresponde a um ou mais parâmetros de um sinal. A segunda etapa consiste em gerar o sinal com os parâmetros selecionados. A escolha do símbolo associado aos L bits de entrada é feita através de uma tabela de mapeamento, ou seja, um código de bloco. O sinal pode ser um pulso ou uma portadora senoidal. O processo se repete periodicamente, a cada nova sequência de L bits de entrada. O número de símbolos distintos é dado pelo número de sequências distintas de L bits, isto é M = 2L

. Tem-se, portanto, um conjunto de mensagens m1, m2,... mM associadas a um conjunto de símbolos s1, s2,... sM e a um conjunto de sinais s1(t), s2(t),... sM(t). Em uma transmissão, ao chegar a mensagem m = mi, é selecionado o símbolo s = si e o sinal correspondente s(t) = si(t).

0

T

∫ r(t)

≥ λ/A

2m m=)

x

Page 134: Princípios de Comunicações

133

Fig. 5.15 - Modelo geral de um modulador digital Energia e Potência Da mesma forma que na transmissão analógica, a energia e a potência dos sinais são parâmetros importantes dos sistemas de transmissão digital. Uma vez que na transmissão digital existe um conjunto de possíveis sinais a serem usados, deve-se determinar a média das energias destes sinais. Para M sinais equiprováveis, a Energia Média dos sinais transmitidos é a média aritmética das energias de cada um dos sinais, isto é,

∑=

=M

iis E

ME

1

1 (5.26)

onde

∫∞

∞−= dttsE ii )(2 (5.27)

A potência média é dada por

ss

EP

T= (5.28)

onde T é o intervalo em que é feita a transmissão.

5.2.1 Sistemas com modulação de pulsos em amplitude Quando não há necessidade de fazer uma translação de frequência no espectro do sinal a ser transmitido, a transmissão digital é feita geralmente através de pulsos de baixa frequência. Embora outros parâmetros, como duração e posição, possam ser utilizados, o sistema de modulação de pulsos em amplitude designado pela sigla PAM (Pulse Amplitude Modulation) é geralmente empregado. Esta forma de transmissão é também conhecida como transmissão em banda básica. O sinal transmitido em um sistema PAM tem a forma geral

)()( tagts = (5.29)

onde g(t) é um pulso de baixa frequência e a é uma amplitude escolhida em um conjunto de amplitudes Ai, i = 1, 2,… M. Observando o modelo da Fig. 5.16, podemos dizer que neste caso, os símbolos são as amplitudes do pulso g(t). O modelo específico do transmissor PAM está mostrado na Fig. 5.16.

Código Geração do sinal

símbolo

s∈ s1,... sM

Modulador Digital

Sinal modulado

s(t)∈ s1(t),..sM(t)

Bits b1, b2, ...bL → m∈ m1, m1, ...mM

Page 135: Princípios de Comunicações

134

Fig. 5.16 - Diagrama do transmissor PAM A seguir, são definidos alguns sistemas típicos através dos possíveis valores da amplitude a. São apresentados, também, os valores da energia média do conjunto de sinais, Es, em função da energia do pulso g(t), Eg. Note que

2s gE a E= (5.30)

onde

2 2

1

1M

i

i

a AM

=

= ∑ (5.31)

PAM on-off

2

0,2s ga E E

∆= ∆ = (5.32)

PAM-2 simétrico

2

/ 2, / 24s ga E E

∆= −∆ +∆ = (5.33)

PAM simétrico multinível

22( 1)

, 3 , ... ( 1)2 2 2 12s g

Ma M E E

∆ ∆ ∆ −= ± ± ± − = ∆ (5.34)

Exemplo 5.3 Na Fig. 5.17 apresentamos dois exemplos de sinais PAM simétricos, um conjunto binário e o outro quaternário, associados aos grupos de bits (mensagens ou símbolos) que representam. Para o conjunto binário, mostrado na Fig. 5.17 (a) temos

21 2 sE E E A T= = =

Para o conjunto quaternário da Fig. 5.17 (b)

22 3E E A T= =

21 4 9E E A T= =

2 222 2 9

54s

A T A TE A T

+ ×= =

Bits

b1, b2, ...bL

Modulador PAM

s(t) = ag(t) Código

a∈ A1,... AM

Pulso g(t)

Sinal PAM

Page 136: Princípios de Comunicações

135

Fig. 5.17 – Conjunto de sinais em um transmissão PAM-simétrica - (a) binária - (b) quaternária Receptor para sistemas PAM binários Obviamente, o receptor de um sistema PAM binário deve ter a estrutura do receptor para dois sinais quaisquer, mostrada nas Figs. 5.10 e 5.11. Para o receptor de mínima distância implementado através de filtro casado (Fig. 5.10), o sinal diferença terá a forma de g(t) e, neste caso, a resposta ao impulso do filtro casado poderá ser escrita, genericamente como

h(t)=Kg(t0-t) (5.35) A decisão sobre a mensagem transmitida m equivale à escolha da amplitude transmitida a , como representado na Fig 5.18. O processo de decisão pode ser determinado representando os dois possíveis valores obtidos pelo amostrador na ausência de ruído, como na Fig. 5.19. Neste caso, como s(t) é dado por (5.29) temos após o filtro,

r´(t0) = ag (t0) (5.36) onde

g´(t) = g(t)*h(t) (5.37) No caso do filtro de recepção ser casado, g´(t0) = KEg e, neste caso,

r´(t0) = aKEg (5.38) Considerando os valores possíveis de a, obtemos a representação da Figs 5.19 (a) e (b).

Fig. 5.18– Diagrama do receptor do sistema PAM binário

r(t) h(t)

t0

r´(t)

a

Detetor de Limiar

t

00 → s1(t)

t -A

t

-3A

t A

3A

01→ s2(t)

10→ s3(t)

11→ s4(t)

t

t -A

A 1→ s2(t)

0→ s1(t)

(a) (b)

Page 137: Princípios de Comunicações

136

Fig. 5.19 – Representação geométrica das amostras e regra de decisão no detetor de limiar dos sistemas (a) PAM on-off e (b) PAM-2. Exemplo 5.4 Considere a transmissão PAM on-off com um pulso retangular g(t) de amplitude unitária e de duração T. Temos, então, na Fig. 5.20 (a), os dois sinais, s1(t) e s2(t), e o sinal diferença sd(t). Definindo, arbitrariamente, o instante de amostragem como t0 = 2T, o filtro casado a ser usado no receptor de mínima distância da Fig. 5.10 está mostrado na Fig. 5.20(b). Quando o sinal transmitido é s2(t), a saída do filtro casado s 2(t) é a convolução s2(t)*h(t) mostrada na Fig. 5.20 (c). Note que o valor máximo de s 2(t), obtido em t = t0, é igual à energia de s2(t). Os dois valores observados na ausência de ruído estão mostrados na Fig. 5.20 (d). Como foi observado anteriormente, para sistemas PAM, a resposta ao impulso do filtro casado é dada, genericamente, por Kg(t0-t). No cálculo precedente, ao definir h(t)=sd(t0-t), fizemos K = ∆. Dependendo dos valores de ∆ e T, o valor da amostra s 2(t0), genericamente dado por ∆2T, pode resultar muito pequeno, ficando inadequado para a implementação do detetor. Suponha, como exemplo, que ∆ = 2x10-3 e T =1 ms. Neste caso, s 2(t0) = 4×10-9. Para amplificar o sinal na saída do filtro casado, podemos escolher, convenientemente, o valor de K. Por exemplo, se K = 103, isto é, se h(t) = 103×g(t0-t), o valor de s2(t) obtido anteriormente ficaria multiplicado por 103/∆ = 0,5x106. Neste caso, o diagrama da Fig. 5.20 (d) ficaria com os valores indicados na Fig 5.20 (e), ou seja, a comparação seria feita com um limiar de 1 mV.

∆g´(t0) r´(t0) 0

ˆ 0a = a = ∆

λ

-(∆/2)g´(t0)

ˆ / 2a = −∆ ˆ / 2a = ∆

λ = 0 (∆/2)g´(t0) r´(t0)

d

(a)

(b)

Page 138: Princípios de Comunicações

137

Fig. 5.20 – Ilustração para o Exemplo 5.4

Exemplo 5.5

Neste exemplo, consideramos a mesma transmissão binária PAM on-off do exemplo anterior, mas, em vez de um filtro casado, usamos, no receptor, um filtro passa-baixa RC definido pela resposta ao impulso

( ) ( )th t e u tαα −=

Neste caso, 2 2( ) ( ) ( )ts t s t e u tαα −′ = ∗ . Fazendo a convolução, obtemos

( )( )2

1 ; 0( )

1 ;

t

t T

e t Ts t

e e t T

α

α α

∆ − ≤ ≤′ = ∆ − ≥

O sinal 2( )s t′ está mostrado na Fig 5.21. Obviamente, 1( ) 0s t′ ≡ .

0 T t

t

s2(t)

s1(t)=0

0 T t

sd(t) = ∆g(t) (a)

-T 0 T 2T t

h(t)=sd(t0-t) sd(-t)

(b)

0 T 2T 3T t

∆2T s 2(t)

(c)

0 ∆2T r´(t0) (d)

0 10-3 2x10-3 r´(t0) (e)

t0=2T

d

Page 139: Princípios de Comunicações

138

Fig. 5.21– resposta do filtro RC a um pulso retangular

Observando a forma de 2( )s t′ , podemos concluir que o melhor instante de amostragem é o instante t0 =T, onde a função é máxima. Então,

2 0( ) (1 )Ts t e α−′ = ∆ −

onde ∆ = 2x103 e T = 2x10-3. Fazendo a transformada de Fourier de h(t) obtemos

1( )

21

H ff

jπα

=+

Verificamos, então, que a constante α é igual à largura de faixa de 3 dB do filtro, expressa em radianos/s e uma questão importante é como determinar esta largura de faixa para obter o melhor desempenho do receptor. Observe que, quanto maior for o valor de α, maior é o valor de 2 0( )s t′ . Mas, aumentando a faixa do filtro, aumenta o ruído que entra no receptor. Pode-se

mostrar que o melhor valor de α está em torno de 1,25/T. Tomando-se este valor, obtemos a representação da Fig. 5.22 para os valores das amostras na entrada do detetor e para o valor do limiar correspondente

Fig. 5.22 - Representação geométrica das amostras e limiar do receptor binário com o filtro RC do exemplo Receptor de um sistema multinível Para um sistema multinível, o receptor apresenta a mesma estrutura da Fig 5.18. Porém, o detetor de limiar deve fazer múltiplas comparações. Isto pode ser visto observando a Fig. 5.23, onde são representados os valores possíveis da amostra observada pelo detetor de limiar e os limiares de comparação, situados no ponto médio entre amostras vizinhas. Os limiares delimitam regiões em que a amostra observada está mais próxima de um determinado nível ideal (sem ruído), sendo este o nível a ser escolhido pelo detetor. Como se observa na figura, os limiares são dados por ± d, ±2d, ..., onde

)( 0tgd ′∆= (5.39)

Se o filtro de recepção for um filtro casado, pode-se mostrar que este procedimento corresponde ao receptor de mínima distância. A operação do detetor de limiar que acabamos de descrever também pode ser caracterizada pelo quantizador da Fig. 5.23.

0 T t

s’2(t)

0 0,713x10-3 1,43x10-3 r´(t0)

Page 140: Princípios de Comunicações

139

Fig. 5.23 – Espaço de decisão e detetor de limiar de um sistema PAM multinível

Relação entre os limiares e a energia média com filtro casado A relação entre os valores dos limiares de decisão e a energia média dos sinais PAM é importante para o projeto de um receptor, pois, em geral, seus limiares são projetados para receber um sinal com determinada energia. O exemplo a seguir ilustra este problema. Exemplo 5.6 Sabendo que a energia de um sinal PAM-4 na entrada do receptor é igual a 5×10-9 J e que o pulso g(t) é um pulso retangular de duração 1 ms, desejamos especificar o filtro casado e determinar os valores dos limiares. Os limiares são dados por 0 e ± d/2. Definindo o filtro casado como

h(t) = Kg(t0-t) obtemos

g´(t0) = KEg Portanto, usando (5.39), temos

d = ∆KEg Para obter o valor de ∆, aplicando (5.34), podemos escrever

2 45

4 5s

s gg

EE E

E= ∆ → ∆ =

Entrando com o valor de ∆ na equação anterior chegamos a

44

5 5s gs

gg

E EEd KE K

E= =

0 (∆/2)g´(t0) 3(∆/2)g´(t0) r´(t0) -3(∆/2)g´(t0) -(∆/2)g´(t0)

limiares

a = -3(∆/2) a = -(∆/2) a = (∆/2) a = 3(∆/2)

∆/2

3∆/2

−∆/2

−3∆/2

a

d 2d r(t0)

Page 141: Princípios de Comunicações

140

Em geral, considera-se que a amplitude de g(t) é unitária e, assim, temos

Eg = 10-3

Substituindo este valor e o valor da energia média na equação acima, obtemos

d = 2×10-6×K Observamos então que, além da energia do sinal de entrada, os limiares dependem da escolha da constante K que pode ser vista como um ganho do filtro de recepção.

5.2.2 Sistemas com modulação de amplitude e fase Nos sistemas com modulação digital de amplitude e fase, são transmitidas duas portadoras senoidais em quadratura de fase (defasagem de 900), cujas amplitudes α e β dependem dos símbolos a serem transmitidos. A expressão geral do sinal transmitido é

cos(2 ) (2 ) [0, ]( )

0c cf t sen f t t T

s tfora

α π θ β π θ+ − + ∈=

(5.40)

onde θ é uma fase qualquer, fc é a frequência da portadora, usualmente elevada. Definindo g(t) um pulso retangular no intervalo [0,T] com amplitude unitária, a expressão (5.40) será equivalente a

)2()()2cos()()( θπβθπα +−+= tfsentgtftgts cc (5.41)

Ao longo do processo de transmissão do sinal, o pulso g(t) pode ser modificado, assumindo uma forma qualquer, não retangular, e não necessariamente restrita ao intervalo [0,T]. Supõe-se, em geral, que as duas parcelas em (5.41) são sinais ortogonais, isto é, a sua correlação temporal (integral do seu produto) é nula. Esta condição pode ser verificada, aproximadamente, para valores elevados de fc, independentemente da forma de g(t). Porém, mesmo para valores menores de fc, é possível satisfazer a condição de ortogonalidade (ver exercícios 5.14 e 5.15). Usando identidade trigonométrica, podemos expressar (5.41) da seguinte forma:

2 2 1( ) ( )cos 2 ( / )cs t g t f t tgα β π θ β α− = + + + (5.42)

onde 2 2α β+ é a amplitude e 1( / )tg β α− é a fase da portadora. Verificamos, portanto, que a

modulação das duas portadoras em quadratura de fase (QAM) corresponde à modulação de uma portadora em amplitude e fase. A seguir, são definidos os sistemas mais usuais através de suas amplitudes α e β . Em geral, estas amplitudes são representadas geometricamente, em eixos ortogonais. A figura obtida é denominada constelação da modulação.

Page 142: Princípios de Comunicações

141

ASK No sistema ASK, uma das amplitudes, será nula e a outra poderá assumir alguns

conjuntos de valores como no sistema PAM. Fazendo β = 0 em (5.41) obtemos a expressão geral de um sinal ASK:

( ) ( )cos(2 )cs t g t f tα π θ= + (5.43)

Como podemos observar, o sistema ASK pode ser visto como um sinal PAM modulando uma portadora como ilustrado na Fig. 5.24.

Fig. 5.24 – Esquema geral do modulador ASK

A seguir, são definidos os tipos usuais de sinal ASK através da expressão geral das suas amplitudes e da expressão da sua energia média, supondo que a frequência da portadora é relativamente alta. Neste caso, podemos usar a propriedade de que a energia média de uma portadora modulada é igual à metade da energia de sua envoltória para observar que a energia do sinal ASK é a metade da energia do sinal PAM correspondente. ASK on-off

∆=

2

4s gE E∆= (5.44)

Fig. 5.25 – Modulação ASK on-off – (a) constelação; (b) forma de onda

Código

g(t)

Bits

b1, b2, ...bL

α∈ A1,... AM

Modulador ASK

Sinal ASK s(t) = αg(t)cos(2πfct+θ) Sinal PAM

αg(t)

cos(2πfct+θ)

0 ∆ α (a)

t

g(t)

0 T

(b) ∆

0 t

Page 143: Princípios de Comunicações

142

ASK-2 Simétrico / 2

/ 2α

+∆= −∆

2

8s gE E∆= (5.45)

Fig. 5.26 – Modulação ASK-2 simétrica – (a) constelação; (b) forma de onda ASK Multinível

/ 2, 3 / 2,...α = ±∆ ± ∆ ( )2 2 1

24

gs

E ME

∆ −= (5.46)

Receptor O receptor de mínima distância de um sistema ASK binário pode ser obtido a partir da estrutura da Fig. 5.7 que se aplica a dois sinais quaisquer. Para os sistemas ASK on-off e ASK-2 simétrico definidos acima, temos

2 1( ) ( ) ( )cos(2 )cs t s t g t f tπ θ− = ∆ + (5.47) Assim, o receptor pode ter a forma da Fig 5.27

Fig. 5.27 – Receptor de mínima distância para os sistemas ASK binários

Aplicando a propriedade fundamental do filtro casado, podemos substituir o módulo que faz a correlação entre u(t) e ∆g(t) por um filtro casado a g(t), seguido de um amostrador. Resulta então a estrutura geral da Fig 5.28(a) onde, idealmente, o filtro deve ser casado.

t

g(t)

(b) ∆/2

- ∆/2 0 ∆/2 α

(a)

g(t)

t

∆/2

−∞∫1 2 ?

2

E E−≥

r(t)

cos(2 )cf tπ θ+ ( )g t∆

u(t)

Page 144: Princípios de Comunicações

143

Fig. 5.28 – Receptor para sinais ASK; (a) estrutura geral do receptor; (b) representação geométrica das amostras e do limiar para o ASK on-off; (c) para o ASK-2 simétrico; (d) para o ASK-4 (multinível). Analisando o receptor da Fig.5.28 (a), podemos definir o espaço de decisão, ou seja, a representação dos possíveis valores observados na ausência de ruído. Para isto, fazemos r(t) igual à expressão geral do sinal ASK dada por (5.43) e calculamos r´(t0), de acordo com o esquema da figura, para obter

0 0( ) ( )2

r t g tα′ ′= (5.48)

onde

0( ) ( ) ( )g t g t h t′ = ∗ (5.49) Considerando os possíveis valores da amplitude α, de acordo com (5.44) a (5.46), obtemos as figs 5.28 (b), (c) e (d), onde são também representados os limiares de deteção situados nos pontos médios entre aqueles correspondentes às diversas amplitudes. Note que, para um filtro casado com resposta h(t) = Kg(t0-t), temos 0( ) gg t KE′ = , e assim,

0( )2 gr t KEα′ = (5.50)

0 (∆/2)g´(t0) r´(t0) λ =(∆/4)g´(t0)

r(t)

cos(2 )cf tπ θ+

u(t) h(t)

t0

(∆/4)g´(t0) r´(t0) λ = 0 -(∆/4)g´(t0)

(a)

(b)

(c)

r´(t0 ) α

(∆/4)g´(t0) r´(t0)

λ2= 0

-(∆/4)g´(t0)

ˆ 0α = α = ∆

ˆ / 2α = ∆ ˆ / 2α = −∆

ˆ / 2α = ∆ ˆ 3 / 2α = ∆ ˆ / 2α = −∆ ˆ 3 / 2α = − ∆

(d) λ3 λ1

Detetor de Limiar

Page 145: Princípios de Comunicações

144

Sistemas QAM Nos sistemas QAM (Quadrature Amplitude Modulation) as amplitudes α e β em (5.41) são dadas por

2)1(...,

23,

2,

∆−±∆±∆±= Mβα (5.51)

onde M é o número de sinais. Nos sistemas mais usuais, M é uma potência de 2, e pela definição geral do modulador, M = 2L. Isto restringe os valores típicos de M a 4, 16, 64 e 256. A Fig. 5.29 mostra o diagrama de blocos do modulador QAM. Como observamos na figura, o sinal QAM pode ser visto como dois sinais PAM modulados em amplitude por portadoras em quadratura de fase (seno e cosseno).

Fig. 5.29- Diagrama de blocos do modulador QAM

Sistema QAM-4 ou PSK-4

Um dos sistemas de modulação digital mais utilizados é o QAM-4, onde

, / 2α β = ±∆ (5.52) Sua constelação está representada na Fig. 5.30, com cada ponto associado a um par de bits. Neste caso, a expressão (5.42) se reduz a

12( ) ( )cos 2 ( 1)

2 cs t g t f t tgπ θ − = ∆ + + ± (5.53)

Verificamos então que não há modulação de amplitude, somente modulação de fase, cujos valores dados por tg-1 (±1) correspondem a ±π/4 e ±3π/4. Ou seja, verificamos que o sistema QAM-4 é equivalente ao sistema quaternário de modulação de fase (PSK) definido mais à frente.

Código

g(t)

Bits

b1, b2, ...bL

α=∆/2, 3∆/2 ...

Sinal PAM αg(t)

cos(2πfct+θ)

Sinal PAM βg(t)

-sen(2πfct+θ) g(t)

s(t) β =∆/2, 3∆/2 ...

Page 146: Princípios de Comunicações

145

Fig. 5.30 – Constelação do sistema QAM-4 ou PSK-4

Observando (5.53), podemos concluir que todos os sinais têm a mesma energia. Assim, a energia média será a energia de um deles, isto é:

2

4g

s

EE

∆= (5.54)

Sistema QAM-M A Fig. 5.31 mostra a constelação do sistema QAM-16, onde notamos que cada ponto corresponde a um bloco de 4 bits. Observando (5.42) e (5.51), e supondo que g(t) é um pulso retangular de amplitude unitária, podemos visualizar o sinal QAM como na Fig. 5.32.

Fig. 5.31 - Constelação do sistema QAM-16

α

β

-3∆/2 -∆/2 ∆/2 3∆/2

0000

0001

0010

∆/2

3∆/2

0011

β

-∆/2 ∆/2

00 ∆/2

01

11 10

2

2V = ∆

π/4

α

Page 147: Princípios de Comunicações

146

Fig. 5.32 - Forma típica de um sinal QAM

Para o cálculo da energia média devemos notar que a expressão geral da energia de um sinal do sistema QAM pode ser escrita, com base na expressão geral dada em (5.41), como

[ ]2( , ) ( )cos(2 ) ( ) (2 )c cE g t f t g t sen f t dtα β α π θ β π θ

−∞= + − +∫ (5.55)

Expandindo o integrando e observando que o produto cruzado tem integral aproximadamente nula, pode-se mostrar que

2 2

( , )2 gE E

α βα β +=

(5.56)

A energia média será a média das energias de todos os sinais do conjunto

2 2

2s gE Eα β+= . (5.57)

Note que α2+ β2 é igual ao quadrado da distância entre a origem e o ponto da constelação de amplitudes α e β. No caso do sistema QAM-16, podemos verificar, observando a Fig. 5.33, que existem 4 pontos da constelação com α2+ β2 = ∆2/2, 8 pontos com α2+ β2 = 5∆2/2 e 4 pontos com α2+ β2 = 9∆2/2. Fazendo a média e substituindo em (5.57) obtemos

2 2 221 5 9 5

4 8 416 2 2 2 4s g gE E E ∆ ∆ ∆= × + × + × = ∆

(5.58)

Supondo que M é potência de 2 e quadrado perfeito, pode-se mostrar que

( )gs E

ME 2

12

1 ∆−= (5.59)

t

22

102

3 22

t t

0000

0010

0011

Page 148: Princípios de Comunicações

147

Fig. 5.33 – Níveis de energia na constelação QAM-16

Receptor Para determinar a estrutura do receptor de mínima distância de um sistema QAM, vamos partir da estrutura geral da Fig. 5.5 e analisar, para o caso particular do sistema QAM, a primeira etapa desta estrutura, que fornece a correlação do sinal recebido com cada sinal do conjunto de sinais si(t) que compõe o sistema. Usando a expressão geral dada por (5.41), podemos escrever esta correlação como

[ ]( ) ( )cos(2 ) ( ) (2 )c cr t g t f t g t sen f t dtρ α π θ β π θ∞

−∞= + − +∫ (5.60)

Esta expressão pode ser colocada na forma

1 2ρ αρ βρ= + (5.61) onde

1 ( ) ( )cos(2 )cr t g t f t dtρ π θ∞

−∞= +∫ (5.62)

2 ( ) ( ) (2 )cr t g t sen f t dtρ π θ∞

−∞= +∫ (5.63)

Observamos então que, no cálculo da correlação, a operação de multiplicação de funções e integração só precisa ser feita uma vez, pois a diferença entre os sinais do conjunto si(t) está apenas nas amplitudes α e β. Assim, o primeiro estágio do receptor pode se reduzir à forma da Fig 5.34.

α

β

-3∆/2 -∆/2 ∆/2 3∆/2

∆/2

Page 149: Princípios de Comunicações

148

Fig. 5.34– Primeiro estágio do receptor QAM com correlacionadores

Aplicando a propriedade fundamental do filtro casado, podemos substituir os módulos que fazem a correlação de g(t) com u(t) e v(t) por filtros casados a g(t) seguido de um amostrador. Resulta então a estrutura geral da Fig. 5.35 onde, idealmente, h(t) = Kg(t0-t). Neste caso r1 = ρ1 r2 = ρ2. Para um filtro com resposta ao impulso h(t) qualquer, podemos verificar, analisando o receptor da Fig. 5.35 que, na ausência de ruído, ou seja, r(t) dado por (5.41),

1 0( )2

r g tα ′= (5.64)

2 0( )2

r g tβ ′= (5.65)

onde ( ) ( ) ( )g t g t h t′ = ∗ . Se h(t) = Kg(t0-t), g´(t0) = KEg .

Fig. 5.35 – Primeiro estágio do receptor QAM com filtro e amostrador

No estágio seguinte do receptor, devem-se completar as operações para o cálculo da distância mínima. Observando (5.64) e (5.65), verificamos que o conjunto de valores

t0

r(t) cos(2 )cf tπ θ+

r1

(2 )csen f tπ θ− +

v(t)

u(t) h(t)

h(t)

t0

r2

−∞∫

r(t) cos(2 )cf tπ θ+ ( )g t

ρ1

−∞∫

(2 )csen f tπ θ− + ( )g t

v(t) ρ2

u(t)

Page 150: Princípios de Comunicações

149

possíveis de (r1, r2), na ausência de ruído, tem a mesma forma da constelação do sistema, diferindo apenas por uma fator de escala, uma vez que as amplitudes α e β estão multiplicadas por g´(t0)/2. Esta constelação modificada, formada pelos pontos que seriam observados na ausência de ruído (pontos ideais), servirá de base para a operação do receptor que consiste em escolher o ponto ideal mais próximo daquele definido pelo par de valores observados (r1, r2) em presença de ruído. Note que cada ponto ideal está associado a um par de amplitudes e, portanto, a um dos possíveis sinais transmitidos. Assim, ao longo do texto o termo sinal poderá ser usado para se referir aos pontos ideais. QAM/PSK-4 Na Fig. 5.36 está representado o espaço de decisão para o sistema QAM/PSK-4, com 1 ponto ideal em cada quadrante. Observamos que os pontos pertencentes a cada quadrante estão mais próximos do sinal neste mesmo quadrante. Podemos, então, estabelecer que cada quadrante é uma região de decisão por um determinado sinal, isto é,

1º quadrante: r1>0 e r2>0; decisão: ˆˆ / 2; / 2;α β= +∆ = +∆

2º quadrante: r1<0 e r2>0; decisão: ˆˆ / 2; / 2;α β= −∆ = +∆

3º quadrante: r1<0 e r2<0; decisão: ˆˆ / 2; / 2;α β= −∆ = −∆

4º quadrante: r1>0 e r2<0; decisão: ˆˆ / 2; / 2;α β= +∆ = −∆ Temos, assim, uma dupla deteção de limiar, ou seja, comparação das amostras r1 e r2 com um limiar igual a zero. Observamos, porém, nas desigualdades acima, que as decisões são

independentes, ou seja, a escolha de α só depende de r1 e a escolha de β só depende de r2. Esta propriedade permite implementar o procedimento de decisão através de dois detetores de limiar como no diagrama de blocos do receptor mostrado na Fig. 5.38.

Fig. 5.36 – Espaço de decisão no sistema QAM-4 ou PSK-4

r1

r2

-∆g´(t0)/4 ∆g´(t0)/4

00 ∆g´(t0)/4

01

11 10 -∆g´(t0)/4

r1 > 0 r2 > 0

Page 151: Princípios de Comunicações

150

Fig. 5.37 – Receptor do sistema QAM-4 ou PSK-4

Sistema QAM-M (M>4) Na Fig. 5.38 mostra-se o espaço de decisão em um sistema QAM-16 e, como no caso anterior, o procedimento de decisão consiste em escolher o sinal mais próximo do ponto (r1,r2) observado. Traçando as mediatrizes entre os diversos pontos ideais - correspondentes aos sinais - obtemos as regiões de decisão, isto é, as regiões que englobam todos os pontos mais próximos de um dado sinal, como representado na Fig. 5.38. Observando a figura podemos escrever, por exemplo:

1 2, : 3 / 2; 3 / 2;r d r d α β> > = + ∆ = + ∆)

)

1 2, 0 : 3 / 2; / 2;r d r d α β> < < = + ∆ = +∆)

)

1 20 , 0 : / 2; / 2;r d r d α β< < < < = +∆ = +∆)

)

onde

0( )2

d g t∆ ′= (5.66)

Como no caso de M = 4, verificamos também, neste caso, que a decisão pode ser feita

de forma independente, ou seja, α só depende de r1 e β só depende de r2. Assim, podemos implementar o receptor através do diagrama de blocos mostrado na Fig 5.39, cujos detetores de limiar estão detalhados na Fig. 5.40.

t0

r(t) cos(2 )cf tπ θ+

(2 )csen f tπ θ− +

y(t)

x(t)

h(t)

h(t)

t0

α

∆/2

-∆/2 0 r1

α

r1

β

∆/2

-∆/2 0 r2

β

r2

Page 152: Princípios de Comunicações

151

Fig. 5.38 – Espaço de decisão no sistema QAM-16

Fig. 5.39 – Receptor do sistema QAM com detetores de limiar independentes

Fig. 5.40– Detetor de limiar para o sistema QAM-16

t0

cos(2 )cf tπ θ+

(2 )csen f tπ θ− +

y(t)

x(t) h(t)

h(t)

t0

α

β

r1

r2

r(t)

∆/2

3∆/2

−∆/2

−3∆/2

ˆˆ ,α β

r1,r2 d -d

0

(r1,r2)

r1

r2

-3∆g´(t0)/4 -∆g´(t0)/4 ∆g´(t0)/4 3∆g´(t0)/4

0000

0001

0010

d

d

0

Page 153: Princípios de Comunicações

152

Para outros valores de M (64, 256), o receptor é o mesmo da Fig. 5.39 e os detetores de limiar apresentam mais níveis de comparação, ou seja, um número maior de limiares. Generalizando a Fig. 5.40, concluímos que os valores dos limiares são dados por λ = 0, ± d, ± 2d, onde d é dado por (5.66). Como já foi comentado anteriormente, o sistema QAM corresponde a dois sistemas PAM independentes, um modulando um cosseno e outro um seno. Observando a Fig 5.39, podemos interpretar o primeiro estágio do receptor como uma demodulação coerente que recupera os dois sinais moduladores, como analisado na Seção 3.1.5. No segundo estágio, constituído por filtro e detetor de limiar, é feita a deteção de cada sistema PAM. Sistema PSK No sistema PSK (Phase Shift Keying) as amplitudes α e β são definidas como

cos

..

V

Vsen

α φβ φ

==

(5.67)

onde φ é uma fase obtida pela codificação dos bits de entrada e escolhida no conjunto 3 5

, , ....M M M

π π π

. Substituindo (5.67) em (5.42) obtemos

[ ]( ) ( )cos 2 cs t Vg t f tπ θ φ= + + (5.68)

Todos os sinais têm a mesma energia que será obviamente a energia média dada por

2

2s g

VE E= (5.69)

` A Fig. 5.41 mostra a constelação de um sistema PSK-8 onde cada ponto deve estar associado a um grupo de 3 bits.

Fig. 5.41 –Constelação do sistema PSK-8

α

β

Vcos(3π/8) Vcos(π/8)

Vsen(π/8) π/8

2π/8 Vsen(3π/8)

V

100

101

Page 154: Princípios de Comunicações

153

Receptor Uma vez que se trata de um conjunto de sinais que satisfaz a forma geral dada em (5.41), o primeiro estágio do receptor do sistema PSK tem a mesma estrutura do receptor QAM mostrada na Fig. 5.39. Para determinar a regra de decisão a partir das amostras r1 e r2, analogamente ao que foi feito para o sistema QAM, representam-se os pontos correspondentes às possíveis amostras na ausência de ruído. Esta constelação, mostrada na Fig. 5.42, reproduz a constelação da Fig. 5.41 com um fator de escala g´(t0)/2. Traçando as mediatrizes aos pontos, são definidas as regiões de decisão baseadas na mínima distância. Observamos que estas regiões correspondem a setores angulares, em torno de cada ponto, com ângulo igual a 2π/M.

Fig. 5.42 – Espaço de decisão no sistema PSK-8

Diferentemente do sistema QAM, não se pode neste caso fazer a deteção de forma independente. Para um par de amostras observadas (r1,r2), a decisão deve se basear no ângulo que este ponto faz com o eixo r1, dado por

1 2

1

rtg

rψ −

=

(5.70)

Este ângulo deve ser comparado com valores que correspondem às fronteiras das regiões de decisão. Por exemplo:

2 ˆ08 8

π πψ φ< ≤ ⇒ = (5.71)

Ou seja, o ângulo ψ deve entrar em um detetor de limiar cujos limiares são 0, ± 2π/M, ± 4π/M, .... O esquema completo do receptor está mostrado na Fig. 5.43.

r1

r2

V[g´(t0)/2]cos(π/8)

V[g´(t0)/2]sen(π/8)

Vg (t0)/2 (r1,r2)

ψ

região de decisão para a fase π/8

Page 155: Princípios de Comunicações

154

Fig. 5.43 – Receptor do sistema PSK-M

Exemplo 5.7 Sabendo que a energia média de um sinal QAM-16 com envoltória constante e duração igual 2.10-6 s é igual a 2.10-18 W, desejamos obter o valor máximo do sinal Observando a expressão geral do sinal QAM dada por (5.41), concluímos que o valor

máximo do sinal é dado por 2 2max max maxmax[ ( )]s g tα β= + onde αmax e βmax são os valores

máximos das amplitudes α e β. No sistema QAM-16, estes valores são iguais a 3∆/2. Por outro lado, como a envoltória é constante, o pulso g(t) é um pulso retangular com a duração

especificada. Fazendo sua amplitude unitária temos então max 3 2 / 2s = ∆ . De acordo com o enunciado e com (5.59),

218

4

510.2 ∆== −

gs EE

onde Eg = 2.10-6. Assim, obtemos 6210

5−∆ = × e a tensão máxima será 1,89 10-6 Volts.

Exemplo 5.8 Para uma mesma energia média dos sinais, desejamos determinar os valores da distância d entre símbolos vizinhos nas constelações QAM-16 e PSK-16. QAM-16 Observando a constelação da Fig. 5.31, verificamos que d = ∆. Usando (5.59), obtemos

4

5s

g

Ed

E=

PSK-16 Analisando a constelação PSK-16, semelhante à do PSK-8 da Fig. 5.41, obtemos

2 ( /16);d Vsenπ= Aplicando (5.69), chegamos a

t0

r(t) cos(2 )cf tπ θ+

(2 )csen f tπ θ− +

y(t)

x(t)

h(t)

h(t)

t0

tg-1(r2/r1)

r1

r2

Detetor de limiar

φ

Page 156: Princípios de Comunicações

155

22 ( /16);s

g

Ed sen

Eπ=

A relação entre as duas distâncias será dada por

10 ( /16) 0,616PSK

QAM

dsen

dπ= =

Vemos, portanto, que, para um mesmo valor de energia média, a distância entre os sinais vizinhos no sistema PSK-16 é quase a metade daquela obtida no sistema QAM-16. Como veremos no capítulo 8, quanto maior a distância entre os sinais vizinhos melhor é o desempenho do receptor em presença de ruído.

5.2.3 Sistemas com modulação de frequência

Nos sistemas com modulação de frequência, designados pela sigla FSK (Frequency Shift Keying), o sinal transmitido é uma portadora senoidal, limitada no tempo, cuja frequência contém a informação a ser transmitida. A expressão geral dos sinais FSK pode ser dada por

t( ) rect cos(2 ); 1,2,...i i is t A f t i M

Tπ θ = + =

(5.72)

onde A é a amplitude da portadora(!); fi é a frequência da portadora, selecionada de um conjunto de M possíveis frequências, cada uma representando um bloco de L bits; θi é a fase da portadora. Em geral, as fases das portadoras FSK são independentes entre si. O esquema do transmissor de um sistema FSK está representado na Fig. 5.44.

Fig. 5.44 - Esquema do transmissor FSK Para o caso binário, temos

1 1 1

2 2 2

t( ) rect cos(2 )

t( ) rect cos(2 )

s t A f tT

s t A f tT

π θ

π θ

= +

= +

(5.73)

Os dois sinais estão mostrados na Fig. 5.45 onde se supõe que f2 > f1.

(!) A função rect( ) em (5.72) tem a finalidade apenas de restringir a portadora ao intervalo [0,T]

Código Bits

b1, b2, ...bL

fi

oscilador fi θi

s(t)

Page 157: Princípios de Comunicações

156

Fig. 5.45 - sinais transmitidos no sistema FSK binário

Pode-se verificar que, como todos os sinais FSK têm a mesma amplitude e a mesma duração, eles têm a mesma energia. A energia média será, portanto, igual à energia de um dos sinais, dada por

2

2sA T

E = (5.74)

Em geral, os sistemas FSK são projetados de forma que os sinais sejam ortogonais, isto é:

( ) ( ) 0i js t s t dt para i j∞

−∞= ≠∫ (5.75)

Para que esta condição seja atendida, pelo menos aproximadamente, a separação entre as frequências deve ser maior do que um determinado valor. É possível obter ortogonalidade (ver Exercício 5.16), independentemente das fases θ1 e θ2, com separação de frequência

; ;i jk

f f i jT

− = ≠ (5.76)

onde k é um inteiro. Receptor

De forma semelhante ao desenvolvimento feito para sinais com modulação de

amplitude e fase na Seção 5.2.2, o receptor ótimo para o sistema FSK pode ser deduzido a partir da estrutura geral do receptor ótimo da Fig. 5.5, chegando-se, no caso binário, ao esquema da Fig.5.46. No caso mais geral, o receptor é um conjunto de demoduladores de amplitude, cada um sincronizado à frequência e à fase de um dos sinais FSK. Supondo que os sinais são ortogonais, isto é, satisfazem a (5.75), verifica-se que na saída do filtro haverá sinal em apenas um dos demoduladores. No receptor binário, representado na Fig.5.46, quando for transmitida a portadora de frequência f1, o sinal será diferente de zero no ramo de cima e zero no ramo de baixo. E será o contrário quando for transmitida a frequência f2. Note-se ainda que, para desempenho ótimo, o filtro h(t) deve ser um filtro casado ao pulso g(t), ou seja, h(t) = Kg(t0-t).

0 T t

A

s1(t)

0 T t

A s2(t)

Page 158: Princípios de Comunicações

157

Fig. 5.46 - Receptor coerente para o sistema FSK-2 com demoduladores síncronos

FSK de fase contínua A modulação FSK pode também ser obtida modulando-se uma portadora em frequência por um sinal PAM. A modulação de frequência foi analisada na Seção 3.2 e sua expressão geral é dada por (3.74). Usando a expressão (5.29) do sinal PAM, para o sinal modulador m(t), isto é,

( ) ( )m t ag t= (5.77) temos então a seguinte expressão do sinal FSK

0( ) 2 2 ( )c ft

s t Arect cos f t k tT

π π φ θ = + + (5.78)

onde φ(t) é dado por

0

( ) ( )t

t ag dφ τ τ= ∫ (5.79)

A frequência instantânea é dada por

( ) ( )i c ff t f k ag t= + (5.80)

No sistema FSK de fase contínua, portanto, a informação digital inicialmente colocada na amplitude do pulso g(t) é mapeada para a frequência de uma portadora. Assim, um sinal PAM binário dará origem a um sinal FSK binário. O diagrama de blocos do transmissor de um sinal FSK de fase contínua está representado na Fig. 5.47.

Fig. 5.47 - Modulador FSK de fase contínua

No caso particular de um sinal PAM binário com amplitudes ± ∆/2 e com pulso g(t) retangular de amplitude unitária, o desvio instantâneo de fase, genericamente definido como

( ) 2 ( )ft k tθ π φ∆ = (5.81)

t0

r(t)

1 1cos(2 )f tπ θ+

2 2cos(2 )f tπ θ+

h(t)

h(t)

t0

comparador

f

Modulador PAM

Modulador FM s(t)

bits b1, b2, ...bL, ag(t)

Page 159: Princípios de Comunicações

158

neste caso é dado por

( ) 2 ( ) ; 0f ft k at k t t Tθ π π∆ = = ± ∆ ≤ ≤ (5.82)

Ou seja, ao longo do intervalo [0,T], o desvio de fase varia linearmente com t e, no fim deste intervalo, seu valor será igual a 2fk Tπ± .

Para analisar a continuidade de fase, vamos considerar agora uma nova transmissão no intervalo subsequente [T, 2T]. Notando que, neste intervalo o pulso é o mesmo pulso anterior com atraso de T, isto é, g(t-T), podemos expressar o sinal PAM como

0 1( ) ( ) ( )m t a g t a g t T= + − (5.83) onde a0 e a1 são as amplitudes dos pulsos nos dois intervalos consecutivos, podendo cada uma delas assumir os valores ± ∆/2, independentemente. Temos então 4 possíveis formas para o sinal m(t), ilustradas na Fig. 5.48, e as formas correspondentes do desvio de fase. Observamos, portanto, que no instante de transição t = T, não haverá descontinuidade na fase.

Fig. 5.48 – Variação do desvio de fase em um sistema FSK binário de fase contínua

∆/2

0 T 2T t

∆/2

-∆/2

0 T 2T t

∆/2

-∆/2

0 T 2T t -∆/2

0 T 2T t

2∆π kfT

0 T 2T t 0 T 2T t

∆πkfT

0 T 2T t

-2∆π kfT

-∆πkfT

0 T 2T t

m(t) m(t)

m(t) m(t)

desvio de fase desvio de fase

desvio de fase desvio de fase

Page 160: Princípios de Comunicações

159

O comportamento do desvio de fase descrito anteriormente para o caso de duas transmissões sucessivas pode ser generalizado para o caso de um número qualquer de transmissões e está ilustrado na Fig. 5.49. Na Fig. 5.49 (b), mostram-se, em linhas tracejadas, possíveis trajetos do desvio de fase e, em linha cheia, o trajeto correspondente ao sinal PAM da Fig. 5.49 (a).

Fig 5.49 – (a) Variação da frequência e (b) variação do desvio de fase em um sistema FSK de fase contínua ao longo do tempo

5.2.4 Sistemas com recepção não coerente

Nos receptores desenvolvidos anteriormente para os sistemas de transmissão digital com portadora, é necessário conhecer exatamente a referência de fase em relação à qual são definidos os sinais transmitidos e, sob este aspecto, a recepção é chamada recepção coerente. Como a obtenção da referência de fase é geralmente difícil, uma alternativa empregada é fazer a deteção sem usar a informação contida nesta fase. Neste caso, a recepção é dita não coerente. Pode-se mostrar que o critério ótimo da deteção não coerente é decidir com base nas energias dos sinais transmitidos. Este fato limita a recepção não coerente a alguns conjuntos específicos de sinais. Usualmente, a recepção não coerente é utilizada com os sistemas ASK on-off e FSK ortogonal que serão analisados a seguir.

(a)

2πkf φ(t)

t

(b)

m(t)

0 T 2T 3T 4T t

∆/2

-∆/2

0 T 2T 3T 4T t

2∆π kfT

∆π kfT

-∆π kfT

2∆π kfT

Page 161: Princípios de Comunicações

160

ASK on-off não coerente

Os sinais ASK on-off são definidos pelas expressões (5.43) e (5.44). A recepção não coerente de sinais ASK on-off pode ser feita de acordo com o esquema da Fig. 5.50. A estrutura é basicamente a mesma do receptor QAM. Porém, comparando com o esquema do receptor coerente, nota-se que a fase γ dos osciladores locais não é necessariamente igual à fase θ do sinal transmitido, podendo ter um valor qualquer. Como representado na Fig. 5.50, para fazer a deteção, é feita a soma dos quadrados das amostras na saída dos filtros e sua raiz quadrada é comparada com um limiar. Este processamento elimina a incerteza devida à indefinição da fase dos osciladores, como mostramos a seguir.

Fig 5.50 - Receptor não coerente para o sistema ASK on-off

Seguindo o desenvolvimento da Seção 3.1.5, podemos verificar que, para um sinal de entrada da forma αg(t)cos(2πfct+θ), o receptor QAM apresenta, na entrada de seus filtros passa-baixa, os seguintes sinais:

( )1 1

2 2( ) ( )cos( ) ( )cos 4 cu t g t g t f tα θ γ α π θ γ= − + + +

( )1 1

2 2( ) ( )sen( ) ( )sen 4 cv t g t g t f tα θ γ α π θ γ= − + + +

Como os filtros eliminam os sinais de alta frequência, após a filtragem e a amostragem, obtemos

1 0

2 0

( )cos2

( )2

r g t

r g t sen

α ε

α ε

′=

′= (5.84)

onde ε = (θ -γ) e

00( ) ( ) ( ) |t tg t g t h t =′ = ∗ . A variável x, que representa a entrada do detetor de

limiar, será dada por

)(2

cos)(2 0

220 tgsentgx ′=+′= αεεα

(5.85)

Observamos, portanto, que, na ausência de ruído, a variável x é proporcional à amplitude transmitida, α, e independe da fase γ dos osciladores locais, permitindo assim fazer a deteção.

t0

r(t)

cos(2 )cf tπ γ+

(2 )csen f tπ γ− +

h(t)

h(t)

t0

r1

r2

m

( )2

( )2

Detetor de

Limiar x

u(t)

v(t)

Page 162: Princípios de Comunicações

161

FSK não coerente

O sistema FSK binário pode ser visto como a composição de dois sistemas ASK on-off, cada um operando com uma frequência de portadora. Isto permite estabelecer, para o receptor de um sistema FSK binário não coerente, a estrutura da Fig. 5.51, constituída de dois demoduladores, cada um sincronizado com a frequência de uma das portadoras. A deteção da mensagem transmitida é feita comparando as saídas x e y dos dois demoduladores e escolhendo a mensagem associada à maior delas.

Fig. 5.51 - Receptor não coerente para o sistema FSK binário

Uma análise semelhante à da seção anterior pode ser feita para o receptor da Fig. 5.51. Observando a definição do sinal FSK binário dada por (5.73) e supondo que foi transmitida a mensagem m1 associada à frequência f1, obtemos para a variável x na saída do primeiro demodulador:

( ) ( )2 21 1cosx K Ksen Kε ε= + = (5.86)

onde ε1 = (θ1-γ1) é a diferença entre a fase da portadora de frequência f1 e a fase da portadora local,

0( )

2

Ag tK

′=

00( ) ( ) |t tt

g t rect h tT = ′ = ∗

Com a mesma hipótese, m = m1, e mantendo a condição de ortogonalidade entre os sinais dada por (5.75), a variável y na saída do segundo demodulador será nula. Com uma análise semelhante, podemos concluir que, se m = m2, x = 0 e y = K. Assim, comparando os valores de x e y podemos fazer a deteção da mensagem transmitida.

t0

r(t)

1 1cos(2 )f tπ γ+

1 1(2 )sen f tπ γ− +

h(t)

h(t)

t0

x

( )2

( )2

2 2cos(2 )f tπ γ+

2 2(2 )sen f tπ γ− +

h(t)

h(t)

t0

y ( )2

( )2

escolhe o maior

m

t0

Page 163: Princípios de Comunicações

162

Sistema DPSK Na modulação de amplitude e fase com recepção não coerente, a deteção é feita comparando a energia recebida com as energias dos diferentes sinais transmitidos. No caso do sistema PSK, as energias dos sinais transmitidos são iguais e, sendo assim, não se aplica este procedimento de deteção1. A alternativa usual para a deteção coerente de sinais PSK é utilizar a informação recebida em duas transmissões sucessivas e associar a mensagem, não mais à fase absoluta do sinal transmitido, mas à sua fase relativa ao sinal transmitido anteriormente, como explicamos a seguir. Para isto é necessário definir o sinal PSK associado a um determinado intervalo de transmissão, isto é,

( ) ( )cos(2 ); ( 1)c ks t Vg t kT f t kT t k Tπ θ= − + < ≤ + (5.87) onde

kkk φθθ += −1 (5.88) e φk é a fase transmitida, associada aos bits de informação. Notamos, portanto, que, no sistema DPSK, a fase associada à mensagem transmitida é adicionada à fase do sinal transmitido anteriormente. Na Fig. 5.52 está mostrada a estrutura geral de um receptor DPSK. Notamos que o primeiro estágio tem o mesmo esquema utilizado anteriormente para demodulação não coerente, ou seja, a demodulação é feita sem necessidade de sincronizar a fase γ dos osciladores locais com a fase da portadora transmitida. Para entendermos a operação do detetor sobre as amostras rk,1 e rk,2, colhidas na saída dos filtros, vamos, inicialmente, escrever a expressão destas amostras, usando o mesmo desenvolvimento que levou a (5.84). Neste caso temos, na ausência de ruído:

,1 0

,2 0

'( )cos( )2

'( ) ( )2

k k

k k

Vr g t

Vr g t sen

θ γ

θ γ

= −

= − (5.89)

e, consequentemente,

γθ −=

−k

k

k

r

rtg

1,

2,1 (5.90)

Aplicando (5.90) às amostras colhidas em dois instantes de amostragem sucessivos, fazendo a diferença e observando (5.88), obtemos

,2 1,21 11

,1 1,1

( ) ( )k kk k k

k k

r rtg tg

r rψ θ γ θ γ φ−− −

−−

= − = − − − =

(5.91)

Ou seja, na ausência de ruído, obtemos, na saída do detetor, a fase transmitida φk. Em presença de ruído, a fase ψ obtida através do segundo termo em (5.91) deve ser comparada com um limiar e aproximada para a fase mais próxima entre as fases possíveis.

1 (1) Note-que, embora no sistema FSK os sinais tenham a mesma energia, a deteção não coerente pode ser feita com base nas energias contidas nas diferentes faixas de freqüências dos sinais recebidos.

Page 164: Princípios de Comunicações

163

Fig. 5.52 - Receptor de um sistema DPSK Sistemas DPSK Binário e Quaternário No sistema DPSK binário, a fase transmitida, φk, pode assumir os valores 0 ou π e a escolha pela fase mais próxima corresponde à seguinte regra de decisão:

ˆ 02 2

3 ˆ2 2

π πψ φ

π πψ φ π

− < < ⇒ =

< < ⇒ =

Obviamente, como cos(ψ) >0, para -π/2<ψ<π/2 e cos(ψ) <0, para π/2<ψ<3π/2, uma regra equivalente é

ˆcos( ) 0 0

ˆcos( ) 0

ψ φ

ψ φ π

> ⇒ =

< ⇒ =

Desenvolvendo o segundo termo em (5.91), podemos expressar cos(ψ) da seguinte forma

( ),1 1,1 ,2 1,22 2 2 2,1 ,2 1,1 1,2

1cos( ) k k k k

k k k k

r r r rr r r r

ψ − −− −

= ++ +

(5.92)

Como o termo fora do parênteses é sempre positivo e a comparação é com o limiar zero, chegamos à seguinte regra de decisão:

r r r r

r r r r

k k k k k

k k k k k

, , , ,

, , , ,

$

$

1 1 1 2 1 2

1 1 1 2 1 2

0 0

0

− −

− −

+ > ⇒ =

+ < ⇒ =

φ

φ π (5.93)

Para o sistema DPSK quaternário, supondo que a fase transmitida, φk, pode assumir os valores π/4, 3π/4, 5π/4 e 7π/4, podemos fazer uma análise semelhante. Neste caso, a decisão pela fase mais próxima, pode ser escrita como

t0

r(t) cos(2 )cf tπ γ+

(2 )csen f tπ γ− +

h(t)

h(t)

t0

,2 1,21 1

,1 1,1

k k

k k

r rtg tg

r rψ −− −

= −

rk,1

rk,2

Detetor de limiar

Page 165: Princípios de Comunicações

164

cos( ) 0 ˆ0sen( ) 02 4

cos( ) 0 3ˆsen( ) 02 4

cos( ) 03 5ˆsen( ) 02 4

cos( ) 03 7ˆ2sen( ) 02 4

ψπ πψ φψψπ πψ π φψψπ ππ ψ φψψπ πψ π φψ

>< < ⇒ ⇒ = >

<< < ⇒ ⇒ = >

<< < ⇒ ⇒ = <

>< < ⇒ ⇒ = <

Como fizemos anteriormente para cos(ψ), podemos desenvolver o segundo termo em (5.91) para obter a seguinte expressão para sen(ψ):

( ),2 1,1 ,1 1,22 2 2 2,1 ,2 1,1 1,2

1sen( ) k k k k

k k k k

r r r rr r r r

ψ − −− −

= −+ +

(5.94) Chegamos então à seguinte regra de decisão

0

0

2,11,1,12,

2,12,1,11,

>−>+

−−

−−

kkkk

kkkk

rrrr

rrrr4/ˆ πφ =⇒ k

0

0

2,11,1,12,

2,12,1,11,

>−<+

−−

−−

kkkk

kkkk

rrrr

rrrr4/3ˆ πφ =⇒ k (5.95)

0

0

2,11,1,12,

2,12,1,11,

<−<+

−−

−−

kkkk

kkkk

rrrr

rrrr4/5ˆ πφ =⇒ k

0

0

2,11,1,12,

2,12,1,11,

<−>+

−−

−−

kkkk

kkkk

rrrr

rrrr4/7ˆ πφ =⇒ k

5.3 LARGURA DE FAIXA DA TRANSMISSÃO DIGITAL A largura de faixa utilizada em uma transmissão deve, em princípio, permitir a transmissão sem distorção dos sinais. Na transmissão digital, porém, o principal objetivo não é reproduzir exatamente o sinal transmitido no receptor, e sim identificar os bits transmitidos. Assim, na transmissão digital, a largura de faixa pode não ter uma definição única. Seu valor é, em geral, associado ao grau de distorção admitida nos sinais e ao respectivo impacto na ocorrência de erros na deteção dos bits. No caso da transmissão isolada de uma mensagem, vimos que o desempenho ótimo, obtido com filtros casados, não depende da forma do sinal transmitido e sim da relação entre suas energias. Neste caso, poderíamos projetar os sistemas com sinais arbitrariamente longos, ocupando uma faixa de frequência arbitrariamente pequena. No entanto, é necessário levar em conta a superposição que ocorre na transmissão sucessiva destes sinais. Esta superposição é uma fonte de distorção no sinal recebido e tem uma importância fundamental na largura de faixa de uma transmissão digital.

Page 166: Princípios de Comunicações

165

Para se fazer uma análise da largura de faixa da transmissão digital, devemos então utilizar um modelo que considere a sequência de bits transmitidos. Os elementos básicos deste modelo estão representados na Fig. 5.53. Como representado nesta figura, a cada intervalo de tempo T, denominado intervalo de símbolo, chegam ao transmissor L bits para serem transmitidos por sucessivos sinais. Define-se então a taxa de bits como

T

LR= (5.96)

e a taxa de símbolos como 1

sRT

= (5.97)

Obviamente, a taxa de bits, R é L vezes maior do que a taxa de símbolos Rs.

Fig. 5.53 - Transmissão digital de sequências de bits

5.3.1 A interferência entre símbolos O sistema de transmissão digital em banda básica, com modulação de amplitude (PAM), foi apresentado na Seção 5.2.1. Para analisar a distorção neste tipo de sistema, que é a base para a obtenção de outras formas de transmissão digital, consideramos o modelo representado na Fig. 5.54. Neste modelo, em vez de considerarmos a transmissão de um único pulso, como em (5.29), supomos que o modulador recebe uma seqüência de bits, a cada intervalo T, e gera um sinal s(t) da forma

∑∞

−∞=

−=k

k kTtgats )()( (5.98)

onde ak, k = 0, ±1, ... ±∞ é uma seqüência de amplitudes, associada à seqüência de bits e g(t) é um pulso de freqüências baixas. O sinal s(t) será, portanto, uma seqüência de pulsos modulados em amplitude como ilustrado na Fig. 5.55 para o sistema PAM binário simétrico. O bloco C(f) na Fig.5.54 representa a função de transferência do canal. Este corresponde ao segmento entre o modulador e o receptor, podendo incluir o efeito de filtros no transmissor (geralmente utilizados para formatação do pulso transmitido), assim como do canal propriamente dito. H(f) é a função de transferência do filtro de recepção. Note que a estrutura

Receptor (demodulador)

ruído

1 0 0 1 1 1 0 0 1 L bits

sinal

r(t) x(t)

Transmissor (modulador)

1 0 1 0 0 1 1 0 0 0 1 1 1 0 1 0 0

s(t)

canal

L bits T s

L T

Page 167: Princípios de Comunicações

166

do receptor é a mesma estrutura apresentada na Seção 5.2.1. O amostrador, neste caso, operará sequencialmente, em sincronismo com os pulsos transmitidos, e a deteção de uma mensagem (amplitude) é feita utilizando apenas uma amostra a ela associada. Em geral, será assumido que a deteção da amplitude ak é feita a partir da amostra em t = t0+kT. Para isto, o detetor utiliza as mesmas regras de decisão deduzidas na Seção 5.2.1.

Fig.5.54 - Modelo geral de um sistema PAM

Fig. 5.55- Sinal PAM seqüencial com amplitudes a-1 = ∆/2, ao = ∆/2, a1 = −∆/2 e a2 = ∆/2, etc. O pulso g(t) na saída do modulador tem, geralmente, duração limitada ao intervalo de símbolo T, como é o caso da Fig.5.55. Sendo assim, na saída do modulador não haverá superposição entre os pulsos transmitidos sequencialmente, e o sinal s(t) poderá ser expresso, no intervalo [0,T], como

0( ) ( ); 0s t a g t t T= ≤ ≤ (5.99) De acordo com a Fig. 5.54, o sinal s(t) será modificado pelo canal e pelo filtro de recepção. Desconsiderando o ruído, podemos expressar o sinal na entrada do amostrador como

( ) ( ) ( ) ( )y t s t c t h t= ∗ ∗ (5.100) onde c(t) e h(t) são as respostas ao impulso do canal e do filtro de recepção, respectivamente. Substituindo (5.98) em (5.100) e aplicando as propriedades da convolução, obtemos

Modulador PAM

s(t)

ak

Canal C(f)

Filtro H(f)

Detetor de Limiar

s(t) x(t) y(t)

t0 + kT

ruído

0 T

a-1g(t+T)

a1g(t-T)

a2g(t-2T) a0g(t)

-T 0 T 2T 3T t

g(t)

Page 168: Princípios de Comunicações

167

y t a p t kTkk

( ) ( )= −=−∞

∑ (5.101)

onde p t g t c t h t( ) ( ) * ( ) * ( )= (5.102)

O resultado em (5.101) mostra que, na saída do filtro de recepção (como em qualquer ponto de um canal linear), o sinal PAM continuará sendo expresso como uma soma de pulsos modulados em amplitude. A forma destes pulsos, dada por (5.102), será o resultado da filtragem do pulso g(t) pelo canal e pelo filtro de recepção. Entre outros efeitos, os filtros provocam, geralmente, o aumento da duração do pulso transmitido e, consequentemente, a superposição entre pulsos no sinal digital. Este fenômeno está ilustrado nos exemplos 5.9 e 5.10 a seguir. Exemplo 5.9 Um sinal PAM é gerado com um pulso básico retangular de duração T e amplitude unitária e, em seguida, filtrado por um filtro RC, cuja resposta ao impulso é dada por

h te t

t

t

( ) ====≥≥≥≥<<<<

−−−−α α 0

0 0

Desejamos obter a nova forma do pulso p(t) e esboçar graficamente o sinal PAM antes e depois do filtro. Temos então

( )

1 0

( ) ( ) * ( )

1

t

t T

e t T

p t g t h t

e e t T

α

α α

− ≤ ≤= =

− ≥

A Fig.5.56 mostra os pulsos g(t) e p(t) e o sinal PAM, antes e depois da filtragem pelo filtro RC. Notamos na figura que o pulso passa a ter duração infinita após a filtragem, havendo, portanto, superposição entre os diversos pulsos do sinal PAM.

-T 0 T 2T 3Tt

-T 0 T 2T 3Tt

0 T t

0 T t

Fig. 5.56 - Ilustração do Exemplo 5.9 - Pulso g(t) e sinal PAM antes e depois da filtragem por um filtro RC

Page 169: Princípios de Comunicações

168

Exemplo 5.10 Um sinal PAM semelhante ao utilizado no exemplo anterior passa agora por um filtro cuja função de transferência é dada por

H f

fT

sen fTf

T

fora( ) ( )====

<<<<

ππ

1

2

0

Neste caso, tomando por conveniência um pulso retangular de amplitude unitária em [0,T], temos

G f Tsen fT

Tf( )

( )=

ππ

e assim,

≤==

foraT

fTfHfGfP

02

1)()()(

e

=T

tSinctp )(

O pulso p(t) e o sinal PAM resultante (com todas as amplitudes positivas) estão mostrados na Fig. 5.57.

Fig.5.57 - Ilustração do Exemplo 5.10 –(a) pulso g(t); (b) sinal PAM correspondente Verificamos nos dois exemplos anteriores que os pulsos utilizados na transmissão PAM apresentam duração maior do que o intervalo de símbolo T e, sendo assim, interferem uns nos outros. Porém, observamos na Fig. 5.57 que, nos instantes de máximo de cada pulso, todos os outros passam por um nulo. Portanto, nestes instantes, a interferência não ocorre. A interferência entre símbolos é, por definição, a interferência entre os pulsos no instante de deteção. Assim, o exemplo 5.10 e a Fig. 5.57 nos mostram que é possível fazer a deteção sem interferência entre símbolos, mesmo com pulsos de duração infinita, fazendo a deteção nos instantes convenientes, no caso o instante de máximo de cada pulso.

-3T -2T -T 0 T 2T 3T t

t -3T -2T -T 0 T 2T 3T

(a)

(b)

Page 170: Princípios de Comunicações

169

Expressão matemática da Interferência entre Símbolos Vamos considerar a deteção da amplitude ao, a qual é feita a partir da amostra do sinal y(t), na saída do filtro H(f), tomada no instante t = t0. Observando (5.101), vemos que, se fosse transmitida apenas a amplitude ao, o somatório só teria o termo para k = 0 e a amostra colhida seria dada por

0 0 0( ) ( )y t a p t= (5.103)

Na transmissão seqüencial aparecem os demais termos do somatório em (5.101) e a amostra no detetor pode ser escrita como

∑≠

−+=0

)()()(k

okooo kTtpatpaty (5.104)

O segundo termo do lado direito de (5.104) não contém informação sobre a amplitude (símbolo) que está sendo detetada e constitui a interferência entre símbolos, ou seja, uma perturbação aditiva cujo valor depende das demais amplitudes transmitidas e do pulso p(t). Ou seja, a expressão geral da interferência entre símbolos é dada por

z a p t kTk ok

= −≠∑ ( )

0

(5.105)

A Fig. 5.58 ilustra o efeito da interferência entre símbolos nas amostras colhidas no receptor de um sistema PAM-4 simétrico, cujas amplitudes são definidas como ±∆/2 e ± 3∆/2. Na Fig. 5.58(a) são representados os possíveis valores destas amostras, de acordo com (5.103). Quando há interferência entre símbolos, esta afastará os pontos de suas posições ideais. Em geral, a interferência entre símbolos pode assumir uma grande variedade de valores, de acordo com (5.104), levando à representação da Fig.5.58(b). Observamos na figura que a interferência entre símbolos pode aproximar a amostra detetada da fronteira de decisão, diminuindo a margem contra ruído.

r(t0)-3∆/2p(t0) -∆/2p(t0) 0 ∆/2p(t0) 3∆/2p(t0)

r(t0)

d

dmin

(a)

(b)

Fig. 5.58 -. Representação do sinal detetado. Sistema PAM-4 (a) sem interferência entre símbolos (b) com interferência entre símbolos O valor máximo, ou valor de pico, da interferência entre símbolos pode ser determinado notando que o somatório em (5.105) tem seu valor máximo quando o valor absoluto de ak é máximo e tem sinal igual ao da amostra p(t0-kT). Notando que, em um sistema PAM simétrico com M níveis de amplitude, a amplitude máxima é igual a (M-1)∆/2 temos

max 00

( 1) ( )2 k

Z M p t kT≠

∆= − −∑ (5.106)

Page 171: Princípios de Comunicações

170

O valor máximo da interferência entre símbolos normalizado em relação à distância mínima entre as amostras no caso ideal, ∆p(t0)/2, é denominada Distorção Absoluta, isto é,

max

02 ( )

zD

p t∆= (5.107)

A condição D ≥ 1 corresponde à situação em que a interferência entre símbolos leva a amostra do sinal para uma região de decisão errada, provocando erro independentemente da existência de ruído. Em geral, o valor de D deve ser próximo de zero.

5.3.2 Eliminação da interferência entre símbolos - Critério de Nyquist Vimos no Exemplo 5.10 que, se o pulso usado na transmissão PAM tem duração maior do que o intervalo de símbolo, é impossível evitar a superposição entre eles, mas é possível evitar a interferência entre símbolos, ou seja, a interferência nos instantes de amostragem no receptor. Observando (5.105) vemos que a condição para isto é que o pulso p(t) satisfaça à restrição

≠=

=−00

0)( 0

0 k

kpkTtp (5.108)

onde t0 é o instante de amostragem para deteção da amplitude a0. A condição que a transformada de Fourier P(f) do pulso p(t) deve satisfazer para que (5.108) seja verificada é conhecida como o primeiro critério de Nyquist. Para deduzir o primeiro critério de Nyquist vamos supor t0 = 0 em (5.108), ou seja,

p kTp k

k( ) =

=≠

0 0

0 0 (5.109)

Aplicando (2.91) e (2.92), podemos escrever a seguinte expressão para a transformada de Fourier de um sinal qualquer, p(t), amostrado por impulsos:

∑ ∑∞

−∞=

−∞=

−⇔−k k

T

kfP

TkTtkTp

1)()( δ (5.110)

Por outro lado, se p(t) satisfaz a (5.109), então

0 0( ) ( ) ( )k

p kT t kT p t pδ δ∞

=−∞

− = ⇔∑ (5.111)

Combinando (5.110) e (5.111) obtemos o primeiro critério de Nyquist:

∞<<∞−=

−∑∞

−∞=

fpTT

kfP

k

0 (5.112)

Page 172: Princípios de Comunicações

171

Este critério estabelece, portanto, que a soma das versões do espectro P(f) deslocado de múltiplos da freqüência de amostragem 1/T deve ser constante. Embora (5.112) tenha sido deduzida como uma condição necessária, é possível mostrar que esta é também uma condição suficiente para a obtenção de (5.109). Na Fig. 5.59 são apresentados dois exemplos de espectros que satisfazem ao primeiro critério de Nyquist e os pulsos correspondentes, p(t) = sinc(t/T) e p(t)= sinc2(t/T).

Fig. 5.59 - Espectros que satisfazem ao 1o critério de Nyquist e respectivos pulsos – (a) espectro retangular (b) espectro triangular. Pulso de faixa entre 1/2T e 1/T Para pulsos cujo espectro P(f) é real e cuja faixa está limitada à taxa de símbolos 1/T, pode-se mostrar que o Critério de Nyquist fica reduzido a

-1/2T 0 1/2T f

-3T -2T -T 0 T 2T 3T t

-3/2T - 1/2T 0 1/2T 3/2T f

1/T

1/T

.... ....

P(f) ( )k

Tk

P f −∑

( ) sinc( )tTp t =

P(f)

-1/T 0 1/T f -2/T -1/T 0 1/T 2/T f

-2T -T 0 T 2T t

2( ) sinc ( )tTp t =

( )kT

k

P f −∑

.... ....

(a)

(b)

Page 173: Princípios de Comunicações

172

1 11/ 2 1/ 2

2 2 oP f P f Tp T f TT T

′ ′ ′+ + − = − ≤ ≤

(5.113)

Por (5.113), para satisfazer ao primeiro Critério de Nyquist, um pulso de freqüência máxima entre 1/2T e 1/T deve ser simétrico em relação à freqüência 1/2T, como indicado na Fig. 5.60.

Fig. 5.60 - Ilustração da propriedade de simetria para obtenção do 1º critério de Nyquist. Pulsos com espectro em cosseno levantado O espectro de pulso mais utilizado que satisfaz a (5.113) é o definido por

+≤≤−

−−+

−≤≤

=

Tf

TTf

TT

TfT

fP

2

1

2

1

2

1cos1

2

2

10

)(

ααααπ

α

(5.114)

e sua transformada de Fourier é dada por

2

cos( / )( ) sinc

1 (2 / )

t t Tp t

T t T

απα

= − (5.115)

A forma de (5.114) sugere o nome cosseno levantado para este espectro, que está ilustrado na Fig. 5.61, para diversos valores do parâmetro α. Como podemos observar em (5.114) e na Fig. 5.61, este parâmetro, conhecido como fator de roll-off, define o excesso de faixa em relação à faixa de Nyquist 1/2T. Por exemplo, α =1 corresponde a um aumento de 100% em relação à faixa de Nyquist. No domínio do tempo, à medida que aumenta o valor de α, diminuem as amplitudes dos lobos secundários do pulso p(t). Para α = 0, o espectro se reduz a um espectro retangular e, neste caso, p(t) = T Sinc(t/T). Para α =1 temos

[ ]P fT

Tf f T( ) cos( ) /= + ≤ ≤2

1 0 1π (5.116)

Neste caso, o pulso p(t) se anula, não somente nos instantes t = kT, como também nos instantes t = (2k+1)T/2.

T

T/2

(1/2T)(1-α) (1/2T)(1+α)

1/2T

f´ f´

f

x

x

0

P(f)

Page 174: Princípios de Comunicações

173

Na prática, a escolha do fator de roll-off é, geralmente, uma solução de compromisso. Por um lado, seria conveniente escolher o menor valor de possível para minimizar a ocupação de faixa. Por outro lado, espectros com valores pequenos de α são difíceis de realizar e levam a pulsos com maiores amplitudes de lobos secundários. Estes pulsos têm o inconveniente de causar maior interferência entre símbolos quando há um desvio no instante ideal de amostragem. Integrando (5.114) pode-se mostrar (Exercício 5.25) que um pulso com espectro em cosseno levantado tem energia igual a T(1-α/4).

α = 0

α =1

p(t)

t 0 T 2T

f

0 1/2T 1/T

f

f

α=0

0<α<1

α=1

Fig.5.61 - Pulso com espectro em cosseno levantado para diferentes valores do fator de roll-off no domínio do tempo e da freqüência.

5.3.3 Largura de faixa e interferência entre símbolos Pode-se verificar facilmente que a interferência entre símbolos não pode ser eliminada se a largura de faixa do pulso p(t) for menor do que 1/2T. Neste caso, como observamos na Fig. 5.62, a soma das versões deslocadas do espectro do pulso não pode nunca ser uma constante, pois haverá sempre uma faixa de freqüências em torno de 1/2T onde o espectro será nulo. Existe, portanto, uma largura de faixa mínima de um pulso p(t) para que seja possível a eliminação da interferência entre símbolos. Esta largura de faixa é chamada de faixa de Nyquist. Podemos ainda verificar, pela simples inspeção da Fig. 5.62, que o pulso de largura de faixa mínima terá o espectro retangular definido por

P fTp f T

forao( )

/=

1 2

0 (5.117)

No domínio do tempo, esse pulso corresponde a

Page 175: Princípios de Comunicações

174

0( ) sinct

p t pT =

(5.118)

Fig. 5.62- Aplicação do 1o critério de Nyquist a um pulso de faixa menor do que 1/2T.

Como a faixa do pulso deve estar contida na faixa passante do canal, a expressão (5.117) estabelece um limite mínimo para a largura de faixa B do canal, de forma a permitir a eliminação da interferência entre símbolos em sistemas PAM:

BT

≥ 1

2 (5.119)

Usando as definições (5.96) e (5.97), obtemos os seguintes limitantes para a largura de faixa na transmissão digital em banda básica:

1 12 2s

RB R

L≥ = (5.120)

onde Rs é a taxa de símbolos e R é a taxa de bits. No caso de sistemas com modulação de amplitude e fase (ASK, PSK e QAM), a largura de faixa do sinal digital é o dobro da largura de faixa do pulso de transmissão em banda básica. Neste caso, a largura de faixa do canal para eliminação da interferência entre símbolos deverá satisfazer a

s

RB R

L≥ = (5.121)

Largura de faixa e fator de roll-off Considerando que o espectro do pulso usado na transmissão tem a forma de um cosseno levantado com fator de roll-off α ≠ 0, os limitantes em (5.120) e (5.121) ficam na forma

)1(2

1 α+≥T

B (5.122)

1 12 2 (1 )s

RB R

Lα≥ = + (5.123)

Analogamente, para os sistemas PSK e QAM,

(1 )s

RB R

Lα≥ = + (5.124)

Exemplo 5.11 Aplicando os resultados obtidos anteriormente, chegamos aos seguintes valores para a largura de faixa mínima em uma transmissão a 64 kbit/s sem interferência entre símbolos:

• PAM-2: 32 kHz • PSK-2: 64 kHz • PSK-4: 32 kHz • QAM-16: 16 kHz

-2/T - 1/T -1/2T 0 1/2T 1/T 2/T t

Page 176: Princípios de Comunicações

175

5.4 APÊNDICE: O DIAGRAMA DO OLHO A interferência entre símbolos é usualmente observada em osciloscópio, através do chamado diagrama do olho. O diagrama do olho é, simplesmente, a figura obtida pela superposição de segmentos do sinal digital transmitido, correspondentes a intervalos de duração igual ao intervalo de símbolo T. Exemplo 5.13 Neste exemplo mostramos a construção do diagrama do olho em uma transmissão PAM-2 com pulso g(t) retangular de duração T e filtro casado no receptor. Como a resposta ao impulso do filtro casado é também um pulso retangular de duração T, o pulso na saída do filtro será um pulso triangular de duração 2T como representado na Fig. 5.63(a). O sinal digital correspondente é a soma de sucessivos pulsos triangulares, com amplitudes binárias e simétricas, mostrada na Fig. 5.63(b). O diagrama do olho é formado pelos segmentos deste sinal, mostrados separadamente na Fig. 5.63(c). A superposição destes segmentos na Fig. 5.63(d) forma o diagrama.

Fig. 5.63 - Obtenção do diagrama do olho (a) forma do pulso (b) sinal PAM (c) segmentos do sinal PAM (d) formação do diagrama do olho Em termos matemáticos, o diagrama do olho pode ser visto como o conjunto das funções amostra do processo aleatório expresso por (5.101), isto é,

-T 0 T t -T 0 T 2T 3T 4T t

[-T/2, T/2] [T/2, 3T/2]

[3T/2, 5T/2]

[5T/2, 7T/2] [7T/2, 9T/2]

(a) (b)

(c)

(d)

p(t)

Page 177: Princípios de Comunicações

176

y t a p t kTkk

( ) ( )= −∑

no intervalo [t0-T/2, t0+T/2]. Com este enfoque, o diagrama do olho também pode ser construído tomando como referência o pulso p(t) correspondente à amplitude a0 e adicionando a ele os pulsos interferentes, com todas as combinações possíveis de suas amplitudes. Este processo está ilustrado na Fig. 5.64 para o mesmo pulso triangular do exemplo anterior. Considerando t0 = 0, vemos que, no intervalo [-T/2, T/2], os pulsos interferentes são apenas os dois pulsos vizinhos, o anterior p(t+T) e o seguinte p(t-T). Na Fig. 5.64 mostra-se a obtenção dos diversos segmentos que compõem o diagrama do olho, correspondentes a todas as combinações de amplitudes dos pulsos vizinhos, para uma amplitude positiva do pulso de referência. Invertendo a amplitude do pulso de referência, obtemos o mesmo conjunto de segmentos invertidos em relação ao eixo horizontal. Combinando todos os segmentos, podemos verificar que o diagrama obtido é o mesmo da Fig. 5.63.

Fig. 5.64 - Obtenção do diagrama do olho pelo método analítico Em um instante t0, o diagrama do olho mostra todos os possíveis valores assumidos pelo sinal digital. Assim, um corte vertical no diagrama do olho no instante de amostragem permite visualizar todos os possíveis valores na entrada do detetor.

-T 0 T t

-T 0 T t

-T 0 T t

-T 0 T t

Page 178: Princípios de Comunicações

177

A Fig 5.65 mostra uma representação esquematizada do diagrama do olho de um sistema binário onde o instante de amostragem está indicado pela linha tracejada (em geral o instante de amostragem deve coincidir com o instante de máxima abertura). Estão indicados também o valor máximo da interferência entre símbolos e a distância mínima entre as amostras (abertura do olho). Além destas, outras informações importantes sobre o desempenho do sistema podem ser obtidas através do diagrama do olho, conforme está ilustrado na Fig. 5.65. Um olho que se fecha de forma mais acentuada, quando se afasta do instante ótimo, indica uma maior sensibilidade do sistema a variações no instante de amostragem. A dispersão no cruzamento do zero é também uma informação de interesse (medida a).

Fig. 5.65- Interpretação do Diagrama do olho

2zmax

dmin

a

Page 179: Princípios de Comunicações

178

5.5 APÊNDICE: OTIMIZAÇÃO CONJUNTA TRANSMISSOR- RECEPTOR Ao longo deste capítulo, consideramos que o desempenho do receptor em presença de ruído é maximizado pela utilização de um filtro casado à forma do sinal que chega ao receptor. Para os sistemas PAM e QAM, cujos receptores estão representados nas Figs 5.18 e 5.35, isto corresponde a

)()( 0 ttgth −= (5.125)

onde g(t) é a forma do pulso transmitido (no caso do PAM) ou de sua envoltória (no caso do QAM). Fazendo, por conveniência, t0 = 0, e calculando a transformada de Fourier, temos

)()( * fGfH = (5.126)

Na seção 5.32, mostramos que a interferência entre símbolos pode ser anulada se o pulso p(t) no detetor for igual a um pulso de Nyquist q(t), ou seja, um pulso cujo espectro Q(f) satisfaz (5.112). Para o sistema PAM representado na Fig. 5.54, em um canal com função de transferência ideal, isto é com C(f) = 1, temos

)()()( fHfGfP = (5.127)

Portanto, a condição para eliminação da interferência entre símbolos é

)()()( fQfHfG = (5.128)

Para obter ao mesmo tempo as duas condições anteriores, ou seja, filtro casado no receptor, para maximizar o desempenho em presença de ruído, e pulso de Nyquist no detetor, para eliminar a interferência entre símbolos, basta satisfazer a (5.126) e (5.128), conjuntamente. Substituindo (5.126) em (5.128), obtemos

G f Q f( ) ( )= (5.129)

Levando este resultado em (5.126) chegamos a

)()( fQfH = (5.130)

O resultado acima mostra, portanto, que as formas ótimas do espectro de amplitude do pulso transmitido G(f) e da resposta de amplitude do filtro de recepção H(f) devem ser proporcionais à raiz quadrada de um espectro que satisfaz ao 1o critério de Nyquist. Em geral, os sistemas de transmissão digital utilizam o espectro do tipo cosseno levantado definido em (5.114) e (5.115).

Page 180: Princípios de Comunicações

179

5.6 EXERCÍCIOS 5.1 Os diagramas da Fig. E5.1 representam um integrador e um filtro com resposta ao impulso h(t). Mostre que os dois diagramas são equivalentes se h(t) for um filtro casado ao pulso retangular g(t) mostrado na figura, isto é h(t) = g(t0-t), com t0 = T.

Fig. E5.1

5.2 Uma transmissão digital binária de mensagens equiprováveis é feita através dos sinais da Fig. E5.2 (a) Represente a estrutura do receptor de mínima distância para estes sinais utilizando filtro casado, amostrador em t = 2T e detetor de limiar; especifique a resposta ao impulso do filtro casado e determine o valor do limiar. (b) Mostre que a estrutura da Fig. E5.2 é equivalente ao receptor ótimo do item (a).

Fig E5.2

5.3 Uma transmissão digital binária de mensagens equiprováveis é feita através dos sinais da Fig. E5.3. (a) Represente a estrutura do receptor de mínima distância para estes sinais utilizando filtro casado, amostrador em t = 2T e detetor de limiar; especifique a resposta ao impulso do filtro casado e determine o valor do limiar. (b) Mostre que a estrutura mostrada na Fig. E5.3 é equivalente ao receptor ótimo do item (a).

Fig. E5.3

s2(t)

0 T t

A

A

s1(t)

T 2T t

∫ ∞−

t

r(t)

t=0 : x(0)

2x(T)-x(0)-x(2T) ≥ 0 2m m= t=T : x(T)

t=2T : x(2T)

x(t)

s2(t)

0 T t

A

t

-A s1(t)

∫ ∞−

t

r(t)

t=0

t=T

≥ 0

2m m=

_

+

0 T t

1

g(t)

0

T

∫ x(t) y

t0 x(t) h(t)

y y(t)

Page 181: Princípios de Comunicações

180

5.4 Mostre que o diagrama da Fig. E5.3 também pode ser usado para fazer a deteção ótima em um sistema de transmissão usando o par de sinais da Fig. E5.4 correspondente ao código Manchester.

Fig. E5.4

5.5 Considere que uma transmissão digital é feita com os sinais da Fig. E5.5 e que a deteção destes sinais é feita com base nas amostras colhidas na saída x(t) de um integrador cuja entrada é o sinal recebido, como representado na figura. (a) Mostre que as amostras de x(t) nos instantes 0, T e 2T representadas por x(0), x(T) e x(2T) são suficientes para se fazer a deteção ótima; (b) sabendo que os valores das amostras são x(0) = 0,4; x(T) = 0,3; x(2T) = 0,9, qual será a decisão ótima neste caso, s1 s2 ou s3 ?

Fig. E5.5 5.6 Mostre que, para um determinado valor da energia média Es, a energia do sinal diferença pode ser maximizada escolhendo s2(t) = - s1(t).

5.7 Em uma transmissão PAM quaternária, é transmitido um pulso retangular de duração 0,2 ms com amplitudes ± 2 e ± 6 mV. (a) Calcule a energia média transmitida. (b) Determine os possíveis valores amostrados na saída do filtro casado do receptor ótimo na ausência de ruído. 5.8 Considere um sistema ASK on-off onde os sinais são

2( ) 2cos(2 ) 0 0.1cs t f t t msπ= < < e s1(t) = 0 O receptor é o receptor ótimo da Fig. 5.28 (a) onde h(t), a resposta ao impulso do filtro, é dada por

1 0 0,1ms( )

0 fora

th t

≤ ≤=

(a) Calcule a energia média; (b) determine o valor do limiar. (c) Suponha que há um erro de 300 na fase do oscilador local; qual deverá ser o aumento da energia média dos sinais para compensar este erro e manter a mesma distância entre os possíveis valores amostrados?

0 2T t

s1(t)

A

0 2T t

s3(t)

-A

∫ ∞−

t

dt

r(t) x(t)

0 T 2T t

s2(t) A

-A

s2(t)

0 T 2T t

A s1(t)

0 T 2T t

A

- A - A

Page 182: Princípios de Comunicações

181

5.9 Um sistema de transmissão digital tem as seguintes características: modulação PSK-4; taxa de bits: 5000 bit/s; freqüência de portadora: fc = 2500 Hz. (a) Supondo que a envoltória é constante em [0,T] e que a energia média dos sinais transmitidos é igual a 2×10-4 J, faça um gráfico das 4 possíveis formas de onda, indicando o valor das amplitudes. 5.10 Em um sistema PSK-8 é transmitida, usualmente, uma portadora com fases iguais a π/8, 3π/8,..., 15π/8. Suponha agora que as fases transmitidas são 0, 2π/8, 4π/8,..,14π/8. Modifique então o receptor de mínima distância da Fig. 5.43 de modo que ele continue operar adequadamente (a) alterando o detetor de limiar; (b) alterando o bloco tg-1; (c) sem alterar os dois blocos dos itens (a) e (b). Justifique as modificações. 5.11 Uma transmissão digital com taxa de 10 kbit/s é feita com modulação PSK-4. Sabe-se que a envoltória da portadora é constante e a energia média dos sinais na entrada do receptor é 2×10-14 J. O receptor é o da Fig. 5.37 onde h(t) é um filtro casado cujo ganho é unitário na frequência f =0, isto é, |H(0)| =1. (a) Determine analítica e graficamente a resposta ao impulso do filtro casado h(t), sabendo que o instante de amostragem é t0 = 0,4 ms. (b) determine a menor distância entre dois sinais no espaço de decisão; (c) repita o item (b) considerando os sistemas QAM-16 e PSK-8, com seus respectivos receptores representados nas Figs 5.37 e 5.43, respectivamente. 5.12 Considere o modelo de receptor de um sistema QAM-16 mostrado na Fig. 5.35 onde h(t) = Kg(t0-t) sendo g(t) a forma da envoltória na entrada do receptor, a qual é suposta retangular de amplitude unitária. (a) Sabendo que a taxa de bits é igual a 100 kbit/s, que a energia média na entrada do receptor é de 5×10-9 J e que os limiares de deteção são fixados em 0 e ± 2mV, determine o valor adequado da constante K. (b) Repita o cálculo para um pulso g(t) de espectro igual à raiz quadrada de um cosseno levantado definido pela expressão 5.112. 5.13 Um sistema QAM-16 é transmitido com taxa de 100 kbit/s e tem envoltória constante dentro de um intervalo de transmissão T. (a) determine a energia média que deve ter este sinal na entrada do receptor de mínima distância, sabendo que os limiares de deteção são fixados em 0 e ± 2 mV e que a resposta ao impulso do filtro casado no receptor da Fig. 5.35 tem energia unitária. 5.14 (a) Mostre que uma condição suficiente para que as funções g(t)cos(2πfct) e g(t)sen(2πfct) sejam ortogonais é que

2( ) ( ) | 0cf fG f G f =±∗ =

(b) Mostre também que esta condição é suficiente para se verificar as igualdades

2 2 2 2( )cos (2 ) ( )sen (2 )2g

c c

Eg t f t dt g t f t dtπ π

∞ ∞

−∞ −∞= =∫ ∫

5.15 Mostre que, se g(t) for um pulso retangular no intervalo [0, T], uma condição suficiente para a ortogonalidade entre os sinais ( )cos(2 )cg t f tπ e ( )sen(2 )cg t f tπ é fc= 1/(2T). 5.16 Mostre que se g(t) for um pulso retangular de duração T é possível obter ortogonalidade entre duas portadoras FSK, independentemente das fases θ1 e θ2, com separação de frequência

; ;i jk

f f i jT

− = ≠

onde k é um inteiro.

Page 183: Princípios de Comunicações

182

5.17 Considere uma transmissão FSK binária com os sinais

s1(t) = g(t) cos (2πf1t + θ1) s2(t) = g(t) cos (2πf2t + θ2)

onde g(t) é um pulso retangular de amplitude unitária em [0,T] e f1 e f2 >> 1/T. Para cada um dos casos a seguir, determine a diferença de fase que torna os sinais ortogonais e a diferença de fase ótima, ou seja, aquela que leva à maior distância entre os sinais: (a) (f2 - f1) = 1/T; (b) (f2 - f1) = 1/(2T) ; (c) (f2 - f1) = 0. 5.18 Considere uma transmissão FSK binária com os sinais

s1(t) = g(t)cos(2πf1t + θ) s2(t) = g(t)cos(2πf2t + θ)

onde g(t) é um pulso retangular de amplitude unitária em [0,T] e f1 e f2 >> 1/T. Determine o valor de ∆f = f2 - f1, que maximiza a distância entre os sinais e, com isso, o desempenho da transmissão; compare este resultado com aquele correspondente a sinais ortogonais. 5.19 Um sinal FSK de fase contínua é gerado através de uma modulação FM, onde o sinal modulador é um sinal PAM binário com pulso retangular de duração igual ao intervalo de bit (NRZ) com amplitudes iguais a ± 5 Volt e taxa de 1 kbit/s. Sabe-se também que a constante de sensibilidade, kf, do modulador FM é igual a 1 kHz/volt e a frequência da portadora é 50 kHz. Supondo uma sequência de amplitudes +5, -5, -5, +5 e +5, (a) faça o gráfico da frequência da portadora modulada ao longo do tempo; (b) faça o gráfico do desvio instantâneo de fase ao longo do tempo. 5.20 Considere o sistema DPSK definido na Seção 5.2.4. (a) Suponha um sistema quaternário onde as fases associadas a cada par de bits são

00 : π/4, 01: 3π/4, 10: - π/4, 11: - 3π/4 Sabe-se que foram observados os seguintes valores sucessivos de rk,1 e rk,2

rk,1 = -3, -2., 1, -1 rk,2 = 1, 1, -3., 2

(a) Determine a sequência de bits detetados a partir da segunda transmissão; (b) sabendo que a fase inicial da portadora na primeira transmissão é 0 e supondo que não haja erro na deteção, determine a sequência de fases da portadora transmitida. 5.21 Em um sistema PAM-2 simétrico, o pulso gerado no transmissor é retangular de duração 0,5 ms e o filtro de recepção é casado. (a) Determine a máxima taxa de bits para transmissão sem interferência entre símbolos; (b) desenhe o diagrama do olho observado na entrada do detetor, sabendo que o sistema opera com taxa de transmissão de 1,25 kbit/s. 5.22 Um sinal com modulação PAM binária, com amplitudes ak = ± 1 e com um pulso g(t) retangular de amplitude unitária em [0,T] é transmitido através de um canal com resposta ao impulso c(t) = δ(t) + 0,3 δ(t-T) + 0,1 δ(t-2T), onde T é o intervalo de símbolo. Supondo que o filtro de recepção não altera os sinais, (a) calcule os valores possíveis de interferência entre símbolos no instante t=T/2; (b) desenhe o diagrama do olho. 5.23 Um sinal PAM-2 simétrico chega à entrada do detetor com pulso básico dado por

<≤−

+=

fora

TtTT

t

tp

0

cos1)(

π

onde T é o intervalo de símbolo.

Page 184: Princípios de Comunicações

183

(a) determine as possíveis formas assumidas pelo sinal PAM-2 no intervalo [0,T]; (b) determine os valores possíveis da interferência entre símbolos e a distorção absoluta nos instantes t = 0 e t = T/4. 5.24 Um sistema PAM binário de amplitudes ±1 opera com pulso de transmissão na entrada do detetor da forma p(t) = Sinc(t/T) onde T é o intervalo de símbolo. (a) Para uma taxa de transmissão de 10 kbit/s, determine o valor máximo da interferência entre símbolos provocada por um atraso de 0,01 ms no instante ótimo de amostragem (considere apenas os 4 termos mais significativos); (b) calcule a distorção absoluta correspondente e verifique se o olho estará fechado; (c) repita os itens a e b considerando um sistema PAM-8 e uma taxa de 30 kbit/s. 5.25 Calcule, em função do fator de roll-off, a energia (a) de um pulso com espectro P(f) igual à raiz quadrada de um cosseno levantado dado por (5.112); (b) de um pulso com espectro P(f) igual a um cosseno levantado dado por (5.112). 5.26 No sistema PAM-4 representado na figura E5.26, a taxa de transmissão é de 19.200 bit/s e os pulsos na saída do modem são retangulares. Sabendo que a largura de faixa a ser usada na transmissão é igual a 7200 Hz, especifique as respostas de amplitude dos filtros de transmissão e recepção |HT(f)| e |HR(f)| para que o sistema opere com filtro casado no receptor e sem interferência entre símbolos.

Fig. E5.26

ruído Transmissor

modem

HT(f) HR(f)

Page 185: Princípios de Comunicações

184

6. RUÍDO EM SISTEMAS DE COMUNICAÇÕES A transmissão de sinais de comunicações à longa distância pode ser perturbada por diversos fatores. Como observado no início do Capítulo 3, um fator importante é a distorção provocada nos sinais pelo fato do meio de transmissão não apresentar uma resposta de frequência plana, o que é denominado distorção linear. Além deste, outros fatores podem trazer dificuldades à recepção adequada das mensagens, como a interferência de outros sinais ou distorções não lineares provocadas por amplificadores. Porém, a principal perturbação em uma transmissão a longa distância é a adição de sinais ruidosos gerados nos equipamentos do sistema de recepção, denominados simplesmente ruído. Todos os componentes eletrônicos que integram um sistema de transmissão analógico ou digital geram, espontaneamente, tensões e correntes elétricas aleatórias de intensidade muito reduzida. Estas se somam às tensões ou correntes associadas aos sinais usados na comunicação. A intensidade extremamente reduzida do ruído gerado nos componentes faz com que sua influência seja desprezível no transmissor, onde as tensões e correntes associadas aos sinais de comunicação são relativamente elevadas. Porém, o mesmo não ocorre no receptor, onde, devido à atenuação no canal, o sinal chega geralmente com baixa intensidade, da mesma ordem de grandeza do ruído. Portanto, embora presente no transmissor dos sistemas de comunicações, o ruído só é considerado no receptor. Neste capítulo, apresentamos inicialmente uma caracterização matemática do ruído como um processo aleatório e em seguida uma visão mais prática.

6.1 CARACTERIZAÇÃO MATEMÁTICA DO RUÍDO As medidas do ruído nos componentes eletrônicos mostram que o ruído se comporta, geralmente, como um processo aleatório Gaussiano de média nula estacionário em sentido amplo e com densidade espectral de potência aproximadamente constante para uma faixa de frequências entre zero e um valor bastante elevado, acima das frequências utilizadas na transmissão dos sinais de comunicações. Com base neste resultado, o ruído é geralmente modelado como um processo aleatório w(t) Gaussiano de média nula e função densidade espectral de potência dada por

0( )2w

NS f = (6.1)

onde N0 é uma constante. Em consequência, sua função autocorrelação é dada por

[ ] 0( ) ( ) ( ) ( )2w

NR E w t w tτ τ δ τ= + = (6.2)

onde E é o símbolo de valor esperado e δ(τ) é a função impulso. Por analogia com o espectro da cor branca que contém componentes de frequência de todas as cores, o ruído com as propriedades acima é denominado Ruído Branco. De acordo com as propriedades da função densidade espectral de potência, podemos fazer as seguintes interpretações de (6.1).

• o ruído branco tem a mesma intensidade em qualquer faixa do espectro de frequências

• a potência total do ruído branco dada por

( )w wP S f df∞

−∞= ∫ (6.3)

é infinita.

Page 186: Princípios de Comunicações

185

• a potência do ruído branco em uma faixa de frequências [f1, f2](!), dada por

1 2

2 1

0( ) ( )f f

n w wf f

P S f df S f df BN−

−= + =∫ ∫ (6.4)

Este cálculo está ilustrado na Fig. 6.1.

Fig. 6.1 – Densidade espectral de potência do ruído branco

De acordo com as propriedades da função autocorrelação, podemos interpretar (6.2) da seguinte forma: os valores do ruído branco ao longo do tempo são sempre descorrelacionados, por mais próximos que sejam os instantes considerados. Em outras palavras, conhecendo o valor do ruído branco em um determinado instante, nada se pode dizer quanto a seu valor em um instante futuro, por mais próximo que seja. Em resumo, o ruído branco é completamente imprevisível. As propriedades do ruído branco relacionadas acima, em particular o fato de o ruído branco ter potência infinita, mostram que se trata de um sinal idealizado que não existe fisicamente. Na realidade, como mencionado no início do parágrafo, a densidade espectral de potência do ruído observado nos componentes eletrônicos se mantém constante para uma faixa de frequências bastante grande, mas decai para valores muito elevados de frequência, fora da faixa usual das comunicações. Como em todo receptor existe um filtro que seleciona apenas a faixa de frequências de interesse, a faixa de frequências onde o ruído branco (idealizado) difere do verdadeiro ruído é eliminada, não havendo, portanto, nenhum problema em usar a representação dada por (6.1) e (6.2).

6.1.1 Ruído branco filtrado Como acabamos de comentar, o ruído branco, adicionado ao sinal, sempre sofrerá a ação dos filtros existentes nos receptores. Assim, é conveniente analisar as modificações provocadas no ruído branco ao passar pelos filtros. Para isto usaremos as seguintes propriedades dos processos aleatórios Gaussianos e estacionários em sentido amplo

(i) se o sinal de entrada em um sistema linear for um processo aleatório Gaussiano, o sinal de saída também será um processo aleatório Gaussiano

(ii) se o sinal de entrada x(t) em um sistema linear com função de transferência H(f) for um processo aleatório estacionário em sentido amplo com função densidade espectral de potência Sx(f), o sinal de saída y(t) também será um processo aleatório estacionário em sentido amplo com densidade espectral de potência dada por

(!) O espectro de frequências definido na transformada de Fourier abrange todos os números reais, ou seja, a faixa [-∞, ∞]. Porém, a especificação de uma faixa de frequências é geralmente feita apenas para valores positivos, ficando sub-entendido que a faixa delimitada pelos valores negativos fica automaticamente especificada. Isto se explica pelo fato de que todo sinal real tem transformada de Fourier simétrica. Portanto, ao especificarmos a faixa [f1, f2], automaticamente incluímos a faixa [-f2, -f1]. A largura de faixa será definida como B = f2 – f1.

-f2 -f1 f1 f2 f

N0/2

B

Sw(f)

BN0/2 BN0/2

Andre
Highlight
Andre
Highlight
Page 187: Princípios de Comunicações

186

2( ) ( ) ( )y xS f S f H f= (6.5)

Esta propriedade está ilustrada na Fig. 6.2

Fig. 6.2 – Filtragem de processos aleatórios estacionários em sentido amplo

Função densidade de probabilidade de uma amostra do ruído filtrado Os resultados acima permitem determinar uma expressão geral para a função densidade de probabilidade de uma amostra de ruído branco Gaussiano filtrado por um filtro qualquer, com função de transferência H(f). Para isso, devemos notar que a função densidade de probabilidade de um processo aleatório x(t) Gaussiano, estacionário em sentido amplo, de média nula, em um instante qualquer t, é dado por

2

22( )

1( )

2

X

x tp X e σπσ

−= (6.6)

onde σ2 é a variância de x(t), isto é,

2 2( ) (0)xE x t Rσ = = (6.7)

onde E representa o valor esperado e Rx(τ) é a função autocorrelação de x(t). Ou seja, como o processo tem média nula, a variância em um instante qualquer é igual à potência do processo. Note ainda que

(0) ( )x xR S f df∞

−∞= ∫ (6.8)

Com base nesses resultados, podemos escrever a seguinte expressão para a função densidade de probabilidade da amostra de ruído na saída do filtro H(f), como indicado na Fig. 6.3:

2

2

0

2( )

1( )

2

X

n tp X e σπσ

−= (6.9)

onde

22 0 ( )2n

NP H f dfσ

−∞= = ∫ (6.10)

Fig. 6.3 – Amostra de ruído filtrado

Note que, aplicando a propriedade de Parseval temos, alternativamente,

2 20 ( )2n

NP h t dtσ

−∞= = ∫ (6.11)

H(f)

Sx(f) 2( ) ( ) ( )y xS f S f H f=

x(t) y(t)

H(f) Sw(f)=N0/2

t0

w(t) n(t) n(t0)

Page 188: Princípios de Comunicações

187

Ruído branco passa-baixa Considere um filtro passa-baixa ideal de faixa B ilustrado na Fig. 6.4 (a). Um ruído branco ao passar por este filtro apresenta a função densidade espectral de potência mostrada na Fig. 6.4 (b). Observamos que a potência do ruído filtrado é dada por

Pn =N0B (6.12)

Fig. 6.4 – (a) Filtro passa-baixa ideal; (b) Densidade espectral de potência de um ruído branco passa-baixa Aplicando a transformada de Fourier à densidade espectral de potência da Fig. 6.4 (b) obtemos a expressão da função autocorrelação de um ruído branco passa-baixa

( )0( ) ( ) 2nR N B Sinc Bτ τ= (6.13)

Ruído branco passa-faixa Considere um filtro passa-faixa ideal de faixa B ilustrado na Fig 6.5 (a). Um ruído branco, ao passar por este filtro, apresenta a função densidade espectral de potência mostrada na Fig 6.5 (b). Nesse caso a potência do ruído filtrado é dada por

Pn =N0B (6.14)

Fig. 6.5 – (a) Filtro passa-faixa ideal; (b) Densidade espectral de potência de um ruído branco passa-faixa

H(f)

-B 0 B f

1

(a)

-B 0 B f

N0/2 Sn(f)

(b)

-f2 -f1 f1 fc f2 f

1

B

H(f)

-f2 -f1 f1 fc f2 f

N0/2

B

Sn(f)

(a)

(b)

Page 189: Princípios de Comunicações

188

Aplicando a transformada de Fourier à densidade espectral de potência da Fig. 6.5 (b), obtemos a expressão da função autocorrelação de um ruído branco passa-faixa dada por

( )0( ) ( ) cos(2 )n cR N B Sinc B fτ τ π τ= (6.15)

Largura de Faixa Equivalente de Ruído Entre outras definições de largura de faixa de um filtro, pode-se definir Largura de Faixa Equivalente de Ruído de um filtro de função de transferência H(f) como a faixa de um filtro ideal que produza a mesma filtragem. Isto é, para um mesmo ruído branco de entrada, a potência do ruído de saída deve ser a mesma para os dois filtros. Como, para um ruído branco de densidade espectral de potência N0/2, a potência na saída de um filtro ideal é dada por N0B, e na saída de um filtro qualquer é dada por (6.10) temos

200 ( )

2eqN

B N H f df∞

−∞= ∫ (6.16)

Chegamos, assim, à seguinte expressão para a faixa equivalente de ruído

21( )

2eqB H f df∞

−∞= ∫ (6.17)

Exemplo 6.1

Considere o sistema da Fig 6.3 onde w(t) é um ruído branco Gaussiano de média nula, com densidade espectral de potência igual a 10-8 W/Hz e a função de transferência do filtro H(f), mostrada na Fig. 6.6(a), é dada por

( )1 11 cos ; | |

( ) 20

fT fH f T

fora

π

+ ≤ =

onde T = 10-4 s. Deseja-se determinar a probabilidade de que a amostra do ruído na saída do filtro, n(t0), seja maior do que 20 mV.

Aplicando (6.5), obtemos a densidade espectral de potência do ruído n(t), mostrada na Fig. 6.6(b). A potência de n(t) pode ser calculada através de (6.10) ou, alternativamente através de (6.16) e (6.17). Temos então, para o filtro especificado neste exemplo,

( )1 1

1 1

1 1 1 1 11 cos

2 2 2 2 2

T T

T T

eqB fT df dfT

π− −

= + = = ∫ ∫

Este resultado está ilustrado na Fig. 6.6(c) onde se observa que a área sob o quadrado da função de transferência H(f) é igual à mesma área obtida com um filtro ideal (retangular) de largura de faixa 1/(2T). Levando em (6.16) e substituindo os valores numéricos obtemos

40 102nN

PT

−= =

Como w(t) é um processo aleatório Gaussiano de média nula, n(t) também é um processo Gaussiano de média nula. Utilizando (6.9) podemos escrever

Page 190: Princípios de Comunicações

189

[ ]2

220

1( )

2

X

V

VP n t V e dX Qσ

σπσ

∞ − > = = ∫

onde Q é a função erro complementar definida por

2

21( )

2

X

Q e dXα

απ

∞ −= ∫

Notando que V = 2×10-2 e σ2 = Pn = 10-4, chegamos a

[ ] ( )0( ) 2P n t V Q> =

Fig. 6.6 - Ilustração para o cálculo da largura de faixa equivalente do Exemplo 6.1

6.1.2 Decomposição de um ruído passa-faixa Além da filtragem nos receptores, outro processamento importante é a demodulação, especialmente a demodulação de sistemas QAM mostrada na Fig. 6.7, onde θ é a fase dos osciladores locais e h0(t) é a resposta ao impulso de um filtro passa-baixa. Em geral, na entrada deste demodulador, há um filtro passa-faixa H(f), cuja função é selecionar apenas o espectro de interesse, ou seja, a faixa ocupada pelo sinal transmitido. Desta forma, o ruído branco adicionado ao sinal também sofrerá a mesma filtragem. Supondo que o filtro passa-faixa é ideal, o ruído na saída deste filtro, n(t), será um ruído branco passa-faixa como representado na Fig. 6.5.

-1/T -1/2T 0 1/2T 1/T f

|H(f)|2

filtro ideal equivalente

Beq

-1/T -1/2T 0 1/2T 1/T f

|H(f)|2 (a)

(c)

1

-1/T -1/2T 0 1/2T 1/T f

Sn(f) 10-8

0,5

0,5×10-8 (b)

Page 191: Princípios de Comunicações

190

A análise do processamento do ruído através do receptor QAM apresenta dificuldades teóricas pelo fato de que a multiplicação do ruído pelas portadoras locais resultar em processos não estacionários, a não ser que a fase destas portadoras seja modelada como uma variável aleatória uniforme e estatisticamente independente do ruído. Neste caso, pode-se obter sem dificuldade (ver Exercício 1 deste capítulo), a densidade espectral de potência dos ruídos n1(t) e n2(t) representados na Fig. 6.7.

Fig. 6.7 - Demodulador de um sistema QAM

Um artifício amplamente utilizado na análise do ruído demodulado consiste em expressar o ruído branco passa-faixa n(t), bem como qualquer processo aleatório passa-faixa(!) de média nula, da seguinte forma

( ) ( )cos(2 ) ( ) (2 )c c s cn t n t f t n t sen f tπ θ π θ= + − + (6.18)

onde nc(t) e ns(t) são dois processos aleatórios estacionários em sentido amplo, de média nula, denominados, respectivamente, componente em fase e componente em quadratura, cujas transformadas de Fourier das funções autocorrelação e correlação cruzada (espectros de potência) são assim definidas:

( ) ( ) ( ) ( )c sn n n c n cS f S f S f f S f f− += = − + + (6.19)

( ) ( ) ( ) ( )c s s cn n n n n c n cS f S f j S f f S f f− + = − = − − + (6.20)

onde

( ) 0

( )0 0

nn

S f fS f

f− <

= ≥

( ) 0( )

0 0n

n

S f fS f

f+ >

= ≤ (6.21)

Decorrem das definições acima as seguintes propriedades:

( ) ( )c sn nR Rτ τ= (6.22)

(!) Um processo aleatório passa-faixa é um processo aleatório estacionário em sentido amplo cuja densidade espectral de potência só é diferente de zero em uma faixa de frequências relativamente pequena em torno de uma frequência relativamente alta.

w(t) cos(2 )cf tπ θ+

n1(t) = ½ nc(t)

(2 )csen f tπ θ− +

h0(t)

h0(t)

n2(t) = ½ ns(t)

H(f) n(t)

u(t)

v(t)

Page 192: Princípios de Comunicações

191

( ) ( )

c s s cn n n nR Rτ τ= − (6.23)

A obtenção de (6.19) e (6.20) está ilustrada na Fig. 6.8(a) para um processo aleatório n(t) com densidade espectral de potência qualquer e na Fig. 6.8(b) para um ruído branco passa-faixa, com a frequência fc no meio da faixa. Neste caso, como se mostra na figura,

0 | |( ) ( ) 2

0 forac sn n

BN f

S f S f ≤= =

(6.24)

Fig. 6.8 – Densidade espectral de potência das componentes em fase e em quadratura (a) para um processo aleatório passa-faixa qualquer (b) para um ruído branco passa-faixa

Para mostrar a validade da representação, calculamos inicialmente a função

autocorrelação Rn(t1,t2) = E[n(t1)n(t2)] com n(t) dado por (6.18), ou seja,

1 2 1 1 1 1 2 2 2 2( , ) ( )cos(2 ) ( ) (2 ) ( )cos(2 ) ( ) (2 )n c c s c c c s cR t t E n t f t n t sen f t n t f t n t sen f tπ θ π θ π θ π θ= + − + + − +

0 f

( ) ( )c sn nS f S f=

- fc 0 fc f

Sn(f)

-B/2 0 B/2 f

( ) ( )c sn nS f S f=

- fc 0 fc f

Sn(f) N0/2 N0/2

N0

( )nS f+ ( )nS f−

( )nS f+ ( )nS f−

(a)

(b) B

( )n cS f f+ − ( )n cS f f− +

( )n cS f f+ − ( )n cS f f− +

Page 193: Princípios de Comunicações

192

Desenvolvendo e aplicando as propriedades dadas por (6.22) e (6.23), chegamos a

1 2( , ) ( )cos(2 ) ( )sen(2 )c c sn n c n n cR t t R f R fτ π τ τ π τ= − (6.25)

onde τ = t2-t1. Aplicando propriedades da Transformada de Fourier e as definições (6.19) e (6.20) verificamos que

( )cos(2 ) ( )sen(2 ) ( )c c sn c n n c nR f R f S fτ π τ τ π τ− ⇔ (6.26)

validando, portanto, a representação. Propriedades Observando as funções densidade espectral de potência das Figs 6.5 (b) e 6.8 (b), verificamos a seguinte propriedade: o ruído passa-faixa e suas componentes em fase e em quadratura têm a mesma potência; ou seja,

0c sn n nP P P N B= = = (6.27)

Notando, com auxílio da Fig. 6.8, que no caso do ruído branco passa-faixa,

( ) ( )n c n cS f f S f f− +− = + (6.28)

e observando (6.20), verificamos que 0)()( == fSfScssc nnnn e, portanto

0)()( == ττcssc nnnn RR , o que significa que as componentes em fase e em quadratura são

estatisticamente independentes. Ruído demodulado Com a representação através das componentes em fase e em quadratura, podemos obter uma expressão geral para os dois sinais de saída do demodulador da Fig. 6.7 quando a entrada é um ruído passa-faixa. Para isto, observemos que, para n(t) dado por (6.18), os sinais u(t) e v(t) representados na Fig. 6.7 são dados por

1 1 12 2 2( ) ( ) ( )cos(4 2 ) ( )sen(4 2 )c c c s cu t n t n t f t n t f tπ θ π θ= + + − + (6.29)

1 1 12 2 2( ) ( ) ( )cos(4 2 ) ( )sen(4 2 )s s c c cv t n t n t f t n t f tπ θ π θ= − + − + (6.30)

Como o segundo e o terceiro termos do lado direito das equações (6.29) e (6.30) são sinais de alta frequência, situados na faixa em torno do dobro da frequência da portadora, estes termos são eliminados pelo filtro passa-baixa, resultando então

11 2( ) ( ) ( )cn t n t h t= ∗ (6.31)

1

2 2( ) ( ) ( )sn t n t h t= ∗ (6.32)

Page 194: Princípios de Comunicações

193

Demodulação com filtro passa-baixa ideal Se h(t) for a resposta ao impulso de um filtro passa-baixa ideal, com faixa maior ou igual a B/2, então os ruídos não serão alterados pelo filtro, e assim,

11 2( ) ( )cn t n t= (6.33)

1

2 2( ) ( )sn t n t= (6.34)

Consequentemente, de acordo com (6.27), as potências do ruído demodulado pelo demodulador QAM, com filtro passa-baixa ideal, são dadas por

1 2

104n nP P N B= = (6.35)

Potência do ruído demodulado com filtro passa-baixa qualquer De acordo com (6.31) e (6.32), a densidade espectral de potência dos ruídos demodulados n1(t) e n2(t) podem ser expressas, genericamente, por

1 2

214( ) ( ) ( ) | ( ) |

cn n nS f S f S f H f= = (6.36)

Observando a Fig 6.8, e supondo que H(f) = 0 para |f| > B/2, podemos escrever

1 2

2104( ) ( ) | ( ) |n nS f S f N H f= = (6.37)

1 2

20 | ( ) |4n n

NP P H f df

−∞= = ∫ (6.38)

Função densidade de probabilidade de uma amostra de ruído demodulado

Considerando que o ruído na entrada do demodulador QAM é um ruído branco Gaussiano, podemos mostrar que as componentes em fase e em quadratura, nc(t) e ns(t), bem como os ruídos na saída do demodulador, n1(t) e n2(t), são também processos aleatórios Gaussianos de média nula. Podemos então escrever, analogamente a (6.9), para uma amostra de n1(t) ou n2(t) tomada em um instante t0,

2

2

1 0 2 0

2( ) ( )

1( ) ( )

2

X

n t n tp X p X e σπσ

−= = (6.39)

onde σ2

é igual à potência de nc(t) ou ns(t) dada por (6.38) ou, alternativamente por

2 20 ( )4

Nh t dtσ

−∞= ∫ (6.40)

Page 195: Princípios de Comunicações

194

Exemplo 6.2

Neste exemplo vamos analisar o processamento de um ruído pelo sistema de recepção representado na Fig. 6.9, onde fc = 1250 kHz e w(t) é um ruído branco Gaussiano, com densidade espectral de potência igual a 10-15 W/Hz. Desejamos calcular: (a) a potência do ruído na saída do filtro HR(f); (b) a densidade espectral de potência do ruído n1(t) na saída do filtro H0(f); (c) a variância de uma amostra qualquer do ruído n1(t).

Fig. 6.9 – Diagrama de blocos do receptor do Exemplo 6.2

(a) Aplicando (6.5) temos

1525 10 1200 1300( )

0 foran

fS f

× ≤ ≤=

Pn´ =25×2×10-15×100×103 = 5×10-9 W (b) Aplicando (6.24), obtemos a densidade espectral de potência da componente em fase do ruído, nc(t).

152 25 10 50( )

0 foracn

fS f

− × × ≤=

Usando (6.31), sem o fator 1/2, uma vez que, neste caso, a portadora local do demodulador tem amplitude igual a 2, podemos escrever

n1(t) = nc(t)*h0(t) e, consequentemente,

1

20( ) ( ) ( )

cn nS f S f H f=

O gráfico está mostrado na figura abaixo. Note que o efeito do filtro é multiplicar por 4 a densidade espectral de potência de nc(t) e reduzir a ocupação espectral.

(c) A variância de uma amostra qualquer do ruído n1(t) é igual à sua potência, que pode ser calculada integrando a densidade espectral de potência. Integrando a função da figura, obtemos

σ2 = Pn1 = 2×10-13×20×103 = 4×10-9 W

2×10-13

-10 0 10 f (KHz)

Sn1(f)

HR(f) w(t)

H0 (f)

2cos(2πfct+θ)

n1(t)

5

1200 1300 f(KHz)

HR(f)

2

-10 0 10 f(KHz)

H0(f)

n´(t)

Page 196: Princípios de Comunicações

195

6.2 CARACTERIZAÇÃO DO RUÍDO NOS RECEPTORES Como observado na introdução deste capítulo, o ruído é constituído pelas flutuações aleatórias das tensões e correntes nos componentes eletrônicos e, embora existente nos transmissores, só é relevante nos receptores, onde pode ter a mesma ordem de grandeza dos sinais. A determinação precisa das características do ruído gerado pelos diversos dispositivos que integram os receptores é uma tarefa complexa e não é o objetivo deste texto. Será apresentado aqui o modelo relativamente simples, usualmente empregado nos projetos de engenharia, baseado em aproximações das propriedades do ruído e dos circuitos elétricos.

6.2.1 Ruído nos resistores A partir de experimentos realizados com resistores, chegou-se ao seguinte resultado: um resistor de resistência R (Ω), a uma temperatura T (Kelvin) apresenta em seus terminais, espontaneamente, uma tensão variável ao longo do tempo, v(t), com densidade espectral de potência dada, aproximadamente por

( ) 2 ; | |v uS f KTR f f= < (6.41) onde

K = 1,38 ×10-23 é a constante de Boltzman, e fu é uma frequência muito elevada, acima da faixa utilizada nos sistemas de comunicações. Ou seja, um resistor gera espontaneamente um ruído que é aproximadamente um ruído branco. Pela dependência direta com a temperatura, este ruído passou a ser chamado de ruído térmico. Estudos semelhantes, feitos para o ruído gerado por outros componentes eletrônicos, levam a resultados mais complexos, e não diretamente dependentes da temperatura. Mas, em geral, esses ruídos se comportam também, aproximadamente, como um ruído branco. A partir da caracterização do ruído gerado pelos componentes individualmente, é necessário um modelo que permita determinar a potência total do ruído que se adiciona ao sinal. Para isto, considera-se que: (i) em um receptor, os dispositivos se conectam com casamento de impedância; (ii) a potência de interesse é a potência efetivamente dissipada na carga casada. Ruído térmico dissipado na carga casada A Fig. 6.10 mostra um circuito equivalente de um resistor para levar em conta a geração do ruído. Neste circuito, o resistor real é substituído por um resistor ideal (que não gera ruído) em série com uma fonte de ruído que representa o ruído gerado pelo resistor real. Fechando este circuito com uma carga casada, que neste caso é um resistor de resistência R, verificamos que a tensão nesta carga casada é igual a

x(t) = v(t)/2 (6.42)

Portanto, observando (6.42) e (6.41) podemos escrever a densidade espectral de potência de x(t) como

14( ) ( )

2x vKTR

S f S f= = (6.43)

Note que a potência fornecida pela densidade espectral de potência de um sinal x(t) corresponde à potência dissipada por uma tensão x(t) em um resistor de resistência unitária.

Page 197: Princípios de Comunicações

196

Lembrando que a potência dissipada por uma tensão x em um resistor de resistência R é igual a x2/R, a função densidade espectral de potência que fornece a potência dissipada por uma tensão x(t) em um resistor de resistência R, é dada por

01

( ) ( )xS f S fR

= (6.44)

Substituindo (6.43) em (6.44) obtemos

0( )2

KTS f = (6.45)

Verificamos, portanto, que a potência dissipada na carga casada, pelo ruído gerado em um resistor, só depende da temperatura deste resistor – independe de sua resistência.

Fig. 6.10 – Modelo para caracterização do ruído térmico

6.2.2 Temperatura equivalente de ruído e fator de ruído De forma a simplificar a modelagem do ruído nos receptores, criou-se um modelo que consiste em caracterizar todos os componentes geradores de ruído através de uma temperatura equivalente de ruído definida como a temperatura de um resistor que dissipa a mesma potência de ruído que aquela dissipada pelo dispositivo, considerando sempre que, tanto o resistor como o dispositivo, estão conectados à carga casada. Isto significa que, para efeito de ruído, um dispositivo de uma porta, cuja densidade espectral de potência de ruído dissipado na carga casada é S0(f) = C, pode ser substituído por um resistor de resistência qualquer a uma temperatura Te que satisfaz a

2eKT

C= (6.46)

A equivalência está ilustrada na Fig. 6.11

Fig. 6.11 – Conceito de temperatura equivalente para dispositivo de 2 portas

R

v(t)

x(t) = v(t)/2 R

S0(f)

Te carga casada

dispositivo qualquer

S0(f)

Page 198: Princípios de Comunicações

197

O conceito de temperatura equivalente se aplica também a um dispositivo de 2 portas. Considere um conjunto formado por um dispositivo Di de 1 porta, ligado a um dispositivo de 2 portas Da e este a uma carga casada, como representado na Fig. 6.12. Vamos definir o ganho G do dispositivo Da como a razão entre a potência de ruído dissipada nos terminais de saída (carga casada) e a potência de ruído dissipada nos terminais de entrada. Considerando que o dispositivo de entrada Di tem temperatura de ruído Ti e está ligado também com casamento de impedância, a potência de ruído dissipada nos terminais de entrada do dispositivo Da é dada por

( )2

ii

KTS f = (6.47)

Assim, a potência de ruído dissipada nos terminais de saída (carga casada) é expressa por

0( )2

i iGKTS f = (6.48)

Usando o conceito de temperatura equivalente, toda a potência do ruído gerado pelo dispositivo Da, e dissipado na carga casada, é levado em conta, adicionando um valor Ta à temperatura equivalente Ti do dispositivo Di de entrada e passando a considerar o dispositivo Da como sem ruído. Ou seja, a densidade espectral de potência disponível na saída do conjunto pode ser escrita como

0( )

( )2i aGK T T

S f+

= (6.49)

Podemos, então, definir a temperatura equivalente do dispositivo de 2 portas como

e i aT T T= + (6.50) Consequentemente, a densidade espectral de potência disponível na entrada do dispositivo (sem ruído) será

( )2

ee

KTS f = (6.51)

e, na saída,

0( )2

eKTS f G= (6.52)

A temperatura equivalente de um dispositivo de duas portas é, portanto, a temperatura de um resistor que colocado na entrada do dispositivo, considerado agora sem ruído, dissipa na carga casada o mesmo ruído total verificado antes.

Fig. 6.12 – Temperatura equivalente de um dispositivo de 2 portas

S0(f)

carga casada

Di

(G) (ruidoso)

Fonte (Ti)

Da (G)

(sem ruído)

S0(f)

Fonte (Te=Ti+Ta)

carga casada

Page 199: Princípios de Comunicações

198

Fator de ruído Define-se fator de ruído F do dispositivo Da como

0( )

( )i

S fF

GS f= (6.53)

onde S0(f) é a densidade espectral de potência do ruído total dissipado na carga casada ao conjunto, Si(f) é a densidade espectral de potência do ruído dissipado na carga casada ao circuito de entrada e G é o ganho do dispositivo. Substituindo (6.47) e (6.52) em (6.53) chega-se a

e

i

TF

T= (6.54)

Usando (6.50) podemos escrever também

1 a

i

TF

T= + (6.55)

Por esta definição, obviamente, F > 1. Observando (6.55) verificamos que o fator de ruído de um dispositivo não depende apenas do dispositivo, pois mede a contribuição do dispositivo para o ruído total, relativa ao ruído de entrada. Portanto, ao especificarmos o fator de ruído de um dispositivo, é necessário especificar também o ruído de entrada. Já a temperatura de ruído do dispositivo, só depende do próprio dispositivo, observadas as condições de casamento de impedância. A definição de fator de ruído padronizada pelo IEEE considera um ruído de entrada com temperatura de 290 K.

Razão Sinal-Ruído e Fator de Ruído Ao longo desta seção, desenvolvemos um modelo para avaliar a potência de ruído nos dispositivos que constituem os receptores dos sistemas de comunicações. É óbvio que, junto com o ruído, o sinal desejado também será processado pelos mesmos dispositivos. Ou seja, em todos os diagramas anteriores o sinal de entrada é, na realidade, a soma do sinal desejado s(t) com o ruído ni(t), como representado na Fig. 6.13. Podemos definir, então, a razão sinal-ruído na entrada do receptor como

i

si

n

PRSR

P= (6.56)

Usando a densidade espectral de potência dada por (6.47) e considerando uma largura de faixa B do arranjo considerado, temos

si

i

PRSR

KT B= (6.57)

Da mesma forma, podemos também definir uma razão sinal-ruído na saída. Observando que o sinal desejado não deve sofrer alterações, a não ser os ganhos ou atenuações dos dispositivos, e aplicando (6.52) temos

0

0

0s s s

n e e

P GP PRSR

P GKT B KT B= = = (6.58)

Verificamos então que

Page 200: Princípios de Comunicações

199

0

i e

i

RSR TF

RSR T= = (6.59)

Ou seja, o fator de ruído corresponde ao fator de degradação da razão sinal ruído ao passar por um dispositivo. Note, porém, que o fator de ruído em (6.59) se refere ao ruído que realmente está entrando no dispositivo, e não ao ruído padrão de temperatura 290 K.

Fig. 6.13 – Modelo do receptor com sinal e ruído

Temperatura equivalente de ruído de um atenuador Um atenuador é um circuito de 2 portas, puramente resistivo, que pode ser representado por 3 resistores conectados em Y, como mostrado na Fig. 6.14. A seguir, vamos determinar a temperatura equivalente deste circuito, quando conectado a um circuito de entrada e a uma carga, ambos com casamento de impedância. Como estamos interessados em determinar a temperatura equivalente de ruído do atenuador, e esta não depende do circuito de entrada (desde que se mantenha o casamento de impedância), podemos analisar o problema substituindo o circuito de entrada por um resistor de resistência Ri, à mesma temperatura T dos demais resistores. Note que, para manter o casamento de impedância, Ri deve ser igual à resistência de entrada do atenuador, da mesma forma que R0 deve ser igual à resistência vista dos terminais a-b. Assim, podemos reduzir o modelo da Fig. 6.14 ao modelo simplificado da Fig. 6.15. Este, por sua vez, corresponde ao modelo básico da Fig. 6.10, através do qual chegamos a

0( )2

KTS f = (6.60)

Fig. 6.14 – Circuito do atenuador para cálculo da temperatura equivalente

Fig. 6.15 – Circuito equivalente do atenuador

Ri

R1 R3

R2

a

b

R0

S0(f)

a

b

R0

v(t)

R0 x(t)= v(t)/2

S0(f)

G

s(t)+ni(t) s0(t)+n0(t)

Page 201: Princípios de Comunicações

200

Por outro lado, aplicando ao atenuador a expressão (6.49)(!), correspondente ao modelo da Fig.6.12, e igualando a (6.60) obtemos

0( )

( )2 2

aGK T TKTS f

+= = (6.61)

onde G é o ganho do atenuador. Desenvolvendo esta expressão, chegamos a

11aT T

G = −

(6.62)

onde T é a temperatura ambiente. Como no atenuador o ganho é menor do que 1, é mais usual expressar (6.62) em termos da atenuação L, definida como o inverso do ganho, isto é,

( )1aT L T= − (6.63)

onde 1

LG

= (6.64)

Temperatura e fator de ruído em um conjunto com vários elementos Quando se tem uma cadeia de dispositivos conectados com casamento de impedância, como ilustrado na Fig. 6.16, devemos lembrar que a contribuição dos dispositivos A1 e A2 é levada em conta por resistores equivalentes de temperaturas Ta1 e Ta2 colocados na entrada de cada um deles. Por outro lado, o ganho entre a entrada de A1 e a saída do conjunto é G1G2, enquanto o ganho entre a entrada de A2 é G2. Assim podemos escrever

1 20 1 2 1 2 2( )

2 2 2i a aKT KT KT

S f G G G G G= + + (6.65)

Igualando a (6.52), observando que o ganho G naquela expressão é o ganho do conjunto, ou seja, o produto dos ganhos G1G2, e simplificando a equação, obtemos

21

1

ae i a

TT T T

G= + + (6.66)

Fig. 6.16 – Elementos em cadeia – modelo para determinação da temperatura equivalente

(!) Note que, como todos os resistores estão à temperatura T, Ti = T em (6.49).

A1 (G1,Ta1)

S0(f)

Fonte (Ti)

carga casada

A2 (G2,Ta2)

G1

S0(f)

Ti+Ta1 carga casada

G2 Ta2

Page 202: Princípios de Comunicações

201

O desenvolvimento acima pode ser estendido a um número qualquer de dispositivos, obtendo-se a seguinte expressão geral para a temperatura equivalente de uma cadeia com n dispositivos:

2 31

1 1 2 1 2 1

...a a ane i a

n

T T TT T T

G G G G G G−= + + + + + (6.67)

Supondo que os diversos dispositivos são especificados pelo fator de ruído, podemos obter a temperatura equivalente de ruído de cada dispositivo explicitando Ta em (6.55), isto é,

( 1)a iT T F= − (6.68) Aplicando a todas as parcelas de (6.67) (exceto a primeira, obviamente), obtemos

2 31

1 1 2 1 2 1

( 1) ( 1) ( 1)( 1) ...i i i n

e i in

T F T F T FT T T F

G G G G G G−

− − −= + − + + + + (6.69)

Substituindo em (6.54) chegamos a

321

1 1 2 1 2 1

( 1) ( 1)( 1)... n

n

F FFF F

G G G G G G−

− −−= + + + + (6.70)

Analisando as expressões (6.67) e (6.70), verificamos que a temperatura equivalente de ruído, ou o fator de ruído, do primeiro elemento, entram integralmente na composição do resultado, enquanto os elementos seguintes têm sua temperatura, ou fator de ruído, atenuados pelos ganhos dos elementos anteriores. Assim, uma estratégia típica nos receptores é o emprego de um amplificador de baixo ruído logo após a antena, seguido de dispositivos mais ruidosos. O cálculo da temperatura equivalente, Te, de um conjunto de dispositivos permite reduzir este conjunto ao modelo da Fig. 6.12, onde a densidade espectral de potência do ruído de entrada é dada por (6.47) e a do ruído total na saída por (6.52). Exemplo 6.3 Neste exemplo vamos analisar uma cadeia de recepção constituída de antena, cabo e amplificador, como representado na Fig. 6.17, com as seguintes especificações:

• temperatura ambiente: 290 Kelvin; • temperatura equivalente de ruído da antena: 80 Kelvin; • atenuação do cabo: 6 dB; fator de ruído do amplificador: 3 dB; • ganho do amplificador: 20 dB; largura de faixa de referência: 200 kHz.

Desejamos calcular: • a potência de ruído na saída da antena, do cabo e do amplificador; • a razão sinal ruído na entrada do cabo e na saída do conjunto, sabendo que a potência

do sinal na entrada dos terminais da antena é igual a -70 dBm; • a razão sinal-ruído na saída de um novo arranjo onde a posição do cabo é trocada com

a do amplificador; • o fator de ruído do conjunto cabo e amplificador, nos 2 arranjos considerados.

Page 203: Princípios de Comunicações

202

Fig. 6.17 – cadeia de recepção

(a) A potência em cada ponto é dada por GKTeB, onde Te é a temperatura equivalente de ruído e G o ganho do conjunto de dispositivos até este ponto. Temos então, na saída da antena,

Te = Ti = 80 Kelvin; G = 1; P = 1,38×10-23×80×200×103 = 2,208×10-16

Na saída do cabo,

G = 0,25

1e i aT T T= +

onde

1( 1) (4 1) 290 870aT L T= − = − × =

Pn = 0,25×1,38×10-23×(80+870)×200×103 = 0,655×10-15 Na saída do amplificador

G = 0,25×100 = 25

2

1

1

a

e i a

TT T T

G= + +

onde

1950i aT T+ =

2( 1) (2 1) 290 290aT F T= − = − × =

G1 = 0,25 Calculando

290950 2110

0,25eT = + =

23 3 1325 1,38 10 2110 200 10 1,456 10nP − −= × × × × × = ×

(b) A razão sinal-ruído em cada ponto pode ser calculada pela expressão

s

e

GPRSR

KT B=

Para cada um dos casos obtemos 10

616

100,451 10

2,218 10RSR

−= = ××

105

15

0,25 100,381 10

0,655 10RSR

−×= = ××

105

13

25 100,172 10

1,456 10RSR

−×= = ×

×

(c) Trocando a posição do cabo com o amplificador, temos, na saída do conjunto, G = 100×0,25 = 25

1290aT =

Ganho = 20 dB Fator de ruído = 3 dB

cabo

atenuação = 6 dB

Page 204: Princípios de Comunicações

203

2870aT =

G1 = 100

2

1

1

87080 290 378,7

100a

e i a

TT T T

G= + + = + + =

23 3 1425 1,38 10 378,7 200 10 2,613 10P − −= × × × × × = × 10

514

25 100,957 10

2,613 10RSR

−×= = ×

×

(d) Aplicando (6.54) obtemos os seguintes valores para o fator de ruído referido à temperatura de 290 Kelvin.

21107,27

290378,7

1,34290

e

i

TF

T

== = =

6.2.3 Modelo equivalente do receptor É usual analisar o comportamento de um receptor em presença de ruído através do modelo mostrado na Fig. 6.18, onde s(t) é o sinal que chega à entrada do receptor, atenuado pelo canal, e n(t) é o ruído equivalente do receptor, de acordo com a metodologia usada neste capítulo. Isto é, o ruído n(t) concentra todas as contribuições de ruído geradas nos diversos elementos do receptor (antena, cabos, amplificadores, etc.), de tal forma que o ruído total na saída do receptor, resultante de todas estas contribuições, é o mesmo produzido pelo ruído n(t) colocado na entrada de um receptor ideal onde os elementos não geram ruído. Aplicando (6.51), temos

( )2

en

KTS f = (6.71)

onde Te é a temperatura equivalente do receptor. Usando as propriedades e a notação introduzida neste capítulo, o ruído n(t) é caracterizado como um ruído branco Gaussiano com densidade espectral de potência

0

2 2eN KT

= (6.72)

Fig. 6.18 - Modelo básico de um receptor em presença de ruído branco aditivo

Receptor

sinal s(t)

ruído branco n(t)

Page 205: Princípios de Comunicações

204

6.3 EXERCICIOS 6.1 Defina o processo aleatório 0( ) ( )cos(2 )y t x t f tπ θ= + , onde x(t) é um processo aleatório

estacionário em sentido amplo com função autocorrelação Rx(τ) e θ é uma variável aleatória uniformemente distribuída no intervalo [0,2π], estatisticamente independente de x(t). (a) mostre que a função autocorrelação de y(t) é dada por 1

02( ) ( )cos(2 )y xR R fτ τ π τ= e, sendo

assim, [ ]10 04( ) ( ) ( )x x xS f S f f S f f= − + + , onde Sx(f) e Sy(f) são as densidades espectrais de

potência de x(t) e y(t), respectivamente. 6.2 Considere um ruído branco passa-baixa, Gaussiano, com densidade espectral de potência igual a 2x10-10 W/Hz na faixa de 0 a 10 kHz. (a) determine a expressão da função densidade de probabilidade de uma amostra deste ruído tomada no instante t = 0; (b) determine a expressão da função densidade de probabilidade conjunta de duas amostras deste ruído tomadas nos instantes t = 0 e t = 0.05 ms; (c) calcule a probabilidade de que a diferença entre as amostras tomadas em t = 0 e t = 0.02 ms ultrapasse a 2mV 6.3 Considere um ruído branco passa-faixa com densidade espectral de potência igual a 10-12 na faixa de 90 a 110 kHz. Determine as densidades espectrais de potência e as potências dos ruídos demodulados no receptor QAM da Fig. 6.6 com os seguintes valores da frequência de portadora (a) fc = 100 kHz; (b) fc = 90 kHz; fc = 95 kHz; considere que h0(t) representa um filtro passa-baixa ideal. 6.4 Calcule a largura de faixa equivalente de ruído dos seguintes filtros cujas larguras de faixa de 3 dB são iguais a B: (a) Cosseno Levantado dado por

11 0

2( ) ( )

1 1 1 11 cos

2 2 2 2

L

fT

H f C f

Tf f

T T T

α

π α α αα

− ≤ ≤= =

− − + + − ≤ ≤

(b) Raiz quadrada de Cosseno Levantado (c) RC:

h(t) = ae-atu(t) 6.5 Em uma modelagem simplificada da transmissão telefônica através da linha do assinante, o receptor pode ser modelado como mostrado na Fig. E6.5, onde está representada a densidade espectral de potência do sinal de voz, Ss(f) e a função de transferência do filtro passa-baixa, H(f) para f ≥ 0 (ambas as funções são pares).

Page 206: Princípios de Comunicações

205

Fig. E6.5

(a) sabendo que o ruído branco tem densidade espectral de potência igual a 10-13 W/Hz. e a potência do sinal de entrada é igual a -40 dBm, determine a razão sinal-ruído na saída do filtro; (b) sabe-se que o ouvido humano praticamente não altera as características do sinal de voz mas tem um efeito seletivo sobre o ruído que equivale à passagem deste ruído por um filtro; tomando para este filtro a função de transferência H0(f) da figura, calcule o aumento na razão sinal-ruído devido a esta filtragem (denominada ponderação psofométrica). 6.6) Repita o item (c) do Exemplo 6.2 com

44

010

( ) cos ;0 102

H f f fπ−

= ≤ ≤

6.7 A Fig. E6.7 representa um sistema de recepção constituído de antena, cabo e amplificador. Sabe-se que a temperatura de ruído da antena é de 80 K, que o cabo está a uma temperatura ambiente de 300 K e que sua atenuação é 6 dB; o amplificador tem ganho de 20 dB e fator de ruído igual a 3 dB. (a) Deseja-se calcular a potência de ruído na entrada e na saída do sistema, considerando uma largura de faixa de 200 kHz; (b) sabendo que a razão sinal-ruido nos terminais da antena é igual a 30 dB, deseja-se obter a razão sinal-ruído na saída do cabo e na saída do amplificador.

Fig. E6.7

0 4000 f (Hz)

H(f)

1

300 3400 f (Hz)

Ss(f)

100 300 3400 4000 f (Hz)

H0(f)

1

1/4 1/2

H(f)

w(t)

s(t)

Ganho = 20 dB Fator de ruído = 3 dB

cabo

atenuação = 6 dB

Page 207: Princípios de Comunicações

206

7. DESEMPENHO DE SISTEMAS AM E FM EM PRESENÇA DE RUÍDO Os fundamentos da modulação analógica – AM e FM - foram apresentados no capítulo 4, incluindo as técnicas de geração da portadora modulada a partir da mensagem, e as técnicas de recepção. A operação do receptor é prejudicada pela introdução do ruído proveniente dos componentes eletrônicos. Este ruído, descrito e analisado no capítulo 6, deve ser mantido em um nível reduzido para permitir uma reprodução de boa qualidade da mensagem transmitida. Em geral, procura-se analisar o desempenho de um sistema de modulação analógica com base no modelo simplificado e idealizado de receptor mostrado na Fig. 7.1, o qual é reduzido a 3 elementos: filtro passa-faixa ideal, demodulador e filtro passa-baixa.

Fig. 7.1 - Modelo de um receptor em presença de ruído com fitros ideais (a) diagrama de blocos; (b) filtro passa-faixa; (c) filtro passa-baixa.

A filtragem é uma operação obrigatória cuja finalidade básica é eliminar o ruído fora da faixa de interesse. Na entrada do receptor, o sinal ainda está modulado e ocupa uma região do espectro de frequências em torno da frequência da portadora. Assim, a filtragem deve ser passa-faixa. Após a demodulação, a faixa de interesse é a faixa ocupada originalmente pela mensagem transmitida que, tipicamente, é uma região de frequências baixas. Na realidade, as filtragens podem ser o resultado da operação de mais de um dispositivo cujo objetivo é aproximar as funções de transferência ideais, representadas nas Figs. 7.1 (b) e 7.1 (c). Além das filtragens, pode haver também, no receptor, a operação denominada conversão de frequência, explicada na Seção 3.1.6. Com base no modelo da Fig. 7.1, são definidos os seguintes parâmetros:

H(f) Demodulador

sinal s(t)

ruído branco n(t)

H0(f)

-W 0 W f

1

H0 (f)

1

H(f)

BT

-fc 0 fc f

(a)

(b)

(c)

Page 208: Princípios de Comunicações

207

• Ps : potência do sinal na saída do filtro passa-faixa; • Pn : potência do ruído na saída do filtro passa-faixa. De acordo com (6.14)

0n TP N B= (7.1)

• Razão sinal-ruído na entrada do modulador:

0

s si

n T

P PRSR

P N B= = (7.2)

0sP : potência do sinal na saída do filtro passa-baixa;

• 0nP : potência do ruído na saída do filtro passa-baixa

• Razão sinal-ruído na saída do receptor

0

0

0s

n

PRSR

P= (7.3)

A razão sinal-ruído na saída do receptor, RSR0, é o parâmetro que define a qualidade da reprodução da mensagem transmitida no seu destino. Obviamente, quanto maior o seu valor, melhor é a qualidade da transmissão. Porém, para avaliar corretamente o desempenho do sistema de transmissão, os valores dos demais parâmetros do sistema devem ser levados em conta. O cálculo dos parâmetros de desempenho para os principais tipos de modulação descritos no Capítulo 3 será apresentado a seguir.

7.1 SISTEMA AM-DSB-SC As expressões do sinal e dos parâmetros do sistema AM-DSB-SC estão apresentados no Quadro 3.1. A potência transmitida é dada por

212s c mP A P= (7.4)

e a largura de faixa de transmissão por

2TB W= (7.5) Substituindo em (7.2) e (7.3) temos

2

04c m

iA P

RSRN W

= (7.6)

0

214

0c m

n

A PRSR

P= (7.7)

Para determinar a potência do ruído na saída do demodulador coerente podemos usar o desenvolvimento feito na Seção 6.1.2. Podemos verificar que o ruído n0(t), demodulado pelo demodulador AM-DSB-SC, é o ruído n1(t) representado na Fig 6.7, cuja potência é dada por (6.35) onde a faixa B, no nosso caso, é a faixa de transmissão BT = 2W. Temos então,

0

1 10 04 2n TP N B N W= = (7.8)

Page 209: Princípios de Comunicações

208

Substituindo em (7.7) obtemos 2

002

c mA PRSR

N W= (7.9)

Observando (7.4) podemos escrever

00

sPRSR

N W= (7.10)

RSR0 ×××× RSRi

Uma forma usual de ilustrar o desempenho dos receptores em presença de ruído é determinar a relação entre RSR0 e RSRi. Para o sistema AM-DSB-SC, observando (7.6) e (7.9) temos

0 2 iRSR RSR= × (7.11)

7.2 SISTEMA AM-SSB As expressões do sinal e dos parâmetros do sistema AM-SSB estão apresentados no Quadro 3.3. A potência transmitida é dada por

214s c mP A P= (7.12)

e a largura de faixa de transmissão por

TB W= (7.13) Substituindo em (7.2) e (7.3) temos

2

04c m

iA P

RSRN W

= (7.14)

0

2116

0c m

n

A PRSR

P= (7.15)

Foi mostrado na Seção 3.1.3 que o demodulador do sistema AM-SSB é o mesmo do sistema AM-DSB-SC. Podemos então usar, aqui também, a expressão (6.35) para determinar a potência do ruído demodulado. Neste caso, porém, B = BT = W. Temos então,

0

104nP N W= (7.16)

Substituindo em (7.15) obtemos 2

004

c mA PRSR

N W= (7.17)

Observando (7.12) concluímos que

00

sPRSR

N W= (7.18)

RSR0 ×××× RSRi

Para o sistema AM-SSB-SC, comparando (7.17) e (7.14) vemos que

0 iRSR RSR= (7.19)

Observando (7.11) e (7.19), verificamos que, para um mesmo valor de RSRi, o sistema AM-DSB-SC apresenta um valor de RSR0 duas vezes maior do que aquele observado

Page 210: Princípios de Comunicações

209

no sistema AM-SSB. Isto pode sugerir que o sistema AM-DSB-SC tem um desempenho duplamente melhor do que o sistema AM-SSB. Porém, observando (7.10) e (7.18), verificamos que, para um mesmo valor da potência transmitida Ps e do nível de ruído N0, o valor de RSR0 é o mesmo em ambos os sistemas. Na realidade, no sistema AM-SSB, para um mesmo valor de Ps e N0, a razão sinal-ruído na entrada do demodulador será o dobro daquela observada no sistema AM-DSB, por causa da menor largura de faixa (W no SSB e 2W no DSB).

7.3 SISTEMA AM As expressões do sinal e dos parâmetros do sistema AM estão apresentados no Quadro 3.2. A potência transmitida é dada por

2 2 2

2 2c c a m

sA A k P

P = + (7.20)

e a faixa de transmissão por 2TB W= (7.21)

Substituindo em (7.2) temos

2 2 2

04c c a m

iA A k P

RSRN W

+= (7.22)

Diferentemente do demodulador coerente, o detetor de envoltória apresenta um comportamento não linear, ou seja, para determinar o sinal demodulado em presença de ruído não podemos calcular separadamente as parcelas relativas ao sinal e ao ruído, sendo necessária uma análise conjunta. Para isso, vamos escrever a expressão do sinal na entrada do detetor de envoltória adicionado ao ruído - expresso através de suas componentes em fase e em quadratura, como em (6.18)(!). Isto é,

( ) ( )cos(2 ) cos(2 ) ( )cos(2 ) ( ) (2 )c a c c c c c s cx t A k m t f t A f t n t f t n t sen f tπ π π π= + + − (7.23) Agrupando os termos temos

[ ]( ) ( ) ( ) cos(2 ) ( ) (2 )c c a c c s cx t A A k m t n t f t n t sen f tπ π= + + − (7.24)

A envoltória de x(t) é dada por

( ) ( )2 2( ) ( ) ( ) ( )c c a c se t A A k m t n t n t= + + + (7.25)

e pode ser obtida graficamente através de fasores, como representado na Fig. 7.2. Podemos observar pela figura que, se a componente em quadratura do ruído, ns(t), for pequena, relativamente à amplitude da portadora, Ac, podemos fazer a seguinte aproximação:

( ) ( ) ( )c c a ce t A A k m t n t≅ + + (7.26)

(!) Os resultados obtidos no capítulo 6 mostram que as propriedades da decomposição em fase e quadratura não dependem da fase da portadora. Para simplificar o desenvolvimento é conveniente então fazer θ =0.

Page 211: Princípios de Comunicações

210

Fig. 7.2 – Diagrama de fasores para o detetor de envoltória

Como os ruídos nc(t) e ns(t) têm a mesma potência que o ruído passa-faixa n(t), a condição para usar a aproximação em (7.26) é que a razão sinal-ruído de entrada RSRi seja relativamente elevada, não havendo, entretanto, um valor preciso para caracterizar esta situação. Podemos observar que, com a aproximação em (7.26), o comportamento do detetor de envoltória é linear, distinguindo-se no sinal de saída a parcela correspondente ao sinal(!), Ackam(t), cuja potência é dada por

0

2 2( )s c a mP t A k P= (7.27)

e a parcela correspondente ao ruído, nc(t), cuja potência é igual à potência do ruído n(t) na entrada do demodulador, dada por 2N0W. Assim, a razão sinal-ruído na saída do receptor fica com a seguinte expressão:

2 2

002

c a mA k PRSR

N W= (7.28)

. Multiplicando e dividindo (7.28) por Ps, aplicando (7.20) e simplificando a expressão, obtemos

2

0 20 1s a m

a m

P k PRSR

N W k P

= +

(7.29)

Sinal Modulador Senoidal No caso em que m(t) é um sinal senoidal, dado por

( ) cos(2 )m mm t A f tπ= (7.30) temos

212m mP A= (7.31)

e, consequentemente,

( )22 12a m a mk P k A= (7.32)

Usando a definição de Índice de Modulação introduzida em (3.19) e substituindo em (7.29) obtemos

2

0 20 2sP

RSRN W

µµ

=+

(7.33)

Observando que 0 1µ< ≤ , podemos concluir que o maior valor de RSR0 é conseguido com µ = 1 e, neste caso,

(!) Como observado na Seção 3.1.2, a constante Ac é eliminada através de um circuito adequado

Ac Ackam(t) nc(t) cos(2πfct)

ns(t)

sen(2πfct)

e(t)

Page 212: Princípios de Comunicações

211

10 3

0

sPRSR

N W= (7.34)

Limiar de Recepção As expressões de RSR0 no sistema AM foram obtidas com a suposição de uma razão sinal-ruído RSRi elevada na entrada do demodulador, no caso, o detetor de envoltória. Na realidade, ocorre no detetor de envoltória o chamado efeito limiar, que consiste em uma queda brusca da qualidade do sinal demodulado à medida que a razão sinal-ruído diminui a partir de um determinado valor. Este valor, representado por RSRL, é denominado razão sinal-ruído de limiar. Em outras palavras, no detetor de envoltória, a razão sinal-ruído na saída do receptor diminui na mesma proporção que a razão sinal-ruído de entrada até um ponto em que o sinal demodulado passa a experimentar distorções severas pela presença excessiva do ruído. A partir deste ponto, não são mais válidas as expressões dadas por (7.29) (7.33) e (7.34). Portanto, estas expressões só se aplicam se

0

si L

T

PRSR RSR

N B= ≥ (7.35)

Valores típicos de RSRL estão em torno de 10 dB. RSR0 ×××× RSRi

Dividindo (7.29) por (7.22), obtemos a seguinte relação entre RSR0 e RSRi

2

0 2

2

1a m

ia m

k PRSR RSR

k P=

+ (7.36)

Para um sinal modulador senoidal, resulta 2

0 2

2

2iRSR RSR

µµ

=+

(7.37)

e, em particular, para µ = 1,

02

3 iRSR RSR= (7.38)

Na Fig. 7.3 são apresentados os gráficos da relação RSR0 × RSRi, expressos em dB. Note, para o sistema AM, a queda brusca de RSR0 a partir da razão sinal-ruído de limiar, RSRL.

Fig. 7.3 – Gráfico RSR0 x RSRi para os sistemas com modulação de amplitude

0 RSRi(dB)

RSR0(dB)

3

-1,76

AM-DSB

AM-SSB

AM µ =1

RSRL

Page 213: Princípios de Comunicações

212

7.4 SISTEMA FM O sinal e os parâmetros do sistema AM estão expressos no Quadro 3.4. A potência transmitida é dada por

2

2c

sA

P = (7.39)

e a faixa de transmissão por 2( )TB f W= ∆ + (7.40)

onde

max ( )ff k m t∆ = (7.41)

Substituindo em (7.2) temos

2

0 0

22 ( )

c

si

T

AP

RSRN B N f W

= =∆ +

(7.42)

Assim como o detetor de envoltória, o demodulador FM apresenta, também, um comportamento não linear, exigindo que a análise do receptor envolva, conjuntamente, sinal e ruído. Uma análise rigorosa do receptor FM é bastante complexa e, para simplificá-la, vamos supor que a razão sinal-ruído é elevada na entrada do demodulador. Com esta hipótese, podemos considerar que o receptor é aproximadamente linear, permitindo a aplicação do princípio da superposição, da seguinte forma: (i) a potência do sinal demodulado será calculada sem a presença do ruído; sua expressão é a mesma do Quadro 3.3, isto é,

0

2s f mP k P= (7.43)

(ii) a potência do ruído demodulado,

0nP será calculada sem a presença do sinal modulador;

portanto, nesta análise, o sinal de entrada será a portadora FM, sem modulação, adicionada ao ruído decomposto em suas componentes em fase e em quadratura, como em (6.18), isto é,

[ ]( ) cos 2 ( )cos(2 ) ( ) (2 )c c c c s cx t A f t n t f t n t sen f tπ π π= + − (7.44)

Agrupando os termos, temos

[ ]( ) ( ) cos(2 ) ( ) (2 )c c c s cx t A n t f t n t sen f tπ π= + − (7.45)

Usando a forma idealizada do receptor FM mostrada na Fig. 3.34, podemos escrever, para o sinal na saída do diferenciador,

1 ( )( )

2dd t

n tdt

φπ

= (7.46)

onde φ(t) é a fase instantânea da portadora. No caso do sinal expresso por (7.45) esta fase é dada por

1 ( )( )

( )s

c c

n tt tg

A n tφ − −

= + (7.47)

Page 214: Princípios de Comunicações

213

A Fig. 7.4 ilustra a obtenção de φ(t). A seguir, duas aproximações adicionais serão adotadas com base na hipótese de razão sinal-ruído elevada na entrada do demodulador. Como esta hipótese implica em Ac>> nc(t) e Ac>>ns(t), podemos fazer

1 ( ) ( )( ) s s

c c

n t n tt tg

A Aφ − − −

≅ ≅

(7.48)

Substituindo em (7.46) temos

( )1( )

2s

dc

dn tn t

A dtπ≅ − (7.49)

Fig 7.4 – Diagrama de fasores para obtenção do ruído na saída do demodulador FM

Usando a Propriedade 9 da Transformada de Fourier, dada por (2.59), e o conceito de Função de Transferência introduzido na Seção 2.5.3, podemos interpretar nd(t) como o ruído na saída de um sistema linear cuja função de transferência é dada por

1( ) 2

2dc c

fH f j f j

A Aπ

π= − = − (7.50)

Com isso, o ruído demodulado pode ser interpretado como o ruído na saída do sistema linear da Fig. 7.5

Fig. 7.5 – sistema equivalente ao processamento do ruído no demodulador FM

Notando ainda que

0

20( ) ( ) ( ) ( )

sn n dS f S f H f H f= (7.51)

e que a densidade espectral de potência das componentes em fase e em quadratura de um ruído branco passa-faixa, com densidade espectral de potência N0/2, é dada por (6.24), obtemos

0

20

2; | |

( )

0 Foran c

N ff W

S f A

<=

(7.52)

Ac nc(t) cos(2πfct)

ns(t)

sen(2πfct)

φ(t)

( )dH f ns(t) n0(t)

H0(f)

Page 215: Princípios de Comunicações

214

Esta função está mostrada na Fig. 7.6. Assim, finalmente, a potência do ruído demodulado é calculada através de

0

320 0

2 2

2

3

W

nW c c

N N WP f df

A A−= =∫ (7.53)

Fig. 7.6 – Densidade espectral de potência do ruído na saída do receptor FM Observamos na Fig. 7.6 que o ruído na saída do demodulador FM tem uma densidade espectral de potência que aumenta com a frequência, afetando mais as componentes de alta frequênca da mensagem, diferentemente do que ocorre nos outros sistemas, onde a densidade espectral de potência é constante. Como observamos em (7.53), a potência de ruído aumenta com o cubo da faixa da mensagem W, tornando mais difícil a transmissão de mensagens de faixa larga. Como veremos na Seção 7.4.1, a técnica da Pré-ênfase permite contornar este problema. Usando (7.43) e (7.53) chegamos a

2 2

0 30

3

2

c f mA k PRSR

N W= (7.54)

Observando (7.39) temos, alternativamente,

2

0 20

3 f msk PP

RSRN W W

=

(7.55)

Limiar de Recepção Como no sistema AM, a demodulação do sistema FM também experimenta o efeito limiar, caracterizado pela queda brusca da qualidade do sinal demodulado à medida que a razão sinal-ruído de entrada diminui, a partir de um determinado valor, RSRL, denominado razão sinal-ruído de limiar. Ou seja, as expressões (7.54) e (7.55) só são válidas se for verificada a condição dada por (7.35). Analisando (7.55), podemos verificar que a Razão Sinal-Ruído na saída do demodulador, a qual determina a qualidade de recepção no sistema FM, melhora com a potência da portadora, Ps, e piora com o aumento do nível de ruído, expresso por N0, o que acontece em todos os sistemas. Porém, na mesma expressão, vemos que é possível aumentar RSR0, aumentando o fator kf e, observando (7.40) e (7.41), verificamos que aumentar a constante kf corresponde a aumentar a faixa de transmissão BT. Concluímos, portanto, que no

202

Nf

A

0( )nS f

0 W f

Page 216: Princípios de Comunicações

215

sistema FM é possível aumentar a razão sinal-ruído na saída do demodulador, aumentando a largura de faixa de transmissão BT.

Por outro lado, de acordo com (7.35), aumentando BT, diminui a razão sinal-ruído na entrada do demodulador, o que pode violar a condição de limiar. Esta condição estabelece, portanto, um limite na capacidade de do sistema FM melhorar seu desempenho pelo aumento da faixa de transmissão. Sinal Modulador Senoidal Para um sinal m(t) senoidal, dado por

( ) cos(2 )m mm t A f tπ= (7.56)

onde fm ≤ W, temos

( )22 12f m f mk P k A= (7.57)

Por outro lado, aplicando (7.41),

f mf k A∆ = (7.58)

e, substituindo este resultado em (7.57) obtemos então

2 212f mk P f= ∆ (7.59)

Aplicando (7.59) em (7.55), chegamos a

2

0 20

3

2sP f

RSRN W W

∆=

(7.60)

RSR0 ×××× RSRi Dividindo (7.60) por (7.35), obtemos a seguinte relação entre RSR0 e RSRi:

2

0 3

3 f m Ti

k P BRSR RSR

W= (7.61)

Para sinais senoidais, aplicando (7.59) e (7.40), podemos reescrever (7.61) como

2

0 3

3 ( )i

f f WRSR RSR

W

∆ ∆ += (7.62)

Nos sistemas FM de faixa larga, ∆f>>W. Neste caso, desprezando W no numerador em (7.62), temos

3

0 3 if

RSR RSRW

∆ ≅

(7.63)

Já nos sistemas de faixa estreita, ∆f<<W. Neste caso, desprezando ∆f em presença de W em (7.62) obtemos

2

0 3 if

RSR RSRW

∆ ≅

(7.64)

Page 217: Princípios de Comunicações

216

Se a frequência fm do sinal modulador for igual à W (faixa especificada para a mensagem), a razão β =∆f/W é o índice de modulação do sistema FM. Como ilustração, a Fig. 7.7 mostra gráficos RSR0xRSRi para índices de modulação iguais a 0,1 (faixa estreita) e 10 (faixa larga), ao lado das curvas obtidas anteriormente para os sistemas com modulação de amplitude, ressaltando-se a grande variação dos gráficos do sistema FM com o índice de modulação. Devemos lembrar, ainda, que os gráficos dos sistemas AM e FM só valem para valores de RSRi acima do limiar.

Fig. 7.7 – Gráfico RSR0 × RSRi para os sistemas AM e FM

7.4.1 Pré-ênfase Como observado anteriormente, a densidade espectral de potência do ruído na saída do demodulador FM cresce com o quadrado da frequência, o que provoca uma grande degradação da qualidade de recepção, sobretudo para mensagens de faixa larga. A técnica denominada Pré-ênfase permite contornar este problema de forma bastante eficaz. Ela consiste em modificar o espectro da mensagem m(t), através de um filtro com função de transferência Hpe(f), colocado antes do modulador, que reforça as componentes de alta frequência. Na saída do demodulador, um filtro com função de transferência Hde(f), inversa daquela usada no transmissor, atenua as frequências altas e restaura o espectro original da mensagem. Como o ruído também sofre a ação deste filtro, o resultado é a redução expressiva das suas componentes de alta frequência, com a consequente melhoria da razão sinal-ruído na saída do receptor. O esquema está ilustrado na Fig. 7.8 (a) e as formas típicas das funções de transferência Hpe(f) e Hde(f) na Fig. 7.8 (b)

RSRi(dB)

RSR0(dB)

3

-1,76

AM-DSB

AM-SSB

AM µ = 1

FM β=10

-15,23

34,77 FM β=0,1

0

Page 218: Princípios de Comunicações

217

Fig. 7.8 – Sistema FM com pré-ênfase; (a) Diagrama de blocos; (b) Função de transferência dos filtros Para analisar o desempenho do sistema FM com pré-ênfase, devemos notar, observando a Fig. 7.8 (a), que a razão sinal-ruído na saída do demodulador, RSR0, é dada por (7.55), onde os parâmetros da mensagem m(t) (potência Pm e faixa W) devem ser substituídos pelos respectivos parâmetros da mensagem m´(t) na saída do filtro de pré-ênfase. Considerando que este filtro seja projetado de forma a não alterar estes parâmetros, o valor de RSR0 fica inalterado. Porém, após a filtragem pelo filtro Hde(f), chamado de filtro de de-ênfase, a razão sinal-ruído é aumentada, pois enquanto a mensagem é restaurada na sua forma original, sem modificar sua potência, o ruído é reduzido pelo filtro. Assim, o ganho de desempenho produzido pela técnica da pré-ênfase pode ser calculada pelo fator de redução na potência do ruído demodulado dada por

202 2 3

2 202 2

2

( ) 3 ( )

W

W c fW W

de deW Wc f

Nf df

A k WG

Nf H f df f H f df

A k

− −

= =∫

∫ ∫ (7.65)

Com a técnica da pré-ênfase, as expressões (7.54) e (7.55), que calculam RSR0, bem como as outras fórmulas derivadas dessas, devem ser multiplicadas pelo fator G. Um exemplo prático de utilização da técnica da pré-ênfase pode ser encontrado na transmissão FM das emissoras de rádio difusão. Nesta aplicação, onde a mensagem é um sinal de áudio de faixa W = 15 kHz, o filtro de pré-ênfase é dado por

0

( ) 1pef

H f jf

= + (7.66)

onde f0 = 2,1 kHz. Aplicando (7.65) obtemos

( )

( )0

0 0

3

13

Wf

W Wf f

Gtg−

= −

(7.67)

Hpe(f)

0 f

Hde(f) = [Hpe(f)]-1

0 f

(b)

m(t)

Hpe(f) Modulador Hde(f) Demod

n(t) m´(t) + n0(t)

m´(t) m(t) +n0´(t)

(a)

Page 219: Princípios de Comunicações

218

Calculando a expressão com os valores de W e f0 especificados, obtém-se G ≅ 20 (13 dB). Isto significa que o uso da pré-ênfase permite multiplicar por 20 a razão sinal-ruído na saída do receptor FM.

7.5 COMPARAÇÃO DE DESEMPENHO Para comparar o desempenho dos sistemas analisados neste capítulo, vamos considerar que todos eles transmitem a mesma mensagem em um mesmo canal, ou seja, na comparação, os parâmetros W e N0 são os mesmos. Fixando um valor mínimo para a razão sinal-ruído RSR0 na saída do receptor, o desempenho do sistema será medido pela potência transmitida Ps. Obviamente, quanto menor a potência transmitida para obter a razão sinal-ruído desejada, melhor será o desempenho do sistema. Quanto à faixa de transmissão BT, nos sistemas AM-DSB-SC, AM-SSB e AM, seu valor fica determinado univocamente em função da faixa da mensagem W. Porém, no sistema FM, há um grau de liberdade adicional na especificação da faixa de transmissão. Observando (7.10) e (7.18), verificamos que os sistemas AM-DSB-SC e AM-SSB apresentam o mesmo desempenho. Explicitando a potência transmitida nestas equações, obtemos

0 0.sP N W RSR= (7.68) Para o sistema AM com modulação senoidal e índice de modulação igual a 1, obtemos, pela aplicação de (7.34)

0 0.3sP N W RSR≥ (7.69) A desigualdade neste caso é necessária porque o valor obtido pela igualdade pode não ser suficiente para garantir a condição de limiar dada por (7.35). Assim, a potência transmitida no sistema AM será, pelo menos, 3 vezes maior do que nos sistemas AM-DSB-SC ou AM-SSB. Para o sistema FM, vamos considerar também uma modulação senoidal e duas situações. Em primeiro lugar, consideramos que o desvio de frequência ∆f é previamente determinado (o que equivale a especificar a largura de faixa de transmissão BT). Neste caso, aplicando (7.60) temos

2

0 02

.3s

WP N W RSR

f

≥ ∆

(7.70)

Também no caso do sistema FM, a desigualdade é necessária para, eventualmente, garantir a condição de limiar dada por (7.35), que também pode ser colocada na seguinte forma:

0.2( ).s LP N f W RSR≥ ∆ + (7.71) O valor de Ps deve, portanto, ser o maior entre os dois calculados pelas expressões em (7.70) e (7.71). Exemplo 7.1 Para ilustrar a comparação de desempenho, é interessante um exemplo numérico. Para isso, consideramos os seguintes dados comuns a todos os sistemas:

W = 20 kHz, N0=1,38x10-19, RSR0=103 (30 dB)

Page 220: Princípios de Comunicações

219

Os resultados são apresentados a seguir. Sistemas AM-DSB-SC e AM-SSB Aplicando (7.68), obtemos

Ps = 2,76 × 10-12 Sistema AM com µ = 1 e limiar de 10 dB Aplicando (7.69) e (7.35), obtemos Ps ≥ 8,28 × 10-12 e Ps ≥ 5,52×10-14. Portanto,

Ps = 8,28 × 10-12. A potência necessária para garantir a razão sinal-ruído de 30 dB, é maior do que aquela necessária para garantir a operação acima do limiar. Sistema FM com BT = 120 kHz (∆f = 40 kHz) e limiar de 10 dB Aplicando (7.70) e (7.71), obtemos Ps ≥ 0,46×10-12 e Ps ≥ 0,16×10-12. Portanto,

Ps = 0,46×10-12

Neste caso, também, a potência necessária para garantir a razão sinal-ruído de 30 dB, é maior do que aquela necessária para garantir a operação acima do limiar. Sistema FM com BT = 200 kHz (∆f = 80 kHz) e limiar de 10 dB Aplicando (7.70) e (7.71), obtemos Ps ≥ 0,115×10-12 e Ps ≥ 0,276×10-12. Portanto,

Ps = 0,276×10-12

A situação agora se inverte, ou seja, com o aumento da faixa de transmissão, é possível, teoricamente, diminuir a potência transmitida para garantir a mesma razão sinal-ruído na saída do receptor. Porém, este mesmo aumento da faixa faz aumentar o ruído na entrada do demodulador, exigindo uma potência maior para garantir a operação acima do limiar. Sistema FM com faixa ótima Observando (7.70) e (7.71), notamos que a primeira igualdade define uma função proporcional a (1/∆f)2 e a segunda uma função linear de ∆f como ilustrado na Fig. 7.9, onde a região hachureada corresponde à região que satisfaz as duas desigualdades. Obviamente, o desvio ótimo ∆f* é o ponto de interseção das duas curvas. Ou seja, o menor valor de potência transmitida é aquele que satisfaz, ao mesmo tempo, as equações (7.70) e (7.71). No caso do exemplo, este valor é, aproximadamente, 58 kHz, correspondente a uma faixa de transmissão BT = 156 kHz, que leva a uma potência transmitida Ps

* ≅ 0,21x10-12.

Page 221: Princípios de Comunicações

220

Fig. 7.9 – Determinação gráfica do desvio ótimo de um sistema FM

Sistema FM com Pré-ênfase de ganho 10 dB O ganho de pré-ênfase é um ganho que se aplica na razão sinal-ruído de saída do receptor e é um fator a ser introduzido nas expressões que calculam RSR0. Uma maneira simples de proceder, no cálculo de desempenho, é reduzir o valor desejado de RSR0 por um fator exatamente igual ao ganho de pré-ênfase e aplicar normalmente as expressões utilizadas para o caso sem pré-ênfase. No caso deste exemplo, isto significa que os cálculos passam a ser feitos com um objetivo de RSR0 = 102. Na realidade, porém, a pré-ênfase só teria utilidade no caso em que a potência de transmissão está limitada por RSR0 e não por RSRL, o que corresponde ao caso da faixa BT = 120 kHz. Neste caso temos então, aplicando (7.70) e (7.71), Ps ≥ 0,046x10-12, Ps ≥ 0,16x10-12 e, assim,

Ps = 0,16x10-12

2RSRL

4RSRL

0 w ∆f* ∆f

(2/3)RSR0

Ps/(WN0)

Eq(7.70)

Eq(7.71) Ps

*/(WN0)

Page 222: Princípios de Comunicações

221

7.6 EXERCÍCIOS 7.1 Em um sistema AM-DSB-SC, é transmitido um sinal de audio cuja frequência máxima é 10 kHz, com potência 5 W. A atenuação no canal é de 90 dB, de modo que, na entrada do receptor, a potência deste sinal é 5x10-9 W. (a) sabendo que a potência do sinal modulador é igual 1 mW, determine a amplitude da portadora a ser gerada no transmissor; (b) determine a densidade espectral de potência do ruído no receptor para que a razão sinal-ruído na saída do demodulador seja igual a 60 dB. (c) determine a temperatura equivalente de ruído do receptor 7.2 Utiliza-se uma potência de 1 W para fazer a transmissão de uma mensagem ocupando a faixa de 0 a 20 kHz em um canal com atenuação de 90 dB. Sabe-se que a densidade espectral de potência do ruído na entrada do receptor é igual a 10-19 W/Hz. Compare o desempenho dos sistemas AM-DSB-SC e AM-SSB para esta transmissão, calculando, para os dois sistemas, os valores de razão sinal-ruído na entrada e na saída do demodulador. 7.3 A transmissão de um sinal de audio na faixa de 0 a 10 KHz é feita através de modulação AM e deteção de envoltória, cujo limiar é aproximadamente igual a 10 dB. Medidas feitas com um sinal senoidal na faixa da mensagem permitiram obter a curva da Fig. E7.3. Mediu-se também, para uma potência do sinal na entrada do detetor de envoltória igual a – 80 dBm, uma razão sinal-ruído na saída igual a 30 dB. (a) Determine o valor do índice de modulação; (b) determine o valor da densidade espectral de potência do ruído no canal

Fig. E7.3

7.4 Em uma transmissão AM de um sinal de audio com frequência máxima de 20 kHz, a potência da portadora modulada é igual a 9×10-8W, o índice de modulação é igual a ½ e a densidade espectral de potência no canal é igual a 10-15 W/Hz. (a) Considerando que o receptor opera acima do limiar, calcule a razão sinal-ruído na saída do detetor de envoltória; (b) calcule a redução que pode ser feita na potência de transmissão se for empregado um sistema AM-DSB-SC que fornece o mesmo valor de razão sinal-ruído na saída do demodulador. 7.5 Um sinal senoidal com potência de -30 dBm, cuja frequência está na faixa de 0 a 4 KHz, deve ser transmitido com modulação FM. Para obter informação sobre o ruído no receptor, é injetada uma portadora sem modulação de potência -50 dBm na entrada deste receptor, medindo-se na saída do demodulador uma potência de 10 dBm. (a) Calcule a densidade espectral de potência do ruído na entrada do receptor; (b) sabendo que o sistema de transmissão é projetado para operar com uma largura de faixa de 48 kHz e com uma razão sinal-ruído de entrada igual ao limiar de 10 dB, calcule a potência mínima necessária na entrada do demodulador e a razão sinal-ruído obtida na saída do demodulador; (c) determine a melhoria de pré-ênfase necessária para que o sistema opere com razão sinal-ruído de 40 dB na saída do demodulador.

20 RSRi(dB)

RSR0(dB)

13,46

Page 223: Princípios de Comunicações

222

7.6 Uma portadora FM chega com potência de 10-12 W a um receptor cujo limiar é 10 dB. (a) Sabendo que não há limitação de faixa para transmissão e que a densidade espectral de potência de ruído no receptor é igual a 5×10-19 W/Hz, determine o maior valor possível da razão sinal-ruído na saída do demodulador na transmissão de um sinal senoidal de frequência máxima igual a 10 KHz. 7.7 Uma mensagem ocupando a faixa de 0 a 4 KHz, é transmitida através de um sinal FM cujo desvio de frequência tem valor máximo de 96 kHz e valor RMS igual a 16 kHz. Sabendo que a densidade espectral de potência do ruído no receptor é igual a 10-15 W/Hz, e que o demodulador tem limiar de 7 dB, (a) calcule o menor valor da potência na entrada do demodulador, de modo que a razão sinal-ruído na saída seja maior ou igual a 50 dB; (b) repita o cálculo supondo um ganho de pré-ênfase de 20 dB.

Page 224: Princípios de Comunicações

223

8. DESEMPENHO DE SISTEMAS DE TRANSMISSÃO DIGITAL EM PRESENÇA DE RUÍDO Os princípios gerais da transmissão digital foram introduzidos no capítulo 5 e podem ser resumidos da seguinte forma, acompanhando o modelo geral da Fig. 8.1:

• uma mensagem m, correspondente a um bloco qualquer de L bits, é transmitida através de um sinal s(t); cada padrão diferente do bloco de L bits corresponde a uma mensagem distinta e o número total de mensagens distintas é dado por M = 2L; tem-se, portanto, um conjunto de mensagens possíveis m1, m2,... mM associado a um conjunto de sinais possíveis s1(t), s2(t),... sM(t); por definição, a mensagem m = mi é transmitida através do sinal s(t) = si(t).

• no destino, o receptor observa r(t) (a versão do sinal que foi atenuada pelo canal e corrompida por ruído), escolhe dentro do conjunto das mensagens possíveis aquela que teria sido transmitida, representada por m , e, a partir desta escolha, determina o

bloco de bits correspondente, representado por 1 2ˆ ˆ ˆ( , ,.... )Lb b b ; como representado no

modelo, o canal é considerado ideal, e a única perturbação é um ruído aditivo, branco e Gaussiano.

Fig. 8.1 – Modelo genérico de um sistema de transmissão digital

A operação do receptor está sujeita a erros e a probabilidade de ocorrência destes erros é o principal parâmetro de desempenho de um sistema de transmissão digital. Formas gerais e específicas dos sistemas de transmissão digital foram apresentadas ao longo do capítulo 5. No presente capítulo, será analisado o desempenho da transmissão digital, em presença de ruído branco Gaussiano, com base na Probabilidade de Erro de Símbolo, ou simplesmente, Probabilidade de Erro, definida genericamente como

)ˆ()( mmPEP ≠= (8.1)

Transmissor (b1, b2, ...bL) →m∈ m1, m1, ...mM

s(t)∈ s1(t),..sM(t)

Receptor

1 2 1 2ˆ ˆ ˆ , ... ( , .... )M Lm m m m b b b∈ →)

r(t)

si(t) n(t)

s(t)

canal

Page 225: Princípios de Comunicações

224

8.1 SISTEMAS BINÁRIOS

Com base nos esquemas discutidos no Capítulo 5, podemos estabelecer, para um sistema de transmissão digital binário, o modelo da Fig 8.2, que pode ser descrito da seguinte forma:

• inicialmente, é gerada uma mensagem m, escolhida entre duas mensagens possíveis, m1 ou m2, associadas aos bits 0 e 1(!) ;

• em seguida, é transmitido o sinal s(t), escolhido entre dois sinais possíveis s1(t) (se m = m1) ou s2(t) (se m = m2);

• na entrada do receptor soma-se um ruído Gaussiano branco com densidade espectral de potência N0/2;

• no receptor, o sinal é filtrado e amostrado, e a amostra obtida é comparada com um valor de referência λ denominado limiar; o dispositivo que faz esta comparação, denominado detetor de limiar, procede de acordo com a seguinte regra de decisão para definir a mensagem detetada m :

0 2

0 1

ˆ´( )

ˆ´( )

r t m m

r t m m

λλ

≥ ⇒ =< ⇒ =

Esta operação está ilustrada na Fig. 8.2(b).

Fig. 8.2 – Sistema de transmissão binário – (a) diagrama de blocos; (b) representação geométrica das amostras e regra de decisão no detetor de limiar. Observando que a decisão do receptor será correta quando ˆm m= , o evento erro será constituído pela união dos eventos 1 2ˆ( , )m m m m= = e 2 1ˆ( , )m m m m= = . Assim, a probabilidade de erro pode ser escrita como

1 2 1 2 1 2ˆ ˆ( ) ( ) ( | ) ( ) ( | )P E P m m P m m m m P m m P m m m m= = = = + = = = (8.2)

(!) Na transmissão binária a transmissão é feita bit a bit

s 1(t0) s 2(t0) r´(t0)

Decide por m2 Decide por m1

m2 m1

λ

r(t)

h(t)

t0 n(t)

Transmissor s(t) m

1

2

m

m

1

2

( )

( )

s t

s t

r´(t) r´(t0)

><

λ

m (a)

(b)

Page 226: Princípios de Comunicações

225

Tendo em vista que as regiões de decisão indicadas na Fig.8.2(b), pode-se reescrever (8.2) como:

[ ] [ ]1 0 1 2 0 2( ) ( ) ´( ) | ( ) ´( ) |P E P m m P r t m m P m m P r t m mλ λ= = > = + = ≤ = (8.3)

Supõe-se que as probabilidades 1( )P m m= e 2( )P m m= , são conhecidas. Na prática estes valores são estimados a partir do número de ocorrências dos bits 0 e 1 na sequência binária a ser transmitida. Para determinar as outras duas probabilidades, note que

1 0 1 0 0

2 0 2 0 0

dado : ( ) ( ) ( )

dado : ( ) ( ) ( )

m m r t s t n t

m m r t s t n t

= = += = +

(8.4)

onde s1´(t0), s2´(t0) e n´(t0) são as amostras dos sinais s1(t), s2(t) e do ruído n(t) colhidas no instante de amostragem após passarem pelo filtro de recepção. Como n (t0) é uma variável aleatória estatisticamente independente da mensagem m, podemos escrever

[ ] [ ] [ ]0 1 0 1 0 1 0 1 0( ) | ´( ) ( ) | ´( ) ( )P r t m m P n t s t m m P n t s tλ λ λ′ ′> = = > − = = > − (8.5)

[ ] [ ] [ ]0 2 0 2 0 2 0 2 0( ) | ´( ) ( ) | ´( ) ( )P r t m m P n t s t m m P n t s tλ λ λ′ ′≤ = = ≤ − = = ≤ − (8.6)

Como vimos no Capítulo 6, a amostra de um ruído branco Gaussiano filtrado, n (t0), é uma variável aleatória Gaussiana de média nula. Chamando sua variância de σ2, as probabilidades em (8.5) e (8.6) podem ser calculadas como a seguir

[ ]2

2 0 2( )

2 020 2 0

( )1´( ) ( ) 1

2

Xs t s tP n t s t e dX Q

λσ λλ

σπσ

′− −

−∞

′− ′≤ − = = − ∫ (8.7)

[ ]2

2

1 0

1 020 1 0

( )

( )1´( ) ( )

2

X

s t

s tP n t s t e dX Qσ

λ

λλσπσ

∞ −

′−

′− ′> − = = ∫ (8.8)

onde Q( ) é a função erro complementar definida por

2

21( )

2

u

Q e duα

απ

∞ −= ∫ (8.9)

Substituindo (8.7) e (8.8) em (8.5) e (8.6), levando o resultado a (8.3) e notando que

2 0 2 0( ) ( )1

s t s tQ Q

λ λσ σ′ ′− − − =

(8.10)

chegamos a

2 0 1 01 2

( ) ( )( ) ( ) ( )

s t s tP E P m m Q P m m Q

λ λσ σ

′ ′− − = = + =

(8.11)

O cálculo acima está ilustrado na Fig. 8.3. Note que s1´(t0) e s2´(t0) são os dois possíveis valores da amostra r´(t0) caso não houvesse ruído, ou seja, os valores ideais. A presença do ruído faz com que r´(t0) possa assumir qualquer valor, de acordo com a função

Page 227: Princípios de Comunicações

226

densidade de probabilidade Gaussiana da amostra de ruído, representada em torno de cada um dos dois valores ideais. A probabilidade de erro será determinada pelas áreas hachureadas da figura correspondentes a duas situações: (i) o sinal transmitido foi s1(t0), mas o ruído leva a amostra a ultrapassar para cima o limiar λ; (ii) o sinal transmitido foi s2(t0), mas o ruído leva a amostra a ultrapassar para baixo o limiar λ.

Fig. 8.3 - Ilustração gráfica da regra de decisão Escolha do Limiar Ótimo O limiar λ pode ser escolhido de modo a minimizar a probabilidade de erro. Para obter o valor ótimo de λ, determina-se o mínimo de (8.11) derivando a expressão em relação a λ e igualando a zero, para obter

21 0 2 0 1

22 0 1 0

( ) ( ) ( )ln

2 ( )( ) ( )

s t s t P m m

P m ms t s t

σλ′ ′ + =

= + =′ ′− (8.12)

Se as mensagens forem equiprováveis, ou seja, P(m=m1) = P(m=m2), o segundo termo de (8.12) se anula e, neste caso,

1 0 2 0( ) ( )

2

s t s tλ′ ′+

= (8.13)

Ou seja, se as mensagens m1 e m2 forem equiprováveis, o limiar ótimo é o ponto médio entre

1 0( )s t′ e 2 0( )s t′ Quando não é este o caso, a observação de (8.12) mostra que o limiar ótimo

se afasta dos valores 1 0( )s t′ ou 2 0( )s t′ que tiver maior probabilidade de ocorrência, aumentando assim a região de decisão correspondente. Ou seja, uma maior probabilidade de ocorrência de uma das mensagens polariza a decisão em favor desta mensagem. No entanto, observamos através de (8.12), que a intensidade desta polarização está ligada ao valor relativo do ruído. À medida que cresce o ruído, a observação no receptor fica menos confiável, aumentando assim a influência das probabilidades 1( )P m m= e 2( )P m m= .

s 1(t0) s 2(t0) r´(t0) λ

Page 228: Princípios de Comunicações

227

Probabilidade de erro com limiar no ponto médio

Se o limiar for escolhido no ponto médio entre 1 0( )s t′ e 2 0( )s t′ , é fácil ver, através da Fig 8.3, que os argumentos da função Q ( ) na expressão (8.11) são iguais, ou seja,

2 0 1 0( ) ( )

2

s t s t dλ λσ σ σ

′ ′− −= = (8.14)

onde 2 0 1 0( ) ( )d s t s t′ ′= − é a distância entre as 2 possíveis amostras na saída do filtro na ausência de ruído. Neste caso (8.11) fica

[ ]1 2( ) ( ) ( )2 2

d dP E P m m P m m Q Q

σ σ = = + = =

(8.15)

Observa-se, portanto, que a escolha do limiar como ponto médio entre as amostras ideais, faz com que a probabilidade de erro independa das probabilidades de ocorrência das mensagens. No entanto, deve ser ressaltado que a expressão (8.15) só fornece a probabilidade de erro mínima se as mensagens forem equiprováveis, pois somente neste caso o limiar ótimo será o ponto médio. Na Fig. 8.4 está representada a função Q(α), que é uma função decrescente. Portanto, observando (8.15), verificamos que a probabilidade de erro é uma função que decresce com o aumento da razão sinal-ruído (d/σ). Uma aproximação bastante precisa da função Q( ) é dada por

2

21( )

2Q e

α

απα

−≅ (8.16)

1.E-10

1.E-09

1.E-08

1.E-07

1.E-06

1.E-05

1.E-04

1.E-03

1.E-02

1.E-01

1.E+00

0.0 1.0 2.0 3.0 4.0 5.0 6.0

αααα

Q(αααα)

Q(α)

Aproximação

Fig. 8.4 - A função Q(α) e a aproximação (8.16)

Page 229: Princípios de Comunicações

228

Exemplo 8.1 Neste exemplo será considerado um sistema de transmissão digital em que as

amostras obtidas no receptor na ausência de ruído são: 1 0( ) 0s t′ = 2 0( ) 1s t′ = . Desejamos, inicialmente, obter um gráfico da probabilidade de erro mínima em função da probabilidade da mensagem m1. Substituindo os valores especificados na expressão (8.11) e fazendo P(m2) = 1- P(m1) podemos obter diretamente a probabilidade de erro em função do limiar λ:

11

( ) ( )P E P m Q Q Qλ λ λ

σ σ σ − − − = − +

Calculando o limiar através de (8.12) e supondo e σ2 = 0,25, obtemos o gráfico P(E) x P(m1) apresentado na Fig. 8.5

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

P(E)

0,1 0,3 0,5 0,7 0,9

P(m1)

0 1

Fig. 8.5 - Variação da probabilidade de erro mínima com as probabilidades a priori.

Com o limiar λ no ponto médio, a probabilidade de erro, dada por (8.15) será P(E) = 0,15866, independentemente de P(m1) e P(m2). Como podemos ver no gráfico, para m1 = 0,5, o valor coincide com o valor ótimo. Note ainda que este valor corresponde ao máximo da função P(E) x P(m1).

Observamos, portanto, através deste exemplo, que a suposição de probabilidades iguais para as mensagens corresponde ao pior caso. À medida que aumentamos a probabilidade de ocorrência de uma das mensagens, a probabilidade de erro mínima é reduzida. Porém, o valor ótimo do limiar deve ser estabelecido para cada valor de P(m1). Se em vez de usarmos o limiar ótimo para cada valor de P(m1), usarmos sempre um limiar dado pelo ponto médio, a probabilidade de erro ficará constante e igual ao valor máximo obtido para P(m1) = 0,5.

Page 230: Princípios de Comunicações

229

Probabilidade de erro com filtro casado A análise da seção anterior permitiu estabelecer, na expressão (8.15), que, em uma transmissão digital binária, feita com dois sinais quaisquer, s1(t) e s2(t), e com um filtro de recepção de resposta ao impulso qualquer, h(t), a probabilidade de erro é dada, genericamente por

P E Qd

( ) =

2σ (8.17)

onde

0 02 0 1 0 2 1( ) ( ) ( ) ( ) ( ) ( )t t t td s t s t s t h t s t h t= =′ ′= − = ∗ − ∗ (8.18)

isto é, d é a distância entre as amostras ideais na saída do filtro, tomadas no instante t0; o parâmetro σ é a raiz quadrada da variância do ruído, dada por

2 22 0 0( ) ( )

2 2

N NH f df h t dtσ

∞ ∞

−∞ −∞= =∫ ∫ (8.19)

Esta expressão da probabilidade de erro é obtida supondo o limiar de deteção no ponto médio entre as amostras ideais e será a mínima possível para o filtro considerado, desde que as mensagens sejam equiprováveis. Assim como o filtro de recepção, o instante de amostragem também é arbitrário, mas, obviamente, ambos devem ser escolhidos de modo a minimizar a probabilidade de erro.

Na Seção 5.1, vimos, de forma heurística, que o receptor ótimo em uma transmissão digital com mensagens equiprováveis é o receptor de mínima distância, ou seja, uma estrutura que escolhe, dentre os sinais possíveis, o mais próximo daquele que chega ao receptor. Em particular, na Seção 5.1.1, mostramos que este receptor de mínima distância pode ser implementado através de filtros denominados filtros casados.

Pode-se mostrar que este receptor ótimo, definido heuristicamente, é aquele que permite operar com a mínima probabilidade de erro em presença de ruído aditivo branco Gaussiano, de acordo com o modelo da Fig. 8.1. Sendo assim, ao longo deste capítulo, vamos sempre usar as estruturas do Capítulo 5 e a suposição de filtro casado para obter a probabilidade de erro mínima nos diversos sistemas analisados.

No caso de sinais binários, o receptor de mínima distância é implementado através de um filtro casado ao sinal diferença, como está representado na Fig. 5.10, e corresponde ao receptor da Fig. 8.2, desde que

0( ) ( )dh t s t t= − (8.20) onde sd(t) = s2(t) – s1(t). Levando (8.20) em (8.18) obtemos, como mostrado em (5.17) e (5.18),

[ ]22 1 1 2 1 2( ) ( ) 2 ( ) ( )sdd E s t s t dt E E s t s t dt

∞ ∞

−∞ −∞= = − = + −∫ ∫ (8.21)

onde E1, E2 e Esd são, respectivamente, as energias dos sinais s1(t), s2(t) e sd(t). Levando a mesma expressão (8.20) em (8.19) obtemos

σ 2 0

2=

NEsd (8.22)

Substituindo (8.21) e (8.22) em (8.17) resulta, então, a expressão geral da probabilidade de erro mínima para sinais binários equiprováveis, considerando todos os filtros possíveis:

Page 231: Princípios de Comunicações

230

P E QE

Nsd( ) =

2 0

(8.23)

Exemplo 8.2

Considere a mesma transmissão digital binária definida no Exemplo 5.4 realizada em

um canal com ruído aditivo branco Gaussiano. No exemplo, s2(t) é um pulso retangular de amplitude ∆ e duração T e s1(t) é um sinal nulo. O filtro de recepção é um filtro passa-baixa RC cuja resposta ao impulso é dada por

( ) ( )th t e u tαα −= Analisando a expressão do sinal filtrado, 2( )s t′ , apresentada no Exemplo 5.4, observamos que seu valor máximo ocorre em t = T. Considerando o instante T como o instante de amostagem e notando que s1(t) = 0, a distância d calculada por (8.18) é dada por

(1 )Td e α−= ∆ − Aplicando (8.19) obtemos

0 0 022 2 22 2 4( )N N Nth t dt e dtασ α α

∞ ∞−

−∞ −∞= = =∫ ∫

Aplicando (8.17) chegamos à seguinte expressão

0

(1 )( )

2 ( / 4)

TeP E Q

N

α

α

− ∆ −=

Esta expressão pode ser maximizada em relação a α . Derivando em relação a α e igualando a zero, obtemos a equação

2 1α αT e T+ =

Resolvendo numericamente, obtemos αT ≅ 1,25. Com este valor, chegamos a

0

( ) 0,638T

P E QN

= ∆

Considere agora que, em vez do filtro RC, é usado um filtro casado no receptor, ou seja, h(t)= sd(t0-t). Notando que, para os sinais do problema, 2( ) ( )ds t s t= , ou seja, o sinal

diferença é um pulso retangular de amplitude ∆ e duração T, a energia do sinal diferença será Esd = ∆2T. Aplicando (8.23) obtemos

0

( ) 0,707T

P E QN

= ∆

Note que esta mesma expressão pode ser obtida a partir de (8.17), observando, que, no caso do filtro casado definido acima, d = ∆2T e σ2 = N0∆2T/2. Comparando com o resultado obtido para o filtro RC, observamos a melhoria proporcionada pela utilização do filtro casado, uma vez que o argumento da função Q aumenta e, portanto, diminui a probabilidade de erro.

Page 232: Princípios de Comunicações

231

Probabilidade de erro em função da energia média É sempre conveniente expressar a probabilidade de erro em função da energia média dos sinais transmitidos, pois este é um dos parâmetros que definem o custo de um sistema de transmissão digital. No caso de sinais equiprováveis, a energia média dos sinais é a média aritmética das energias de cada um deles, isto é,

1 2

2sE E

E+= (8.24)

Usando esta expressão em (8.21), podemos escrever

1 22 2 ( ) ( )sd sE E s t s t dt∞

−∞= − ∫ (8.25)

. A seguir são considerados 2 tipos de sinais binários - sinais simétricos antipodais e sinais ortogonais - e, para os dois casos, é determinada a probabilidade de erro em função da energia média dos sinais. Sinais simétricos antipodais Como mostrado na Seção 5.1.2, para um mesmo valor de energia média, sinais simétricos antipodais, isto é s2(t) = −s1(t), são os que apresentam o maior valor da energia do sinal diferença. Substituindo esta condição em (8.25), obtemos Esd =4Es. Levando em (8.23) obtemos

P E QE

Ns( ) =

2

0

(8.26)

Sinais ortogonais No caso de sinais ortogonais, a integral em (8.25) é nula, Esd = 2Es, e assim temos

P E QE

Ns( ) =

0

(8.27)

Comparando (8.26) e (8.27), verificamos que a transmissão através de sinais simétricos é mais eficiente do que a transmissão através de sinais ortogonais, pois, para uma mesma energia média, o argumento da função Q é maior e, consequentemente, a probabilidade de erro é inferior. Para obter uma medida quantitativa da vantagem dos sinais simétricos em relação aos sinais ortogonais, o mais conveniente é fixar um valor da probabilidade de erro e determinar as energias médias necessárias nos dois sistemas para operar com este valor. No caso acima é fácil verificar que os sinais ortogonais requerem duas vezes mais energia para operar com a mesma probabilidade de erro que os sinais simétricos.

Page 233: Princípios de Comunicações

232

8.2 SISTEMAS PAM Os sistemas PAM foram definidos na seção 5.2.1 e suas principais formas específicas são os sistemas binários PAM on-off, PAM-2 simétrico PAM multinível simétrico definidos por (5.32), (5.33) e (5.34). A probabilidade de erro destes sistemas é analisada a seguir. Os sistemas PAM on-off e PAM-2 simétrico correspondem, respectivamente, a um sistema ortogonal e um sistema antipodal. Assim, a probabilidade de erro destes sistemas, com filtro casado, é dada respectivamente por (8.27) e (8.26). Para recepção com filtro de resposta ao impulso qualquer, h(t), ilustrada nas Figs 5.18 e 5.19, podemos aplicar (8.17), onde o parâmetro d, genericamente definido por (8.18), é obtido das expressões

0( )d g t′= ∆ (8.28)

0( ) ( ) ( )g t g t h t′ = ∗ (8.29)

A análise para o sistema PAM multinível é feita a seguir com base no receptor da Fig. 5.18 e no detetor de limiar ilustrado na Fig. 5.23, notando que, em presença de ruído, a amostra do sinal recebido na saída do filtro de recepção é expressa como

)(')(')(' 000 tntagtr += (8.30)

onde 0'( )n t é uma variável aleatória Gaussiana de média nula e variância σ2. Considerando

os possíveis valores da amplitude para o sinal PAM simétrico dados por (5.33), temos a representação da Fig. 8.6, onde são representados os valores possíveis da amostra do sinal desejado e um valor qualquer da componente de ruído se somando à amostra do sinal (sem levar a erro na decisão). Associando o índice i das diferentes mensagens mi as amplitudes em ordem crescente pode-se escrever a seguinte expressão para as probabilidades de erro condicionais.

( )

=

−<

−=

>

=

>

=

Mid

tnP

Mid

tnP

id

tnP

mEP i

;2

)('

1,...,2;2

)('

1;2

)('

0

0

0

(8.31)

Fig. 8.6 - Espaço de decisão em sistemas PAM multinível

-3(∆/2)g´(t0) -(∆/2)g´(t0) 0 (∆/2)g´(t0) 3(∆/2)g´(t0) r´(t0)

m1 m2 m3 m4

λ1 λ2 λ3

n´(t0)

d =∆ g´(t0)

Page 234: Princípios de Comunicações

233

Pode-se mostrar que

=

−<=

>σ22

)('2

)(' 00

dQ

dtnP

dtnP (8.32)

=

>σ2

22

)(' 0

dQ

dtnP (8.33)

A probabilidade de acerto será a média das probabilidades condicionais, isto é,

−+

=σσ 2

22

2

2)(

dQ

M

MdQ

MEP (8.34)

Desenvolvendo esta expressão, chegamos a

−=σ2

112)(

dQ

MEP (8.35)

onde

d = ∆g’(t0) (8.36)

e σ2 é a variância do ruído 0'( )n t dada por (8.19).

Filtro casado

O receptor será ótimo se o filtro h(t) for casado ao pulso g(t), ou seja,

)()( 0 ttKgth −= (8.37)

Neste caso, gKEtg =)(' 0 e 2 20

2 g

NK Eσ = ; substituindo estes resultados em (8.36) e (8.35),

obtemos

−=0

2

2

112)(

N

EQ

MEP g

(8.38)

Usando (5.33) nesta expressão, podemos chegar à seguinte expressão da probabilidade de erro com filtro casado, em função da energia média:

P EM

QE

N Ms

o

( )( )

= −

2 1

1 6

12 (8.39)

Note que, para M =2, obtemos (8.26). Exemplo 8.3 Neste exemplo consideramos um sistema PAM-M simétrico em canal com ruído aditivo branco Gaussiano e vamos determinar o aumento necessário na energia média dos sinais transmitidos para manter a probabilidade de erro em 10-4, ao passarmos do caso binário

Page 235: Princípios de Comunicações

234

(M=2) para o quaternário (M=4). A expressão da probabilidade de erro é obtida de (8.39). Para M=2, temos

=−

o

s

N

EQ

210 4

Utilizando a tabela da função Q, obtemos Es /N0 = 6,9; Realizando o mesmo para M = 4, temos:

′=−

o

s

N

EQ

5

25,110 4

resultando Es’/ N0 = 36,5. Então o aumento necessário é de 36,5/6,9 que correspondente a 7,2 dB.

8.3 SISTEMAS COM MODULAÇÃO DE AMPLITUDE E FASE Os sistemas com modulação de amplitude e fase foram definidos na seção 5.2.2 e incluem os sistemas ASK, PSK e QAM, cujas probabilidades de erro serão analisadas a seguir. 8.3.1 ASK O sistema ASK é definido, genericamente, por (5.43) e em particular por (5.44), (5.45) e (5.46). Sua geração é representada na Fig. 5.24 e, na Fig. 5.28, mostra-se o diagrama do receptor e o espaço de decisão. Reescrevendo (5.48) de modo a considerar a presença do ruído, temos

0 0 0( ) ( ) ( )2

r t g t n tα′ ′ ′= + (8.40)

onde n´(t0) é a amostra do ruído branco demodulado que pode ser modelada (ver Seção 6.1.2) como uma variável aleatória Gaussiana de média nula e variância dada por

2 22 0 0( ) ( )4 4

N NH f df h t dtσ

∞ ∞

−∞ −∞= =∫ ∫ (8.41)

Pode-se verificar que a análise de probabilidade de erro do sistema ASK é basicamente a mesma do sistema PAM correspondente. Basta comparar a expressão do sinal no detetor do sistema ASK dada por (8.40) com a do sistema PAM dada por (8.30) e a Fig. 5.28 correspondente ao receptor do sistema ASK com as Figs 5.19 e 5.23, referentes ao receptor do sistema PAM. Isto permite aplicar (8.17) para calcular a probabilidade de erro de sistemas ASK binários e (8.35) para o sistema ASK multinível. Note, porém, que no sistema ASK, o valor da distância d e da variância do ruído são diferentes. A distância d será dada por

0( )2

d g t∆ ′= (8.42)

Pode-se verificar ainda que as expressões de probabilidade de erro para receptor com filtro casado dadas por (8.27), (8.26) e (8.39) se aplicam respectivamente aos sistemas ASK on-off, ASK-2 simétrico e ASK multinível.

Page 236: Princípios de Comunicações

235

8.3.2 QAM O cálculo da probabilidade de erro dos sistemas QAM em geral, pode ser desenvolvido a partir do espaço de decisão, ou seja, o diagrama obtido pela representação em dois eixos ortogonais, das amostras r1 e r2 representadas no receptor da Fig 5.35. A operação do receptor consiste em escolher o ponto ideal, correspondente a um dos sinais transmitidos, que estiver mais próximo daquele definido pelo par de valores observados (r1, r2). Como ilustrado nas Figs 5.36 e 5.38, para cada sinal, existe uma região de decisão. Assim, dado que foi transmitido um dado sinal, a probabilidade de erro equivale à probabilidade de que o ruído leve o ponto (r1, r2) para uma outra região de decisão.

Analisando as operações do receptor da Fig. 5.35, podemos escrever

101 )('2

1ntgr += α (8.43)

202 )('2

1ntgr += β (8.44)

onde g’( t) é o pulso básico filtrado pelo filtro h(t) e o par (n1, n2) representa as amostras do ruído. Pode-se mostrar, com base nas propriedades do ruído, analisadas no Capítulo 6, que n1 e n2 são variáveis aleatórias Gaussianas estatisticamente independentes de média nula e variância dada por

2 22 0 0( ) ( )4 4

N NH f df h t dtσ

∞ ∞

−∞ −∞= =∫ ∫ (8.45)

Sistemas QAM-4/PSK-4 Para o sistema QAM-4 ou PSK-4, o espaço de decisão está representado na Fig. 5.36 e as regiões de decisão, associadas a cada sinal, são os quatro quadrantes. Vamos considerar inicialmente a mensagem m1, correspondente à fase π/4. Como ilustrado na Fig. 8.7, ao ser transmitida a portadora com fase π/4, as componentes de ruído n1 e n2 deslocam o ponto ideal (sem ruído) para o ponto observado (r1, r2). Na situação representada na Fig. 8.7, não ocorreria erro, pois o ponto observado continuaria na região de decisão de m1. Porém, se qualquer das duas componentes for mais negativa do que a distância d/2 que separa o ponto ideal da fronteira da região de decisão, haverá erro. Em outras palavras, só haverá acerto se ambas as componentes de ruído forem maiores do que –d/2. Observando que as componentes de ruído são estatisticamente independentes da mensagem transmitida, podemos escrever então,

2

1 1 2( | ) , 12 2 2

d d dP C m P n n Q

σ = > − > − = −

(8.46)

onde P(C|m1) é a probabilidade de acerto dado que a mensagem transmitida é m1. Pela simetria do problema, podemos concluir que o mesmo resultado pode ser obtido

para as 4 possíveis mensagens. Como a probabilidade de acerto é a média das probabilidades condicionais, temos então

2

21)(

−=σd

QCP (8.47)

Page 237: Princípios de Comunicações

236

Fig. 8.7 – Espaço de decisão no sistema QAM-4 ou PSK-4

Observando que P(C) = 1-P(E), desenvolvendo a expressão e desprezando o termo Q2 cujo valor é tipicamente bem menor do que o termo Q chegamos a

( )

−−=σσ 2

22

112

dQ

dQEP (8.48)

No caso do filtro casado h t g t t( ) ( )= −0 , g’(t0) = Eg e σ2 = (N0/4)Eg . Levando em conta

que a energia média dos sinais transmitidos Es é igual a (∆2/4)Eg, chegamos à seguinte expressão para a probabilidade de erro do receptor ótimo de um sistema QAM-4 ou PSK-4 :

0

2)(N

EQEP s (8.49)

Sistema QAM-M (M>4) O espaço de decisão do sistema QAM está mostrado na Fig. 5.38. O cálculo da probabilidade de erro pode ser feito com base nesta figura, de forma semelhante ao que foi feito para o sistema QAM-4. Observam-se, na Fig. 5.38, 3 tipos de regiões, ilustradas na Fig. 8.8: (a) limitada por 2 segmentos de reta; (b) limitada por 3 segmentos de reta; (c) limitada por 4 segmentos de reta. Só haverá acerto se as componentes de ruído n1 e n2 não levarem o ponto ideal para fora da região de decisão.

r1

r2

-∆g´(t0)/4 ∆g´(t0)/4

∆g´(t0)/4 01

11 10 -∆g´(t0)/4

n1

n2

d/2

d/2

(r1,r2)

Page 238: Princípios de Comunicações

237

Fig. 8.8 – Formatos das regiões de decisão no sistema QAM

Podemos então escrever

• para regiões do tipo (a) 2

1 2( | ) , 12 2 2id d d

P C m P n n Qσ

= > − > − = −

(8.50)

• para regiões do tipo (b)

1 2( | ) , 1 1 22 2 2 2 2jd d d d d

P C m P n n Q Qσ σ

= > − − > > = − −

(8.51)

• para regiões do tipo (c)

2

1 2( | ) , 1 22 2 2 2 2kd d d d d

P C m P n n Qσ

= − < < − − < < = −

(8.52)

Podemos verificar, observando a Fig. 5.38, que no sistema QAM-16 existem 4 regiões do tipo (a), 8 do tipo (b) e 4 do tipo (c). Fazendo a média ponderada das expressões (8.50), (8.51) e (8.52), desenvolvendo os quadrados e desprezando Q2 em presença de Q, chegamos a

( ) 1 ( ) 32

dP E P C Q

σ = − ≅

(8.53)

Para os demais sistemas QAM-M (M = 64, 256), basta refazer a média das probabilidades condicionais considerando o número de cada tipo de região. Pode-se mostrar que a seguinte expressão geral é dada por:

1( ) 4 1

2

dP E Q

M σ = −

(8.54)

onde d e σ são dados por (8.42) e (8.41), respectivamente. Na realidade, (8.54) também pode ser obtida com base no receptor da Fig. 5.39. Observando que, para a deteção correta da mensagem, é necessário acertar as duas amplitudes

α e β podemos escrever

( ) ( , )P C P C Cα β= (8.55)

a b c

d/2

d/2 n1

n2

(r1,r2)

d/2

d/2 n1

n2

(r1,r2)

d/2

d/2 n1

n2

Page 239: Princípios de Comunicações

238

onde ( )P Cα e ( )P Cβ são as probabilidades de acertar as amplitudes α e β , respectivamente.

Observando a Fig. 5.39, verificamos que a deteção destas amplitudes corresponde à deteção em um sistema ASK multinível, cuja probabilidade de erro é dada por (8.34), com d e σ dados por (8.36) e (8.19), respectivamente. Note, porém, que nos sistemas QAM-M considerados, o número de amplitudes da portadora seno ou cosseno é igual à raiz quadrada

de M. Observando ainda que a deteção de α e β se processa de forma independente, podemos escrever

21

( ) ( ) ( ) 1 2 12

dP C P C P C Q

Mα β σ

= = − −

(8.56)

Desenvolvendo o quadrado, desprezando os termos em Q2 e fazendo P(E) = 1-P(C) chegamos a (8.54).

Considerando filtro casado e relacionando d/σ com a energia média, obtemos

P EM

QE

N Ms

o

( )( )

= −

4 1

1 3

1 (8.57)

Note que, para M = 4, obtemos (8.49).

8.3.3 PSK O espaço de decisão no sistema PSK-8 está representado na Fig. 5.42. Como se observa nesta figura, a região de decisão para uma das mensagens no sistema PSK-M é genericamente um setor angular do plano com largura igual a 2π/M. O cálculo da probabilidade de erro é bem mais complicado neste caso em comparação com o sistema QAM retangular, pois o ruído na saída do operador tg-1 mostrado no receptor da Fig. 5.43 não é mais Gaussiano e sua caracterização é mais difícil. Porém, uma boa aproximação pode ser obtida sem dificuldade como se explica a seguir. Inicialmente, são definidas, na Fig. 8.9, os semi-planos Λ1 (abaixo do eixo horizontal) e Λ2 (acima da fronteira superior da região de decisão de m1). A união destes dois semi-planos corresponde aos pontos em que não se decide pela mensagem m1. Podemos então escrever

( )1 1 2 1 2 1( , ) ( )P E m P r r m = ∈ Λ ∪ Λ =

1 2 1 1 1 2 2 1 1 2 1 2 1( , ) ( , ) ( , ) ( )P r r m P r r m P r r m = ∈ Λ + ∈Λ − ∈ Λ ∩ Λ (8.58)

Assim, obviamente,

1 1 2 1 1 1 2 2 1( ) ( , ) ( , )P E m P r r m P r r m ≤ ∈Λ + ∈ Λ (8.59)

Page 240: Princípios de Comunicações

239

Fig. 8.9 – Espaço de decisão no sistema PSK-8

As duas parcelas do lado direito em (8.59) são equivalentes à probabilidade de erro caso existissem apenas a fase correspondente à mensagem m1 e uma fase vizinha. Podemos, então, aplicar, a cada uma destas parcelas, a expressão de probabilidade de erro do caso binário, dada por (8.17), resultando

( ) 22

dP E Q

σ ≤

(8.60)

onde d é a distância entre pontos vizinhos representados nas figs. 5.42 ou 8.9. Observando as relações geométricas na Fig. 5.42, obtemos

=M

sentVgdπ

)(' 0 (8.61)

A expressão (8.60), embora seja um limitante superior, é uma boa aproximação para a probabilidade de erro. O erro cometido ao empregá-la é igual ao valor da probabilidade de que (r1,r2) pertença a Λ1∩Λ2. Considerando filtro casado e relacionando d/σ com a energia média, chegamos a

4;2

2)( ≥

≅ M

Msen

N

EQEP

o

s π (8.62)

r1

r2

região de decisão para a mensagem m1

Λ2

Λ1 Λ1∩Λ2

Page 241: Princípios de Comunicações

240

8.4 SISTEMA FSK Os sistemas FSK foram definidos na seção 5.2.3. O cálculo da probabilidade de erro em sistemas FSK, no caso geral, com um número qualquer de mensagens, é mais complexo do que os cálculos desenvolvidos até aqui para os outros sistemas. Porém, no caso de um sistema FSK binário com receptor ótimo pode-se aplicar a expressão geral dada por (8.23). Como em geral no sistema FSK as frequências são escolhidas de forma que os sinais sejam ortogonais, neste caso pode-se aplicar (8.27). 8.5 SISTEMAS COM RECEPÇÃO NÃO COERENTE Os sistemas com recepção não coerente foram definidos na seção 5.2.4 e se resumem aos sistemas ASK on-off e FSK ortogonal. Além desses, inclui-se também o sistema DPSK, que pode ser considerado um sistema parcialmente coerente.

A seguir é apresentado um resumo de resultados de probabilidade de erro para esses sistemas.

ASK on-off não coerente

A recepção não coerente de sinais ASK on-off, definidos por (5.43) e (5.44), pode ser feita de acordo com o esquema da Fig. 5.50. A análise deste receptor mostrou que, na ausência de ruído, temos, após a demodulação não coerente, as duas amostras dadas por (5.84). Adicionando a parcela de ruído em (5.84), temos

202

101

)(2

cos)(2

nsentgr

ntgr

+′=

+′=

εα

εα

(8.63)

onde ε é a diferença entre a fase θ e a fase γ da portadora local e n1 e n2 são as componentes de ruído demodulado, cuja caracterização é a mesma apresentada no Capítulo 6 e usada na análise do receptor QAM coerente, isto é, variáveis aleatórias Gaussianas estatisticamente independentes, de média nula, e variância σ2. Considerando as duas hipóteses α = 0 e α = ∆, temos duas expressões para a variável aleatória x na entrada do detetor da Fig. 5.50:

2 21 2

2 21 2

0

( cos ) ( )

n nx

K n K sen n

α

ε ε α

+ == + + + = ∆

(8.64)

onde

0( )2

K g t∆ ′= (8.65)

Pode-se mostrar que as funções densidade de probabilidade de x, condicionadas à transmissão da amplitude nula ou amplitude não nula, são as funções de Rayleigh e Rice, dadas, respectivamente, por:

0,)(2

2

220 ≥=

= XeX

XpX

α σ (8.66)

Page 242: Princípios de Comunicações

241

2 2

222 2

( ) , 0X K

oxX K X

p X e I Xσα σ σ

+−

=∆ = ≥

(8.67)

onde I0 é a função de Bessel modificada de ordem 0. Essas duas funções densidade de probabilidade estão mostradas na Fig. 8.10, onde está indicado o valor do limiar λ.

Fig. 8.10 - Funções densidade de probabilidade de Rayleigh e de Rice e Limiar de decisão no sistema ASK on-off

Supondo mensagens equiprováveis, temos a seguinte expressão para a probabilidade de erro no sistema ASK on-off:

2 2 2

2 22 22 2 2

1 1( )

2 2

X X K

oo

X X K XP E e dX e I dX

λσ σ

λ σ σ σ

+∞ − − = + ∫ ∫ (8.68)

A primeira integral tem solução trivial. A segunda é tabelada e é conhecida como função de Marcum.

Aproximação para razão sinal-ruído alta

Quando a razão sinal-ruído é elevada, podemos aproximar a função densidade de probabilidade pxm (Xm1) por uma densidade Gaussiana. Esta aproximação pode ser verificada manipulando-se a segunda expressão em (8.64) de modo a verificar a seguinte igualdade:

( ) ( )2 2

2 2 1 2 1 21 2 2

2 cos 2cos 1

n n sen n nK n Ksen n K

K K

ε εε ε + ++ + + = + + (8.69)

Com a suposição de razão sinal-ruído alta, podemos desprezar o terceiro termo dentro da raiz

no lado direito de (8.89) e usar a aproximação 1 1 2+ ≅ +x x / quando x<<1, para obter

1 2 2cosx K n n sen se m mε ε≅ + + = (8.70)

Podemos verificar que a variância da soma 1 2cosn n senε ε+ é igual à variância σ2 de n1 e n2. Assim, podemos escrever

0 λ K X

α=∆ (Rice) α=0 (Rayleigh)

px|α(X)

Page 243: Princípios de Comunicações

242

2

2

2

)(

22

1)|( σ

πσ

KX

mx emXp−−

= (8.71)

Utilizando esta aproximação na segunda integral de (8.68) e o limiar 2/K=λ , chegamos à seguinte expressão para a probabilidade de erro:

+≅−

σσ

25,05,0)(

2

2

8 KQeEP

K

(8.72)

Se o filtro h(t) for um filtro casado ao pulso g(t), podemos mostrar que

+≅

o

sN

E

N

EQeEP o

s

5,05,0)( 2 (8.73)

Sistema FSK não coerente

Como observado na seção 5.2.4, o sistema FSK binário pode ser visto como a composição de dois sistemas ASK on-off, cada um operando com uma frequência de portadora. Seu receptor é mostrado na Fig. 5.51. Observando a figura e supondo que foi transmitida a mensagem m1, associada à frequência f1, podemos adicionar em (5.86) as componentes de ruído no primeiro modulador, representadas por n1,1 e n1,2, expressando a variável x como

( ) ( )22,11

21,11cos nKsennKx +++= εε (8.74)

onde ε1 =(θ1 - γ1) e

0

1( ) |

2 t tt

K rect h tT = = ∗

Com a mesma hipótese (m=m1), a variável y será constituída apenas pelas componentes de ruído do segundo demodulador, representadas por n2,1 e n2,2, e pode ser expressa como

y n n= +2 12

2 22

, , (8.76)

A probabilidade de erro condicional será dada por

( ) [ ] ( )∫ ∫∞ ∞

=<=0

1,11 , dXdYmYXpmyxPmEPX myx (8.77)

Confrontando (8.74) e (8.76) com (8.64) concluímos que as variáveis aleatórias x e y são, respectivamente, variáveis de Rice e Rayleigh, cujas funções densidade de probabilidade são dadas por (8.67) e (8.66). Ou seja, o lado direito de (8.77) pode ser escrito como

dXdYeYKX

IeX

Y

Xo

KX2

2

2

22

222

2

0 2σσ

σσσ

−∞+

−∞

∫∫

(8.78)

Apesar da complexidade aparente, a integral dupla em (8.78) tem solução simples dada por

Page 244: Princípios de Comunicações

243

( ) 2

2

41 2

1 σK

emEP−

= (8.79)

Pela simetria do problema P(Em1) = P(Em2) = P(E) e assim,

( ) 2

2

4

2

1 σK

eEP−

= (8.80)

Para um filtro h(t) casado, chegamos a

o

s

N

E

eEP 2

2

1)(

−= (8.81)

Sistema DPSK A análise de probabilidade de erro no sistema DPSK é bastante complexa, mesmo no caso de um sistema binário. Pode-se mostrar que, no caso binário, com filtros casados,

o

s

N

E

eEP−

=2

1)( (8.82)

8.6 ANÁLISE DE DESEMPENHO Antes de concluir este capítulo, é interessante fazer uma análise comparativa do desempenho dos diversos sistemas aqui definidos. Para isto, é conveniente introduzir novos parâmetros de desempenho, mais adequados a uma comparação geral. Para o usuário de um sistema de transmissão digital, o que interessa é transmitir uma sequência de bits com a maior velocidade e o menor número de erros. Definem-se então, como parâmetros de desempenho que medem a satisfação do usuário:

• R: a taxa de bits transmitidos - definida em (5.96) e equivalente ao número de bits transmitidos por unidade de tempo

• BER: a taxa de erro de bit – definida como a probabilidade de que um bit qualquer da sequência transmitida seja detetada com erro.

Para o operador do sistema, o problema se coloca de outra forma. Embora tenha também o interesse em prover a satisfação do usuário, deve procurar esse objetivo com a maior eficiência possível, por motivos econômicos. Os parâmetros associados à eficiência na transmissão são

• Ps, a potência do transmissor • B: a largura de faixa ocupada na transmissão • N0: o dobro da densidade espectral de potência do ruído no canal

Podemos dizer, em última análise, que o objetivo da engenharia de sistemas de transmissão digital é atender a um determinado valor objetivo para R e BER, com um mínimo valor de Ps e B, e um máximo valor de N0.

Page 245: Princípios de Comunicações

244

8.6.1 Taxa de Erro de Bit versus Eb/N0 De acordo com o modelo geral mostrado na Fig. 8.1, o sistema transmite a mensagem

ou símbolo m = (b1b2...bL) e deteta 1 2ˆ ˆ ˆˆ ( .... )Lm b b b= , onde bi e ˆib são bits e m e m pertencem

ao mesmo conjunto de símbolos m1,m2,...mM). A probabilidade de erro calculada nas seções anteriores é a probabilidade de erro na deteção da mensagem, ou símbolo, daí ser denominada probabilidade de erro de símbolo. Sua expressão genérica, definida em (8.1), pode ser desenvolvida na forma

1 1

ˆ( ) ( , )M M

j i

i ji j

P E P m m m m= =≠

= = =∑∑ (8.83)

A probabilidade ou taxa de erro de bit (BER) pode ser definida como a probabilidade

de erro em um bit da mensagem 1 2( .... )Lm b b b= escolhido ao acaso. Podemos verificar que

)(1

)ˆ(1

1e

L

iii nE

LbbP

LBER ∑

=

=≠= (8.84)

onde ne é o número de dígitos binários errados na mensagem e E(ne) é seu valor esperado, expresso por

E n kP n ke e

k

L

( ) ( )= ==∑

1

(8.85)

ou, alternativamente por

E n n P m m m me i j j i

jj i

M

i

M

( ) ( $ , ),= = ==≠

=∑∑

11

(8.86)

onde nij é o número de bits errados quando se transmite mi e se deteta mj. Comparando (8.86) com (8.83) podemos visualizar a relação entre a probabilidade de erro de símbolo e a taxa de erro de bit. A taxa de erro de bit pode ser estimada em uma transmissão seqüencial como a razão entre o número de bits errados e o número total de bits transmitidos. Exemplo 8.4 Neste exemplo, analisamos a deteção em uma transmissão com sistema PSK-4 em canal com ruído branco Gaussiano. O espaço de decisão está mostrado na Fig. 8.11, onde r1 e r2 são os valores das amostras obtidas no receptor da Fig. 5.37. Na figura, estão representados os pontos ideais, obtidos na ausência de ruído, associados aos bits correspondentes. Desejamos determinar (a) a probabilidade de haver exatamente 1 bit errado na deteção de um símbolo; (b) a probabilidade de haver exatamente 2 bits errados na deteção de um símbolo (c) a taxa de erro de bit. (d) a probabilidade de erro.

Page 246: Princípios de Comunicações

245

Fig. 8.11 – Espaço de decisão do sistema PSK-4

(a) Podemos verificar, analisando a Fig. 8.11, que, dado que foi transmitido o par de bits 11, a probabilidade de haver exatamente 1 bit errado é igual à probabilidade de que o ruído leve o ponto ideal, correspondente a 11, para o segundo quadrante ou para o quarto quadrante. Ou seja,

1 2 1 22 2 2 2

2

( 111) ( , ) ( , )

2 1 22 2 2 2

d d d deP n P n n P n n

d d d dQ Q Q Q

σ σ σ σ

= = < > + > < =

= − = −

O mesmo resultado é obtido na hipótese de transmissão de cada um dos demais pares de bits. Assim, obtemos

2( 1) 22 2ed d

P n Q Qσ σ

= = −

(b) Observando a Fig. 8.11, temos

21 22 2( 2 11) ( , )

2d d

ed

P n P n n Qσ

= = > > =

Como este mesmo resultado é obtido na hipótese de transmissão de cada um dos outros pares de bit, chegamos a

2( 2)2e

dP n Q

σ = =

(c) Aplicando (8.85) e levando depois em (8.84) temos

221

1 2 22 2 2 2 2

d d d dBER Q Q Q Q

σ σ σ σ

= × − + =

(d) Aplicando (8.48),

( )2

21 1 22 2 2

d d dP E Q Q Q

σ σ σ = − − = −

r1

r2

00 01

10 11

d

Page 247: Princípios de Comunicações

246

Codificação de Gray É possível, em geral, fazer a associação das sequências de bits às diferentes mensagens de tal forma que os erros mais frequentes no símbolo detetado impliquem em 1 bit errado na sequência de bits recuperada. Esta forma de codificação é denominada Codificação de Gray. Aproximação

Nos sistemas de modulação de amplitude e fase é usual a seguinte aproximação para relacionar a taxa de erro de bit à probabilidade de erro de símbolo:

L

EPBER

)(≅ (8.87)

Este resultado pode ser obtido considerando apenas o primeiro termo do somatório em (8.85). Neste caso,

L

nPBER e )1( =

≅ (8.88)

Considerando que, na codificação de Gray, os símbolos mais próximos diferem apenas em 1 bit e que, na condição usual de razão sinal-ruído alta, a grande maioria dos erros corresponde a erro do símbolo correto para o símbolo vizinho, )()1( EPnP e ≅= , levando assim a (8.88). Razão Eb/N0 Outro aspecto importante na comparação de sistemas de transmissão digital é a definição da razão sinal-ruído. As expressões de Probabilidade de Erro desenvolvidas ao longo deste capítulo foram colocadas como funções da razão Es/N0, onde Es é a energia média dos sinais transmitidos. Porém é conveniente relacionar o desempenho à razão Eb/N0 onde Eb é a energia média por bit definida como

sb

EE

L= (8.89)

Note que, aplicando (8.89) e (5.96) a (5.28), obtemos

RET

EP b

ss == (8.90)

Ou seja, a potência do transmissor Ps, a taxa de bits R e a energia por bit Eb têm uma relação única, independente do sistema de modulação, sendo assim o parâmetro adequado para comparar diferentes sistemas.

8.6.2 Comparação Apresentamos a seguir uma comparação entre os sistemas de transmissão digital com base nas expressões de taxa de erro de bit, BER, em função da razão Eb/N0. Observando (8.90), podemos verificar que, exceto a largura de faixa, os demais parâmetros de desempenho definidos no início da seção 8.6 estão devidamente incorporados nesta forma de comparação. A Tabela 8.1 apresenta as expressões de BER, em função de Eb/N0 para os sistemas binários. Analisando estas expressões, podemos verificar que os sistemas coerentes simétricos (PAM, ASK e PSK) apresentam o melhor desempenho, podendo ter o mesmo desempenho que os demais sistemas coerentes com a metade da potência transmitida. Entre os sistemas

Page 248: Princípios de Comunicações

247

não coerentes, o sistema DPSK apresenta o melhor desempenho, seguido do FSK. É importante ressaltar que o sistema DPSK, apesar de não coerente, é ainda superior aos sistemas coerentes assimétricos (on-off). A assimetria dos sinais na sua representação geométrica é um fator de degradação do desempenho, fazendo com que os sistemas assimétricos sejam, em geral, ineficientes na utilização da energia transmitida.

Tabela 8.1 Taxa de Erro de Bit em Sistemas Binários

SISTEMA BER PAM On-Off ASK On-Off

FSK

o

b

N

EQ

PAM Simétrico ASK Simétrico

PSK

o

b

N

EQ

2

ASK-On-Off não coerente

+

o

bN

E

N

EQe o

b

2

2

1

FSK não coerente

o

b

N

E

e 2

2

1 −

DPSK

o

b

N

E

e−

2

1

Na Tabela 8.2 são apresentadas as expressões da taxa de erro de bit dos sistemas quaternários PSK-4, PAM-4 e ASK-4, verificando-se a vantagem do sistema PSK-4.

Tabela 8.2 Taxa de Erro de Bit em Sistemas Quaternários

SISTEMA BER

PSK-4 ou QAM 4 2 b

o

EQ

N

PAM-4 e ASK-4

43

4 5b

o

EQ

N

PSK x QAM As expressões da taxa de erro de bit para os sistemas PSK e QAM M-ários, com M > 4, estão mostradas na Tabela 8.3 onde L = log2(M). Podemos verificar que os sistemas QAM apresentam desempenho cada vez melhor do que os sistemas PSK à medida que aumenta o número M de sinais. A justificativa é simples e está ligada ao fato de que todos os sinais do conjunto PSK têm a mesma amplitude e, portanto, estão em um mesmo círculo no espaço de sinais. Assim, quando aumenta o número de sinais, mantendo-se a mesma energia média, há uma redução da distância entre os sinais vizinhos bem maior do que a que ocorre no sistema QAM, onde os sinais podem ter diversas amplitudes, havendo com isto maior flexibilidade na ocupação do espaço. Isto explica porque os sistemas QAM são utilizados quando se deseja transmitir um grande número de mensagens.

Page 249: Princípios de Comunicações

248

Tabela 8.3

Taxa de Erro de Bit em Sistemas PSK-M e QAM-M, M > 4

SISTEMA BER

QAM

−o

b

NM

LEQ

ML )1(

311

4

PSK

Msen

N

LEQ

L o

b π22

Na Fig.8.12 estão mostradas curvas da taxa de erro de bit em função de Eb/N0 para os sistemas aqui analisados.

5 6 7 8 9 10 11 12 13 14 15 16 17 18

PSK-2

PSK-4

DPSK-2

QAM-64

PSK-16

NCFSK-2/ASK-2

CFSK-2

PSK-8

QAM-16

10 -1

10 -2

10 -3

10 -4

10 -5

10 -6

10 -7

10 -8

10 -9

10 -10 Eb/N0

(dB)

BER

Fig. 8.12 - Curvas de taxa de erro de bit em função da razão Eb/N0

Page 250: Princípios de Comunicações

249

8.6.3 Limitantes da taxa de bits Um dos critérios de comparação de desempenho entre sistemas de transmissão digital é a máxima taxa de bits R que pode ser transmitida em um determinado canal com nível de ruído N0, para certo valor de potência transmitida Ps e para um objetivo de qualidade (BER)req. Note que o objetivo de qualidade estabelece que

( )reqBER BER≤ (8.91)

Levando em conta o sistema de transmissão, obtemos, através das expressões ou curvas BER×Eb/N0, a razão (Eb/N0)req, correspondente a (BER)req. Obviamente (8.91) implica em

0 0

b b

req

E E

N N

(8.92)

Usando (8.90) em (8.92) chegamos a

0 0

s b

req

P E

RN N

(8.93)

o que equivale a

00

s

b

req

PR

EN

N

(8.94)

O resultado em (8.94) corresponde a uma limitação na taxa de bits definida pelo desempenho desejado em presença de ruído, que depende basicamente das potências do sinal e do ruído. Esta limitação é conhecida como Limitação de Potência. Por outro lado, para um sistema que opera sem interferência entre símbolos, outro tipo de limitação na taxa de bits é determinada por (5.120) e (5.121). Explicitando R nestas equações, obtemos, para sistemas PAM,

2R LB≤ (8.95) e, para sistemas PSK e QAM,

R LB≤ (8.96)

Este tipo de limitação é geralmente referida como Limitação de Faixa. Considerando a utilização de um pulso com espectro do tipo cosseno levantado, explicitando R em (5.123) e (5.124) temos, para os sistemas PAM,

2

1

LBR

α≤

+ (8.97)

e, para sistemas PSK e QAM,

1

LBR

α≤

+ (8.98)

Page 251: Princípios de Comunicações

250

Exemplo 8.5

Neste exemplo será analisado o desempenho ótimo de alguns sistemas de transmissão digital operando com faixa mínima em um canal com largura de faixa igual a 4 kHz, em cuja saída se mediu uma potência de ruído igual a 40 mW. O objetivo para a taxa de erro de bit é igual a 10-4 e a potência transmitida é igual a 1 W.

Pela limitação de faixa, aplicando (8.96) obtemos

8000 4

12000 8

16000 16

PSK

R PSK

QAM

−≤ − −

Utilizando as expressões de probabilidade de erro ou as curvas apresentadas neste

capítulo, temos

0

6,9 4

14,9 8

16,6 16

b

req

PSKE

PSKN

QAM

− = − −

A densidade espectral de potência de ruído no canal pode ser obtida a partir da potência de ruído medida, ou seja, N0 = 10-5 W/Hz. Substituindo em (8.94) obtemos

14493 4

6729 8

6024 16

PSK

R PSK

QAM

−≤ − −

Obviamente, para cada sistema, a máxima taxa de bits é o menor dos 2 valores

obtidos. Concluímos que o sistema PSK-4 é limitado pela faixa enquanto os sistemas PSK-8 e QAM-16 são limitados pela potência. 8.6.4 Capacidade do Canal

Os limitantes da taxa de bits estudados na seção anterior são associados a um esquema específico de transmissão digital e a um determinado valor para a taxa de erro de bit desejada. Existe, porém, um limitante na taxa de bits que depende apenas da largura de faixa e da razão sinal-ruído disponíveis para a transmissão digital. Este é um dos resultados de maior impacto na história das comunicações e é conhecido como o Teorema da Capacidade do Canal, formulado originalmente por C. Shannon. A capacidade do canal é definida como um limitante na taxa de bits com que a informação pode ser transmitida através do canal, com uma taxa de erro arbitrariamente pequena.

O enunciado do teorema pode ser colocado na seguinte forma: Dado um canal com capacidade C e uma fonte que gera símbolos a uma taxa de R bit/s, (i) se R < C é possível transmitir a saída desta fonte, através do canal, com uma probabilidade de erro tão pequena quanto se deseje, apesar da presença de ruído; (ii) se R > C não existe esta possibilidade.

Note-se que o teorema acima indica apenas a possibilidade da transmissão, virtualmente sem erro, com um determinado conjunto modulador-demodulador cujas especificações exatas não são conhecidas. As tentativas de implementação de sistemas que se comportassem da forma prevista pela teoria de Shannon resultaram nos códigos corretores de erro que, sem apresentarem o desempenho ideal, de acordo com o teorema da capacidade do canal, permitem melhorar significativamente o desempenho dos moduladores convencionais em presença de ruído.

Page 252: Princípios de Comunicações

251

Para um canal de largura de faixa B, perturbado apenas por ruído aditivo branco Gaussiano, é possível mostrar que a capacidade é expressa pela relação

+=

n

s

P

PBC 1log2 (8.99)

onde Ps é a potência média do sinal e Pn a potência média do ruído dentro da faixa passante de largura B, ambas as potências calculadas na entrada do receptor. Utilizando (8.90) e (6.12), ou seja, Ps=Eb/R e Pn=N0B, e considerando a taxa de bits igual à capacidade do canal, temos

o

b

n

s

N

E

B

C

P

P = (8.100)

Substituindo (8.100) em (8.99) chegamos à seguinte expressão para a eficiência espectral associada à capacidade do canal, que vem a ser um limitante para a eficiência espectral atingida por qualquer sistema de comunicação digital:

+=

o

b

N

E

B

C

B

C1log2 (8.101)

Invertendo esta expressão obtemos

BCN

E BC

o

b

/

12 / −= (8.102)

É interessante examinar o comportamento desta expressão quando a faixa do canal

tende a infinito. Podemos verificar que

)59,1()2(lnlim

dBN

E

B o

b −=∞→

(8.103)

Este valor é o menor valor de razão sinal-ruído para a qual é teoricamente possível fazer uma transmissão virtualmente sem erro através de codificação. A Fig.8.13 mostra a curva de eficiência espectral dada por (8.101) junto com resultados de eficiência espectral para alguns sistemas sem codificação.

Page 253: Princípios de Comunicações

252

Fig. 8.13 - Curvas de eficiência espectral

1/32

1/16

1/8

1/4

1/2

0

2

4

8

16

32

-5 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75

(C/B)

Eb/N0(dB)

8.4

12.2

QAM-16

-1.59 dB

16.5

QAM-64

BER = 10-4

PSK-4

Page 254: Princípios de Comunicações

253

8.7 APÊNDICE: DESEMPENHO COM CÓDIGO CORRETOR DE ERRO

Os códigos corretores de erro são hoje amplamente utilizados na transmissão digital como ferramentas de melhoria de desempenho. O princípio desta técnica consiste em introduzir redundância nos símbolos transmitidos com propriedades que permitem a correção de erros no receptor. As técnicas para obtenção de códigos eficientes têm tido uma evolução constante e constituem uma área importante da teoria das comunicações.

A situação típica para o emprego dos códigos corretores de erro é aquela em que a potência de transmissão não é suficiente para obter a probabilidade de erro desejada e existe disponibilidade de largura de faixa adicional à que seria necessária sem o uso do código. O esquema mais usual está representado na Fig. 8.14, ou seja, antes do transmissor é inserido o codificador e, após o receptor, é inserido o decodificador.

.

Fig. 8.14 - Sistema de transmissão com código corretor de erro

O codificador introduz redundância nos bits de entrada de forma que, para K bits de

entrada, são gerados N bits codificados. Define-se então a taxa do código pela razão

1cK

RN

= < (8.104)

O resultado prático da utilização do código corretor de erro é a redução do valor de Eb/N0 requerido para se obter uma determinada taxa de erro de bit. Esta redução é denominada ganho do código e está ilustrada na Fig. 8.15, onde são representadas duas curvas BER x Eb/N0, correspondentes à transmissão com e sem codificação. Note que o ganho depende da taxa de erro BERreq tomada como referência.

Fig. 8.15 – BER x Eb/N0 com e sem codificação

BER

Eb/N0 (dB) G(dB)

sem código

com código

BERreq

Codificador Taxa K/N Transmissor Canal

Receptor Decodificador

K bits N bits

Page 255: Princípios de Comunicações

254

Por outro lado, a introdução de bits de redundância pelo codificador provoca um

aumento da taxa de bits por um fator N/K. Conseqüentemente, haverá um aumento da largura de faixa do sinal transmitido na mesma proporção.

Em resumo, quando se usa código corretor de erro, as expressões (8.94), (8.95) e (8.96) tomam a seguinte forma:

0 0( / )s

b req

P GR

N E N≤ (8.105)

R ≤ 2LBRc (8.106)

R ≤ LBRc (8.107)

onde G é o ganho do código e Rc é a taxa do código.

Outro parâmetro importante na caracterização de um código é a sua capacidade de deteção e correção. Os códigos mais simples são capazes de corrigir ou detetar erros isolados. Aumentando a redundância e a complexidade do código, consegue-se corrigir grupos de vários bits errados.

Exemplo 8.6

Considerando, no Exemplo 8.5, um código corretor de erro de taxa 3/4 e ganho 2 (3

dB) para uma taxa de erro de 10-4, temos, para o sistema QAM-16, 3

16000 120004

R≤ × =

0 0

2 6,024 /( / )

s

b req

P GR kbit s

N E N≤ = ×

Observamos, portanto, que, com o uso do código corretor de erro, a taxa imposta pela limitação de faixa se reduziu enquanto a imposta pela limitação de potência aumentou. Como no sistema QAM-16 há disponibilidade de faixa e falta de potência, a utilização de código corretor de erro é adequada.

Page 256: Princípios de Comunicações

255

8.8 APÊNDICE : TABELA DA FUNÇÃO Q( αααα) Para α > 5

2

21( )

2Q e

α

απα

−≅

α 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09

0,00 0,5000 0,4960 0,4920 0,4880 0,4840 0,4800 0,4760 0,4720 0,4681 0,4641 0,10 0,4601 0,4562 0,4522 0,4482 0,4443 0,4403 0,4364 0,4325 0,4285 0,4246

0,20 0,4207 0,4168 0,4129 0,4090 0,4051 0,4012 0,3974 0,3935 0,3897 0,3859 0,30 0,3820 0,3782 0,3744 0,3707 0,3669 0,3631 0,3594 0,3556 0,3519 0,3482

0,40 0,3445 0,3409 0,3372 0,3335 0,3299 0,3263 0,3227 0,3191 0,3156 0,3120 0,50 0,3085 0,3050 0,3015 0,2980 0,2945 0,2911 0,2877 0,2843 0,2809 0,2775

0,60 0,2742 0,2709 0,2676 0,2643 0,2610 0,2578 0,2546 0,2514 0,2482 0,2450 0,70 0,2419 0,2388 0,2357 0,2326 0,2296 0,2266 0,2236 0,2206 0,2176 0,2147

0,80 0,2118 0,2089 0,2061 0,2032 0,2004 0,1976 0,1948 0,1921 0,1894 0,1867 0,90 0,1840 0,1814 0,1787 0,1761 0,1736 0,1710 0,1685 0,1660 0,1635 0,1610

1,00 0,1586 0,1562 0,1538 0,1515 0,1491 0,1468 0,1445 0,1423 0,1400 0,1378 1,10 0,1356 0,1335 0,1313 0,1292 0,1271 0,1250 0,1230 0,1210 0,1190 0,1170

1,20 0,1150 0,1131 0,1112 0,1093 0,1074 0,1056 0,1038 0,1020 0,1002 0,0985 1,30 0,0968 0,0950 0,0934 0,0917 0,0901 0,0885 0,0869 0,0853 0,0837 0,0822

1,40 0,0807 0,0792 0,0778 0,0763 0,0749 0,0735 0,0721 0,0707 0,0694 0,0681 1,50 0,0668 0,0655 0,0642 0,0630 0,0617 0,0605 0,0593 0,0582 0,0570 0,0559

1,60 0,0547 0,0536 0,0526 0,0515 0,0505 0,0494 0,0484 0,0474 0,0464 0,0455 1,70 0,0445 0,0436 0,0427 0,0418 0,0409 0,0400 0,0392 0,0383 0,0375 0,0367

1,80 0,0359 0,0351 0,0343 0,0336 0,0328 0,0321 0,0314 0,0307 0,0300 0,0293 1,90 0,0287 0,0280 0,0274 0,0268 0,0261 0,0255 0,0249 0,0244 0,0238 0,0232

2,00 0,0227 0,0222 0,0216 0,0211 0,0206 0,0201 0,0196 0,0192 0,0187 0,0183 2,10 0,0178 0,0174 0,0170 0,0165 0,0161 0,0157 0,0153 0,0150 0,0146 0,0142

2,20 0,0139 0,0135 0,0132 0,0128 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110 2,30 0,0107 0,0104 0,0101 0,0099 0,0096 0,0093 0,0091 0,0088 0,0086 0,0084

2,40 0,0081 0,0079 0,0077 0,0075 0,0073 0,0071 0,0069 0,0067 0,0065 0,0063 2,50 0,0062 0,0060 0,0058 0,0057 0,0055 0,0053 0,0052 0,0050 0,0049 0,0047

2,60 0,0046 0,0045 0,0043 0,0042 0,0041 0,0040 0,0039 0,0037 0,0036 0,0035 2,70 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0028 0,0027 0,0026

2,80 0,0025 0,0024 0,0024 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019 0,0019 2,90 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014 0,0013

3,00 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010 0,0010 3,10 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0007 0,0007 0,0007 0,0007

3,20 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005 0,0005 0,0005 0,0005 3,30 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003 0,0003 0,0003 0,0003

3,40 0,0003 0,0003 0,0003 0,0003 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 3,50 0,0002 0,0002 0,0002 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001 0,0001

Page 257: Princípios de Comunicações

256

8.9 EXERCÍCIOS 8.1 Para cada par de sinais na Fig. E8.1, calcule a energia média e a probabilidade de erro mínima em presença de ruído aditivo branco Gaussiano com densidade espectral de potência igual a 0,25×10-9 W/Hz, sabendo que A = 1 mV e T = 1 ms.

Fig. E8.1

8.2 Para se fazer uma transmissão binária em banda básica, deve-se escolher os sinais entre os 4 pares mostrados abaixo. Qual deve ser a escolha se o critério for (i): a menor probabilidade de erro para um dado valor da energia média; (ii): a menor probabilidade de erro para um dado valor da energia média, com a menor amplitude do pulso; (iii) : a menor probabilidade de erro com a menor ocupação espectral.

Fig. E8.2 8.3 Em uma transmissão PAM quaternária, é transmitido um pulso retangular de duração 0,2 ms com amplitudes ± 2 e ± 6 mV. Sabe-se que, quando é transmitida a amplitude + 6 mV , a probabilidade de errar é igual a 10-2

.

(a) determine a probabilidade de errar quando for transmitida a amplitude + 2 mV. (b) determine a probabilidade de erro (c) supondo que o filtro de recepção é casado e sua amplitude é unitária, calcule a variância do ruído na entrada do detetor da Fig. 5.18. 8.4 Um sistema PSK-8 é utilizado para transmissão digital a uma taxa de bits de 15 kbit/s. Sabe-se que, na entrada do receptor, a potência da portadora modulada é igual a 3×10-6 W e que sua envoltória é dada por

0 T t

A

0 T t

A

- A

0 T t

3A

A

t

T 2T t

0 T t

A

A

0 T/2 T t

A

- A

0 T/2 T t

A

- A

(a) (b) (c)

(d)

0 T t

T/2 3T/2 t

A

A

(e) (f)

0 T 0 T/2 0 T 0 T/2

(a) (b) (c) (d)

Page 258: Princípios de Comunicações

257

21 cos 0

( )

0 fora

tt T

g t T

π − ≤ ≤ =

Sabe-se ainda que o filtro passa-baixa utilizado no receptor da Fig. 5.43 é dado por h(t) = g(t0-t). (a) represente o espaço de decisão na deteção ótima e calcule a distância entre dois sinais vizinhos; (b) determine a probabilidade de erro mínima com ruído aditivo branco Gaussiano de densidade espectral de potência igual a 0,24×10-10 W/Hz. 8.5 No Exercício 5.11 são analisados 3 sistemas: PSK-4, QAM-16 e PSK-8 operando com receptor ótimo. Considerando que a variância da amostra de ruído na saída dos filtros casados do receptor é igual a 10-12, calcule a probabilidade de erro em cada um desses sistemas. 8.6 Um sistema QAM-64 opera com taxa de 3 Mbit/s e chega ao receptor ótimo com envoltória constante e uma potência de 0,84×10-6 W. Sabendo que os valores dos limiares são 0, ± 5 mV, ± 10 mV e ± 15 mV; (a) determine a variância do ruído na entrada do detetor de limiar sabendo que a densidade espectral de potência do ruído no receptor é igual a 0,64×10-14; (b) determine a probabilidade de erro em termos da função Q. 8.7 Considere um sistema ASK on-off descrito no Exercício 5.8.onde os sinais são

1( ) 2cos(2 ) 0 0.1cs t f t t msπ= < < e s2(t) = 0 e cujo receptor está mostrado na Fig. 5.28, onde a resposta ao impulso do filtro casado é dada por

1 0 0,1ms( )

0 fora

th t

≤ ≤=

Sabendo que a densidade espectral de potência de ruído no canal é igual a 2x10-6 W/Hz, (a) determine a variância do ruído na saída do filtro e calcule a probabilidade de erro usando esta variância e a distância determinada no item anterior; (b) determine a razão sinal-ruído Es/N0 e calcule a probabilidade de erro usando esta razão sinal-ruído; (c) suponha que seja usado o receptor não coerente da Fig. 5.50, onde o filtro h(t) é o mesmo usado no receptor coerente; dado que foi transmitido s2(t) = 0, determine a probabilidade de que a amostra x na entrada do detetor de limiar seja maior do que 0,01 mV. 8.8 A Taxa de erro de bit é definida como a probabilidade de que um bit escolhido aleatoriamente na sequência transmitida esteja errado. A partir desta definição demonstre (8.84)

8.9) Em um sistema PSK-4 onde φ é a fase transmitida e φ a fase detetada sabe-se que a

probabilidade ),ˆ( βφαφ ==P é igual a 10-2 quando a fase detetada é vizinha da fase transmitida e 5 x 10-3 quando a fase detetada é a fase oposta à fase transmitida. Calcule a probabilidade de erro e a taxa de erro de bit obtida com os seguintes esquemas de codificação:

(I) (II)

BITS SÍMBOLOS 00 π/4 01 3π/4 11 5π/4 10 7π/4

BITS SÍMBOLOS 00 π/4 01 3π/4 10 5π/4 11 7π/4

Page 259: Princípios de Comunicações

258

8.10 Sabe-se que a relação entre a probabilidade de erro (de símbolo) e a taxa de erro (de bit) é dada, aproximadamente por (8.84) quando se usa a codificação de Gray e a razão sinal-ruído é alta. Verifique a precisão desta aproximação em um sistema PSK-4 com receptor ótimo para Eb/No = 0,5 e Eb/No = 2 8.11) Usando as expressões das Tabelas 8.1, 8.2 e 8.3, compare o desempenho dos sistemas de transmissão digital analisados ao longo deste capítulo (exceto o ASK on-off não coerente) em termos da razão Eb/N0 (em dB) necessária para obter uma taxa de erro de bit mínima de 10-4 em canal perturbado por ruído aditivo Gaussiano branco. 8.12 Uma transmissão digital deve ser feita com modulador PSK-4 operando com receptor ótimo, sem interferência entre símbolos, com taxa de erro de bit desejada igual a 10-4

em canal com ruído aditivo branco Gaussiano com densidade espectral de potência igual a 10-12 W/Hz. (a) determine a largura de faixa mínima do canal e a potência necessária na entrada do receptor para transmitir a uma taxa de 64 kbit/s; (b) com os valores calculados no item (a), determine a máxima taxa de bits teoricamente possível para transmissão com probabilidade de erro arbitrariamente pequena. 8.13 Repita o exercício 8.12 considerando que o pulso de transmissão e a resposta do filtro de recepção tem espectro do tipo cosseno levantado com fator de roll-off igual a 0,5. 8.14 Considere o mesmo sistema de transmissão digital definido no exercício anterior (modulador PSK-4 com receptor ótimo, sem interferência entre símbolos, com taxa de erro de bit desejada igual a 10-4

em canal com ruído branco Gaussiano com densidade espectral de potência igual a 10-12 W/Hz). Suponha agora que a largura de faixa disponível para a transmissão é fixada em 32 kHz e a potência do sinal no receptor em -30 dBm. Considere ainda que, opcionalmente, pode-se empregar um código corretor de erro de taxa ¾ e ganho 4 dB. (a) Determine a máxima taxa de bits que pode ser transmitida. (b) Para a taxa obtida, determine a faixa efetivamente utilizada e a taxa de erro com que o sistema vai operar. 8.15 Repita o Exercício 8.14 considerando um sistema QAM-16. 8.16 Repita o Exercício 8.15 supondo que o código corretor de erro utilizado tem Ganho de 5 dB e taxa igual a ½.