pe. pedro m. guimarães ferreira s.j. departamento de ... lineares/meu curso de... · 4 h() (...

Post on 11-Jan-2019

215 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

Curso de Sistemas Lineares ELE-2732 Pe. Pedro M. Guimarães Ferreira S.J. Departamento de Engenharia Elétrica, PUC-Rio http://www.fplf.org.br/pedro_varios/

2

3

Observações: 1. Outros textos mais modernos, com métodos de ataque do problema diversos, principalmente o segundo, mas não necessariamente melhores textos: M. Green and D. J. N. Limebeer, Linear Robust Control, Prentice Hall, 1995; J. Willem Polderman and Jan C. Willems, Introduction to Mathematical System Theory: a Behavioral Approach, Springer, 1998. 2. Relembrando a dedução da expressão da matriz de transferência: Sejam ˆ( )x s , ˆ( )u s e ˆ( )y s as transformadas de Laplace de x(t), u(t) e y(t), respectivamente. Então de (1a), temos

ˆ ˆ ˆ( ) (0) ( ) ( )sx s x Ax s Bu s− = + . Com condição inicial x(0) = 0, temos

1ˆ ˆ( ) ( ) ( )x s sI A Bu s−= − , e portanto, 1ˆ ˆ( ) ( ( ) ) ( )y s C sI A B D u s−= − + , donde

4

1( ) ( )H s C sI A B D−= − + , que é, por definição, a relação entre as transformadas de Laplace da resposta y(t) e da entrada u(t) do sistema com condições iniciais do estado nulas. Observação à página seguinte: Aparece um bloco de zeros em B se o sistema não for controlável. Com efeito, seja

cP a matriz de controlabilidade do sistema ( , ,A B C ,0). Então é fácil verificar que

cP = 1

1 1 1 1, ,....0,0,..............0

nB AB A B−⎡ ⎤⎢ ⎥⎣ ⎦

; donde que é claro que Posto( cP ) < n = dim( A ).

5

6

7

8

Seja o exemplo referente ao Lema acima:

9

1 20 2

A−⎡ ⎤

= ⎢ ⎥−⎣ ⎦,

11

B⎡ ⎤

= ⎢ ⎥⎣ ⎦

, [ ]0 1C = ; é claro que os auto-valores de A são -1 e -2.

Vejamos seus auto-vetores à esquerda associados a estes auto-valores. Com o auto-valor -1, temos: 1 1q A q= −

[ ] [ ]11 12 11 12

1 20 2

q q q q−⎡ ⎤

∴ = − −⎢ ⎥−⎣ ⎦[ ] [ ]11 11 12 11 12 12 112 2 2q q q q q q q∴ − − = − − ∴ = ,

ou seja, [ ]1 1 2q a= , sendo a um número real qualquer diferente de zero. Para o segundo auto - valor, temos o segundo auto - vetor satisfazendo a

2 22q A q= − [ ] [ ]21 22 21 22

1 22 2

0 2q q q q

−⎡ ⎤∴ = − −⎢ ⎥−⎣ ⎦

[ ] [ ]21 21 22 21 222 2 2 2q q q q q∴ − − = − − , o que implica que 21q = 0, 22q qualquer; ou

seja, [ ]2 0 1q b= , sendo b um número real qualquer diferente de zero. Vamos agora usar o primeiro teste PBH do auto-vetor; sem perda de generalidade , fazemos a = b = 1.

[ ]1

11 2 3 0

1q B

⎡ ⎤= = ≠⎢ ⎥

⎣ ⎦, [ ]2

10 1 1 0

1q B

⎡ ⎤= = ≠⎢ ⎥

⎣ ⎦. Portanto o sistema é controlável.

Vamos agora calcular os auto-vetores à direita para verificar a observablidade: 11 11

1 112 12

1 20 2

q qAq q

q q− ⎡ ⎤ ⎡ ⎤⎡ ⎤

= − ∴ = −⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦; da segunda equação, temos 12q = 0 e da

primeira, temos 11q qualquer. Ou seja, 1

10

q⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Usando o segundo auto-valor,

temos

2 22Aq q= − ; obtem-se facilmente 2

21

q−⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Ora, [ ]1

10 1

0Cq

⎡ ⎤= ⎢ ⎥

⎣ ⎦ = 0. Portanto o

sistema não é observável.

10

11

Seja de novo o mesmo exemplo da página 8 (numeração ao lado direito embaixo):

[ ] 1 2 10 2 1

ssI A B

s+ −⎡ ⎤

− = ⎢ ⎥+⎣ ⎦. É claro que o posto desta matriz é cheio para todo s

que não seja auto-valor da matriz A. Portanto, para aplicar o critério PBH do posto,

basta examinar o posto para s = -1 e s = -2. Para s = -1 temos 0 2 10 1 1

−⎡ ⎤⎢ ⎥⎣ ⎦

, cujo

posto é cheio. Para s = -2, temos 1 2 1

0 0 1− −⎡ ⎤

⎢ ⎥⎣ ⎦

, cujo posto também é cheio. Portanto

o sistema é controlável. Por outro lado, 1 2

0 20 1

ssI A

sC

+ −⎡ ⎤−⎡ ⎤ ⎢ ⎥= +⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦

. Para s = -1, temos

0 20 10 1

−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

, cujo posto é igual a 1 e portanto o sistemas não é observável.

******************* Problema dado em ano anterior: 1ª. Seja o sistema

0 1 2 1 0

( ) 1 1 3 ( ) 1 1 ( )1 0 1 0 1

x t x t u t⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥= − +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

, 1 1 1 1 1

( ) ( ) ( )0 1 1 2 1

y t x t u t− −⎡ ⎤ ⎡ ⎤

= +⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

Este sistema é controlável? É observável? ********************** Segue fato importante, dado usualmente nos bons cursos de graduação em sistemas lineares: Teorema do posicionamento arbitrário dos auto-valores através de realimentação do estado: Seja ( ) ( ) ( )x t Ax t Bu t= + , u(t) = -Kx(t) ( ) ( ) ( )x t A BK x t∴ = − . Então é possível posicionar arbitrariamente os auto-valores de A BK− através de K apropriado se só se o sistema (A, B) for controlável. (Observe-se que os auto-valores complexos têm que existir em pares conjugados).

Seja 2

2

1( )2 1

sH ss s

−=

− +. Ora, esta fatoração não é irredutível porque

2

2 2

1 ( 1)( 1) 12 1 ( 1) 1

s s s ss s s s

− − + += =

− + − −. Esta última fatoração, por sua vez, é claramente

irredutível, porque não é possível cancelamento ulterior entre fatores do numerador e do denominador, pois eles são coprimos.

12

13

Sejam 3 5 1

( )2 1 1s s

N ss s+ −⎡ ⎤

= ⎢ ⎥− −⎣ ⎦,

2 2

2 2

2 2 1 2 1( )

2 6 4 2s s s s

D ss s s s

⎡ ⎤+ − − += ⎢ ⎥+ + + −⎣ ⎦

. Estas matrizes

admitem um d.c.d., a saber, 1 1

( )2 0

s sW s

s+ −⎡ ⎤

= ⎢ ⎥+⎣ ⎦. Com efeito, com

1 21 1

N⎡ ⎤

= ⎢ ⎥−⎣ ⎦,

1( )

2 1s s

D ss s

+⎡ ⎤= ⎢ ⎥+ +⎣ ⎦

, obtém-se ( ) ( )N s NW s= e ( ) ( ) ( )D s D s W s=

14

15

16

Denominemos “Definição 1” de fatoração irredutível à da página 8 (numeração ao alto da página) e “Definição 2” à da página 10 (ao alto da página). Vamos provar que as duas definições são equivalentes:

17

Com efeito, suponha que a Definição 1 seja satisfeita e que a Definição 2 não seja satisfeita para um dado par de matrizes polinomiais N(s) e D(s) com o mesmo número de colunas. Se a Definição 2 não for satisfeita, então N(s) e D(s) não são c.d. e de acordo com a definição ao fim da página 9, existem ( )N s e ( )D s tais que

1 1( ) ( ) ( ) ( )N s D s N s D s− −= , com ( ) ( )( ) ( )gr D s gr D s< , contradizendo a hipótese que

a Definição 1 seja satisfeita. Suponha agora, ao revés, que a Definição 2 seja satisfeita e a outra, não. Se a Definição 1 não for satisfeita, então ( )( )gr D s não é mínimo. Extraiamos um m.d.c.d

de N(s) e D(s), obtendo 1 1( ) ( ) ( ) ( )N s D s N s D s− −= . Mas então, usando a Definição ao final da página 9, N(s) e D(s) não são c.d., contrariando a hipótese que a Definição 2 seja satisfeita. ******************** Omitindo o argumento s, seja uma fatoração 1D N− . Seja W1 um divisor comum à esquerda (d.c.e.) de D e N . Então existem matrizes polinomiais 1D e 1N tais que

1 1D W D= e N = 1 1W N . Então, 1D N− = 11 1( )W D −

1 1W N = 11 1D N− . Se W1 for um

m.d.c.e. de D e N , então 1D e 1N são c.e. Se W1 for d.c.e., mas não for m.d.c.e. de D e N e se W for um m.d.c.e. de D e N , então existe uma matriz polinomial R tal que W = W1R, ou seja, todo d.c.e. é um d.e. do m.d.c.e. Fato (dual do final da pág. 10 numerada em cima): Sejam as matrizes polinomiais D e N , sendo D quadrada. Seja W um m.d.c.e. de D e N . Seja U uma matriz unimodular com as dimensões de D . Então WU também é um m.d.c.e. de D e N . Prova: Por hipótese, existem matrizes polinomiais 1D e 1N tais que 1D WD= e

1N WN= , ou seja, 1W D− e 1W N− são matrizes polinomiais. Ora, então, 1 1 1( )WU D U W D− − −= é uma matriz polinomial, porque 1U − o é. E, pelo mesmo raciocínio, 1( )WU N− também é uma matriz polinomial. Consequentemente WU é um d.c.e. de D e N . Mas ( ) ( ) ( ) ( )gr WU gr W gr U gr W= + = , porque

U é unimodular. Donde se conclui que WU é um m.d.c.e. de D e N .

18

19

Prova do primeiro lema acima:

20

Efetivamente, se N NW= e D DW= , sendo W um m.d.c.d. de N e D, podemos escrever 1N NU UW−= e 1D DU UW−= , onde U é unimodular; donde se vê que UW é um d.c.d. de N e D. Mas como ( ) ( )gr UW gr W= , concluímos a prova. ********************** Corolário (dual do final da página 12, numerada em cima): D e N são c.e. se só se todo m.d.c.e. das duas for unimodular.

21

22

23

obtemos

24

2

1 2 1 11 2 1 2 0 1

s s ss s s s

⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + − +⎣ ⎦ ⎣ ⎦ ⎣ ⎦

25

Forma de Hermite Denotemos por ~(r) a equivalência entre duas matrizes no sentido de multiplicação por matriz unimodular à esquerda (ou seja, operação sobre linhas) e por ~(c) a equivalência que resulta da multiplicação à direita. Temos o seguinte exemplo do cálculo da forma de Hermite de uma matriz:

22 2 2

2

3 2 11 1 0~ ( ) ~ ( ) 21 2 1 2 3 1 2 3 1

s ss s s s s s s sr rs s s s s

⎡ ⎤− −⎡ ⎤ ⎡ ⎤− − + − − + − + +⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − + + − +⎣ ⎦ ⎣ ⎦ − +⎢ ⎥⎣ ⎦

=

22

22

3 11 1 3 11 0 10 22~ ( ) ~ ( ) ~ ( ) 223 1 1 0 12 3 1 1 0

2 2

ss ssr r r

s s ss

− −⎡ ⎤ ⎡ ⎤− − −⎡ ⎤− ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− − −⎢ ⎥ ⎢ ⎥ −− +⎢ ⎥ ⎣ ⎦⎣ ⎦ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

.

26

27

28

29

30

31

32

Como se calculam X e Y em (1) da identidade de Bezout? Sendo N e D c.d. , existe matriz unimodular U tal que

33

DU I

N⎡ ⎤

=⎢ ⎥⎣ ⎦

, sendo claro que I é um m.d.c.d. de D e N. Ou seja, temos

11 12

21 22 0U U D IU U N

⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦⎣ ⎦∴ 11 12U D U N I+ = .Portanto a identidade de Bezout é satisfeita

com X = U12 e Y = U11. Quanto à identidade dual da página anterior, isto é, NX DY I+ = , o cálculo de X e Y é feito de maneira óbvia, análoga ao cálculo de X e Y explicado acima e na próxima página. Ou seja,

[ ]11 12

21 22

0V V

D N IV V

⎡ ⎤⎡ ⎤ =⎢ ⎥⎣ ⎦

⎣ ⎦; então X = 21V e Y = 11V . Portanto, analogamente ao

mostrado na próxima página, trabalha-se com 00

D NI

I

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

; opera-se sobre as colunas

desta matriz, obtendo-se 00

D NI

I

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

11 12

21 22

V VV V

⎡ ⎤⎢ ⎥⎣ ⎦

= 11 12

21 22

0IV VV V

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

.

34

Exemplo: Calcular o m.d.c.d. das matrizes D(s) e N(s) dadas abaixo i) Primeiro método: operando sempre sobre linhas, temos:

35

2 2 2

2 2

1 1 0 1 02 1 ~ ( ) 2 1 2 2 11 1 1 1 1 1

s s s s s sD

s s r s s s s sN

s s s

⎡ ⎤ ⎡ ⎤− − − + −⎡ ⎤⎡ ⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥= + + + − + = − + +⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦⎣ ⎦ ⎣ ⎦

2

1 1~ ( ) 2 2 1

1 0

sr s s

s

−⎡ ⎤⎢ ⎥− + +⎢ ⎥⎢ ⎥−⎣ ⎦

2 2

1 1 1 0~ ( ) 2 2 1 ~ ( ) 2 2 0

0 1 0 1

s sr s s r s s

− −⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− + + − + +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦

1 0 1 0 0 0~ 2 0 ~ 3 0 ~ 1 0

0 1 0 1 0 1

s ss

− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥+⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦ ⎣ ⎦

, ou seja, o m.d.c.d. é unimodular e portanto N e

D são c.d.

ii) Segundo método: os menores de ordem máxima de DN

⎡ ⎤⎢ ⎥⎣ ⎦

são

23 2 2 3

11

1 2 3 1 : ( )2 1

s ss s s s s s s p s

s s−

= + − − − − = − − =+ +

,

22 2

21

1 1 : ( )1 1

s ss s s s p s

s−

= − − + = − =−

,

2 23

2 12 1 3 : ( )

1 1s s

s s s s p ss+ +

= + − + = − + + =−

.

Ora, a única raiz de p2(s) é 1. Mas p1(1) = -3 e p3(1) = 3. Portanto os 3 menores de

ordem máxima são coprimos e, conseqüentemente, DN

⎡ ⎤⎢ ⎥⎣ ⎦

tem posto cheio para todo s,

concluindo-se que N e D são c.d. ******************* Problema dado em ano anterior:

2ª. Seja o sistema dado pela sua matriz de transferência 1 1( )( 1)

T

H ss s s

⎡ ⎤= ⎢ ⎥+⎣ ⎦

.

a) Achar uma fatoração coprima à esquerda ( )H s = 1( ) ( )D s N s− ; b) Achar ( )X s e ( )Y s tais que ( ) ( ) ( ) ( )N s X s D s Y s I+ = Teorema (Identidade generalizada de Bezout):

36

Seja 1 1( ) ( ) ( ) ( ) ( ),H s N s D s D s N s− −= = onde ( )N s e ( )D s são c.d., enquanto que ( )D s e ( )N s são c.e. Então existem matrizes polinomiais ( ), ( ), ( )X s Y s X s e ( )Y s

tais que 0( ) ( )( ) ( )

0( ) ( )( ) ( )m

p

IN s Y sX s Y sID s X sD s N s

− ⎡ ⎤⎡ ⎤− ⎡ ⎤= ⎢ ⎥⎢ ⎥ ⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦ (1)

0( ) ( ) ( ) ( )

0( ) ( ) ( ) ( )p

m

IN s Y s X s Y sID s X s D s N s

− ⎡ ⎤ ⎡ ⎤−⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦ ⎣ ⎦⎣ ⎦ (2)

Prova: ver três páginas adiante.

Antes da prova, vejamos um exemplo: Seja 1 1( )1

H ss s

⎡ ⎤= ⎢ ⎥+⎣ ⎦. Calcular os elementos

das identidades generalizadas de Bezout: (1) e (2) (numeração acima).

Solução: 1 11s s

⎡ ⎤⎢ ⎥+⎣ ⎦

= [1 1]10

0 1s

s

−⎡ ⎤⎢ ⎥+⎣ ⎦

=: 1ND− . É fácil verificar que N e D são

c.d., satisfazendo ao critério que o posto de DN

⎡ ⎤⎢ ⎥⎣ ⎦

é máximo (igual a 2) para todo s

complexo.

Por outro lado, [ ]1( ) 1( 1)

H s s ss s

= ++

=: 1D N− . Aplicando-se o critério do posto,

verifica-se imediatamente que D e N são c.e. Vamos agora calcular X e Y ; observe-se que, como foi visto, se

1 2

3 4 0U U D IU U N

⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦⎣ ⎦, então, 1 2 1 2

3 4 3 4

000

U U I U UD IU U U UN I

⎡ ⎤ ⎡ ⎤⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥

⎣ ⎦⎣ ⎦ ⎣ ⎦; então vamos

aplicar operações elementares sobre as linhas de 0

0D IN I

⎡ ⎤⎢ ⎥⎣ ⎦

:

0 1 0 0 1 1 0 0 10 1 0 1 0 ~ ( ) 0 1 0 1 01 1 0 0 1 0 1 0 0

ss r s

s

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥+ +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

1 1 0 0 1~ ( ) 0 1 0 1 0

0 1 0r s

s s

⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥− −⎣ ⎦

~ ( )r

1 1 0 0 10 1 0 1 00 1 1 1

ss

⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥−⎣ ⎦

~(r) 1 1 0 0 10 1 1 10 1 0 1 0

ss

⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥+⎣ ⎦

~(r) 1 1 0 0 10 1 1 10 0 ( 1) ( 1)

ss s s s

⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥− + − +⎣ ⎦

~(r) 1 0 1 1 10 1 1 10 0 ( 1) ( 1)

ss

s s s s

− − +⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥− + − +⎣ ⎦

; donde se vê que 2

1sX U

s+⎡ ⎤

= = ⎢ ⎥−⎣ ⎦,

1

1 11 1

Y U− −⎡ ⎤

= = ⎢ ⎥⎣ ⎦

. É sempre bom conferir, porque são comuns os erros de distração

em operações elementares. Efetuando, obtém-se efetivamente: XN YD I+ = .

37

Agora vamos calcular X e Y tais que NX YD I+ = pelo mesmo método (mas dual): ( 1) 1 1 ( 1) 1 0

1 0 0 0 0 1 0 0 1~ ( ) ~ ( )

0 1 0 0 1 0 0 1 00 0 1 1 0 0 1 0 1

s s s s s s s s s s

c c

s

+ + + + +⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦

~(c)

1 0 1 00 0 1 0 0 1

~ ( )0 1 0 1 0 01 1 1 1 1 1

s s

c

s s

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− − − − − −⎣ ⎦ ⎣ ⎦

; donde se conclui que 11

X⎡ ⎤

= ⎢ ⎥−⎣ ⎦, Y = 0.

Ora, é fácil verificar, confirmando, que [ ]0 0ND DN− = ; por outro lado, temos:

01 1 1 0

11 1 0

1

sYX Y

sX

⎡ ⎤+ − −⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥⎡ ⎤ = =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎢ ⎥−⎣ ⎦

; então, temos, concluindo: X X= eY Y= .

Ou seja, acabamos de calcular todas as variáveis que aparecem nas identidades generalizadas de Bezout, (1) e (2), duas páginas acima.

38

39

40

41

42

43

44

Dualmente, uma matriz polinomial pode ser escrita da seguinte maneira:

( ) ( ) ( )hrD s S s D L s= + ,

45

onde S(s) é uma matriz diagonal e Dhr , uma matriz de números reais, é formada com os coeficientes de mais alto grau de cada linha de S(s). Utilizando o mesmo exemplo da página 29 (numeração de cima), temos

3 3

2 2

2 1 0 20 0( )

1 1 1 0 1 10 0s s s ss s

D ss ss s

+ +⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤= + = +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦

.

Temos o fato dual do da página anterior: Fato: Uma matriz polinomial quadrada e não singular é linha-reduzida se só se Dhr for não singular. E temos também o teorema dual do da página anterior: Teorema: Seja 1( ) ( ) ( )H s D s N s−= . Suponha que ( )D s seja linha-reduzida. Então ( )H s é própria (estritamente própria) se só se o grau de cada linha de ( )N s for igual ou menor (estritamente menor) do que o grau da respectiva linha de ( )D s .

46

47

48

49

50

51

52

53

Exemplo: Vamos calcular a forma de Smith executando operações elementares da seguinte matriz:

1 21 1

s s ss s

− −⎡ ⎤⎢ ⎥+⎣ ⎦

. Como convencionado, representaremos por ~(r) as operações

elementares sobre linhas e por ~(c) aquelas sobre colunas. Então, temos

~(r) 1 1

1 2s s

s s s+⎡ ⎤

⎢ ⎥− −⎣ ⎦ ~(r) 2 2

1 10 1 2

s ss s s s s

+⎡ ⎤⎢ ⎥− + − − +⎣ ⎦

=

2 2

1 10 1 2 2

s ss s s s

+⎡ ⎤⎢ ⎥− + + − + −⎣ ⎦

~(c) 2 2

1 0 00 1 2 2s s s s

⎡ ⎤⎢ ⎥− + + − + −⎣ ⎦

~(c)

2

1 0 00 1 3s s s

⎡ ⎤⎢ ⎥− + + −⎣ ⎦

~(c) 1 0 00 2 1 3s s

⎡ ⎤⎢ ⎥− + −⎣ ⎦

~(c) 1 0 00 5 3s

⎡ ⎤⎢ ⎥− −⎣ ⎦

~(c)

1 0 00 5 0

⎡ ⎤⎢ ⎥−⎣ ⎦

~ (c) 1 0 00 1 0

⎡ ⎤⎢ ⎥⎣ ⎦

54

55

Temos o dual do Corolário acima:

56

Corolário: Sejam D (s) e N (s) matrizes polinomiais com o mesmo número de linhas e suponha que ( ) ( )D s N s⎡ ⎤⎣ ⎦ tenha o posto normal cheio e igual ao número de

linhas. Então D (s) e N (s) são c.e. se só se a forma de Smith de ( ) ( )D s N s⎡ ⎤⎣ ⎦

for [ ]0I .

(Somente se): (Esta parte da prova foi apresentada por ex-aluno, Gustavo Ayres de Castro): Sejam U e V unimodulares e tais que 1 1P UQV Q U PV− −= ∴ = . Sejam PU e PV e tais que P P PS U PV= = forma de Smith de P. Ora, P P PS U PV= =

1 1P PU UU PV VV− − = P PU UQVV , o que mostra que PS é também a (única) forma de

Smith de Q. A seguir temos o seguinte: Fato: Sejam N(s) e D(s) matrizes polinomiais com o mesmo número de colunas, sendo D(s) quadrada e não singular. Então...(continua na página seguinte, isto é pg. 44 numeração superior)

57

58

Exemplo relativo ao teorema anterior:

59

Sejam 2( ) 1N s s s⎡ ⎤= +⎣ ⎦ e 1 1

( )0

sD s

s−⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Calcular o “quociente” Q(s) e o

“resto” R(s) da divisão de ( )N s por ( )D s . Solução: em vista das dimensões de ( )N s e ( )D s , trata-se claramente de divisão à

direita. Ora, 1 11( )0 1s s

D ss

− −⎡ ⎤= ⎢ ⎥

⎣ ⎦1( ) ( ) ( )H s N s D s−∴ = = 3 3 21 1s s s s

s⎡ ⎤− + + +⎣ ⎦ =

[ ]2 2 1 0 1/s s s s⎡ ⎤− + + +⎣ ⎦ . Donde, Q(s) = 2 2 1s s s⎡ ⎤− + +⎣ ⎦ e

R(s) = [ ]0 1/ s1 10

ss−⎡ ⎤

⎢ ⎥⎣ ⎦

= [0 1].

É sempre bom conferir. Obtém-se de fato Q(s) ( )D s + R(s) = 2 1s s⎡ ⎤+⎣ ⎦ = ( )N s .

60

61

62

63

Dual do teorema da pg. 47 (numeração de cima):

64

Teorema: Seja H(s) uma matriz racional estritamente própria, com a fatoração à esquerda

1( ) ( ) ( )H s D s N s−= . Seja (A, B, C) uma realização de H(s), com ( )grau D s grau sI A= − . Então (A, B, C) é uma realização mínima se só se ( )D s e

( )N s forem c.e. (ou seja, 1( ) ( )D s N s− for fatoração irredutível).

65

66

Solução do exemplo acima:

67

2 2 21

2 22 2

( 1) ( 1) 1( ) : ( ) ( )( 1)1 ( 1)

s s s sH s N s d s

s ss s s−⎡ ⎤+ −

= =⎢ ⎥ −− −⎣ ⎦. Ora, o m.d.c. dos elementos de

( )N s é igual a 1, enquanto que o determinante de ( )N s é ( )2 3 2( 1) ( 1) 1s s s s s− + − +

= ( )2 4 3 2( 1) 1s s s s s− + − + . Donde que a forma de Mac Millan procurada é :

2 2

4 3 2

1 0( 1)

( )10

s sM s

s s ss

⎡ ⎤⎢ ⎥−⎢ ⎥=⎢ ⎥+ − +⎢ ⎥⎣ ⎦

.

68

69

70

Exemplo:

71

2 2 2

2

1 0 0 0( 1)

1( ) 0 0 0( 1)

( 1)0 0 0

s ssH s

s ss

s

⎡ ⎤⎢ ⎥+⎢ ⎥

−⎢ ⎥= ⎢ ⎥+⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦

. Esta matriz já está na forma de Mac

Millan, pois seus numeradores e denominadores satisfazem às propriedades de divisibilidade correspondentes. E temos as fatorações coprimas:

12 2

2

( 1) 0 0 01 0 0 0

0 ( 1) 0 0( ) 0 1 0 0

0 0 00 0 ( 1) 0

0 0 0 1

s ss s

H s ss

s

−⎡ ⎤+

⎡ ⎤ ⎢ ⎥+⎢ ⎥ ⎢ ⎥= −⎢ ⎥ ⎢ ⎥⎢ ⎥− ⎢ ⎥⎣ ⎦

⎢ ⎥⎣ ⎦

=: 1( )( ) Rs sε −Ψ

=

12 2

2

( 1) 0 0 1 0 0 00 ( 1) 0 0 1 0 00 0 0 0 ( 1) 0

s ss s s

s s

−⎡ ⎤+ ⎡ ⎤⎢ ⎥ ⎢ ⎥+ −⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦⎣ ⎦

= : 1( )L s−Ψ ( )sε .

As listas de zeros e pólos são: {Zeros de H(s)} = {1, 1, 1}; {Pólos de H(s)} = {-1, -1, -1, 0, 0, 0, 0}.

72

73

74

Por outro lado a forma de Mac Millan de P(s) é

75

1 00 1

⎡ ⎤⎢ ⎥⎣ ⎦

, donde concluiríamos (erroneamente) que P(s) não tem zero ou pólo no

infinito.

76

77

78

Solução do exemplo acima:

79

21 01 1

2 1I A

λλ λ λ

λ−

− = = − ∴ = ±− +

e portanto o sistema é instável (um pólo no

semi-plano aberto da direita). Calculemos sua matriz de transferência: 1

1 1 1 1 0 0( ) ( )

1 2 2 1 1s

H s C SI A Bs

−− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤

= − = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− +⎣ ⎦ ⎣ ⎦ ⎣ ⎦2

1 1 1 0 011 2 2 1 11

sss

+⎡ ⎤ ⎡ ⎤ ⎡ ⎤= ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−−⎣ ⎦ ⎣ ⎦ ⎣ ⎦

1

2 2 1

1 1 0 1 ( 1)1 11 2 1 2( 1)1 1 2( 1)

s ss ss s s

− ⎡ ⎤+⎡ ⎤ ⎡ ⎤ ⎡ ⎤= = = ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− −− − +⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

.

Para saber se o sistema é BIBO, temos que verificar os pólos de H(s). E para calcular estes pólos, vamos achar a forma de Smith - MacMillan de H(s). (No caso acima, é evidente que o único pólo é -1, portanto o sistema é BIBO, mas vamos calcular a forma de MacMillan):

11 11 1( ) ( ) 12 01 1 0

H s r ss s

⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎢ ⎥= ≈ = +⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦

, confirmando o que foi dito acima. O sistema

é BIBO, mas não é AE. Portanto há cancelamento do auto-valor instável, ou seja, o sistema ou não é controlável, ou não é observável, ou não é nem uma coisa nem outra. No caso, o sistema não é controlável, como se pode ver pelo critério do posto:

[ ] 1 0 02 1 1

sPosto sI A B Posto

s−⎡ ⎤

− = ⎢ ⎥− +⎣ ⎦ = 1 para s = 1. (E é imediato verificar que

o sistema é observável, usando o mesmo critério).

80

81

82

Exemplo relativo a polinômio característico de matriz de transferência:

83

1 1

1 1

( 1) ( 1)( )

( 2)s s

H ss s

− −

− −

⎡ ⎤− += ⎢ ⎥+⎣ ⎦

. Vamos calcular seu polinômio característico pelos três

métodos indicados: 1. Forma de Smith – Mac Millan:

( 1)( 2) ( 1)( 2)1

( )( 1)( 1)( 2) ( 1)( 1)( 1)( 1)( 2)

s s s s s sH s

s s s s s ss s s s

+ + − +=

− + + − +− + +

⎡ ⎤⎢ ⎥⎣ ⎦

.

É fácil verificar que o m.d.c. mônico dos elementos da matriz polinomial acima é igual a 1. E o determinante da matriz é: 2 2 2 2( 1)( 1) ( 2) ( 1) ( 1)( 2)s s s s s s s s− + + − − + + = ( )( 1)( 1)( 2) ( 1) ( 1)( 2)s s s s s s s s− + + + − − + = ( 1)( 1)( 2)s s s s− + + , igual ao denominador acima de ( )H s . Então a forma de Mac Millan é

1 0( 1)( 1)( 2)( )

0 1s s s sM s

⎡ ⎤⎢ ⎥− + += ⎢ ⎥⎢ ⎥⎣ ⎦

. Portanto o polinômio característico de ( )H s é

( 1)( 1)( 2)s s s s− + + . 2. Pelo método das fatorações coprimas: Seja a fatoração à esquerda de ( )H s :

11( 1)( 1) 0 1 1

: ( ) ( )0 ( 2) 2

s s s sD s N s

s s s s

−−− + + −⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦. É imediato verificar, usando o

critério do posto, que ( )D s e ( )N s são coprimas à esquerda. Então o polinômio característico é o determinante de ( )D s , o qual é ( 1)( 1)( 2)s s s s− + + , conferindo com o primeiro método. 3. O m.m.c. dos denominadores dos elementos de ( )H s é ( 1)( 1)( 2)s s s s− + + , enquanto que o determinante de ( )H s (único menor de ordem 2) é:

1 1 ( 1) ( 1)( 2) 2( 1)( 2) ( 1) ( 1)( 1)( 2) ( 1)( 1)( 2)

s s s ss s s s s s s s s s s s

+ − − +− = =

− + + − + + − + +. E, portanto o

m.m.c. dos denominadores de todos os menores de ( )H s é, novamente, ( 1)( 1)( 2)s s s s− + + .

(Voltar ao final da pg. anterior)

84

85

86

87

Exemplo:

88

Seja 1( )( 1)

P ss

=−

e ( )C s K= , um número real. Existe K tal que o SMF seja

estável?

Solução: 1 1

1 1

(1 ) (1 )(1 ) 1 (1 )eu

PC PC PH

C PC C PC P

− −

− −

⎡ ⎤+ − += ⎢ ⎥+ − +⎣ ⎦

. Ora,

1(1 )PC −+ = 1 111

1

sK s K

s

−=

− ++−

; 1(1 )C PC −+ = ( 1)1

K ss K

−− +

; 1(1 )PC P−+ = 11s K− +

;

11 (1 )C PC P−− + = 1 - 1K

s K− += 1

1s

s K−

− +. Donde se vê que todas as 4 funções de

transferência serão BIBO (e portanto o SMF será estável) se só se K > 1.

89

90

91

92

Exemplo: Calcular o polinômio característico de um SMF padrão em que

93

1

1

( 1)( )

( 1)s

P ss

⎡ ⎤−= ⎢ ⎥+⎣ ⎦

e 1 1( ) ( 1)C s s s− −⎡ ⎤= +⎣ ⎦ .

Solução: Qual das fórmulas da re - definição acima escolheremos? É fácil verificar que a mais simples neste caso é 4 ( ) ( ) ( ) ( ) ( )C P C PD s D s D s N s N s= + . Efetivamente, é imediato verificar que ( ) ( 1)CD s s s= + e [ ]( ) 1CN s s s= + são c.e. pelo critério do

posto; 1

( )1P

sN s

s+⎡ ⎤

= ⎢ ⎥−⎣ ⎦ e ( ) ( 1)( 1)PD s s s= + − são c.d. pelo mesmo critério. Então

temos: [ ]24

1( ) ( ) ( ) ( ) ( ) ( 1) ( 1) 1

1C P C P

sD s D s D s N s N s s s s s s

s+⎡ ⎤

= + = + − + + ⎢ ⎥−⎣ ⎦ =

4 3 2 1s s s+ + + .

94

Exemplo: Seja o SMF padrão com

95

( )

1sP s

s=

+ e ( 3)( )

4sC s

s− +

=+

96

Solução: Aplicando o teorema que acaba de ser demonstrado, temos ( ) ( ) ( ) ( )C P C PD s D s N s N s+ = ( 1)( 4) ( 3) 2( 2)s s s s s+ + − + = + . Donde se conclui que o

SMF é estável, certo? Not quite!... Para aplicar o teorema, é preciso que a planta ou o compensador seja estritamente próprio, o que não é o caso neste exemplo. Efetivamente,

1 1

1( ) ( )e uH

P s C s= = ( 1)( 4)

2( 2)s s

s+ +

+, uma função imprópria, donde se conclui que o SMF

não é estável.

Exemplo: Seja o SMF padrão com 3 2

1( )2 1

sP ss s s

−=

+ + +, 2

2( )2 3

sC ss s

−=

+ +.

Solução: a planta sendo estritamente própria e o compensador próprio, podemos aplicar o teorema que acaba de ser demonstrado. Ora, efetuando, obtém-se:

( ) ( ) ( ) ( )C P C PD s D s N s N s+ = 5 4 3 23 7 9 5 5s s s s s+ + + + + . Temos que verificar se este polinômio é Hurwitz, isto é, se todas suas raízes estão no semi – plano aberto da esquerda. Armamos o tablóide: 3 9 5 0 01 7 5 0 00 3 9 5 00 1 7 5 00 0 3 9 5

De acordo com o critério de Hurwitz, os “menores principais” têm que ser todos positivos para que o polinômio seja Hurwitz .Ora, os ditos menores são: 3; 21 – 9 = 12;

3 9 51 7 50 3 9

= 189 + 15 – 45 – 81 > 0;

3 9 5 01 7 5 00 3 9 50 1 7 5

=

3 9 5 01 7 5 00 2 2 00 1 7 5

= 5(42+10-30-18) >

0. O “menor” de ordem 5 é igual ao anterior multiplicado por 5. Portanto o polinômio é Hurwitz e, conseqüentemente o SMF é estável.

97

98

Exemplo após o Corolário acima:

99

Verificar se o SMF padrão com 3 2

3( )1

sP ss s s

+=

+ − − e 1( )

4sC ss

−=

+ é estável.

Solução: Observa-se que: 2

3( )( 1)( 2 1)

sP ss s s

+=

− + + e portanto haverá cancelamento de

modo instável na malha, ou seja, o SMF não é estável.

100

101

102

103

104

105

106

107

1s λλ−

= , 11s

λ =+

. É fácil verificar que 1n λλ−⎛ ⎞

⎜ ⎟⎝ ⎠

e 1d λλ−⎛ ⎞

⎜ ⎟⎝ ⎠

são

necessariamente polinômios. Com efeito, suponha que o denominador da função racional seja um produto

1( 1)

nn

is

=+∏ . (Trataremos logo adiante do caso geral). Se a função racional é própria,

ela será produto de funções racionais do tipo 1

s as++

. Ora, substituindo-se s dado

acima, esta função se transforma em 1 1 ( 1)a aλλ λλ−⎛ ⎞+ = + −⎜ ⎟

⎝ ⎠, um polinômio. Por

outro lado, qualquer fator estritamente próprio de ( )n s é da forma 1

bs +

, que se

transforma em bλ .

Solução do exemplo da página anterior usando as transformações 1s λλ−

= e

11s

λ =+

:

2( )( 1)

sn ss

=+

, 1( )1

sd ss

−=

+. É imediato verificar que estas funções racionais são

coprimas, portanto existem ( )x s e ( )y s que resolvem a equação de Bezout. Ora,

21 1 (1 )n λ λλ λ λλ λ− −⎛ ⎞ ⎛ ⎞= = −⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠= 2λ λ− , 1 1 1 1 2d λ λλ λ

λ λ− −⎛ ⎞ ⎛ ⎞= − = −⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠. Para

achar ( )x s e ( )y s , aplicamos operações elementares em 1 1n dλ λλ λ

⎡ ⎤− −⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎢ ⎥⎝ ⎠ ⎝ ⎠⎣ ⎦

, de

modo a transformá-la em forma de Smith, aplicando simultaneamente as mesmas operações na matriz identidade:

2 1 21 00 1

λ λ λ⎡ ⎤− −⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

~(c)/ 2 1 21 0/ 2 1

λ λ

λ

−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦

~/ 2 1

( ) 1 4/ 2 1 2

λ λ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− −⎣ ⎦

~2

0 1( ) 2 1 4

1 2c λ

λ λ λ

⎡ ⎤⎢ ⎥− +⎢ ⎥⎢ ⎥− −⎣ ⎦

~2

1 0( ) 4 2 1

1 2c λ

λ λ λ

⎡ ⎤⎢ ⎥− +⎢ ⎥⎢ ⎥− −⎣ ⎦

. Por simples inspeção, se conclui x = 4, y(λ) = 1- 2λ .

É sempre bom conferir nx + dy = 1, com os valores obtidos de x e y , pois facilmente se erra em operações elementares. Finalmente, temos que substituir λ em

função de s , obtendo x = 4 , y(s) = 211s

−+

11

ss

−=

+.

Que fazer quando ( )n s e / ou ( )d s têm fatores diferentes de 1s + no denominador?

108

Multiplicamos ( )n s e / ou ( )d s por “unidades” apropriadas, de modo que só apareçam fatores da forma 1s + no respectivo denominador, conforme o exemplo a seguir.

109

Solução do exemplo acima usando as transformações

110

1s λλ−

= e 11s

λ =+

.

Neste exemplo não aparece s + 1 no denominador. O que se faz nestes casos é definir funções unidades (“units”) u(s) e v(s) tais que ( ) ( ) ( )n s n s u s= e ( ) ( ) ( )d s d s v s= só tenham s + 1 como fatores nos respectivos denominadores, como mostrado na página anterior. A seguir calculam-se ( )x s e ( )y s tais que ( ) ( ) ( ) ( ) 1n s x s d s y s+ = ; ou seja, substituindo, ( ) ( ) ( )n s n s u s= e ( ) ( ) ( )d s d s v s= , obtemos

( ) ( ) ( ) ( ) ( ) ( ) 1n s u s x s d s v s y s+ = . E é claro que então, ( ) ( ) ( )x s u s x s= e ( ) ( ) ( )y s v s y s= resolvem o problema.

No exemplo em questão, temos: 1 2 1( )

2 1 1sn s

s s s+

= =+ + +

, ou seja, 2( )1

su ss+

=+

; 3( )3 1 1

s s sd ss s s

+= =

+ + +, ou seja,

3( )1

sv ss

+=

+. Donde 1n λ λ

λ−⎛ ⎞ =⎜ ⎟

⎝ ⎠, 1 1 1d λ λ λ λ

λ λ− −⎛ ⎞ ⎛ ⎞= = −⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠; omitindo o

argumento, devemos ter (1 ) 1x yλ λ+ − = ; a solução desta equação sai por simples inspeção: x = y = 1. E, conseqüentemente,

2( )1

sx ss+

=+

, 3( )1

sy ss

+=

+.

111

Sejam duas matrizes N(s) e D(s) , ambas com m colunas. Então elas são c.d. se só

112

se

Posto +e

( )C

( )D s

m sN s

⎡ ⎤= ∀ ∈⎢ ⎥

⎣ ⎦.

Se duas matrizes ( )D s e ( )N s tiverem o mesmo número p de linhas, elas serão c.e. se só se Posto +e( ) ( ) CD s N s p s⎡ ⎤ = ∀ ∈⎣ ⎦ . Como se calcula uma fatoração coprima sobre as matrizes racionais próprias e estáveis? Passa-se para o domínio polinomial. Assim, por exemplo, suponhamos que queiramos achar uma fatoração c.e. sobre as matrizes próprias e estáveis de

1 1( )1

H ss s

⎡ ⎤= ⎢ ⎥−⎣ ⎦.

Ora, [ ] 2 22

1 1( ) 1 ( 1)( 1) ( 1)( 1) ( 1)( 1)

H s s s s s s ss s s s s

− −−

⎡ ⎤= − = − + +⎣ ⎦− − +=:

1( ) ( )D s N s− . Temos que achar um m.d.c.e. de ( )D s e ( )N s . Para isto, fazemos aqui a transformação

s = 1 λλ− . Então, 21 1 1 1D λ λ λ λ

λ λ λ− − −⎛ ⎞ ⎛ ⎞= −⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠= (1 )(1 2 )λ λ− − , enquanto que

1N λλ−⎛ ⎞

⎜ ⎟⎝ ⎠

= 2 21 11λ λλ λλ λ

⎡ ⎤− −⎛ ⎞ ⎛ ⎞−⎜ ⎟ ⎜ ⎟⎢ ⎥⎝ ⎠ ⎝ ⎠⎣ ⎦= [ ](1 2 ) (1 )λ λ λ λ− − . Para calcular o

m.d.c.e de D e N , fazemos operações elementares sobre as colunas de D N⎡ ⎤⎣ ⎦ de

modo a obter sua forma de Smith: D N⎡ ⎤⎣ ⎦ = [ ](1 )(1 2 ) (1 2 ) (1 )λ λ λ λ λ λ− − − −

= 2 2 21 3 2 2λ λ λ λ λ λ⎡ ⎤− + − −⎣ ⎦ ~ 2( ) 1c λ λ λ λ⎡ ⎤− − −⎣ ⎦ ~ 2( ) 1c λ λ λ⎡ ⎤− −⎣ ⎦

~ [ ]( ) 1 0 0c . Então o m.d.c.e. de ( )D s e ( )N s é 1, ou seja, ( )D s e ( )N s são c.e..

Mas se o m.d.c.e. fosse um polinômio L(λ), teríamos que pré-multiplicar 1D λλ−⎛ ⎞

⎜ ⎟⎝ ⎠

e

1N λλ−⎛ ⎞

⎜ ⎟⎝ ⎠

por 1( )L λ− e depois voltar para o domínio dos s.

113

114

115

O determinante da matriz acima é: 2 2

4 2 2 6

( 1) ( 2) 2 2 ( 1) ( 2)( 1) ( 1) ( 1) ( 1)

s s s s s s s ss s s s

⎛ ⎞− − − − −− =⎜ ⎟+ + + +⎝ ⎠

, chegando-se à expressão dada

116

acima, eliminando-se o coeficiente 2, uma vez que queremos sempre nos numeradores das formas de Smith e McMillan polinômios mônicos.

117

118

119

120

121

122

123

124

125

126

127

Vamos demonstrar que os determinantes das 4 matrizes do Teorema (25) são equivalentes, isto é, são iguais, a menos de multiplicação por funções racionais que são unidades em S.

128

Na realidade esta demonstração já foi feita com matrizes polinomiais: ver pp. 68 ss (numeração de cima). A demonstração que se segue é formalmente igual e apresentada de forma mais compacta.

1 1

1 1

00

C P CP P P PC P

C P PC C C C

D N DI N D I D ND D

N D DN D I D N I

− −

− −= =

− − − (1)

11 1

1

00

P P P PPC P P C C P

C C C CC

D N D NDD D D D D D

N D N DD

−− −

−= =

− −~ P P

C C

D NN D−

,

porque PD ~ PD e CD ~ CD , onde ~ significa equivalência unimodular, isto é, as duas funções racionais são iguais a menos de multiplicação por unidades (“units”). Portanto acabamos de provar a equivalência entre iv) e v). Por outro lado a última expressão de (1) acima é igual a

1

1 10P P

C PC C P P

I D ND D

I D N D N

− −+ = 1 1

C C P P C PI D N D N D D− −+ =

1 1C C P P C PI D N N D D D− −+

= 1 1

C C P C P P C PD D D N N D D D− −+ ~ C P C PD D N N+ , provando a equivalência de

iii) e iv). Finalmente, da primeira igualdade de (1), vem

1

1P P

C C

I N DN D I

−− C PD D = 1 1 1

0

C C P P C C

IN D I N D N D− − −− + C PD D =

1 1P P C C C PI N D N D D D− −+ = 1 1

P P C C C PI D N N D D D− −+ = 1

PD−

P C P CD D N N+ 1CD −

C PD D ~ P C P CD D N N+ , provando a equivalência de ii) e iv).

129

130

131

132

133

134

135

136

137

138

Exemplo:

139

Seja 1( )1

P ss

=−

. Achar o conjunto de todos os compensadores que estabilizam o

SMF.

Solução: 1 11 1 21

P λ λλλ λ

λ

−⎛ ⎞ = =⎜ ⎟ − −⎝ ⎠ −=: P

P

ND

(omitindo o argumento). O conjunto de

todos os compensadores que estabilizam o SMF é dado por

: M(S)P

P

X RDC RY RN

⎧ ⎫+= ∈⎨ ⎬−⎩ ⎭

.

Cálculo de X e Y: 1 0 1 0 1 2 1 1 2 1

~ ( ) ~ ( ) ~ ( )1 2 0 1 1 2 1 1 0 0 1 2

r r rλ λ

λ λ λ λ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

; donde se vê

que X = 2, Y = 1. E portanto, 22 1 ( )

2 (1 2 ) 2 2 ( 1) ( )111 1 ( )1 ( )

1

R sR s s R ssC

R s R sR ss

λλ

⎛ ⎞+ −⎜ ⎟+ − + + −+⎝ ⎠= = =− + −−

+

, onde M(S)R ∈ , de

resto qualquer. (Observe-se um pequeno abuso de notação: usamos o mesmo R com o argumento λ e com o argumento s). Com R = 0, por exemplo, temos C(s) = 2.

140

141

Definição: 0s +eC∈ é dito um zero de bloqueio de um sistema com matriz de transferência

( )P s se 0( ) 0P s = .

142

143

E o controlador PID? Sua função de transferência é imprópria. Ora, a maioria das plantas às quais se aplica a teoria de controles é estritamente própria e, como também é bem sabido, a maioria dos controladores industriais é PID!!! Vejamos este paradoxo com mais cuidado:

144

Um PID tem função de transferência 2

3 1 221 3( ) K s K s KKC s K K s

s s+ +

= + + = . Seja a

planta estritamente própria ( )( )( )

P

P

N sP sD s

= . Ora, do diagrama de blocos da página 90

(numeração de cima), a função de transferência entre o sinal que entra na planta, 2 ( )e s , e o sinal exógeno que afeta o compensador, 1( )u s , é

23 1 2

22 13 1 2

( )( )( ) ( )1 ( ) ( ) 1

( )P

P

e u

K s K s KC s sH s

K s K s K N sC s P ssD s

+ +

= =+ ++

+=

23 1 2

23 1 2

( ) ( )( ) ( ) ( )

P

P P

K s K s K D sK s K s K N s sD s

+ ++ + +

, que é uma função imprópria, ficando claro porque o

PID não estabiliza o SMF se a planta for estritamente própria. Mas volta a questão: como é que o PID é, de longe, o mais utilizado em aplicações industriais? Para responder a esta pergunta, observa-se que 1( )u s é, na maioria dos casos, uma função estritamente própria (um degrau, uma função senoidal, uma rampa...) e, também, com muita freqüência, o grau relativo da planta é 1, ou seja,

( ( )) ( ( ) 1gr D s gr N s− = . Nestes casos, 2 ( )e s será próprio, ou mesmo estritamente próprio (no caso de 1( )u s ser rampa, por exemplo). Outra razão é que, com freqüência, não é usado o PID propriamente dito, mas uma aproximação dele. Observe-se ainda que a função de transferência relevante do ponto de vista prático é aquela entre 2 ( )y s (a resposta da planta) e 1( )u s , a qual é fácil de calcular e igual a

23 1 2

22 13 1 2

( ) ( )( )( ) ( ) ( )

P

P Py u

K s K s K N sH sK s K s K N s sD s

+ +=

+ + +, a qual é sempre própria.

145

146

Antes da expressão (25) acima, temos:

147

1 ( )PP

P

adj DDD

− = ( )P P PD I adj D D∴ = = PD ( )Padj D

148

149

Exemplo:

150

1 11 1( )

101

s sP s

s

⎡ ⎤⎢ ⎥− += ⎢ ⎥⎢ ⎥⎢ ⎥+⎣ ⎦

. Achar o conjunto de todos os compensadores que têm zero de

bloqueio na origem (s = 0).

Solução: ( )P s =

11

1

1

( 1) ( 1)( 1)( 1)

0 ( 1)

s ss s

s

−−

⎡ ⎤++⎢ ⎥− +⎢ ⎥

⎢ ⎥+⎣ ⎦

= 11 1 1

1

( 1) ( 1) ( 1)( 1) 00 ( 1) 0 1

s s s ss

−− − −

⎡ ⎤ ⎡ ⎤+ + − +⎢ ⎥ ⎢ ⎥+⎣ ⎦ ⎣ ⎦

=: 1P PN D− (1)

= 11( 1)( 1) 0

0 1s s

−−⎡ ⎤− +⎢ ⎥⎣ ⎦

1 2

1

( 1) ( 1)( 1)0 ( 1)

s s ss

− −

⎡ ⎤+ − +⎢ ⎥+⎣ ⎦

=: 1PD−

PN . (2)

É fácil ver que as duas fatorações acima são coprimas. Ora, substituindo s em função

de λ, em (1), temos 11 2 01

0 0 1P

λ λ λλλλ

−−−=

⎡ ⎤ ⎡ ⎤⎛ ⎞⎜ ⎟ ⎢ ⎥ ⎢ ⎥⎝ ⎠ ⎣ ⎦ ⎣ ⎦

= 1P PN D− , abusando a notação (a

mesma de (1)). Para acharmos 0X e 0Y , apliquemos operações elementares sobre linhas:

1 0 0 00 0 0 1 0 0

0 1 2 0 0 0 1 00 1 0 0 0 1

P

P

N ID I

λ λλ

λ

⎡ ⎤⎢ ⎥⎡ ⎤ ⎢ ⎥=⎢ ⎥ ⎢ ⎥−⎣ ⎦⎢ ⎥⎣ ⎦

~(r)

0 1 0 00 0 0 1 0

1 2 0 0 0 1 00 1 0 0 0 1

λ λλ

λ

−⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦

~(r)

0 1 0 00 0 0 1 01 0 2 0 1 20 1 0 0 0 1

λ λλλ

−⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦

~(r)

20 0 1 2 0 20 0 0 1 01 0 2 0 1 20 1 0 0 0 1

λ λ λ λλλ

⎡ ⎤− − −⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎣ ⎦

, e passando as

duas últimas linhas para cima: ~(r) 2

1 0 2 0 1 20 1 0 0 0 10 0 1 2 0 20 0 0 1 0

λ

λ λ λ λλ

−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− − −⎢ ⎥−⎣ ⎦

.

Das duas primeiras linhas desta matriz temos:

0

2 00 0

X⎡ ⎤

= ⎢ ⎥⎣ ⎦

, 0

1 20 1

Yλ−⎡ ⎤

= ⎢ ⎥⎣ ⎦

= 11 2( 1)

0 1s −⎡ ⎤− +

⎢ ⎥⎣ ⎦

. (3)

(É sempre bom conferir a equação a ser resolvida, que neste caso é 0X PN + 0Y PD = I ). Seguindo o algoritmo da página 115 (numeração de cima), temos:

1( 1) 1f s s λ−= + = − ; de (24d) da página 114, temos 0PA D Bf X− + = . (4)

151

Ora, de (2) acima, temos PD = 1( 1)( 1)s s −− + = 1 2λ− . Portanto a equação (4) acima é

2 0(1 2 ) (1 )

0 0A Bλ λ

⎡ ⎤− − + − = ⎢ ⎥

⎣ ⎦. Ora esta equação tem solução imediata:

2 00 0

A⎡ ⎤

= ⎢ ⎥⎣ ⎦

, 4 00 0

B⎡ ⎤

= ⎢ ⎥⎣ ⎦

. Seja 10 0 0C CC D N−= a solução particular correspondente, isto

é,

0 0C PN X A D= + = 2 0 2 0

(1 2 )0 0 0 0

λ⎡ ⎤ ⎡ ⎤

+ −⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

= 14(1 ) 0 4 ( 1) 0

0 0 0 0s sλ −− ⎡ ⎤+⎡ ⎤

= ⎢ ⎥⎢ ⎥⎣ ⎦ ⎣ ⎦

. (5)

0 0 0C PD Y R N= − ; mas 0 1

2 0 1 0( )

0 0 0 ( 1)( 1)PR Aadj Ds s −

= =− +

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

e, portanto, usando

(3), temos 1 1 1

0 1 1

2 0 1 01 2( 1) ( 1) ( 1)( 1)0 0 0 ( 1)( 1)0 1 0 ( 1)C

s s s sD

s s s

− − −

− −

− + + − += −

− + +

⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦

; efetuando-

se, obtemos

0CD =1 1( 1)( 1) 2 ( 1)

0 1s s s s− −⎡ ⎤− + − +

⎢ ⎥⎣ ⎦

. (6)

E finalmente o conjunto de todos os compensadores com zero de bloqueio na origem é 1

0 0( ) ( )C P C PC D RN N RD−= − + , usando (5) e (6) acima e 1( 1)R s s R−= + , com M(S)R ∈ , de resto qualquer.

152

153

154

155

Exemplo: 1( )

( 2)( 3)sP s

s s−

=− −

.

156

Esta planta tem dois pólos entre dois zeros de bloqueio (1 e ∞), portanto é fortemente estabilizável. Vamos calcular um compensador estável que estabilize o SMF.

2

2

( )( 1)( 1)( ) :( 2)( 3)( 1) ( )

P

P

N ss sP ss s s D s

− += =

− − +, uma fatoração obviamente coprima.

1PN λ

λ−⎛ ⎞

⎜ ⎟⎝ ⎠

= 211 (1 2 )

λλ λ λ

λ−

= −⎛ ⎞−⎜ ⎟⎝ ⎠

;

21 1 12 3PD λ λ λ λλ λ λ− − −⎛ ⎞ ⎛ ⎞⎛ ⎞= − −⎜ ⎟ ⎜ ⎟⎜ ⎟

⎝ ⎠ ⎝ ⎠⎝ ⎠ = (4 1)(3 1)λ λ− − . Vamos calcular X e Y da

identidade de Bezout:

2

1 0 (1 2 ) 1 0 (1 2 ) 1 0~ ( )

0 1 12 7 1 0 1 1 6 1P

P

Nr

Dλ λ λ λ

λ λ λ− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤

=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + − +⎣ ⎦ ⎣ ⎦⎣ ⎦12 1 2

~ ( )1 6 1

rλ λ λ

λ− − + −⎡ ⎤

⎢ ⎥− +⎣ ⎦

12 1 2~ ( )

1 12 5 2 1r

λ λ λλ λ

− − + −⎡ ⎤⎢ ⎥+ +⎣ ⎦

2 20 12 7 1 2~ ( )

1 12 5 2 1r

λ λ λ λλ λ

⎡ ⎤− + −⎢ ⎥+ +⎣ ⎦

2 2

1 12 5 2 1~ ( )

0 12 7 1 2r

λ λλ λ λ λ

+ +⎡ ⎤⎢ ⎥− + −⎣ ⎦

.

Donde 12 5X λ= + = 5 171

ss

++

, 32 11

sYs

λ += + =

+.

P

P

X RDCY RN

+=

−; com R = 0, obtemos 5 17( )

3sC ss

+=

+, que é um compensador estável.

Calculando, obtemos o polinômio característico do SMF: 3( ) ( 1)p s s= +

157

158

159

160

161

Prova: Se 0 (S)P ∈M , então as equações de Bezout são satisfeitas com 0 0 0N N P= = ,

0D I= , 0D I= , 0 0X = , 0Y I= . Então, das expressões de A e B, temos:

162

1A D= , 0 1 1B P D N= − + . (3) Por outro lado, 1 1

1 0 1 1 0 1 0 1 1( )P P N D P N P D D− −− = − = − Comparando esta expressão com (3), a prova fica concluída em vista do teorema 2. Exemplo:

01( )

1P s

s=

−, 1

1( )2

P ss

=−

. Verificar se existe C(s) que estabilize as duas plantas.

Solução: 1

0 1

( 1)( )( 1)( 1)

sP ss s

+=

− +,

1

1 1

( 1)( )( 2)( 1)

sP ss s

+=

− +; donde 1

0 0 ( 1)N N s −= = + = λ

10 0 ( 1)( 1)D D s s −= = − + = 1 1 1 2λ λ λ

λ−⎛ ⎞− = −⎜ ⎟

⎝ ⎠, 1

1 ( 1)N s −= + , 11 ( 2)( 1)D s s −= − + .

Cálculo de 0X e 0Y

0

0

1 0 1 0 1 0 0 2 1~ ( ) ~ ( )

0 1 1 2 0 1 1 2 1 1 2 1N

r rD

λ λ λ λλ

− + −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦

1 2 1~ ( )

0 2 1r

λ λ⎡ ⎤⎢ ⎥− + −⎣ ⎦

. Donde 0X = 2 e 0Y = 1. E, portanto,

0 1 0 12 21 1 1

s sA Y D X Ns s s−

= + = + =+ + +

,

0 1 0 1 2

1 2 1 1 11 1 1 1 ( 1)

s sB N D D Ns s s s s

− −= − + = − + =

+ + + + + 1 1

( 1)BA

s s−∴ =

+, donde se vê

que 1BA− é fortemente estabilizável e, conseqüentemente, existe C(s) que estabiliza 0 ( )P s e 1( )P s . Calculemos um tal compensador:

B = 2λ , A = 1 – λ . Cálculo de ABX e ABY : 21 0 1 11 0

~ ( ) ~ ( )0 1 1 0 1 1 1 11 0 1

Br r

Aλ λ λ λλ

λ λλ⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤

= ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− +−⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦20 1

~ ( )1 1 1

rλ λ

λ⎡ ⎤− −⎢ ⎥+⎣ ⎦

2

1 1 1~ ( )

0 1r

λλ λ

+⎡ ⎤⎢ ⎥− −⎣ ⎦

; donde ABX = 1, ABY = 1λ + = 21

ss++

;

e portanto, 1 12AB AB

sR Y Xs

− += =

+; finalmente, o compensador que estabiliza as duas

plantas é:

0 0

0 0

1 12 2 4 12 1 31 1 2 112 1

s sX RD s ss sC sY RN s

s s

+ −++ + + −+ += = = =

+− + −−+ +

.

Efetivamente, é fácil ver que o problema tem solução com qualquer C real maior que 2.

163

164

165

166

167

168

169

170

171

Quanto a 21W , que é a matriz mais importante quando se trata de rastreamento, dado

21W no SMF com compensador de um parâmetro, para obter o mesmo 21W com compensador de dois parâmetros, é só fazer 1c PN X RD= + . Mas dado 21W com

172

compensador de dois parâmetros teríamos que ter 1P P c PN RD N N X= − 1

1( )P c P PN R N N X D−∴ = − , uma equação que não tem necessariamente solução para R. Seja o exemplo:

1( )1

P ss

=−

, donde 1( 1)PN s −= + = λ, 1( 1)( 1)PD s s −= − + = 1 - 2λ ;

ora, 1P PXN YD+ = , ou seja, (1 2 ) 1X Yλ λ+ − = ; é imediato ver que esta equação tem solução com X = 2, Y =1.

Mas, 211 1( ) ( )( )( ) 2 ( )

1 1P PsW s N s X RD s R s

s s−⎛ ⎞= + = +⎜ ⎟+ +⎝ ⎠

. (1)

Queremos o mesmo valor com compensador de 2 graus de liberdade, ou seja,

21 11( ) ( )

1 cW s N ss

=+

. Igualando esta com (1) acima, temos

1( )cN s - 2 = 1 ( )1

s R ss

−+

. É claro que esta equação tem solução em 1( )cN s para todo

( ) SR s ∈ . Mas a recíproca não é verdadeira: assim, por exemplo, se 1( )cN s for um número real diferente de 2, não existe ( )R s ∈ S que resolva o problema com compensador de 1 grau de liberdade.

173

174

175

Observação: Como resolver a equação (7) acima? Ou seja, dados , , ,P P rN D D X , como achar R e V tais que (7) seja satisfeita? No caso escalar, supondo que P PN D e rD sejam coprimos, a solução é fácil. Com efeito, sejam A e B ∈ S tais que

176

A P PN D + B rD =1; (7a)

façamos R = ( )1 PN X− A, V = ( )1 PN X− B. Substituindo estes no lado esquerdo de

(7), temos ( )1 PN X− A P PN D + ( )1 PN X− B rD = A P PN D - PN X A P PN D + B rD -

PN X B rD = A P PN D + B rD - PN X ( A P PN D + B rD ) = 1 PN X− , em vista de (7a), a última expressão sendo o lado direito de (7).

177

Observação: Nos dois teoremas acima, se a planta for estritamente própria, o que é muito comum, a condição PY RN− é automaticamente satisfeita, como já vimos.

178

179

(Observe-se que não daremos neste curso a solução de (12a) no caso multivariável. Mas no caso escalar, sim, cai-se em equação que já sabemos resolver). No caso multivariável , observe-se que V tem o mesmo número de linhas de PN . Como rD

180

também tem o mesmo número de linhas de PN e sendo rD quadrada, conclui-se que V também é quadrada. Então se rD for diagonal, com todos seus elementos iguais (o que não é incomum), temos V rD = rD V e a equação (12a) passa a ser

1 rP cN N D V I+ = , que sabemos resolver e terá solução se só se PN e rD forem c.e. Exemplo:

1( )3

P ss

=−

, ( ) Ar ss

= , sendo A um número real. Calcular um compensador de dois

parâmetros que resolva o problema do rastreamento assintótico.

Solução: 1

1

( )( 1)( ) :( 3)( 1) ( )

P

P

N ssP ss s D s

+= =

− +,

1

1

( 1)( )( 1)

A sr ss s

+=

+; donde, abusando a

notação, temos PN = λ, PD = 1 3 1 3λ λ λλ−⎛ ⎞− = −⎜ ⎟

⎝ ⎠. Cálculo de X e Y :

1 0 1 0 0 1 4 1 4 1~ ( ) ~ ( ) ~ ( )

1 4 0 1 1 4 1 1 4 1 0 1 4r r r

λ λ λ λλ λ λ

− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦

; donde

X = 4, Y = 1. Passemos à solução da equação 1 rP cN N VD I+ = :

rD = 1( 1)s s −+ = 1 – λ. Donde, 1 0 1 0 0 1 1 1 1

~ ( ) ~ ( ) ~ ( )1 0 1 1 1 1 1 1 1 0 1

r r rλ λ λ λ

λ λ λ− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤

⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦, e portanto,

1cN = V = 1. E a classe de todos os compensadores com dois parâmetros que resolvem

o problema é: 11( ) c P

P

C s N X RDY RN

⎡ ⎤= +⎣ ⎦− = 1 31 4 ( )1 11 ( )

1

s R ssR s

s

−⎡ ⎤+⎢ ⎥+⎣ ⎦−+

,

com ( )R s ∈S, de resto qualquer.

181

182

183

184

185

186

Agora suporemos que a planta esteja sujeita a perturbações, isto é, PN → PN + N∆ ,

P P DD D→ + ∆ , P P NN N→ + ∆ , P P DD D→ + ∆ . Suporemos estas perturbações

187

suficientemente pequenas no sentido que se o SMF nominal for estável, ele continua estável com estas perturbações.

188

189

190

(Início da prova, em cima da página): Seja 1 1

1 1 1: ( ) ( ) :P D P NP P D N D N− −→ = + ∆ + ∆ = . Como por hipótese a perturbação da planta não destrói a estabilidade do SMF, 1D e 1N são c.e.

191

192

193

194

Observe-se que se P não for “chata” ou quadrada, o problema não tem solução. Com efeito, se P é “magra”, PN também o será (com as mesmas dimensões) e, portanto, o posto de [ ]P RN Iα não é cheio para os valores de s que anulam Rα I. Exemplo:

195

1 1

1

( 1) ( 2)( )

0 ( 1)s s

P ss

− −

⎡ ⎤+ += ⎢ ⎥+⎣ ⎦

, 2

1/( )

1/s

r ss

⎡ ⎤= ⎢ ⎥

⎣ ⎦. Achar um compensador que resolva

robustamente o problema do rastreamento assintótico de ( )r t (abusando a notação). Solução: Antes de mais nada, vamos ver se o problema tem solução. Como

( )P s ∈M(S), temos (omitindo o argumento s), P = PN = PN , P PD D I= = . (Observe-se que se P não fosse quadrada, PD e PD teriam dimensões diferentes). É claro que Rα = 2 2( 1)s s −+ , e portanto,

1 1 2 2

1 2 2

( 1) ( 2) ( 1) 00 ( 1) 0 ( 1)p R

s s s sN I

s s sα

− − −

− −

⎡ ⎤+ + +⎡ ⎤ = ⎢ ⎥⎣ ⎦ + +⎣ ⎦

;

É claro que o posto da matriz acima é cheio para todo s ∈ +eC . 2 2 2 1

12

( 1) ( 1) ( 2)0 ( 1)R

s s s s sP P

s sα

− − −−

⎡ ⎤+ + +′ = = ⎢ ⎥+⎣ ⎦

.

E abusando a notação, 2 2

2 2 2

2

2

1 1 11(1 ) (1 ) 2

10(1 )

P

λ λλλ λ λ λ

λλ

λ λ

⎡ ⎤⎢ ⎥−− − ⎛ ⎞⎢ ⎥+⎜ ⎟′ = ⎢ ⎥⎝ ⎠⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦

=2 2

2

(1 ) (1 ) (1 )

0(1 )

λ λλ λ λ

λλ

⎡ ⎤⎢ ⎥− − +⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦

. Portanto,

temos que achar um compensador que estabilize esta “planta” P′ . Seja 1C CN D− uma

fatoração c.d. deste compensador e seja uma fatoração de P′ , calculada tomando o

m.m.c. dos denominadores de cada linha: 2

2

( 1) ( 1) 00 ( 1)PD

λ λλ

⎡ ⎤− +′ = ⎢ ⎥−⎣ ⎦

,

( 1)0PN

λ λ λλ

+⎡ ⎤′ = ⎢ ⎥⎣ ⎦

. Fica claro que se trata de fatoração c.e. quando se verifica o

posto de P PD N⎡ ⎤′ ′⎣ ⎦ . Vamos calcular CN e CD . Ora,

CP P

C

DD N I

N⎡ ⎤

⎡ ⎤′ ′ =⎢ ⎥⎣ ⎦⎣ ⎦

. Então, temos 11

22

00

0

P PC

CC

C

D N ID U

I D UN U

I N U

⎡ ⎤′ ′ ⎡ ⎤⎡ ⎤⎢ ⎥ ⎢ ⎥=⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦

Então, mãos à obra: 00

P PD NI

I

′ ′⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

=

3 2 2

2

1 00 2 1 01 0 0 00 1 0 00 0 1 00 0 0 1

λ λ λ λ λ λλ λ λ

⎡ ⎤− − + +⎢ ⎥− +⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

196

2

3 2 2

1 0 02 1

1 0 0 0~ ( )

0 1 0 00 0 1 00 0 1 1

c

λ λ λλ λ λ λ λ λ

λ

⎡ ⎤− − +⎢ ⎥− − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥

− −⎢ ⎥⎣ ⎦

3 2 2 2

1 0 02 1

1 0 0 0~ ( )

0 1 0 00 0 1 0

0 1 1

c

λ λλ λ λ λ λ λ λ

λ λ

− +⎡ ⎤⎢ ⎥− + − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥

− −⎣ ⎦

3 2 2 2

1 0 02 1

1 0 0 0~ ( )

0 1 0 00 0 1 0

1 0 1 1

c

λλ λ λ λ λ λ λ λ

λ λ

⎡ ⎤⎢ ⎥− + + − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥

+ − −⎣ ⎦

3 2 2 2 4 3 2

2

1 0 0 02 1

1 0 0~ ( )

0 1 0 00 0 1 0

1 0 1

c

λ λ λ λ λ λ λ λ λ λλ

λ λ λ λ

⎡ ⎤⎢ ⎥− + + − + − − − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥

+ − − − −⎣ ⎦

3 2 2 3 2

2

3 2

1 0 0 03 1 2

1 0 0~ ( )

0 1 0 00 1 1

1 1 1 2

c

λ λ λ λ λ λ λ λλ

λλ λ λ λ λ λ

⎡ ⎤⎢ ⎥− + + − + − − − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥

+ − − − − − − −⎣ ⎦

3 2 2 2

2

3

1 0 0 03 1

1 0 0~ ( )

0 1 0 00 1 1 2

1 1 1

c

λ λ λ λ λ λ λλ

λ λλ λ λ λ λ

⎡ ⎤⎢ ⎥− + + − + − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥−⎢ ⎥

+ − − − − − −⎣ ⎦

197

3 2 2

2 2

3 3

1 0 0 03 1

1 0~

0 1 0 00 1 1 2

1 1 2 1

λ λ λ λ λ λλ λ

λ λ λ λλ λ λ λ λ λ

⎡ ⎤⎢ ⎥− + + − + −⎢ ⎥⎢ ⎥− −⎢ ⎥⎢ ⎥⎢ ⎥− + −⎢ ⎥

+ − − − − − − −⎣ ⎦

3 2

3 2

3 2 2 2

3 2 3 3

1 0 0 00 1 0 0

3 ( ) 31

( )( 3 3 2) 3 3 2( )(3 5 2) 1 3 5 2

x xx xx xx x

λ λ λ λ λλ λ λ

λ λ λ λ λ λ λλ λ λ λ λ λ λ λ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− − + +⎢ ⎥− −⎢ ⎥⎢ ⎥− − − + − − + −⎢ ⎥

− − + + + + + +⎣ ⎦

, onde não precisamos

calcular os elementos da matriz indicados com x. Da última matriz acima, temos imediatamente:

3 2

3 2

3 ( ) 31CD

λ λ λ λ λλ λ λ

⎡ ⎤− − + += ⎢ ⎥− −⎣ ⎦

,

3 2 2 2

3 2 3 3

( )( 3 3 2) 3 3 2( )(3 5 2) 1 3 5 2CN

λ λ λ λ λ λ λλ λ λ λ λ λ λ λ

⎡ ⎤− − − + − − + −= ⎢ ⎥− − + + + + + +⎣ ⎦

.

Donde CN 1CD− = .....(bastante trabalhoso). Depois temos que substituir λ por seu

valor em s. E finalmente, 1 1( ) ( )C C RC s N D sα− −=

198

199

200

201

202

203

204

Exemplo:

205

1( )1

P ss

=+

, 2( ) As Br ss+

= , com A e B reais e arbitrários. Queremos achar

compensadores com 1 e 2 graus de liberdade que resolvem o problema do rastreamento assintótico robusto. Solução:

1( 1)N s −= + , 1D = , 2 2( 1)RrD s sα −= = + . Ora,

[ ] 1 2 2( ) ( ) ( 1) ( 1)RN s s s s sα − −⎡ ⎤= + +⎣ ⎦ tem posto cheio para todo s no semi - plano fechado da direita estendido, portanto ambos os problemas (com 1 e 2 graus de liberdade) têm solução. i) Vejamos primeiramente a solução do problema com compensador de 1 grau de liberdade:

2 11

2 2 2

( 1) 1 ( 1) ( )( ) ( ) :1 ( 1) ( )R

s s N sP s P ss s s s D s

α−

−−

′+ +′ = = = =′+ +

. Donde, abusando a notação,

N λ′ = , 2

2 21 2 1D λ λ λ λλ−⎛ ⎞′ = = − +⎜ ⎟

⎝ ⎠. Calculemos X ′ e Y ′ :

2

1 0 1 0 1 0~ ( )

0 1 2 1 0 1 2 1 1N

rD

λ λλ λ λ λ

′⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥′ − + − + −⎣ ⎦ ⎣ ⎦ ⎣ ⎦

1 0~ ( )

1 2 1r

λλ

⎡ ⎤⎢ ⎥− +⎣ ⎦

20 2~ ( )

1 2 1r

λ λ λλ

⎡ ⎤− −⎢ ⎥− +⎣ ⎦

2

1 2 1~ ( )

0 2r

λλ λ λ− +⎡ ⎤

⎢ ⎥−⎣ ⎦. Donde se tem imediatamente

X ′ = -λ + 2 = 2 11

ss

++

, Y ′ = 1 1( ) 1 ( )1CD s R s

s∴ = −

+,

2

2

2 1( ) ( )1 ( 1)C

s sN s R ss s

+= +

+ +,

2

2

1( ) ( ) ( ) 1 ( )( 1) 1C R C

sD s s D s R ss s

α ⎛ ⎞= = −⎜ ⎟+ +⎝ ⎠. E

portanto,

2

2

2

2

2 1 ( )( ) 1 ( 1)( )

1( ) 1 ( )( 1) 1

C

C

s s R sN s s sC s

sD s R ss s

+ ++ += =

⎛ ⎞−⎜ ⎟+ +⎝ ⎠

, ( )R s ∈S , de resto qualquer. (16)

ii) Cálculo do compensador com 2 graus de liberdade: 2 ( )C s tem a mesma expressão dada em (16) acima.

Para o cálculo de 1( )CN s , usamos (13), que é no caso presente:

1 1C RN N Y Zα′ ′+ = .

Substituindo os valores acima, temos: 2

1 2

1 11 ( 1)C

sN Zs s

+ =+ +

. É imediato verificar

que obtemos Z = 1 e 12 1

1CsN

s+

=+

como solução da equação acima. Temos então o

compensador com 2 graus de liberdade:

206

2

2 2

2

1 2 1 2 1( ) ( )1 1 1 ( 1)1 ( )

( 1) 1

s s sC s R ss s s sR s

s s

⎡ ⎤+ += +⎢ ⎥+ + +⎛ ⎞ ⎣ ⎦−⎜ ⎟+ +⎝ ⎠

207

208

Final do curso de Sistemas Lineares I. PRELIMINARES O problema que nos ocupará agora é o da figura 1. A planta tem dois vetores de saída. Tipicamente, z(t) é a resposta que queremos controlar, isto é, queremos que rastreie r(t), enquanto que y(t) é a resposta que é medida através de sensor (embutido na matriz de transferência da planta). O que se segue em ingles está nos meus artigos [2] e [3]. In the figure z(s) and r(s) are q-valued vectors, u(s) is a m-valued vector and y(s) is a p-valued vector. P1 (s) P (s) = represents the given plant. P2 (s) C(s) = [ C1 (s) -C2 (s)] is the compensator to be designed. z(s) u(s) r(s)

[C1 (s), -C2 (s)] y(s) Fig. 1 All the left factors will be denoted with an “~”, e.g. D Omitting henceforth the argument (s) when convenient, we have: z = P1 u , y = P2 u , u = C1 r - C2 y . P1 , P2 , C1 and C2 are proper rational matrices and have the appropriate dimensions. P2 is assumed strictly proper for convenience in terms of well - posedness and because this is the case in most practical situations. This assumption might be dropped easily. The exogenous signal r is assumed proper. P1 and P2 are assumed to have full rank. All the factorizations in the paper are over S. P1 N1 Let P = = D -1 , a right coprime (r. c.) factorization. P2 N2 Let C = [C1 -C2 ] = D c

–1 [ N c1 , - N c2 ] , a left coprime (l. c.) factorization. We assume that the exogenous signal r has all its poles in the closed right complex plane; those are the relevant poles, since the modes corresponding to stable poles

P1 (s) P2 (s)

209

decay asymptotically to zero. This assumption is standard in the literature of the servo problem, but might be easily dropped. r = D r

–1 N r r0 , (0) where D r is a known matrix, N r need not be known, D r and N r are l. c. and r0 is an arbitrary vector of real numbers. α m will denote the largest invariant factor of D r . We use the standard definition of closed loop stability. It is known, [2], that if the closed loop is stable, D c , N c2 , D and N2 can be chosen, without loss of generality such that D c D + N c2 N2 = I , (1) where I is the identity matrix. Moreover, there exist N 2c , Dc , D and N 2 , corresponding to a r.c. of C2 and l.c. factorization of P2 , respectively, s.t. D - D 2 Dc N2 I 0 = . (1a) N c2 D c - Nc2 D 0 I Dc N 2 D - N 2 I 0 = . (1b) -N c2 D N c2 D c 0 I Let H be the transfer function matrix between z and r . Asymptotic tracking is said to take place if and only if the loop is stable and (I - H ) r ∈ M(S) (2) z u r + - Figure 2 Da fig. 2, temos: u = D c

-1 ( N c1 r - N c2 N2 D-1 u ), e portanto,

N1 D –1 D c–1 N c1

N2 N c2

210

(I + D c-1 N c2 N2 D -1) u = D c

-1 N c1 r , D c

-1 ( D c D + N c2 N2) D -1 u = D c-1 N c1 r .

E em vista de (1a), u = D N c1 r . E portanto, H = N1 N c1 . (3) Perturb the plant, P → P* . Let H* be the resulting transfer matrix between z and r . We say that C is a robust tracking compensator if and only if the perturbed closed loop is stable and ( I - H* ) r ∈ M(S) , (2*) whatever be the perturbation in a given set. Remark 1: Recall, [9], that if F ∞ < 1 , with F ∈ M(S), then I + F is unimodular. We have next a technical result: Lemma: Let ∆D , ∆N ∈ M(S) arbitrary but such that I + D c ∆D + N c2 ∆N is unimodular. Then there exist ε1 , ε2 ∈ R and Q1 , Q2 ∈ M(S) such that ( I + D c ∆D + N c2 ∆N )

1−

= I - ε1 D c Q1 - ε2 N c2 Q2 (4) Conversely, let ε1, ε2∈ R and Q1 , Q2 ∈ M(S) arbitrary but such that I - ε1 D c Q1 - ε2 N c2 Q2 is unimodular. Then there exist ∆D , ∆N ∈ M(S) such that (4) holds. Moreover, ∆D = ε1 Q1 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 , (5a) ∆N = ε2 Q2 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 (5b) ε1 Q1 = ∆D ( I + D c ∆D + N c2 ∆N ) –1 (5c) ε2 Q2 = ∆N ( I + D c ∆D + N c2 ∆N ) –1 (5d) Proof: From (5a) and (5b), we have: I + D c ∆D + N c2 ∆N = I + D c ε1 Q1 (I - ε1 D c Q1 - ε2 N c2 Q2) -1 + N c2 ε2 Q2 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 = (I - ε1 D c Q1 - ε2 N c2 Q2 + ε1 D c Q1 + ε2 N c2 Q2) (I - ε1 D c Q1 - ε2 N c2 Q2) –1 = (I - ε1 D c Q1 - ε2 N c2 Q2) –1 , which is (4). By the same token,(4) is obtained from (5c) and (5d) also. II. PROBLEMA QUANDO N1 (s) E N2 (s) SÃO RELACIONADOS

211

In their elegant and important paper [7], Sugie and Vidyasagar assume that N1 and N2 are related by N1 (s) = L(s) N2 (s) , (6) where the zeros and poles of L are disjoint from the zeros of D r. Notice that L can be improper and unstable (but of course N1 is proper and stable, by definition). This relationship between N1 and N2 is a rather mild one. The authors call it “mode readability”, a weaker condition than “readability” , assumed by [1] and [5], in which L is constant. Sugie and Vidyasagar, allow perturbations of L even though not arbitrary. We omit here the class of allowed perturbations of L for the sake of brevity, remitting it to that paper. Sugie and Vidyasagar make the following conjecture: the relationship (6) is necessary for robust tracking. Then they prove that the compensator which solves the problem must be such that L Dc α m

–1 has its poles disjoint from those of r. So, it is generalized the idea that the compensator (with L) must incorporate a replicated – in the multivariable case – internal model of the signal to be tracked. É o seguinte o resultado de Sugie and Vidyasagar [7]: Theorem 1: With assumption (6), the asymptotic tracking problem has a robust solution if and only if the nominal closed loop is stable and i) ( I - L N2 N c1 ) D r

–1 ∈ M(S) (7) ii) The poles of L Dc α rm-1 are disjoint from the zeros of α m . (8) We show next that Sugie and Vidyasagar’s solution of the tracking problem with an L such that L Dc is unstable cannot be used if there is a disturbance v between the compensator’s output and the plant’s input. Lemma : With assumption (6), there is no asymptotic rejection of v if L Dc is unstable. Proof: Let v = D v

-1 N v v0, with D v and N v ∈ M(S), left coprime, v0 ∈ R, arbitrary. From the block diagram, with r = 0 we have

2 2 2 2 2 2 2 2 2 2( ) ( )u C P v u C P v C P u I C P u C P v= − + = − − ∴ + = − 12 2 2 2( )u I C P C P v−∴ = − +

∴u = - C 2 ( I + P2 C 2) -1 P2 v = - N c 2 ( D Dc + N 2 Nc 2 ) -1 2N v . (8a) Then, in view of (8a) and the first equation of (1a), we have: z = P1 ( v + u) = N1 D -1 ( I - Nc 2 N 2) v . Then in view of the equation (2,1) of (1b) and the equation (1,2) of (1b), we have: z = N1 D c v = L N2 D c v = L D c N 2 v = L D c N 2 D v

-1 N v v0 .

Hence asymptotic rejection of v implies L D c N 2 D v

-1 ∈ M(S) . (9)

212

On the other hand, asymptotic tracking implies (see (7)) that N2 is square or flat. Indeed, if N2 were to have more rows than columns, L N2 N c1 would not have full rank and (7) would be impossible. Now let L Dc =: B A -1 , a r.c. factorization. Then, L Dc N 2 D v

-1 = B A 1− N 2 D v -1 .

But since N 2 is square or flat, we may assume that A and N 2 are l.c. (If this were not the case, we might perturb P2 slightly, obtaining the coprimeness from the outset). Hence (9) is not obtained, proving the lemma. In view of this result, we will assume henceforth that P1 and P2 are related by N1 = L N2 , with L ∈ M(S). (10) Hence our hypothesis on the relationship between P1 and P2 is more general than the readability of Davison [1] and of Francis and Wonham [5] and less general than the mode readability of Sugie and Vidyasagar, but allows for simultaneous tracking and disturbance rejection of v, as shown in [3]. We are going to tackle the tracking problem: Teorema 2: Under (10) the robust asymptotic tracking is achieved if and only if the nominal loop is stable and i) ( I - L N2 N c 1) D r

-1 ∈ M(S), ii) L Dc α m

-1 ∈ M(S). Proof: The result has already been proved by Sugie and Vidyasagar [7] in a more general set-up, namely, with L being allowed improper and unstable. We present, for completeness, a proof which is different and more straightforward. (Necessity): z = P1 u = P1 ( I + C2 P2) -1 C1 r = N1 ( D c D + N c 2 N2 ) -1 N c1 r . (10a) In the nominal situation (no perturbation of the plant) we have, in view of (3): e := r - z = ( I - N1 N c1 ) D r

-1 N r r0 . Now, asymptotic tracking implies e ∈ M(S) ∀ r0 . Then, in view of the left coprimeness of D r and N r , we must have ( I - N 1 N c 1 ) D r

-1 ∈ M(S), (11) proving the necessity of i). Next perturb N2 → N2 + ∆ N , with ∆ N ∈ M(S) arbitrary but sufficiently small so that loop stability is not destroyed. Then, in view of lemma (4), with 2ε sufficiently small and Q2 ∈ M(S) arbitrary, we have: ( I + C2 P2) -1 = D ( I + N c 2 ∆ N ) –1 D c = D ( I - ε 2 N c 2 Q2) D c . Hence, z = L (N2 + ∆ N )( I - ε 2 N c 2 Q 2 ) N c 1 r = L N2 N c 1 r - ε 2 L N 2 N c 2 Q 2 N c 1 r + L ∆ N ( I - ε 2 N c 2 Q 2 ) N c 1 r. And in view of (5b),

213

e = r - z = ( I - L N2 N c 1) r + ε 2 L N 2 N c 2 Q 2 N c 1 r - ε 2 L Q2 N c 1 r . But in view of (11), we obtain e ∈ M(S) ⇒ L ( I - N 2 N c 2 ) Q 2 N c 1 D r

-1 ∈ M(S), ∀ Q 2 ∈ M(S). Now, from (11), there exist some ( )W M S∈ such that 1 1c rN N WD I+ = , (11a) hence N c1 and D r have to be r.c. Let A -1 B be a l.c. factorization of N c1 D r

–1 . Then, we must have in view of the equation (1,1) of (1b): L Dc D Q 2 A –1 ∈ M(S), ∀ Q 2 ∈ M(S). Now, it is clear that D r and A have the same non-unity invariant factors. Let SA be the Smith form of A and let U and V be unimodular matrices s.t. A = U SA V. Define Q 3 := Q 2 V -1 . Then, the last inclusion implies L Dc D Q3 1

AS − ∈ M(S), ∀ Q 3 ∈ M(S). (12) Let x ij be the (i,j-th) element of L Dc D . Choose Q 3 s.t. it has zeros in every entry, but an 1 in the j-th row of the last column. Recalling that α m is the largest invariant factor of D r (and hence of SA ), it is easy to see that (12) implies xij α m

-1 ∈ M(S) for every i. Varying j, we obtain L Dc D α m

-1 ∈ M(S). Now D and α m I can be assumed r.c. (If this were not the case, we would perturb slightly D at the outset, obtaining the said coprimeness). Hence, the necessity of ii). (Sufficiency): Let us perturb N2 and D arbitrarily (but “slightly”, not destroying loop stability). Define D → D + ∆D . Then, in view of (10a), z = L (N2 + ∆ N )( D + ∆D) 1− ( D + ∆D) ( I + D c ∆D + N c 2 ∆ N ) 1− D c D c

1− N c 1 r. In view of (4), z = L (N2 + ∆ N )( I - ε 1 D c Q1 - ε 2 N c 2 Q2 ) N c 1 r . (12a) Hence, e = r – z = [ I – L( N2 + ∆N ) ( I - ε1 D c Q1 - ε2 N c2 Q2 ) N c1 ] r = [I - L(N2 + ∆N - ε1 N2 D c Q1 - ε1 ∆N D c Q1 - ε2 N2 N c2 Q2 - ε2 ∆N N c 2 Q2 ) N c1] r = (I – L N2 N c1 ) r - L ∆N ( I - ε1 D c Q1 -ε2 N c2 Q2 ) N c1 r + L N2 (ε1 D c Q1 + ε2 N c 2 Q2 ) N c1 r . And in view of (3b), we have e = (I – L N2 N c1) r - ε2 L Q2 N c1 r + L N2 (ε1 D c Q1 + ε 2 N c2 Q2 ) N c1 r = (I – L N2 N c1 ) r - ε 2 L(I - N2 N c2 ) Q2 N c1 r + ε1 L N2 D c Q1 N c1 r. And in view of equations (1,1) and (1,2) of (1b), we have: e = (I – L N2 N c1 ) r - ε 2 L Dc D Q2 N c1 r + ε1 L Dc N c2 Q1 N c1 r , completing the proof. We have next the solvability condition: Teorema 3:

214

There exists a robust tracking compensator for the problem tackled in this section if and only if L N2 and α m I are l.c. Proof: This result was proved by Hara and Sugie [6] in a more general set-up. We prove it now in an independent way for completeness. (Only if): From equation (1,1) of (1b), L Dc D + L N2 N c2 = L. But L has full row rank, otherwise asymptotic tracking would be impossible. Let LR be a right inverse of L. Then, L Dc D LR + L N2 N c2 LR = I. Let 0s be a mode of r. Then, in view of ii) of theorem 2, L Dc ( 0s ) = 0 and hence from the identity above we see that L N2 (s0) must have full row rank, which is equivalent to the condition to be proved. (If): The condition of the lemma implies that N2 ( 0s ) must have full row rank for every 0s which is a mode of r. So we may choose Dc = α m X, with X ∈ M(S), then satisfying condition ii) of theorem 2, and (X, Nc2) such that the loop is stabilized. Moreover, the left coprimeness of L N2 and α m I implies the existence of Y , W ∈ M(S) such that L N2 Y + W α m = I. Now, it is clear that there exists V ∈ M(S) such that α m I = V D r. Substitute this in the previous identity to conclude that condition i) of theorem 2 is satisfied choosing N c1 = Y, completing the proof. III. PERTURBING N2 AND D AND FIXING N1 Theorem 4: Perturb D and N2 “arbitrarily” (in the sense defined above), while maintaining N1 fixed. Then the robust tracking problem has no solution. Proof: Perturb D → D + ∆D and fix N1 and N2. Then, it is easy to see in view of (10a) and (4) that: z = N1 (I + D c ∆D) –1 N c1 r = N1 (I - ε1 D c Q1 ) N c1 r . (12b) Hence, e = r - z = [I - N1 (I - ε1 D c Q1 ) N c1 ] r = (I - N1 N c1) r + N1 ε1 D c Q1 N c1 r . Now, in view of (2), (2*) and (3), asymptotic tracking implies N1 D c Q1 N c1 r ∈ M(S), ∀ Q1 ∈ M(S). And from the definition of r we get N1 D c Q1 N c1 D r

–1 ∈ M(S), ∀ Q1 ∈ M(S). (13) Now, in view of (11a), it is clear that N c1 and D r are r. c.

215

Let N c1 D r –1 =: A –1 B , a l. c. factorization, hence A and D r have the

same invariant factors. Then, in view of (7), we have N1 D c Q1 A –1 ∈ M(S), ∀ Q1 ∈ M(S). (14) Let SA be the Smith form of A and let U and V be unimodular matrices such that A = U SA V . Define Q11 = Q1 V –1 . Then from (14) N1 D c Q11 SA

–1 ∈ M(S), ∀ Q11 ∈ M(S). (15)

Choosing Q11 as in the proof of theorem 2, we have: N1 D c αm

–1 ∈ M(S) . (16) Now perturb N2 → N2 + ∆N , fixing D. Analogously as in (12b), we obtain z = N1 (I + N c2 ∆N ) –1 N c1 r = N1 (I - ε2 N c2 Q2) N c1 r, in view of (4). Hence, e = (I - N1 N c1) r + N1 ε2 N c2 Q2 N c1 r. So, robust tracking implies, in view of (2), (2*) and (3), N1 N c2 Q2 N c1 D r

–1 ∈ M(S) ∀ Q2 ∈ M(S). Defining matrices A, SA as above (after (14)) and choosing an appropriate matrix in the same way as Q11 , we obtain N1 N c2 α m

–1 ∈ M(S) . (17) From (16) and (17), we have α m

–1 N1 [ D c, N c2] ∈ M(S). But from (1) D c and N c2 are l.c. , hence the last implies α m

–1 N1 ∈ M(S). Hence there exists N11 ∈ M(S) such that N1 = α m N11 . But from (2) and (3), there should exist W ∈ M(S) such that N11 N c1 α m + W D r = I . And it is clear that there is no solution for this equation in N c1 and W , since α m I and D r are not r.c. , proving the theorem. Remark 2: A reviewer of a previous version of this paper remarks on the result above: “If P1 perturbs and y and z have no relation, then the robust tracking has no solution. This result seems to be obvious because we have no way to obtain any information on z in this case”. Example 1: We consider now the following simple scalar example, regarding theorem 4 and the previous remark, omitting the argument (s) for convenience: P1 = P2 = 1 / ( s - 1), r = A / s, A ∈ R , ∆D = δ1 (s + 1) –1 , ∆N = δ2 (s + 1) –1 , δ1 , δ2 ∈ R , arbitrary and sufficiently small. Then, 1

1 2 ( 1)N N s −= = + , 1( 1)( 1)D s s −= − + and 1 1( 1) / ( 1)r A s s s− −= + + . Let T1 denote the transfer matrix between the input to N1 and the output of Nc1 . In the nominal situation (no perturbation of N2 and D), we have T1 = 1, because z = N1 Nc1. Let the perturbed signals and parameters (as a result of perturbation of D and N2 ) be denoted with a (*), e.g. T1* , e*, etc. It is clear from (12a) that T1* = 1 / (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ). Hence,

216

∆T1 := T1* - T1 = - (δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2) / (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ). Now, e* = (1 - N1 Nc1 ) r - N1 ∆T1 Nc1 r. So the contribution to the error due to the perturbation in D and N2 is ∆e := e* - e = - N1 ∆T1 Nc1 r = = - (s + 1) –3

Nc1 (δ1 Dc + δ2 Nc2 ) A / s 1( 1)s −+ (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ).

In view of the fact that s (s + 1) –1 and Nc1 are coprime, while δ1 and δ2 are arbitrary, it is clear that ∆e ∉ S , because Dc and Nc2 are coprime. So the problem has no solution. IV. SOLUTION OF THE PROBLEM WITH P1 FIXED AND P2 PERTURBED Theorem 5: Perturb N2 and D “arbitrarily” (in the sense above) and fix P1. Then the asymptotic tracking problem has a solution only if P1 is stable. If this is the case, C is a robust tracking compensator if and only if it stabilizes the loop and a) ( I - P1 D N c1) D r

–1 ∈ M(S) b) P1 Nc2 α m

–1 ∈ M(S) . Proof: We prove firstly that P 1 has to be stable. Condition a) of the theorem is necessary for the nominal plant; indeed, it is the same as condition i) of theorem 2. Perturb D → D + ∆D. Then, e = [ I - P1 (D + ∆D) ( I + D c ∆D) –1 N c1] r = [ I - (P1 D + P1 ∆D) ( I - ε1 D c Q1) N c1] r = [ I - P1 D N c1 - ( - ε1 P1 D D c Q1 + P1 ∆D ( I - ε1 D c Q1) ) N c1] r = [ I - P1 D N c1 + (ε1 P1 D D c Q1 - ε1 P1 Q1) N c1] D r

–1 N r r0 . So asymptotic tracking implies in view of a) of the theorem P1 ( I - D D c) Q1 N c1 1

rD − ∈ M(S), ∀ Q1 ∈ M(S). And in view of (1b), we have P1 Nc2 N 2 Q1 N c1 D r

–1 ∈ M(S), ∀ Q1 ∈ M(S). Choosing appropriate Q1’s as in the previous proofs, the last implies P1 Nc2 N 2 αm

–1 ∈ M(S) . (18) Recall that 1

1 1P N D−= . It is clear then (see figure 2, replacing, as far the lop is concerned, 1

2c cD N− by 12c cN D− ) that stability of the loop implies the left coprimeness

of D and Nc2. Then perturb N 2 at the outset, if necessary, so that (18) is not satisfied unless P1 be stable. We proceed now to the proof of the necessity of condition b) of the theorem, recalling that condition a) is necessary for the nominal loop. Perturb N2. Then,

217

z = P1 D ( I + N c2 ∆N ) –1 N c1 r = P1 D ( I - ε2 N c2 Q2 ) N c1 r. Hence, asymptotic tracking implies [ I - P1 D ( I - ε2 N c2 Q2 ) N c1] D r

–1 ∈ M(S), ∀Q2 ∈ M(S). And this implies in view of a): P1 D N c2 Q2 N c1 D r

–1 ∈ M(S), ∀Q2 ∈ M(S). In view of (1b), we have P1 Nc2 D Q2 N c1 D r

–1 ∈ M(S), ∀ Q2 ∈ M(S). Choosing appropriate Q2’s , it can be shown, as in the proofs of the previous theorems, that the last implies P1 Nc2 D α m–1 ∈ M(S) . (19) From this and (18), P1 Nc2 [ D , N 2] αm

–1 ∈ M(S). And in view of the left coprimeness of D and N 2 , we have P1 Nc2 α m–1 ∈ M(S). (20) (Sufficiency): Perturbing D and N2 , we have z = P1 (D + ∆D) ( I + cD ∆D + 2cN ∆N ) –1 N c1 r , e = [I - P1 (D + ∆D) (I - ε1 cD Q1 - ε2 2cN Q2 ) N c1 ] r = (I – P1 D N c1) r - [P1 D (- ε1 cD Q1 - ε2 2cN Q2) + P1 ∆D (I - ε1 cD Q1 - ε2

2cN Q2)] N c1 r Call X the first term of the right hand side, which according to a), belongs to M(S). Then, in view of (5a), e = X - [P1 (- ε1 D cD Q1 - ε2 D 2cN Q 2 ) + P1 ε1 Q 1 ] N c1 r = X - P1 ε1 (I - D cD ) Q 1 N c1 r + P1 ε2 D 2cN Q2 N c1 r. So, in view of (1b), we have e = X - ε1 P1 Nc2 N 2 Q1 N c1 r + ε2 P1 Nc2 D Q2 N c1 r . The proof is complete in view of the fact that α m r ∈ M(S). Remark 3: The meaning of this result was given by the reviewer mentioned in the previous remark: “If P1 is fixed, the information on z can be obtained via u when P2 perturbs arbitrarily. This is the main reason why the tracking can be achieved when y contains no information on z. In this case, the feedforward control plays the essential role in tracking. Therefore the feedforward control should be designed in such a way that y does not affect u with respect to the modes of r (i.e., C2 must contain the blocking zeros with respect to the poles of r )”. Example 2: Let P1 = (s + 1) –1 , P2 , r , ∆D and ∆N as in the previous example, i.e., P2 = 1 / ( s - 1), r = A / s, A ∈ R , ∆D = δ1 (s + 1) –1 , ∆N = δ2 (s + 1) –1 , δ1 , δ2 ∈ R , arbitrary and sufficiently small. (We redraw below the block diagram). Let T2 be the transfer matrix between the input to P1 and the output of Nc1 . It is easy to see that T2 = D . Then, it is not difficult to see that: ∆T2 := T2* - T2 = (N2 Nc2 ∆D - D Nc2 ∆N ) / ( 1 + Dc ∆D + Nc2 ∆N )

218

= (s + 1) –2 Nc2 (δ1 - δ2 (s – 1)) / (1 + (s + 1) –1 (δ1 Dc + δ2 Nc2 )). z + r - Hence, the contribution to the error, due to the perturbations in the plant is ∆e = (s + 1) –3 (δ1 – δ2 (s –1)) Nc2 A / s (1 + δ1 (s + 1) –1 Dc + δ2 (s +1) –1 Nc2 ) . It is clear that the problem is solved if s (s + 1) –1 is a factor of Nc2 , as pointed out by Remark 3. The solvability condition for the problem handled in this section is given next: Theorem 6: Assume P1 fixed and stable. Then there exists a two-degree-of-freedom compensator which solves the robust asymptotic tracking problem if and only if P1 D and α m I are l.c. Proof: (Only if): Em vista de (a) do teorema anterior, temos para algum W ∈ M(S): P1 D N c1 + W D r = I. Mas isto implica que P1 D tem posto cheio para todo s ∈ C+e and this is equivalent to saying that P1 D and αm I are left coprime. (If): If P1 D and α m I are left coprime, then det (D (ξ)) ≠ 0 for every ξ s.t. αm(ξ) = 0. So, we may choose Nc2 = α m X, satisfying condition b) of theorem 2, with X and Dc s.t. the loop is stable. On the other hand, the left coprimeness of P1 D and α m I implies the existence of Y and W ∈ M(S), s.t. P1 D Y + W α m I = I . But α m I = V D r, for some V ∈ M(S). Hence, we have P1 D Y + W V D r = I . Condition a) of theorem 2 is satisfied choosing N c1 = Y , completing the proof. V. CONCLUDING REMARKS i) The problem handled in the last section has no solution with one-degree-of-freedom feedback compensator. Indeed, conditions a) and b) of theorem 5 contradict each other if N c1 = N c2. Indeed, condition a) implies that 1cN and rD are r.c., hence condition b) cannot be satisfied if N c1 = N c2

P1 Dc –1

D –1 N2 Nc2

Nc1

219

ii) The result presented in the last section (theorem 5) contrasts evidently with the so called internal model principle: see [5] and [1] and, more recently, [7]. According to the internal model principle, in order to obtain robust tracking, the compensator must incorporate a replicated – in the multivariable problem - internal model of the exogenous signal. Now, in condition b) of our theorem 5, we have an “inverse internal model” in the sense that the exogenous poles affect the numerator of the feedback channel of the compensator, not the denominator of it. See the Remark 3 above, explaining the apparent contradiction. Indeed, in our paper we assume that P1 is fixed, while in the three papers mentioned above a relationship is assumed between P1 and P2 , namely, P1 = L P2 . In the first two papers quoted above, L is a fixed matrix of real numbers and then it is said that z is “readable” from y . In the paper by Sugie and Vidyasagar, [7], L is a rational matrix, not necessarily proper or stable, and whose zeros and poles are disjoint from the exogenous modes; besides, L is perturbable in a restricted sense and the authors call z “mode readable” from y. It is clear that mode readability is a weaker condition than readability. Sugie and Vidyasagar believe that mode readability is a necessary condition for robust tracking. We assumed that P1 is fixed, while P2 is arbitrarily perturbed, so in our assumption there is no mode readability and a fortiori no readability. iii) A practical situation of theorem 5 might occur, say, when P1 would refer to the digital part of a plant, in most cases virtually unperturbable,. References [1] E. J. Davidson (1976). “The robust control of a servomechanism problem for linear time-invariant multivariable systems”. IEEE Trans. on Autom. Control, 21, pp. 25 - 34. [2] Pedro M. G. Ferreira (2000). “Robust tracking: relation between the numerators, mode readability and inverse internal model”. IEEE Trans. on Autorm. Control, 45, nº 7, pp. 1401-1405. [3] Pedro M. G. Ferreira (2000). “The robust and reliable servo system”, 3rd. IFAC Symposium on Robust Design, Praga, República Tcheca, junho de 2000 (em CD-ROM). [4] P. G. Ferreira (1976). “The servomechanism problem and the method of the state-space in the frequency domain”. Intern. Journ. of Control. 23, pp. 245 – 255. [5] B. A. Francis and W. M. Wonham (1975). “The internal model principle for linear multivariable regulators”. Appl. Math. Optimiz., 2, pp. 170 - 194. [6] S. Hara and T. Sugie (1988). “Indepenent parametrization of two-degree-of-freedom compensators in general robust tracking systems”. IEEE Trans. on Autorm. Control, 33, pp. 59-67 [7] T. Sugie and M. Vidyasagar (1989). “Further results on the robust tracking problem in two-degree-of-freedom control systems”. Systems & Control Letters, 13, pp. 101 - 108. [8] T. Sugie and T. Yoshikawa (1986). “General solutions of robust tracking problem in two-degree-of-freedom control systems”. IEEE Trans. on Autom. Control., AC-31, pp. 552-554.

220

[9] M. Vidyasagar (1985). Control System Synthesis: A Factorization Approach. MIT Press, Cambridge, MA.

top related