il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/il moto browniano-1.pdf · il moto...

21
Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno 2011

Upload: others

Post on 15-Jul-2020

4 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Il moto brownianonote del corso di Probabilità del prof. Flandoli

Alessio del Vigna

4 giugno 2011

Page 2: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Ricordiamo brevemente l’oggetto del nostro studio:

Definizione 1. Sia (Ω,F ,P) uno spazio di probabilità e T un insiemedi tempi: un processo stocastico è una famiglia di variabili aleatorie reali(Xt)t∈T definite su Ω.

A volte è più comodo identificare un processo stocastico come una funzioneX : Ω× T → R tale che, per ogni t ∈ T fissato, è una variabile aleatoria.

Rimandiamo alle dispense del prof. Pratelli per le ulteriori definizioni ecommenti sui processi stocastici. Il primo paragrafo non sarà però dedicatoa un processo stocastico, ma al riassunto di alcune proprietà delle variabiligaussiane, che saranno indispensabili in seguito.

1 Alcune proprietà delle variabili gaussiane

Intanto osserviamo che la gaussianità di variabili aleatorie si preserva neipassaggi al limite. Vediamo il perché:

Lemma 1. Sia Yn una successione di variabili gaussiane. Se Yn → Y inL2(Ω) allora Y è gaussiana.

Dimostrazione. La funzione caratteristica di una generica Yn sarà

ϕYn(t) = eimnt−σ2nt

2

2 ,

dove mn = E[Yn] e σ2n = V ar[Yn]. Adesso mostriamo che E[Yn] → E[Y ],

infatti per la disuguaglianza di Hölder si ha

|E[Yn]− E[Y ]| ≤∫

Ω|Yn − Y | dP ≤

(∫Ω|Yn − Y |2 dP

) 12

,

che converge a zero per l’ipotesi di convergenza di Yn a Y in L2. Ana-logamente si prova che la successione V ar(Yn) converge e siano m e σ2 ilimiti delle successioni mn e σ2

n rispettivamente. Dunque la funzionecaratteristica di Y sarà

ϕY (t) = eimt−σ2t2

2 ,

e da ciò segue che anche Y è gaussiana.

Naturalmente questa proprietà si mantiene anche sui vettori gaussiani, cioèse (X1

n, X2n, . . . , X

kn) è un vettore gaussiano e Xi

n → Xi in legge allora ilvettore (X1, . . . , Xk) è gaussiano.

1

Page 3: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Adesso una proprietà di indipendenza per vettori gaussiani. Nel corsoabbiamo mostrato che X e Y sono due variabili aleatorie indipendenti se esolo se

ϕ(X,Y )(t, s) = ϕX(t)ϕY (t).

Con analoga dimostrazione si riesce anche a provare che (X1, . . . , Xn) sonoindipendenti se e solo se

ϕ(X1, ..., Xn)(t1, . . . , tn) =

n∏i=1

ϕXi(ti).

Da questo segue immediatamente il seguente:

Corollario 1. Sia (X1, . . . , Xn) un vettore gaussiano. Le variabili aleatorieX1, . . . , Xn sono indipendenti se e solo se Q è diagonale.1

Dimostrazione. Se le variabili X1, . . . , Xn sono indipendenti allora sonoscorrelate, ossia Cov(Xi, Xj) = 0 per ogni i 6= j; dunque Q è diagonale.Viceversa, supponendo Q diagonale, ricordando l’espressione della funzionecaratteristica di un vettore gaussiano, si riesce a fattorizzare

ϕ(X1, ..., Xn)(t1, . . . , tn) =n∏i=1

ϕXi(ti),

e questo implica l’indipendenza.

Completiamo il paragrafo con la seguente definizione.

Definizione 2. Un processo (Xt)t∈T si dice gaussiano se per ogni n ∈ N edogni sequenza t1, ..., tn ∈ T il vettore aleatorio (Xt1 , ..., Xtn) è gaussiano.

Ricordiamo che la legge del processo è identificata dalle leggi di questi vettorialeatori. Siccome la legge di un vettore gaussiano è identificata dal vettoredei valori attesi e dalla matrice di covarianza, arriviamo alla seguente af-fermazione: la legge di un processo gaussiano (Xt)t∈T è identificata dalleseguenti due funzioni:

m(t) = E [Xt] e C(t, s) = Cov (Xt, Xs)

dette funzione valore atteso e funzione di (auto–)covarianza.

1Q è la matrice delle covarianze, ossia Qij = Cov(Xi, Xj).

2

Page 4: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

2 Definizione del moto browniano

Andiamo adesso a esaminare un particolare processo stocastico, il cosi-detto moto browniano. Per tale processo si sceglie l’intervallo di tempiT = [0, T ] ⊆ R. Iniziamo dalla definizione:

Definizione 3. Si dice moto browniano grossolano un processo stacastico(Bt)0≤t≤T che soddisfa le seguenti proprietà:(1) B0 = 0;(2) dati t1, . . . , tn positivi con t1 < t2 < · · · < tn si ha che le variabilialeatorie

(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1

)sono indipendenti;

(3) dati s e t con 0 ≤ s < t la variabile (Bt −Bs) ha legge gaussiana di tipoN(0, t− s).

Definizione 4. Un processo stocastico (Wt)0≤t≤T si dice moto brownianostandard (o processo di Wiener) se è un moto browniano grossolano ed haanche traiettoria continue.

Abbiamo appena dato due definizioni, però esse sono ben lungi da garan-tire l’esistenza dell’oggetto definito. Quello che faremo ora è la costruzionedi un moto browniano grossolano che poi estenderemo a un moto brownianostandard grazie a un teorema di Kolmogorov.

3 Costruzione del moto browniano grossolano

Consideriamo uno spazio (Ω,F ,P) su cui è definita una successione Xnn≥1

di variabili aleatorie gaussiane N(0, 1) indipendenti: ciò, per quanto visto alezione, è sempre possibile (purché lo spazio non sia atomico). Dunque

E[Xn] = 0, V ar[Xn] = 1 e E[XnXk] = δnk,

dove l’ultima proprietà segue dall’indipendenza. Adesso consideriamo lospazio di Hilbert

L2([0, T ] ,B ([0, T ]) , λ[0,T ]

)dove λ[0,T ] è la misura di Lebesgue su [0, T ], e prendiamo un sistema orto-normale massimale gnn≥1.Per ogni i ≥ 1 poniamo

Gi(t) =

∫ t

0gi(s) ds =

∫[0,T ]

gi(s)1[0,t](s) ds =⟨gi, 1[0,t]

⟩L2(0,T )

.

e definiamo

Bt =

∞∑n=1

Gn(t)Xn.

3

Page 5: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Innanzitutto occorre verificare che, per ogni t ∈ [0, T ] fissato, la serie appenascritta converga in L2(Ω) a una certa variabile aleatoria, e che queste variabilisoddisfino le proprietà (1)–(3) della definizione.

Proposizione 1. La serie che definisce Bt converge in L2(Ω).

Dimostrazione. Dato che L2(Ω) è uno spazio completo basterà mostrare chele somme parziali della serie costituiscono una successione di Cauchy. PerM < N si ha

∥∥∥B(N)t −B(M)

t

∥∥∥2= E

( N∑n=M+1

Gn(t)Xn

)2 =

= E

n∑n,k=M+1

Gn(t)Gk(t)XnXk

=

=

N∑n,k=M+1

Gn(t)Gk(t)E[XnXk] =

=N∑

n,k=M+1

Gn(t)Gk(t)δnk =N∑

n=M+1

G2n(t).

Se adesso proviamo che la serie∑∞

n=1G2n(t) converge avremo che, per M e

N che tendono a ∞, la differenza di somme parziali scritte sopra va a zero.La convergenza della serie è presto dimostrata:

∞∑n=1

G2n(t) =

∞∑n=1

⟨gk,1[0,t]

⟩2=∥∥1[0,t]

∥∥2= t,

e così abbiamo concluso.

Una volta verificata l’esistenza dell’oggetto definito Bt dobbiamo vedereche esso soddisfa le proprietà (1)–(3) della definizione. La proprietà (1)è ovvia, occupiamoci invece della proprietà degli incrementi indipendenti.Vogliamo far vedere che il vettore(

Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1

)è fatto da variabili aleatorie indipendenti per ogni t1 < t2 < · · · < tn; per farquesto sfrutteremo la gaussianità, e i risultati dati all’inizio. Adesso alcuneosservazioni:

4

Page 6: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

• le variabili B(N)t sono gaussiane per ogni t ∈ [0, T ] in quanto trasfor-

mazioni lineari delle Xi che erano gaussiane. Ora, la successione delleB

(N)t converge in L2 a Bt e la convergenza in L2 implica la convergen-

za in legge: applicando il lemma 1 si ottiene che Bt è una variabilegaussiana e che

E[Bt] = 0 e V ar[Bt] = t,

dato che la varianza di B(N)t è

∑Nn=1G

2n(t);

• come osservato dopo il lemma 1, le proprietà di gaussianità si conser-vano anche su vettori gaussiani. Ora,(

B(N)t1

, . . . , B(N)tn

)è gaussiano (in quanto trasformazione lineare di (X1, . . . , XN )) e allo-ra anche il vettore (Bt1 , . . . , Btn) è gaussiano. In altre parole, (Bt)t≥0

è un processo gaussiano;

• applicando al vettore precedente la trasformazione lineare

A

x1

x2...xn

=

x1

x2 − x2...

xn − xn−1

,

segue che anche(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1

)è un vettore gaus-

siano.

Ciò è quanto basta per mostrare la seguente:

Proposizione 2. Il processo (Bt)0≤t≤T costruito soddisfa la condizione degliincrementi indipendenti.

Dimostrazione. Per mostrare che(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1

)sono

indipendenti, grazie al corollario 1, basterà mostrare che la matrice dellecovarianze è diagonale. Al calcolo premettiamo un lemma:

5

Page 7: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Lemma 2. Si ha Cov(Bt, Bs) = t ∧ s.

Dimostrazione. Osservato che per ogni t si ha E[Bt] = 0 possiamo scrivere

Cov(Bt, Bs) = limN→∞

E[B

(N)t B(N)

s

]=

= limN→∞

N∑n,k=1

Gn(t)Gk(s)E[XnXk] =

= limN→∞

N∑n,k=1

Gn(t)Gk(s)δnk = limN→∞

N∑n=1

Gn(t)Gn(s) =

= limN→∞

N∑n=1

⟨gn1[0,t]

⟩ ⟨gn1[0,s]

⟩=⟨1[0,t],1[0,s]

⟩=

=

∫ 1

01[0,t]1[0,s] dσ =

∫ 1

01[0,t∧s] dσ = t ∧ s,

e il lemma è concluso.

Adesso riprendiamo la dimostrazione della proposizione. Usando il lem-ma, per i 6= j si ha

Cov(Btj+1 −Btj , Bti+1 −Bti

)= 0,

e quindi abbiamo finito.

Vista la gaussianità di Bt la proprietà (3) della definizione è banalmenteverificata.

Osservazione 1. Parte delle argomentazioni precedenti possono essere rias-sunte nella seguente affermazione di interesse autonomo: un processo (Bt)t≥0

è un moto browniano grossolano se e solo se: (1) B0 = 0, (2) (Bt)t≥0 è unprocesso gaussiano, (3) m(t) = 0, C (t, s) = t ∧ s.

4 Scorcio storico poco rigoroso

Cosa fa venire in mente la costruzione del moto browniano presentata disopra? Tale costruzione è dovuta a Wiener, che storicamente ha contribuitoprofondamente all’analisi di Fourier, e quindi per lui era normale svilupparee definire le funzioni come serie di Fourier. Nel caso del moto browniano i“coefficienti di Fourier” sono le variabili Xn, ma esse non vengono date comecoefficiente della base ortonormale gn, bensì dei loro integrali. Come maiè stato scelto ciò?

6

Page 8: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Cerchiamo di derivare rispetto al tempo Bt: potremmo scrivere

Bt = limε→0

Bt+ε −Btε

.

Il rapporto incrementale ha varianza 1ε e dunque tale varianza diverge: que-

sto fa vedere che non ha senso fare il limite del rapporto incrementale. Seci fidiamo che le proprietà che ha il rapporto incrementale si preservano an-che per la derivata (ma servirebbe la teoria delle distribuzioni per fare ciòin modo rigoroso) possiamo immaginare che la derivata Bt sia gaussiana.Inoltre se t 6= s si ha che Bt e Bs sono indipendenti per la proprietà degliincrementi indipendenti. Se adesso facciamo l’analisi di Fourier su Bt si ha

Bt =

∞∑n=1

gn · Bt,con Bt =

⟨Bt, gn

⟩=

∫ 1

0Bt · gn(t) dt = −

∫ 1

0Bt · gn(t) dt,

dove l’ultimo passaggio è da interpretare come definizione di tutto quello chelo precede, che in effetti non aveva senso. Tali coefficienti di Fourier sonogaussiane N(0, 1) indipendenti:

• che siano gaussiane si vede scrivendo l’integrale come limite delle som-me di Riemann e utilizzando quanto detto all’inizio sulla conservazionedella gaussianità;

• per l’indipendenza si ha (svolgendo i calcoli in modo non rigoroso):

E[Bn · Bk] =

∫ 1

0

∫ 1

0gn(t)gn(s)E

[BtBs

]dt ds =

=

∫ 1

0

∫ 1

0gn(t)gn(s)δ(t− s) dt ds =

=

∫ 1

0gn(t)gn(s) dt ds = 0.

Abbiamo quindi scoperto che·Bt si può scrivere nella forma

∑∞n=1 gn (t)Xn

dove le variabili aleatorie Xn sono gaussiane N (0, 1) indipendenti. Integran-do in t si ottiene la definizione di Bt data in precedenza. La derivata delmoto browniano prende il nome di white noise.

7

Page 9: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Esercizio 1. Calcolare la densità di probabilità di (Bt1 , . . . , Btn). Chia-mando Qn la matrice di covarianza di

(B 1

2n, . . . , B k

2n, . . . , B1

)ed usando

la notazione xn = (xn1 , . . . , xnk , . . . , x

n2n), esplicitare il termine 〈Qnxn, xn〉

che compare nella densità di(B 1

2n, . . . , B k

2n, . . . , B1

). Data una funzione

x ∈ C1 ([0, 1]), osservare che se si prende xnk = x(k

2n

)vale

limn→∞

〈Qnxn, xn〉 =

∫ 1

0

∣∣∣∣dxdt (t)

∣∣∣∣2 dt.Per questo a volte nella letteratura di tipo fisico si trova scritto che la leggePB del moto browniano B (legge del processo, ovvero misura di probabilitàsu un opportuno spazio di funzioni) è data da

PB (dx) = C exp

(−1

2

∫ 1

0

∣∣∣∣dxdt (t)

∣∣∣∣2 dt)d [x]

dove x indica una generica funzione, C è la costante di normalizzazionee d [x] vorrebbe indicare un analogo della misura di Lebesgue sullo spaziodi funzioni, misura però che non esiste. Al di là degli aspetti non rigo-rosi, resta l’idea suggestiva che la legge del moto browniano abbia, in uncerto senso, una densità gaussiana con esponente dato dall’energia cinetica12

∫ 10

∣∣dxdt (t)

∣∣2 dt del moto di una particella.

5 Costruzione del moto browniano standard

Ricordiamo che un moto browniano standard è un moto browniano grosso-lano (Bt)0≤t≤T le cui traiettorie sono continue. Mostreremo ora che esiste ilmoto browniano standard. Compiamo prima qualche osservazione:

• abbiamo utilizzato l’articolo determinativo in quanto partendo da unmoto browniano grossolano, c’è un unico moto browniano standard adesso associato: due moti browniani standard che siano modificazioni diuno stesso moto browniano grossolano sono indistinguibili (cioè sonouguali per ogni t ∈ T a meno di un sottoinsieme di Ω di misura nulla);

• per quanto abbiamo visto durante il corso, un moto browniano stan-dard è costruibile su ogni spazio non atomico, in quanto su tali spaziè possibile costruire un moto browniano grossolano.

Ricordiamo una definizione:

8

Page 10: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Definizione 5. Sia α con 0 < α < 1. Una funzione f si dice α–hölderianasu un intervallo I se esiste una costanet C > 0 tale che per ogni x, y ∈ I

|f(x)− f(y)| ≤ C|x− y|α.

Quello che andiamo a mostrare di seguito è un criterio di hölderianità perfunzioni definite su un insieme denso numrabile particolare in [0, 1]. Taledenso è definito dalla seguente

Definizione 6. Chiamiamo Dn l’insieme

Dn =

k

2n| k = 0, 1, . . . , 2n

e D =

⋃n≥1Dn l’insieme dei numeri diadici.

Lemma 3. Sia γ con 0 < γ < 1. Sia f : D → R e supponiamo che esistaun n0 tale che per ogni n > n0 e per ogni k = 0, 1, . . . , 2n − 1 si abbia∣∣∣∣f (k + 1

2n

)− f

(k

2n

)∣∣∣∣ ≤ 2−nγ .

Allora esiste C > 0 tale che |f(x) − f(y)| ≤ C|x − y|γ per ogni x, y ∈ D;dunque f si prolunga a una funzione γ–hölderiana su [0, 1].

Dimostrazione. Iniziamo con una proprietà importante che ricorrerà nelcorso della dimostrazione. Prendiamo x ∈ Dn con n > n0 e sia y ∈ D cony < x + 1

2n (ossia che sta prima del successore di x in Dn) e cerchiamo dicontrollare |f(x)− f(y)|. Osserviamo che y ha uno sviluppo del tipo

y =k

2n+

∞∑i=1

εi2n+i

,

con εh che vale 0 o 1, e definitivamente vale 0 perché y è diadico.2 Dunque

|f(x)− f(y)| ≤∞∑i=1

|εh|2γ(n+i)

( ∞∑i=1

1

2iγ

)2−nγ = C · 2−nγ .

Da questa prima parte segue che f è limitata su D. Infatti sia M0 =maxk=0, ..., 2n0

∣∣f ( k2n0

)∣∣: se x ∈ D allora esiste k tale che k2n0 ≤ x < k+1

2n0

e dunque per la prina parte

|f(x)| ≤M0 + C · 2−γn0 .

2questo sviluppo si ottiene in questo modo. Se x = k/2n si suddivide l’intervalloI0 =

[k2n, k+1

2n

]in due parti uguali: ε1 sarà 0 o 1 se y sta nella parte sinistra o nella

parte destra rispettivamente. Dopodiché si procede in questo modo dividendo in due ilsottointervallo in cui y cadeva.

9

Page 11: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Siano ora x, y ∈ D due diadici, i casi sono due: o esiste n > n0 tale che2−(n+1) ≤ |x− y| ≤ 2−n oppure |x− y| ≥ 2−n0 , esaminiamoli.

• Nel primo caso tra x e y, per loro distanza, è compreso al più un solopunto di Dn, e usando due volte la disuguaglianza provata sopra si ha

|f(x)− f(y)| ≤ 2 · C · 2−nγ ≤ 2C · 2|x− y|γ = 21+γC|x− y|γ .

• se |x− y| ≥ 2−n0 allora

|f(x)− f(y)| ≤ 2M0 =2M0

|x− y|γ|x− y|γ ≤ 2M · 2n0γ |x− y|γ .

Il lemma è così provato.

Adesso torniamo a parlare di processi stocastici e ci serve ancora un teo-rema che consenta di costruire modificazioni di processi. Per semplicificarele cose supporremo che i processi stocastici che prenderemo in considerazionesiano definiti su T = [0, 1].

Teorema 1 (di Kolmogorov). Sia (Xt)0≤t≤1 un processo stocastico e sup-poniamo che per ogni 0 ≤ t, s ≤ 1 si ha

E [|Xt −Xs|p] ≤ C|t− s|1+α

per alcune costanti α, p e C positive. Allora esiste una modificazione delprocesso con traiettorie γ–hölderiano per ogni 0 < γ < α

p .

Dimostrazione. Consideriamo il processo ristretto ai tempi diadici e andiamoa vedere che probabilità ha l’evento

An =∃k = 0, . . . , 2n − 1 tale che

∣∣∣X k+12n−X k

2n

∣∣∣ > 2−nγ.

Se queste probabilità sono sommabili avremo che il processo soddisfa l’ipotesidel lemma precedente. Si ha

P(An) ≤2n−1∑k=0

P∣∣∣X k+1

2n−X k

2n

∣∣∣p > 2−nγp≤

≤2n−1∑k=0

2nγp · E[∣∣∣X k+1

2n−X k

2n

∣∣∣p] ≤≤ C

2n−1∑k=0

2nγp

2n(1+α)= C · 2n 2nγp

2n(1+α)=

C

2n(α−γp) .

10

Page 12: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Per la maggiorazione appena scritta, se γ < αp , la serie

∑∞n=1 P(An) è finita.

Dunque per il lemma di Borel–Cantelli esiste Ωγ0 di probabilità 1 tale che

per ogni ω ∈ Ωγ0 esiste n0(ω) tale che per ogni n > n0(ω)vale

∀k = 0, . . . , 2n − 1 si ha∣∣∣X k+1

2n−X k

2n

∣∣∣ ≤ 2−nγ .

Quindi per ω ∈ Ωγ0 valgono le ipotesi del lemma 3, pertanto la traiettoria

Xt(ω) | t ∈ D è γ–hölderiana. Consideriamo adesso

Ω0 =⋂γ∈Q

0<γ<αp

Ωγ0 ,

e si ha P(Ω0) = 1, in quanto intersezione numerabile di insiemi di misura 1.Dunque per ogni ω ∈ Ω0 vale l’ipotesi del lemma per ogni γ ∈

(0, αp

), così

per ognuno di questi γ vale la γ–hölderianità delle traiettorie per t ∈ D. Perogni t ∈ [0, 1] definiamo

Xt = lims→ts∈D

Xs,

dove il limite è da intendersi quasi certamente. Ora, Xt ha traiettorie γ–hölderiane per ogni γ ∈

(0, αp

)in quanto è stato definito con estensione per

continuità da Xt. Inoltre per ogni t /∈ D (per i diadici è ovvio) si ha cheXt = Xt quasi certamente: infatti sia Xt che Xt sono il limite in probabilitàdi Xs per s → t sui diadici. Infatti Xt è limite Lp di Xs per l’ipotesi delteorema e quindi è anche limite in robabilità; mentre Xt è limite quasi certodi Xs per costruzione, e quindi è anche limite in probabilità.

Vediamo ora come applicare tutto ciò per la costruzione del moto brow-niano:

Teorema 2. Esiste una modificazione del moto browniano grossolano contraiettorie γ–hölderiane per ogni γ ∈

(0, 1

2

).

Dimostrazione. Sia (Bt)0≤t≤1 un moto browniano grossolano; la proprietà(3) ci dice che Bt −Bs ha legge N(0, t− s). Dunque

Bt −Bs√|t− s|

∼ N(0, 1).

Dunque, preso p > 2 qualsiasi, si ha

E [|Bt −Bs|p] = E

[∣∣∣∣∣Bt −Bs√|t− s|

∣∣∣∣∣p]· |t− s|p/2,

11

Page 13: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

dove tutti i momenti E [|X|p] sono finiti essendo X gaussiane. Dal teoremadi Kolmogorov si ha la γ–hölderianità per 0 < γ < p−2

2p per ogni p > 2.Dunque si ha la γ–hölderianità per 0 < γ < 1

2 .

6 Un’osservazione sul teorema di Kolmogorov

Consideriamo un processo stocastico (Xx)x∈Rd ; il teorema di Kolmogorovcontinua a valere anche in questo caso, però la stima dell’ipotesi deve esseresostituita con

E [|Xx −Xy|p] ≤ C|x− y|d+α.

Osserviamo informalmente che se “non ci fosse” il valore atteso avremmo lad+αp –hölderianità delle traiettorie. Però il teorema, con quell’ipotesi, garan-

tisce solo la αp –hölderianità (o meglio la γ–hölderianità per ogni γ < α

p ), equindi si perde un d.Indaghiamo la radice di questo fatto in dimensione 1: sappiamo che laconvergenza Xn → X in Lp non implica la convergenza quasi certa dellasuccessione.3 Supponiamo adesso che

∞∑n=1

E [|Xn −X|p] <∞.

Affermiamo che per ogni ε > 0 la serie∞∑n=1

P(|Xn −X| > ε)

è convergente: infatti, utilizzando la disuguaglianza di Chebychev, si ottieneche

P (|Xn −X| > ε) ≤ 1

εpE [|Xn −X|p]

e abbiamo proprio supposto che la serie dei valori attesi convergesse. Dunqueper il lemma di Borel–Cantelli si ha che esiste Ωε di probabilità 1 tale cheper ogni ω ∈ Ωε esiste n0(ω) tale che per ogni n > n0(ω) si ha

|Xn(ω)−X(ω)| ≤ ε.

Consideriamo ora Ω0 =⋂k≥1 Ω 1

k: questo è un insieme di probabilità 1 tale

che per ogni ω ∈ Ω0

|Xn(ω)−X(ω)| ≤ 1

k,

il che ci garantisce la convergenza quasi certa di Xn a X.3al massimo è garantita la convergenza quasi certa di una sottosuccessione.

12

Page 14: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Nelle osservazioni precedente siamo arrivati dunque a dimostrare il risultatoche segue:

Proposizione 3. Se Xn → X in Lp e se

∞∑n=1

E [|Xn −X|p] <∞

allora Xn → X quasi certamente.4

Concludendo: se supponiamo ad esempio

E [|Xn −X|p] ≤C

n1+α.

con α > 0 allora abbiamo la convergenza della serie di questi valori attesi,e dunque la convergenza quasi certa di Xn a X. Notiamo quindi che, peravere quest’ultima convergenza, abbiamo dovuto accrescere l’esponente 1 neldenominatore n1+α.

7 Variazione quadratica del moto browniano

Introduciamo un nuovo concetto:

Definizione 7. Data π = 0 = t0 < t1 < · · · < tn = t una partizione di[0, t] definiamo variazione quadratica di X relativamente a π la quantità

[X]πt =n−1∑i=0

∣∣Xti+1 −Xti

∣∣2 .Definizione 8. È data una successione di partizioni πnn≥1 con |πn| → 0.Se esiste il limite in probabilità

limn→∞

[X]πnt

chiamiamo questo limite variazione quadratica di X relativa a πnn≥1 e loindichiamo con [X]

πnt . Se il limite non dipende da πnn≥1, scriveremo

solo [X]t.

4in realtà l’ipotesi Xn → X in Lp è superflua perché è già inglobata nell’altra. Infattise la serie scritta converge allora il suo termine generale va a zero, il che significa proprioche Xn → X in Lp.

13

Page 15: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Teorema 3. Il moto browniano possiede variazione quadratica, e si ha[B]t = t. Inoltre, se πn è la partizione “diadica” di [0, t] della forma k

2n t,allora la successione [X]πnt converge a t quasi certamente.

Dimostrazione. La prima affermazione dell’enunciato viene lasciata peresercizio mentre si dimostra la seconda. Dimostriamo quindi che

2n−1∑k=0

∣∣∣B k+12n

t −B k2nt

∣∣∣→ t

quasi certamente. Riscriviamo il primo membro come

1

2n

2n−1∑k=0

∣∣∣√2n(B k+1

2nt −B k

2nt

)∣∣∣2 =1

2n

2n−1∑k=0

X(n)k .

Osserviamo che le X(n)k sono variabili aleatorie indipendenti e identicamente

distribuite: infattiB k+1

2nt −B k

2nt

è una gaussiana N(0, t/2n), così che si perde ogni dipendenza da k nellalegge di X(n)

k . Non possiamo applicare la Legge Forte dei Grandi Numeriperché le variabili aleatorie X(n)

k dipendono da n. Possiamo però ispirarci adalcuni passaggi di quelle dimostrazioni. Un calcolo elementare che si svolgeper dimostrare la Legge Debole dei Grandi Numeri mostra che

E

∣∣∣∣∣ 1

2n

2n−1∑k=0

X(n)k − t

∣∣∣∣∣2 =

σ2

2n,

dove σ2 = V ar(X

(n)k

). Il valore atteso è tale che soddisfa le ipotesi della

proposizione 3, e dunque si ha la convergenza quasi certa.

Per ora non notiamo la portata del risultato precedente, che invece hadelle importantissime conseguenze. Vediamo di esplicitarle. Nei seguentidue lemmi calcoleremo la variazione quadratica di alcune classi di funzioni,così da poterle confrontare con il moto browniano.

Lemma 4. Le funzioni lipschitziane hanno variazione quadratica nulla.

Dimostrazione. Sia f una funzione lipschitziana di costante L. Allora

[f ]π1 =

n−1∑i=0

|f(ti+1)− f(ti)|2 ≤ L2n−1∑i=0

|ti+1 − ti|2 ≤ L2|π| · 1,

14

Page 16: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

dove l’ultimo passaggio vale in quanto |ti+1 − ti|2 ≤ |π|(ti+1 − ti). Dunque

lim|πn|→0

[f ]πn1 = 0

e ciò conclude.

Scendiamo ora di regolarità e consideriamo le funzioni α–hölderiane su[0, 1]:

Lemma 5. Le funzioni α–hölderiane con α > 12 hanno variazione quadratica

nulla.

Dimostrazione. Si ha

[f ]π1 ≤ C2n−1∑i=0

|ti+1 − ti|2α ≤ C2|π|2α−1n−1∑i=0

(ti+1 − ti) = C2|π|2α−1.

Dunque se α > 12 abbiamo nuovamente che [f ]1 = 0.

Da queste due semplici osservazioni discende in modo ovvio un fattonotevole:

Corollario 2. Quasi ogni traiettoria del moto browniano non è γ–hölderianaper γ > 1

2 .

Dimostrazione. La variazione quadratica del moto browniano non è nulla.

Ricapitolando sin qui abbiamo che il moto browniano ha traiettore γ–hölderiane per γ < 1/2, mentre non le ha γ–hölderiane per γ > 1/2. Rimaneda esaminare il caso γ = 1

2 : un risultato più avanzato dovuto a Paul Lévy(collegato alla legge del logaritmo iterato) mostra che il moto browniano nonha traiettorie 1

2–hölderiane.

Osservazione 2. Da un lato il moto browniano è molto irregolare in quantonon è neanche hölderiano con esponente da 1

2 in poi; dall’altro lato però ilmoto browniano possiede la speciale caratteristica di avere variazione qua-dratica t.Abbiamo visto prima che le funzioni regolari come le lipschitziane e le α–hölderiane di esponente α > 1

2 hanno variazione quadratica nulla; si puòvedere tentando con degli esempi concreti che, cercando di rendere menoregolare una funzione delle classi dette sopra, la sua variazione quadraticava all’infinito. È molto difficile costruire funzioni la cui variazione quadra-tica non sia nulla ma neanche vada all’infinito. La variazione quadraticacattura una proprietà limite del moto browniano, assai insolita per funzionideterministiche.

15

Page 17: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

Osservazione 3. Il fatto che la variazione quadratica sia proprio uguale a t èuna caratteristica molto specifica del moto browniano. Riportiamo un fatto(dovuto a Paul Lévy), senza dimostrazione: all’interno di una vasta classedi processi stocastici (le martingale), un processo stocastico ha variazionequadratica t se e solo se è un moto browniano.

8 Andamento del moto browniano

Abbiamo visto che le traiettorie del moto browniano sono γ–hölderiane perγ < 1

2 positivo. Ora vogliamo indagare meglio riguardo alle fluttuazioni diqueste traittorie, delle ampiezze che esse possono avere e se si può stimarein qualche senso un limite superiore di queste ampiezze. Iniziamo con unteorema riguardo agli zeri di queste traiettorie:

Teorema 4. Sia (Bt)t≥0 un moto browniano standard e sia

Z(ω) = t ≥ 0 | Bt(ω) = 0.

Allora per quasi ogni ω(1) Z(ω) 6= ∅;(2) λ(Z(ω)) = 0, dove λ è la misura di Lebesgue.(3) Z(ω) è chiuso;(4) Z(ω) è privo di punti isolati

Dimostrazione. (1) Fissato ω si ha 0 ∈ Z(ω), in quanto B0 = 0.(2) Per mostrare che Z(ω) ha misura di Lebesgue nulla per quasi ogni ωbasta far vedere che per ogni T ≥ 0∫ T

01Bt(ω)=0 dt = 0

per quasi ogni ω. Per far ciò proveremo che il valore atteso dell’integralescritto è nullo; si ha

E(∫ T

01Bt(ω)=0 dt

)=

∫ T

0P(Bt = 0) dt;

però, a t fissato, il moto browniano è una gaussiana e dunque la probabilitàche si annulli è zero.(3) Le traiettorie del moto browniano, ossia le mappe t 7→ Bt(ω), sonocontinue. Dunque l’insieme dei loro zeri è un insieme chiuso.

16

Page 18: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

(4) La dimostrazione di questo fatto è molto laboriosa e richiede strumentiche non sono in nostro possesso. Mostriamo un fatto parziale su questo, ossiache t = 0 non è un punto isolato di Z(ω). Fissiamo tnn≥1 successione ditempi decrescente e infinitesima, e definiamo

A+ = ω | Btn(ω) > 0 per infiniti n

eA− = ω | Btn(ω) < 0 per infiniti n.

Vediamo intanto se A+ e A− sono misurabili. L’osservazione cruciale èche A+ si ottiene dagli insiemi cilindrici con una quantità numerabile dioperazioni, e dunque A+ appartiene alla σ–algebra generata dai cilindrici(ossia è boreliano). Analogo ragionamento per A−. Inoltre sui cilindrici imoti browniani B e −B hanno la stessa legge, così

PB(A+) = P−B(A−) = PB(A−).

Se mostriamo che P(A+) = P(A−) = 1, per continuità delle traiettorieavremmo infiniti zeri che tendono decrescendo a 0.5 Intanto osserviamo che ilcomplementare di A+ è l’insieme degli ω per cui Btn (ω) ≤ 0 definitivamente,cioè esiste n0 (ω) tale che Btn (ω) ≤ 0 per ogni n ≥ n0 (ω). Se ω appartienea questo insieme, allora o accade che ω ∈ A−, oppure significa che esisten1 (ω) tale che Btn (ω) = 0 per ogni n ≥ n1 (ω). Quindi(

A+)C ⊂ A− ∪N

dove N è l’insieme degli ω per cui esiste n1 (ω) tale che Btn (ω) = 0 per ognin ≥ n1 (ω). Quindi

N =⋃n0≥1

⋂n≥n0

Nn

dove Nn = Btn = 0. Ma P (Btn = 0) da cui facilmente P (N) = 0. Dal-l’inclusione (A+)

C ⊂ A− ∪N , l’uguaglianza P (A+) = P (A−) ed il fatto cheP (N) = 0 discende

P(A+)

= P(A−)≥ 1/2.

Infatti, se indichiamo con α il comune valore di P (A+) e P (A−), vale che1−α ≤ α. Questo ancora non ci permette di concludere; per arrivare alla tesiutilizzeremo in modo opportuno la legge 0–1 di Kolmogorov. Introduciamole variabili aleatorie

Xn = Btn −Btn+1 ,

5sono gli zeri del moto browniano sugli intervalli dove prima il moto è positivo e dopoè negativo, o viceversa.

17

Page 19: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

che sono indipendenti perché incrementi del moto browniano. Ora Btn =∑∞k=nXk e dunque A+ è quindi un evento associato alla coda arbitraria di

una serie di variabili aleatorie indipendenti, e dunque A+ è un evento coda.Per la legge 0–1 di Kolmogorov si conclude che P(A+) = 1 (non potendoessere nulla).

Osservazione 4. Con strumenti più avanzati si riesce a mostrare che tuttigli altri punti non sono isolati. L’idea è la seguente. Si fissa un certo tempou > 0 e si considera il primo zero successivo a u, sia esso τu.6 Usando unaproprietà detta di Markov forte, si possono ripetere i ragionamenti precedentiper il processo stocastico

t 7→ Bτu(ω)+t (ω)

(si noti che esso è nullo per t = 0), arrivando a dimostrare che la probabilitàP (ω|τu (ω) non è isolato) = 1. Da questa discende che

P

⋂u∈Q+

ω | τu(ω) non è isolato

= 1,

e si mostra facilmente che la probabilità rimane 1 anche se facciamo un’in-tersezione sugli u ∈ R+ in quanto gli eventi che ne risultano sono uguali.7

Vista questa prima parte sugli zeri andiamo ora a trattare l’andamentodelle fluttuazioni del moto browniano, che sorprendentemente sarà un’appli-cazione del secondo lemma di Borel–Cantelli.Sia tnn≥1 una successione di tempi descrescente e infinitesima. Conside-riamo le variabili aleatorie Xn = Btn −Btn+1 e prendiamo gli eventi

An = Xn ≥ γn,

con γn costanti che fisseremo dopo a seconda di quello che ci conviene. Datoche Xn sono gaussiane N(0, tn − tn+1), detta Z una gaussiana standard siha

P(An) = P(√

tn − tn+1Z ≥ γn)

= P(Z ≥ γn√

tn − tn+1

).

Adesso vogliamo minorare queste probabilità in modo che la serie che nerisulta sia divergente, in modo da poter usare il lemma di Borel–Cantelli.Compiremo due scelte diverse dei γn, una scelta naturale e immediata chedarà i primi risultati, e poi una scelta più elaborata, che produrrà invecerisultati più profondi.

6osserviamo che questo τu esiste in quanto l’insieme degli zeri del moto browniano èchiuso.

7l’intersezione sui reali è banalmente contenuta nell’intersezione sui razionali; viceversa,preso un numero reale u si sceglie una successione di razionali qnn≥1 che gli convergeda sinistra e si applica l’ipotesi.

18

Page 20: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

• Se prendiamo γn = C√tn − tn+1 allora le probabilità sono minorabili

con una costante, così che la loro serie diverge. Il secondo lemma diBorel–Cantelli ci dice che esiste ΩC di probabilità 1 tale che per ogniω ∈ ΩC e per ogni m > 0 esiste un n ≥ m tale che

Btn −Btn+1 ≥ C√tn − tn+1.

Prendendo Ω0 =⋂k∈N Ωk si ha che Ω0 ha probabilità 1; e vale che per

ogni ω ∈ Ω0, per ogni m > 0 e per ogni C > 0 esiste un n ≥ m taleche

Btn −Btn+1 ≥ C√tn − tn+1.

Quello che abbiamo dimostrato con questa applicazione del lemma diBorel–Cantelli è che, per intervalli di tempo arbitrari ci sono fluttua-zioni in aumento molto più grandi della differenza temporale, precisa-mente dell’ordine della radice quadrata della differenza temporale concostante moltiplicativa arbitrariamente grande. Stesso discorso per lefluttuazioni in diminuzione.

Adesso osserviamo che

P(Z ≥ t) =

∫ ∞t

1√2πe−

x2

2 dx ≥∫ t+1

t

1√2πe−

x2

2 dx ≥

≥ 11√2πe−

(t+1)2

2 =1√2πe−

(t+1)2

2 ,

Dunque

P(Z ≥ γn√

tn − tn+1

)≥ 1√

2πe−

(γn√

tn−tn+1+1

)2

2 .

• Prendiamo le particolari successioni

tn =∞∑k=n

e−k

γn =

√2 (tn − tn+1) log log

1

tn − tn+1−√tn − tn+1.

Allora (γn√

tn − tn+1+ 1

)2

= 2 log log1

tn − tn+1= −2 log n

19

Page 21: Il moto browniano - unipi.itusers.dma.unipi.it/~flandoli/Il moto browniano-1.pdf · Il moto browniano note del corso di Probabilità del prof. Flandoli Alessio del Vigna 4 giugno

e−

(γn√

tn−tn+1+1

)2

2 =1

n

e quindi la serie∑∞

n=1 P(Z ≥ γn√

tn−tn+1

)diverge. Per il secondo lem-

ma di Borel–Cantelli abbiamo quindi

Btn −Btn+1 ≥

√2 (tn − tn+1) log log

1

tn − tn+1−√tn − tn+1

per infiniti indici n. Si noti che il termine√tn − tn+1 è di ordine

inferiore all’altro per n → ∞. Questo risultato mostra solamente checi sono fluttuazioni in crescita dell’ordine addirittura di√

2 (tn − tn+1) log log1

tn − tn+1

(quindi più di C√

(tn − tn+1) con C comunque grande).

Con ulteriore fatica si può dimostrare il seguente risultato di P. Lévy,detto legge del logaritmo iterato, collegato al calcolo appena svolto:

lim supt→0

Bt√2t log log 1

t

= 1 e lim inft→0

Bt√2t log log 1

t

= −1

quasi certamente.Come osservazioni conclusive sul moto browniano, accenniamo al fatto

che per esso vale la seguente proprietà (della quale la proprietà di Markovforte nominata sopra è un’elaborazione ulteriore):

Teorema 5 (proprietà di Markov). Sia Fs = σ(Br | r ≤ s), allora

E [ϕ(Bt)|Fs] = E [ϕ(Bt)|Bs] .

Dimostrazione. Omessa.

Inoltre, si consideri lo spazio delle funzioni continue C ([0, 1]) munitodella σ-algebra B dei boreliani. Se (Bt)t∈[0,1] è un moto browniano standardsu uno spazio (Ω,F ,P), possiamo considerare l’applicazione che manda ω ∈Ω in (Bt (ω))t∈[0,1] ∈ C ([0, 1]). Si può dimostrare che è misurabile e quindidefinisce una misura PB su (C ([0, 1]) ,B), detta misura di Wiener. Fattaquesta considerazione, quando si parla della legge del moto browniano, siintende questa misura.

20