90
I - TEORIA DELLA PROBABILITÁ 1. Variabili aleatorie discrete X (notare la lettera maiuscola) si dice v.a. discreta se può assumere un numero finito di valori { } 1 2 , , ..., n x x x (notare le lettere minuscole). Come esempio, una variabile aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che entrano in un supermercato in 10 minuti. Per le variabili aleatorie discrete si può esprimere una funzione chiamata distribuzione di probabilità: questa funzione associa ad ogni valore assunto dalla v.a. discreta la relativa probabilità di “uscire”. La probabilità che un certo valore 1 x sia l’esito di un esperimento, modellato con una v.a. discreta, si definisce come { } i X i p P X x = = Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF, cumulative distribution function): essa esprime la probabilità che la variabile aleatoria in questione assuma valore pari o inferiore a quello di un certo esito ( { } X X F x P X x = Tale tipo di funzione non può essere altro che crescente (anche se non strettamente, perché può rimanere zero in alcuni tratti). Per le v.a. discrete si definiscono: - il valor medio: ( 29 { } i i X i i p EX xP X x = = ; - la varianza: ( 29 ( 29 ( 29 [ ] 2 2 2 2 var X E X EX EX E X σ = = - = - ; Dimostrazione : ( 29 ( 29 ( 29 ( 29 ( 29 ( 29 ( 29 2 2 2 2 2 i i i i E X EX X EX p X E X XE X p - = - = + - = ( 29 ( 29 ( ( 29 ( 29 ( 29 ( 29 ( 29 ( 29 2 2 2 2 2 2 2 2 1 2 2 EX i i i i i i EX Xp EX Xp E X p EX E X E X EX E X = - + = - + = - ; - la deviazione standard: ( var x σ = ; - il momento di ordine n: n EX . 2. Variabili aleatorie continue X (notare la lettera maiuscola) si dice v.a. continua se può assumere un numero infinito e non numerabile di valori . Per questo tipo di variabili esiste una funzione densità di probabilità (PDF, probability density function), che è la controparte continua della funzione distribuzione di probabilità delle v.a. discrete. Per le v.a. continue non ha senso calcolare la probabilità che l’esito di un esperimento sia un valore reale preciso (i valori che la variabile può assumere sono infiniti, e dunque la probabilità che “esca” uno preciso di essi è nulla); possiamo soltanto calcolare la probabilità che la variabile aleatoria assuma valori compresi fra due estremi reali a e b:

Comunicazioni elettriche LB

Embed Size (px)

DESCRIPTION

Riassunto di Comunicazioni elettriche LB

Citation preview

Page 1: Comunicazioni elettriche LB

I - TEORIA DELLA PROBABILITÁ 1. Variabili aleatorie discrete X (notare la lettera maiuscola) si dice v.a. discreta se può assumere un numero finito di valori 1 2, , ..., nx x x (notare le lettere minuscole). Come esempio, una variabile

aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che entrano in un supermercato in 10 minuti. Per le variabili aleatorie discrete si può esprimere una funzione chiamata distribuzione di probabilità: questa funzione associa ad ogni valore assunto dalla v.a. discreta la relativa probabilità di “uscire”. La probabilità che un certo valore 1x sia

l’esito di un esperimento, modellato con una v.a. discreta, si definisce come i X ip P X x= =

Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF, cumulative distribution function): essa esprime la probabilità che la variabile aleatoria in questione assuma valore pari o inferiore a quello di un certo esito

( ) X XF x P X x= ≤

Tale tipo di funzione non può essere altro che crescente (anche se non strettamente, perché può rimanere zero in alcuni tratti). Per le v.a. discrete si definiscono:

- il valor medio: ( ) i

i X ii

p

E X x P X x= =∑ ;

- la varianza: ( ) ( )( ) [ ]22 2 2var X E X E X E X E Xσ = = − = − ;

Dimostrazione:

( )( ) ( )( ) ( ) ( )( )2 2 2 2 2i i

i i

E X E X X E X p X E X XE X p − = − = + − = ∑ ∑

( )

( )

( )

( )

( ) ( ) ( ) ( ) ( )2

2 2 2 2 2 2 2

1

2 2

E X

i i i

i i i

E X

X p E X Xp E X p E X E X E X E X E X= − + = − + = −∑ ∑ ∑

;

- la deviazione standard: ( )var xσ = ;

- il momento di ordine n: nE X .

2. Variabili aleatorie continue X (notare la lettera maiuscola) si dice v.a. continua se può assumere un numero infinito e non numerabile di valori ∈ℝ . Per questo tipo di variabili esiste una funzione densità di probabilità (PDF, probability density function), che è la controparte continua della funzione distribuzione di probabilità delle v.a. discrete. Per le v.a. continue non ha senso calcolare la probabilità che l’esito di un esperimento sia un valore reale preciso (i valori che la variabile può assumere sono infiniti, e dunque la probabilità che “esca” uno preciso di essi è nulla); possiamo soltanto calcolare la probabilità che la variabile aleatoria assuma valori compresi fra due estremi reali a e b:

Page 2: Comunicazioni elettriche LB

( ) db

X

a

P a X b f x x≤ ≤ = ∫

Inoltre, abbiamo una CDF così definita:

( ) ( ) dx

X X XF x P X x f u u

−∞

= ≤ = ∫

che è l’area che sta sotto la curva PDF da −∞ al valore scelto x. Per come è stata definita, la CDF è una primitiva della PDF (e, dunque, la PDF sarà la derivata della CDF); tale funzione di distribuzione cumulativa avrà le seguenti proprietà: - è sempre maggiore o uguale a 0 (e inferiore o al limite uguale a 1); - se integrata su tutto l’asse reale dà come risultato 1; - è non decrescente; - vale 0 a meno infinito e 1 a più infinito. Per le v.a. continue si definiscono:

- il valor medio: ( ) ( ) dX

E x xf x x+∞

−∞

= ∫ ;

- la varianza: ( ) ( )( ) [ ]22 2 2var X E X E X E X E Xσ = = − = − (per la dimostrazione

vedi il caso discreto); - la deviazione standard: ( )var xσ = ;

- il momento di ordine n: nE X ;

- il percentile: l’n-simo percentile di una v.a. è il valore (assunto dalla v.a. stessa) per il quale la CDF vale 100

n ;

- la mediana: è il cinquantesimo percentile della v.a.; - la moda: è il valore “più probabile”, quello – cioè – che rende massima la densità di probabilità; possono esserci più valori di moda (se è uno si parla di distribuzione monomodale; se sono due di distribuzione bimodale, etc…).

3. Estensione: 2 variabili aleatorie Se abbiamo, ad esempio, due variabili aleatorie continue X e Y, possiamo definire la densità di probabilità congiunta ( ), ,X Yf x y : essa è la funzione che esprime la seguente

probabilità ( ) , , ,X Yf x y P X x Y y= = = . Ovviamente trattasi di una funzione a più

variabili (reali), graficabile nel piano a tre dimensioni. Se nel piano cartesiano in cui riportiamo i valori di X e Y tracciamo un insieme chiuso A, allora la probabilità che le due variabili aleatorie assumano valori compresi in A è calcolabile mediante un integrale:

( ) ( ) , , d d ,X Y

A

f x y x y P X Y A= ∈∫∫

Di conseguenza, se nel piano cartesiano di cui sopra ritagliamo un piccolo quadratino infinitesimo di lati dy e dx, la probabilità che i valori assunti dalle variabili aleatorie siano quelli compresi in tale francobollo infinitesimo sarà rappresentata dal termine che poco fa abbiamo trovato sotto l’integrale:

( ) , , d d d , dX Yf x y x y P x X x x y Y y y= ≤ ≤ + ≤ ≤ +

Possiamo “sciogliere” la dipendenza di tale funzione da una delle due variabili aleatorie (o anche da entrambe) tramite un integrale su tutto l’asse reale: così facendo otterremo un’ordinaria funzione a una variabile.

Page 3: Comunicazioni elettriche LB

( ) ( )

( ) ( )

,

,

, d

, d

X Y X

X Y Y

f x y y P X x f x

f x y x P Y y f y

= = =

= = =

∫ℝ

4. Estensione: n variabili aleatorie È la versione estesa ad libitum di ciò che si è visto fin’ora; si può definire:

- una funzione densità di probabilità per n variabili aleatorie: ( )

1 2, , ..., 1 2, , ..., nX X X nf x x x ;

- integrando questa funzione sull’asse reale possiamo rimuovere la dipendenza di tale funzione da una variabile (o da n, integrando in nℝ ):

( ) ( )1 2 1 2 1, , ..., 1 2 , , ..., 1 2 1, , ..., d , , ...,

n nX X X n n X X X nf x x x x f x x x− −=∫

( ) ( )1 2 1 2, , ..., 1 2 1 2 , , ..., 1 2, , ..., d d ...d , , ...,

n k k nk

X X X n k X X X k k nf x x x x x x f x x x+ + + +=∫

(con k < n) ( )

1 2, , ..., 1 2 1 2, , ..., d d ...d 1n

n

X X X n nf x x x x x x =∫ℝ

Se vogliamo calcolare la probabilità che le n variabili aleatorie assumano valori compresi in un insieme A (n-dimensionale), possiamo utilizzare l’integrale:

( ) ( ) 1 2, , ..., 1 2 1 2 1 2, , ..., d d ...d , , ...,

nX X X n n n

A

f x x x x x x P x x x A= ∈∫ ∫ ∫…

dove la quantità presente all’interno dell’integrale rappresenta una sorta di francobollo n-dimensionale infinitesimo:

( ) 1 2, , ..., 1 2 1 2 1 1 1 2 2 2, , ..., d d ...d d , d , ..., d

nX X X n n n n nf x x x x x x P x X x x x X x x x X x x= ≤ ≤ + ≤ ≤ + ≤ ≤ +

Integrando (di volta in volta) questa quantità possiamo ricavare la probabilità in ogni caso particolare che ci interessa. 5. Variabile aleatoria uniforme La notazione per indicare una variabile aleatoria uniforme è la seguente:

[ ],X U a b∼

Con questa notazione si indica che tra a e b vi è lo stesso valore di densità di probabilità. La relativa funzione sarà dunque:

( )1

tra e (*)

0 altroveX

a bf x b a

= −

(*) Se si tiene presente che l’area sotto la curva della funzione densità di probabilità dev’essere 1 e che tale funzione dev’essere costante allora risulta evidente che l’area sopra menzionata è quella di un rettangolo di base b – a (e dunque (b – a)–1 dovrà essere l’altezza!)

Possiamo poi calcolare:

- il valor medio:

( ) ( )

( )( )2 21 1 1

d d d2 2

b a b a

b b

X

a a

b a b aE x xf x x x x x x

b a b a b a

− +

+∞

−∞

− += = = = =− − −∫ ∫ ∫

- la varianza:

Page 4: Comunicazioni elettriche LB

( ) ( )( ) [ ] ( )222 2 2 2 1

var d4

b

a

b aX E X E X E X E X x x

b aσ

+ = = − = − = − = −∫

( ) ( )( )( )

( )( ) ( ) ( )

2 2

2 3 2 2 23 2 213 4 3 4 3 4 12

b a a ab b

b

a

b a b a b a b a b ax a ab b

b a b a

− + +

+ − + + − + += − = − = − = − −

6. Variabile aleatoria normale (gaussiana) La notazione per indicare una variabile aleatoria Gaussiana (o normale) è la seguente:

2,X N µ σ ∼

La densità di probabilità ha invece questo aspetto:

( )( )2

221 con 0

2

x

Xf x e

µσ σ

πσ

−−

= >

Questo termine, se integrato su tutto l’asse reale, dà come risultato 1. La comodità di questo tipo di variabile sta nel fatto che, se ne diamo la definizione come illustrato sopra, abbiamo già, senza fare un calcolo: - il valor medio: ( )E X µ= ;

- la varianza: ( ) 2var X σ= .

La funzione CDF sarà:

( ) ( )( )2

221 dt dt

2

tx x

X XF x f t e

µσ

πσ

−−

−∞ −∞

= =∫ ∫

All’interno di questa espressione è presente l’integrale del termine 2

e α− , che è risolvibile in campo complesso col teorema dei residui e che in campo reale non è computabile. Per questo motivo si usano tabelle speciali in cui sono riportati valori approssimati di questa funzione. Ora calcoliamo alcune funzioni strettamente legate alla distribuzione gaussiana:

- funzione errore: ( ) 2

0

2erf d

x

tx e tπ

−∫≜ (NOTA: è funzione dispari).

Come si osserva, questa funzione ricorda molto da vicino la gaussiana: se infatti

prendiamo la ( )( )2

221

2

x

Xf x e

µσ

πσ

−−

= , poniamo 0µ = e 2 12

σ = otteniamo

( ) 2 21 1=

12

2

x x

Xf x e eππ

− −=

e integriamo su tutto l’asse reale, il risultato sarà pari a 1. Si nota bene che per x che tende ad infinito la funzione errore tende ad 1; inoltre possiamo interpretare tale funzione come la probabilità che:

( ) ( )erfP X x x< = con 1

0,2

X N

La CDF della distribuzione normale si può calcolare tramite la funzione errore:

( ) 1 1erf

2 2 2X

xF x

µσ

− = +

Dimostrazione:

Page 5: Comunicazioni elettriche LB

( )( ) ( ) ( )2 2 2

2 2 22 2 21 1 1 d d d

2 2 2

t t tx x

XF x e t e t e t

µ µ µµσ σ σ

µπ σ π σ π σ

− − −− − −

−∞ −∞

= = + =∫ ∫ ∫

( ) ( )

( )

2 2

22 22 2

cambio di 0variabile

1 2, per ché il valor mediodivide l'area sotto al grafico

2della gaussiana in due partiuguali e valenti 1/2

1 1 1 1 d d 2 ds

22 2 2

x

t tx

s

ts

e t e t e

µµ µµ

σ σ

µ

µσ

σπ σ π σ π σ

−− −

− −−

−∞

= −=

= + = +∫ ∫

2

notare che 2dt ds

σ

σ=

=∫

22

0

erf2

1 1 2 1 1 ds erf

2 2 2 2 2

x

s

x

xe

µσ

µσ

µπ σ

− = + = +

- funzione errore complementare: ( ) ( ) 22erfc 1 erf dt

x

x x e tπ

+∞−− = ∫≜ .

Dimostrazione:

( ) ( ) 22erfc 1 erf 1 d

x

tx x e tπ

−∞

− = − =∫≜

2 2 2

0 0

1

2 2 2 d d d

x

t t t

x

e t e t e tπ π π

+∞ +∞− − −

=

= − =∫ ∫ ∫

Trovare la CDF della funzione gaussiana tramite la funzione errore complementare è semplice, visto che già conosciamo la relativa relazione per la funzione errore:

( ) 1 1 1 1 11 erfc

2erf 1 erf

2 2 2c

2 2 2 2X

xF

x xx

µσ

µ µσ σ

− − −= + = + = −

La funzione erfc(x) può essere approssimata da:

- ( )2

2431 1

erfc per 06 2

xxx e e x

−−≅ + > (ottima approssimazione);

- ( )2

erfc per 0xe

x xx π

≅ > (approssimazione meno buona, ma comunque

abbastanza accettabile per x > 3,5). NOTA: la funzione erfc(x) ha, come upper bound, funzioni come:

( ) 2 2 221 1erfc

2 2x x xx e e e− − −< + <

NOTA (2): la funzione inversa di erfc(x) è detta inverfc(x). Vale circa:

Page 6: Comunicazioni elettriche LB

( )( ) 0,8

lninverfc

1 0,6 ln

yy

y−

−≅+ −

( dove y = erfc(x) )

Tale relazione è valida per y che vale qualche decina.

Se la funzione erfc(y) è limitata da 2xe− , allora inverfc(x) è limitata da ln y− .

Dimostrazione: y = erfc(x) e inverfc(y) = x

2xy e−<

ln y < ln 2xe−

2ln y x− >

( )ln inverfc con 0 1y x y y− > = < <

- funzione Q: ( )2

21 1 d erfc

22 2

t

x

xQ x e t

π

+∞− =

∫≜

Dimostrazione:

( ) 22erfc dt

k

k e tπ

+∞−

∫≜

Se pongo k = 2

x:

2

2

2erfc d

2t

x

xe t

π

+∞−

∫≜

Cambio di variabile 2

tξ=

dd

2t

ξ= : 2

22 derfc

2 2t

xe

ξ ξπ

+∞−

∫≜

1 1erfc 2

2 22

x

≜ ( )2

21d

2 t

e Q tξ

ξπ

+∞−

=∫

7. Variabile aleatoria di Rayleigh

Una variabile aleatoria (continua) di Rayleigh ha una PDF così strutturata:

( )2

222

per 0:

0 altrove

x

X

xe x

X f xα

α−

≥=

Come per le altre variabili aleatorie lanciamoci nella ricerca di:

- valore atteso: [ ] 2E X πα= ;

Dimostrazione:

[ ]2 2

2 2

2

222

+

2 22

0

d0

questo termine si annulla

d

x

x x

xe x

xE X x e x x e

α

α α

α

α

∞+∞ − −

= = −

2 2

2 2

2

222

risoluzione per parti dell'integrale

2 2

d0 0d

d

1 1 d 2 d

2

x

x x

xx

xe x

e x e x

α

α α

α

α πα π

+∞ +∞− − − − = =

∫ ∫

(NOTA: è comparsa una gaussiana a valore medio nullo e varianza 2α )

Page 7: Comunicazioni elettriche LB

l'integrale copre metà dell'area che sta sotto la curva

2 1 22πα π α= =

- momento del second’ordine: 2 22E X α =

Dimostrazione:

2 2

2 2

2

222

+

2 2 22 22

0

d0

questo termine si annulla

d

x

x x

xe x

xE X x e x x e

α

α α

α

α

∞+∞ − −

= = −

2 2

2 2

2

2

222

risoluzione per parti dell'integrale

2 2

d0 0d

d

2 d 2 d

x

x x

xx

xe x

x e x xe x

α

α α

α

+∞ +∞− − − − = =

∫ ∫

2 2

2 22 2 22 22

0 0

2 d 2 2x x

xe x eα αα α α

α

+∞+∞ − −

= = − =

- varianza: ( ) [ ]2 2 2 2 2 2var 2 22 2

X E X E Xπ πσ α α α

= = − = − = −

8. Variabile aleatoria di Rice Una variabile aleatoria (continua) di Rice ha una PDF così strutturata:

( )2 2

2

polinomio di Besseldi ordine 0

202 2

con 0 : per 0

0 altrove

x

X

x xX f x e I x

µα µµ

α α

+−

> → = ≥

Il termine 0 2

xI

µα

, dove I0 sta ad indicare il Polinomio di Bessel di ordine zero, si

sviluppa così: ( ) 2cos

cos0 0 2

1 1 d d

2 2

x

x xI x e I e

µπ π ϑϑ α

π π

µϑ ϑπ α π

+ +

− −

∫ ∫≜ ≜ .

Per la variabile aleatoria di Rice si ha che:

momento del second’ordine

( )

2 2

2 2 2 2

fattore di Rice2

12 1

k

E XK

µ α

α µ µ

= + = + ≜

Infatti: [ ]

( )

0 2

2 2 2 2

2 2 2 2cos cos

2 2 32 22 2

0 0

1 1 d d d d

2 2

X

xI

x x x x

f x

xE X x e e x x e x

µα

µ µ µ µπ πϑ ϑα α α α

π π

ϑ ϑα π πα

+ +∞ ∞− − +

− −

= ⋅ =∫ ∫ ∫ ∫

Cambio di variabile: ( ) ( ) ( )( ) ( )

( )1

1 2, d d , , , , d dD D

f x y x y f u v u v J u v u vφ

φ φ−

=∫∫ ∫∫

Dove: ( ) ( ), ,x y u v→ , ( )1 ,x u vφ= , ( )2 ,y u vφ= , 1

2

φφ

φ

=

, ( )1 1

2 2

, det u vJ u v

u v

φ φ

φ φ

∂ ∂ ∂ ∂ =

∂ ∂ ∂ ∂

Page 8: Comunicazioni elettriche LB

Ora effettuiamo il cambio di variabile:

( )

( )

2 2 2

2

2

2 2 2 2 22 2 2

,

cos 1 1 d d

sin 2

J

xe

x

ξ η µ µξα

ξ η

ξ ϑξ η ξ η ξ η

η ϑ πα ξ η

+ + −∞ ∞ −

−∞ −∞

= → + + = = +

∫ ∫

( ) ( )2 22 2

2 2

2 22 22 2

1 1 d d d d

2 2e e

ξ µ η ξ µ ηα αξ ξ η η ξ η

πα πα

− + − +∞ ∞ ∞ ∞− −

−∞ −∞ −∞ −∞

= + =∫ ∫ ∫ ∫

( )

( )

2 2

2 2

2 2

2 2 2

2

per parti ricorda un poco la gaussiana 2

1

2

1 d d

2e e

ξ µ ηα α

α µ α π

α π

ξ ξ ηπα

−∞ ∞− −

−∞ −∞

= + ⋅

= ∫ ∫

( )2

2

2

22

2

2

ricorda un poco la gaussiana

1 d 1 22

1 d

2

e

e

ηα

ξ µα

η α πα π

ξπα

∞ −

−∞

−∞ −

−∞

= ⋅

+

( )

2

2

2 2

22

2 2

per parti 2

(varianza) d 1 2

d

e

e

ξ µα

ηα

α α πξ α π

η η

−∞ −

−∞

∞ −

−∞

= ⋅= ⋅

=

( ) ( )2 2 2 2 2 2 2 22 2

1 12 2 2 2 2

2 2α µ α πα π α πα α π α µ α α µ

πα πα= + + = + + = +

9. Funzione di distribuzione cumulativa congiunta La funzione di distribuzione cumulativa congiunta riguarda più variabili aleatorie continue: ponendo per esempio che le v.a. coinvolte siano 2 (X e Y), la funzione in questione calcola la probabilità che l’esito dell’esperimento comporti, per X e Y, valori inferiori o al limite uguali – rispettivamente – a x e y. Cerchiamo dunque:

( ) , , ,X Y

F x y P X x Y y= ≤ ≤

Ricordandoci poi (vedi paragrafo 3) della PDF di probabilità congiunta ( ), ,X Yf x y

formulata nel caso di due variabili aleatorie, si ha che – essendo la funzione di distribuzione cumulativa una primitiva della funzione densità di probabilità:

( ), ,X Yf x y = ( )2

, ,x yF x yx y

∂∂ ∂

Diamo ora qualche proprietà della CDF per più variabili continue (nel nostro caso 2, ma il tutto si può estendere!):

- ( ) ( ), ,X X YF x F x= ∞ ;

- ( ) ( ), ,Y X YF y F y= ∞ ;

- ( ) ( ) ( ), ,, d , dX X Y X Yf x f x y y f x y y∞

−∞

= =∫ ∫ℝ

;

- ( ), , d d 1X Yf x y x y =∫∫ℝ

;

- ( ) ( )2,, , d dX Y

A

P x y A f x y x y∈ ⊂ = ∫∫ℝ ;

- ( ) ( ), ,, , d dyx

x y X YF x y f u z u z−∞ −∞

= ∫ ∫ .

10. Variabili aleatorie condizionate e relativa PDF. Indipendenza statistica. Cercare la probabilità condizionata di due variabili aleatorie significa osservare “cosa succede ad una di esse sapendo cosa accade all’altra”: due o più variabili aleatorie possono infatti essere l’una con l’altra dipendenti. In particolare, se esiste tale tipo di dipendenza, si dice che la probabilità

( )P X Y

Page 9: Comunicazioni elettriche LB

è quella “che si verifichi X sapendo che è accaduto Y”. Possiamo così definire (sempre nel caso di due v.a.) una PDF condizionata:

( ) ( )( )

, ,X Y

X Y

Y

f x yf x Y y

f y= =

Tale funzione esprime, sapendo che y ha assunto un determinato valore, la densità di probabilità nei confronti di x. Ovviamente, se Y non è possibile, non ci sarà possibilità che si verifichino sia X che Y: si ha infatti che

( ) ( )0 0YX Yf x y f y= ⇐ =

Se X e Y sono statisticamente indipendenti, la distribuzione congiunta ,X Yf si può

scrivere così: ( ) ( ) ( ), ,X Y X Yf x y f x f y= per ogni x e y

Oppure, equivalentemente: ( ) ( ),

XX Yf x y f x=

perché comunque l’esito dell’esperimento governato da X è indipendente da quello regolato dalla v.a. Y. 11. Funzioni a due variabili aleatorie: valor medio statistico, funzione di correlazione, funzione di covarianza, coefficiente di correlazione, incorrelazione fra le v.a., relazioni tra indipendenza e incorrelazione Il valor medio statistico di una funzione (a due variabili aleatorie) è il seguente:

( )( ) ( ) ( ),, , , d dX Y

E g X Y f x y g x y x y= ∫∫ℝ

La funzione di autocorrelazione è così definita: ( ) [ ] ( ),corr , , d d

X YX Y E XY xy f x y x y= ⋅∫∫

Invece, la funzione di covarianza è:

( ) ( )( ) ( )( )cov ,X Y E X E X Y E Y − − ≜

Si può dimostrare che ( ) ( ) [ ] [ ]cov , corr ,X Y X Y E X E Y= − .

Dimostrazione: Anzitutto, facciamo mente locale sull’equazione che dobbiamo dimostrare:

( ) ( ) [ ] [ ]cov , corr ,X Y X Y E X E Y= − ( )( ) ( )( )E X E X Y E Y − − = [ ] [ ] [ ]E XY E X E Y−

Dopodiché sviluppiamo il termine dentro la parentesi…

( )( ) ( )( ) [ ] [ ] [ ] [ ]E X E X Y E Y E XY YE X XE Y E X E Y − − = − − −

… e applichiamo la proprietà di linearità del valor medio:

[ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ]costante costante costante

E XY YE X XE Y E X E Y E XY E Y E X E X E Y E E X E Y − − + = − − + =

[ ] [ ] [ ] [ ] [ ]costante costante

E XY E X E Y E Y E X= − − [ ] [ ]costante

E X E Y+ [ ] [ ] [ ]E XY E Y E X= − .

Nel caso particolare:

( ) ( )( ) ( )( ) ( )( ) ( )2cov , varX X E X E X X E X E X E X X = − − = −

Infine, definiamo il coefficiente di correlazione ,X Yρ :

( ),

cov ,X Y

X Y

X Yρ

σ σ= .

Page 10: Comunicazioni elettriche LB

Il coefficiente di correlazione dà un’informazione sulla relazione di X e Y in “termini medi statistici”; tale coefficiente può assumere valori da -1 a +1 (compresi): nel caso (ancora più) particolare in cui il modulo di ,X Y

ρ è 1, allora X e Y sono dipendenti. Un

altro caso limite interessante si ha quando ,X Yρ è 0: allora in tal caso le due variabili X

e Y si dicono incorrelate. Ciò comporta che: - ( )cov , 0X Y = ;

- [ ] [ ] [ ] [ ] [ ] [ ]0E XY E X E Y E XY E X E Y− = ⇒ = . Quest’ultima affermazione ci

dà una relazione tra indipendenza statistica (“concetto” forte) e incorrelazione (“concetto” debole). Se infatti si ha

( ) ( ) ( ), ,X Y X Yf x y f x f y=

allora si ha pure [ ] [ ] [ ]E XY E X E Y=

Dimostrazione:

( )[ ]

( ) ( )

( )

( )

[ ]

( )

[ ]

[ ] [ ], , se e

sono indipendenti

, , d d d d d d

X Yf x y x y

X Y X Y X Y

E XY E X E Y

xy f x y x y xy f x f y x y xf x x yf y y E X E Y⋅ = = =∫∫ ∫∫ ∫ ∫ℝ ℝ ℝ ℝ

Questo significa che indipendenza implica sicuramente incorrelazione. Tuttavia il contrario non avviene necessariamente!

12. Variabili aleatorie congiuntamente gaussiane Due variabili aleatorie X e Y si dicono congiuntamente gaussiane se

( ) ( )( ) ( ) ( )( )22

2 22

1 2

2 1

, 2

1,

2 1

y x yx

x yx y

y x yx

X Y

x y

f x y e

µ µ µµρ

σ σσ σρ

πσ σ ρ

− − −− − + − − =

con [ ] [ ] [ ]

x y

E XY E X E Yρ

σ σ−

= (coefficiente di correlazione tra X e Y) , 2,x xX N µ σ ∼ e

2,y yY N µ σ ∼ .

Si può dimostrare che, come accade di norma per le variabili congiunte, anche per le variabili aleatorie congiuntamente gaussiane si ha che:

( ) ( ), , dX X Yf x f x y y= ∫ℝ

E allo stesso modo valgono le relazioni illustrate nel paragrafo 9. Ponendo il coefficiente di correlazione ρ = 0, la PDF diventa:

( )( ) ( )22

2 2

1

2

,

1,

2

yx

x y

yx

X Y

x y

f x y e

µµσ σ

πσ σ

−− − + =

In questo caso (e solo in questo caso) si verifica che l’incorrelazione (facile da verificare) implichi l’indipendenza (difficile da verificare). Se le variabili gaussiane sono N, allora la funzione di densità di probabilità sarà:

( )( )

( ) ( )11 2

1 2

1, ,...,

2 det

Tx c x

Nn

f x x x ec

µ µ

π

−− − −=

Page 11: Comunicazioni elettriche LB

Dove c è una matrice di covarianza n × n contenente i termini ( ) , cov ,i j i jc X X= ,

( )1 2, , ..., nx x x x= (vettore delle variabili aleatorie), ( )1 2, , ..., nµ µ µ µ= (vettore dei

valori medi delle rispettive v.a.). Una proprietà importante delle variabili gaussiane è che una combinazione lineare delle stesse produce ancora una variabile con distribuzione gaussiana: tale affermazione è enunciata in maniera rigorosa nel cosiddetto teorema del limite centrale. Esso è così enunciato: 1 2, , ..., nX X X siano v.a. indipendenti con valori medi

1 2, , ..., nµ µ µ e varianze 2 2 21 2, , ..., nσ σ σ . Allora la v.a.

( )1

1 ni i

i i

XY

n

µσ=

−= ∑

sotto condizioni generali ha una distribuzione che, al crescere di n, tende a quella di una gaussiana con valor medio nullo e varianza unitaria. Nel caso particolare in cui 1 2, , ..., nX X X sono variabili i.i.d. (indipendenti e

identicamente distribuite) , tutte con valore medio µ e varianza 2σ , abbiamo invece: 2

1

1,

n

i ni

Y X Nn n

σµ→∞=

= →

Page 12: Comunicazioni elettriche LB

II - PROCESSI ALEATORI

(random / stochastyc processes)

1. Definizione

Un processo aleatorio X(t) è formato da un insieme di realizzazioni (o funzioni campione, ( )( )ix t ) determinate e, nel nostro caso, reali.

Ognuna di queste realizzazioni ha una certa probabilità di verificarsi: se poi “verticalmente” fisso un istante di osservazione uguale per tutte le nostre realizzazioni, otterrò un insieme di valori (uno per ogni realizzazione, dovuto all’intersezione tra l’istante di tempo t scelto e la realizzazione stessa) aleatorio; a causa di ciò posso dire che ( )1X t è, in realtà, una variabile aleatoria.

Se ho a disposizione un processo aleatorio posso fare alcuni calcoli su di esso:

- medie orizzontali o temporali: sono medie a posteriori, formulabili - cioè - una volta osservata l’uscita del processo (e non prima di averla conosciuta tutta!).

Se, dunque, osservo una realizzazione a caso ( ) ( )ix t posso:

- calcolare il valor medio temporale: ( ) ( ) ( ) ( )0

00

2

02

1lim d

T

i i

TT

x t x t tT→∞

= ∫ ;

- calcolare la potenza media: ( ) ( )2

ix t ;

- calcolare la funzione di autocorrelazione: ( ) ( ) ( ) ( ) ( ) ( )i

i i

xR x t x tτ τ= − ;

- calcolare lo spettro di potenza: ( ) ( ) ( ) ( ) i ix x

G f R τ= F .

- medie verticali: sono medie a priori; trattasi, precisamente, di quelle accennate poco fa quando si parlava di rilevazioni fatte in un istante di osservazione uguale per tutte quante le realizzazioni. Dei valori così ricavati possiamo calcolare valore medio, varianza, momento di n-simo grado etc….

Page 13: Comunicazioni elettriche LB

Volendo, posso “complicarmi la vita” e scegliere più punti di osservazione

1 2 n, , ..., t t t : otterrò così ( ) ( ) ( )1 2, , ..., nX t X t X t , che posso studiare

separatamente oppure congiuntamente, calcolando la densità di probabilità congiunta (di n-simo grado)

( )1 1 2 2, ; , ; ...; ,n np x t x t x t

Moltiplicando quest’ultimo termine per 1 2d d ...d nx x x ottengo la probabilità che

la prima variabile aleatoria sia nell’intervallo infinitesimo [ ]1 1 1, dx x x+ , che la

seconda si trovi in [ ]2 2 2, dx x x+ e così via. Dopodiché per ogni variabile e per gli

intervalli che mi interessano posso fare, se vi è necessità, le integrazioni come illustrato nei casi precedenti.

È poi necessario fare una distinzione fra:

- segnali tempo-continui: i segnali tempo continui possono assumere un valore diverso ad ogni istante dell’asse dei tempi; - segnali tempo-discreti: i segnali tempo discreti vengono “emessi” ogni quanto di tempo; - segnali continui nei valori: tali segnali possono assumere un’infinità non numerabile di valori; - segnali discreti nei valori: c’è un numero finito di valori che i segnali possono assumere.

2. Descrizione statistica di processi aleatori tempo-continui e continui nei

valori: autocorrelazione e autocovarianza statistica

Se abbiamo un processo aleatorio tempo-continuo e esaminiamo verticalmente le varie realizzazioni in n istanti di tempo 1 2, , ..., nt t t , ciò che

otteniamo sono n variabili aleatorie

( ) ( ) ( )1 2, , ..., nX t X t X t

Una volta definite le grandezze in gioco possiamo esprimere in maniera rigorosa la densità di

probabilità (congiunta, di ordine n) legata al fatto che le varie realizzazioni, in determinati istanti di tempo, assumano particolari valori:

( )1 1 2 2, ; , ; ...; , n n np x t x t x t

Come già si è detto nel capitolo 1, integrando la seguente quantità ( )1 1 2 2 1 2, ; , ; ...; , d d ...dn n n np x t x t x t x x x

la quale esprime la probabilità che le variabili aleatorie in gioco assumano i seguenti valori

( ) ( ) ( ) 1 1 1 1 2 2 2 2d , d , ..., dn n n nP x X t x x x X t x x x X t x x≤ ≤ + ≤ ≤ + ≤ ≤ +

è possibile verificare che sussistono le proprietà, anch’esse già viste: - normalizzazione: ( )1 1 2 2 1 2, ; , ; ...; , d d ...d 1

n

n n n np x t x t x t x x x =∫ ∫ ∫ℝ

⋯ ;

Page 14: Comunicazioni elettriche LB

- “eliminazione” di una variabile: ( ) ( )1 1 2 2 1 2 1 1 1 2 2 1 1 1 2 1, ; , ; ...; , d d ...d , ; , ; ...; , d d ...dn n n n n n n np x t x t x t x x x p x t x t x t x x x− − − −=∫

;

- calcolo della probabilità riguardo un insieme di valori:

( ) ( ) ( )( ) ( )1 2 1 1 2 2 1 2, , ..., , ; , ; ...; , d d ...dn

n n n n n

A

P X t X t X t A R p x t x t x t x x x∈ ⊂ = ∫ ∫ ∫⋯ .

Per le funzioni sovrascritte si definisce una funzione di autocorrelazione statistica:

( ) ( ) ( )( ) ( ) ( )( ), corrX

R t E X t X t X t X tτ τ τ− = −≜

NOTA: tale definizione ricorda una formulazione analoga data nel caso non aleatorio per funzioni determinate: ( ) ( ) ( )x

R x t x tτ τ= − . La funzione di autocorrelazione

statistica, tuttavia, dipende da due parametri (sia da t che da t τ− ), mentre la ( )xR τ –

notare la x minuscola – dipende solamente da τ . Introduciamo poi la funzione di autocovarianza statistica:

( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )( ) ( )

( ) ( )( )

( ) ( ), cov

... ,

X

X

E X t X t

C t X t X t E X t E X t X t E X t

R t E X t E X t

τ

τ τ τ τ

τ τ−

− = − − − − =

= = − −

La funzione di autocorrelazione e la funzione di autocovarianza misurano la somiglianza tra il processo osservato in un istante e lo stesso processo osservato in un altro istante: più valgono e maggiore sarà la somiglianza in questione.

3. Processi aleatori stazionari in senso stretto (SSS, Strict Sense Stationary)

Due processi aleatori

( )X t e ( )0X t t−

si dicono stazionari in senso stretto se hanno la stessa descrizione statistica per ogni

0t . Questo comporta che ad esempio, se traslo tutte le realizzazioni di una quantità t0,

non osservo differenze. Dal punto di vista statistico rimangono dunque invariate le funzioni densità di probabilità, come si nota in questa uguaglianza:

( ) ( )1 1 2 2 1 1 2 2, ; , ; ...; , , ; , ; ...; , n n n n n np x t x t x t p x t z x t z x t z= + + +

Come si vede, non conta dove gli istanti sono posizionati, ma conta soltanto la distanza relativa fra di essi (la “differenza”). Posso quindi scrivere che:

( ) 2 1 1 2 2 2 1 2 2 1, ; , , ; p x t x t p x x t t

τ

= −

( 4 parametri ) ( 3 parametri ) Conseguenza della stazionarietà è che posso svincolare dalla dipendenza rispetto al tempo la densità di probabilità del prim’ordine:

( ) ( )1 1 1 1 1,p x t p x=

Inoltre, non c’è bisogno di specificare t nell’espressione del valor medio, che pure lui a tutti gli effetti non dipende dal tempo.

( ) [ ]E X t E X =

Fra le altre conseguenze della stazionarietà in senso stretto: - neanche la funzione di autocorrelazione non dipende dal tempo, perché è la stessa per tutti gli istanti di osservazioni che hanno la stessa distanza relativa:

Page 15: Comunicazioni elettriche LB

Processi aleatori

( ) ( ) ( )( ) ( ),X XR t E X t X t Rτ τ τ− =≜

- la stessa identica cosa accade per la funzione di autocovarianza:

( ) ( ) ( )( ) ( ), covX XC t X t X t Cτ τ τ− =≜

4. Processi aleatori stazionari in senso lato (WSS, Wide Sense Stationary) Mentre è molto difficile capire se un processo è stazionario in senso stretto (condizione piuttosto forte), esistono due condizioni non troppo difficili da verificare che ci dicono se un segnale è stazionario in senso lato (condizione un pelo più debole).

1) Il valor medio non deve dipendere dal tempo: ( ) [ ]E X t E X = ;

2) La funzione di autocorrelazione non dipende dal tempo: ( ) ( ),X XR t Rτ τ= .

Appurare che queste due condizioni sussistono non è complicato da verificare in quanto esse si riferiscono a due quantità medie e non a comportamenti specifici nel tempo. A causa di questa “gerarchia”, che si viene a formare fra i processi stazionari, risulta infine che i processi stazionari in senso stretto sono anche stazionari in senso lato, mentre non accade il viceversa.

Una piccola considerazione: non esistono, in realtà, processi che durano da sempre e dureranno per sempre. Non esistono, cioè, funzioni definite “per ogni t”: dunque tutte le funzioni a potenza finita – che teoricamente non sono a durata limitata – sono astrazioni; allo stesso modo anche i processi stazionari sono

astrazioni. I processi stazionari che ci interessano hanno realizzazioni a potenza finita: se fossero ad energia finita, il segnale dovrebbe andare a zero all’infinito, ma questo “cozza” con la stazionarietà (se le varie realizzazioni vanno a zero nello stesso intervallo non può esserci stazionarietà!). Proprietà della funzione di autocorrelazione per i processi WSS: 1) ( ) 20XR E X =

Dimostrazione:

( ) ( ) ( ) ( ),X XR t R E X t X tτ τ τ = − ≜

( ) ( ) ( ) ( )2 20 0XR E X t X t E X t E X − = = ≜

2) ( ) ( )X XR Rτ τ− =

Dimostrazione:

( ) ( ) ( ) ( ),X XR t R E X t X tτ τ τ = − ≜ e ( ) ( ) ( ) ( ),X XR t R E X t X tτ τ τ − = − + ≜

Se, come abbiamo posto per ipotesi, siamo nel caso WSS, la funzione di autocorrelazione non dipenderà da t: possiamo quindi utilizzare un diabolico trucco e aggiungere 0t nella prima relazione sopra scritta:

( ) ( ) ( ) ( )0 0,X XR t R E X t t X t tτ τ τ = + + − ≜

Ponendo 0t = τ

( ) ( ) ( ) ( ) ( )XR E X t X t E X t X tτ τ τ τ τ = + + − = +

la prima relazione diventa uguale alla seconda senza aver modificato i suoi connotati statistici.

3) ( ) ( )0X XR Rτ ≤

Stazionari in senso lato

Stazionari in senso stretto

Page 16: Comunicazioni elettriche LB

Dimostrazione: essendo il quadrato di un binomio, la quantità

( ) ( )( )2E X t X t τ ± −

è sicuramente un numero maggiore di zero. Dunque possiamo scrivere:

( ) ( )( )20 E X t X t τ ≤ ± −

Sviluppiamo quindi il binomio

( ) ( ) ( ) ( )2 20 2E X t X t X t X tτ τ ≤ + − ± −

e applichiamo la linearità del valor medio:

( )( )

( )( )

2 2

0 per la proprietà 1 0 per la proprietà 1 e per il fatto che il processo e per il fatto che il processo è WSS e non c'è dipendenza è WSS e non c'è dipendenza

dal tempo d

0

X XR R

E X t E X t τ= =

≤ + − ( ) ( )

( )2 per definizione

al tempo

2

XR

E X t X t

τ

τ=

± −

Sostituendo ciò che abbiamo ricavato: ( ) ( )0 2 0 2

X XR R τ≤ ±

( ) ( )0X X

R R τ≥ ∓

Siccome il primo termine è sicuramente positivo (è pari al valor medio di X2) possiamo scrivere:

( ) ( )0X X

R R τ≥

NOTA: la disuguaglianza ( ) ( )0X X

R R τ≥ ∓ ci suggerisce che il grafico di ( )XR τ

è simmetrico rispetto all’origine e ha un massimo nella stessa. 4) Se ( )X t e ( )X t τ− sono indipendenti, allora ( ) [ ]2

XR E Xτ =

Dimostrazione: Prendiamo un valore τ tale per cui ( )X t e ( )X t τ− sono indipendenti e

scriviamo la funzione di autocorrelazione, dopodiché applichiamo le proprietà dei processi stazionari in senso lato. La dimostrazione è dunque brevissima:

( ) ( ) ( ) ( ) ( )( )

[ ]2

perché il processo è WSS

X

E X t

R E X t X t E X t E X t E Xτ τ τ =

− = − = ≜

NOTA: sempre nell’ipotesi che ( )X t e ( )X t τ− sono indipendenti, si osserva che

la funzione di autocovarianza statistica è nulla, in quanto:

( ) ( ) ( ) ( ) ( )[ ]

[ ] [ ] [ ] [ ]2

2 2

Sempre per l'ipotesidi WSS

0X X X

E X

C R E X t E X t R E X E X E X E Xτ τ τ τ=

= − − = − = − =

5. Ergodicità

Un processo aleatorio si dice ergodico se ciascuna realizzazione è caratteristica, con probabilità 1, dell’intero processo; in altre parole, si ha ergodicità se i rilievi statistici (verticali) fatti su un insieme qualunque di istanti di osservazione coincidono, con probabilità 1, con i corrispondenti rilievi temporali fatti su una qualunque realizzazione del processo. NOTA: I processi ergodici sono un sottoinsieme dei processi stazionari in senso stretto, quindi sono davvero pochi!

Page 17: Comunicazioni elettriche LB

Un connotato importante che caratterizza i processi ergodici è il fatto che in una singola realizzazione vi siano tutte le informazioni che il processo possiede al suo interno: questo perché le medie temporali (orizzontali) coincidono esattamente con le medie statistiche (verticali). Come conseguenza di ciò: 1) Le varie realizzazioni hanno tutte lo stesso valor

medio temporale, il quale coincide col valor medio del processo. Si ha dunque:

valor medio statistico = = valor medio temporale

( ) [ ] ( )

( )0

000

1lim d

2

T

TT

E X t E X x t

x t tT→∞

= = =

= ∫

2) Nella funzione ( )XR τ di autocorrelazione influisce soltanto la distanza relativa

fra gli istanti di osservazione e non l’istante preciso scelto (se il processo è ergodico, è pure stazionario!). Inoltre, tale funzione di autocorrelazione coincide col corrispondente rilievo fatto orizzontalmente:

autocorrelazione statistica = autocorrelazione temporale

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )i i

X xR E X t X t x t x t Rτ τ τ τ = − − = − =

3) Una cosa simile a quella illustrata nel punto (2) accade anche per la funzione di autocovarianza: anche questa ha una sua “controparte orizzontale” e nel caso ergodico quest’ultima coincide con la già introdotta ( )XC τ . Infatti:

autocovarianza statistica = autocovarianza temporale

( ) ( ) ( )[ ]

( ) ( )[ ]

( ) [ ]( ) ( ) [ ]( )E X E X

XC E X t E X t X t E X t E X t E X X t E Xτ τ τ τ

= = = − − − − = − − − =

( ) ( ) ( )[ ]

( )2

2

x

E X

x t x t x t Cτ τ=

= − − =

4) La potenza dell’intero processo coincide con la potenza della generica realizzazione:

( ) ( )2 2 0X x XP E X x t P R = = = =

Di conseguenza, il quadrato del valore efficace di ogni realizzazione corrisponde sia alla potenza xP che alla potenza XP :

2eff x Xx P P= =

5) Per quanto riguarda la varianza (che è uguale per tutte le realizzazioni): a causa della stazionarietà essa non dipende dal generico istante t in cui viene calcolata.

[ ] ( ) ( )( )22 2 2 2X

E X E X x t x tσ = − = −

Page 18: Comunicazioni elettriche LB

6) Lo spettro di potenza del processo coincide con lo spettro di potenza di ogni realizzazione.

( ) ( ) ( ) ( )X X x xG f R R G fτ τ= =≜ F F

Non è semplice fornire un esempio di processo ergodico; è invece molto più facile dare un esempio di processo non ergodico. Il processo a realizzazioni costanti è fatto di n realizzazioni, ognuna delle quali assume un (casuale) valore costante: sicuramente questo processo è stazionario (posso calcolare valor medio, varianza, funzione di autocorrelazione, etc… in qualunque punto, tanto il risultato non cambia) tuttavia non è assolutamente ergodico; infatti, ogni realizzazione ha un valor medio diverso, un suo spettro di potenza… e così via.

In cosa consiste la densità del prim’ordine di un processo ergodico? Possiamo fare due tipi di rilievi:

- verticale: consiste nell’andare ad esaminare le varie realizzazioni in un preciso istante di tempo e nel contare quante di loro, in quel preciso istante, hanno un valore contenuto all’interno di un dato intervallo [a,b]. Da questo esperimento si ricava:

( ) volte

relizzazioni

nP a X t b

n= < <

In particolare, fissando un intervallo molto piccolo possiamo ricavare qualcosa di “imparentato” con la PDF:

( ) ( )1 1d da b

P x X t x x p x x

< < + =

Quest’ultimo termine può essere a

sua volta integrato per ottenere: ( ) ( ) 1 db

a

p x x P a X t b= < <∫ .

NOTA: il processo, essendo ergodico e dunque stazionario, ha la proprietà di far coincidere

( ) ( )1 1 1 1 1,p x t p x=

- orizzontale: se il segnale in questione è ergodico, è possibile ricavare la densità di probabilità anche dalla frazione di tempo in cui un qualsiasi campione x(t), al trascorrere di t , soddisfa la condizione

( )a X t b< < .

Questo perché si ha che:

( ) 10

k

k

t

P a X t bT

∆= < <

Page 19: Comunicazioni elettriche LB

Per ergodicità, e dunque stazionarietà, rilievi verticali e orizzontali coincidono perfettamente. Problema: come facciamo a capire se un processo è ergodico? Anzitutto bisogna capire se è stazionario. Dopodiché verifichiamo se sussiste una condizione sufficiente piuttosto comoda, che è quella di memoria finita. Un processo aleatorio ha memoria finita Mτ se, osservato il processo fino a un generico

istante 1t , non è possibile fare alcuna previsione statistica sull’evoluzione del processo

in istanti maggiori di 1 Mt t τ= + . In pratica noi ci aspettiamo che, se un processo ha

memoria finita, l’andamento del segnale sia imprevedibile (e in un certo senso “drasticamente diverso” rispetto al passato) dopo Mτ secondi dall’ultima rilevazione

conosciuta. In tal caso si dice anche che “il processo si rinnova ogni Mτ secondi”.

NOTA: se prendo in un processo aleatorio prendo due istanti molto diversi ( )X t e ( )X t τ−

allora questi saranno indipendenti per Mτ τ> .

Dunque, se un p.a. è stazionario e ha memoria finita, allora esso sarà ergodico. 6. Processi aleatori gaussiani

( )X t è un processo aleatorio gaussiano se le v.a. ( ) ( ) ( )1 2, , ..., nX t X t X t sono

congiuntamente gaussiane (qualunque sia n e qualsiasi siano gli istanti). In questo caso ( )1 1 2 2, ; , ; ...; ,n n np x t x t x t è una densità di probabilità gaussiana e,

precisamente, la probabilità congiunta di variabili gaussiane. Tale PDF ha la seguente espressione (vedi anche capitolo1):

( )( )

( ) ( )11 2

1 2

1, ,...,

2 det

Tx c x

Nn

f x x x ec

µ µ

π

−− − −=

Dove: - c è una matrice di covarianza con dimensione n × n contenente i termini

( ) [ ] , cov ,i j i j i j i jc X X E X X E X E X = = − ;

- ( )1 2, , ..., nx x x x= (vettore delle variabili aleatorie);

- ( )1 2, , ..., nµ µ µ µ= (vettore dei valori medi delle rispettive v.a.);

Se il processo aleatorio gaussiano è anche stazionario, allora si ha che i valori medi sono tutti uguali:

( ) [ ]E X t E X =

Questo influisce sulle quantità sopra descritte facendo diventare così i coefficienti della matrice di covarianza:

( ) ( )( ) ( )

2,

X X

i j X j i X j i

C R E X E X

c C t t R t t E X

τ τ= −

= − = − −

Diamo ora alcune proprietà: - se il processo aleatorio gaussiano è stazionario in senso stretto (SSS), possiamo traslarlo quanto ci pare che, in ogni caso, c e µ non cambiano; ciò implica che le

densità di probabilità di ordine n non cambiano nel tempo, essendo determinate

Page 20: Comunicazioni elettriche LB

da [ ]E X (invariante) e da ( )XR τ (che nel caso stazionario ed ergodico è pari a

( ) ( )E X t X t τ − e dipende solo dalla distanza relativa dei due istanti);

- se le variabili aleatorie sono incorrelate allora si ha indipendenza statistica (vale solo per i processi gaussiani!); - la stazionarietà in senso lato implica anche stazionarietà in senso stretto (ma solo per i processi gaussiani!); - se il valor medio è nullo si ha che ( )2 0XRσ = ;

- la trasformazione LTI di un processo aleatorio gaussiano produce un altro processo aleatorio gaussiano.

Importante è la seguente estensione del teorema del limite centrale: dati n processi aleatori ( ) ( ) ( )1 2, , ..., nX t X t X t identicamente distribuiti e statisticamente

indipendenti, il processo

( ) ( )1

1 n

i

i

Y t X tn =

= ∑

ha una descrizione statistica che, al crescere di n, tende a quella di un processo aleatorio gaussiano (indipendentemente dalle descrizioni dei processi

( ) ( ) ( )1 2, , ..., nX t X t X t )

7. Processi aleatori discreti nei valori

Anzitutto ricordiamo che un processo si dice discreto nei valori se, fissati gli istanti di osservazione 1 2, , ...,

nt t t , le v.a. ( ) ( ) ( )1 2, , ..., nX t X t X t sono discrete e quindi descritte

dalla loro probabilità congiunta (probabilità di ordine n):

( ) ( ) ( ) ( )1 1 2 2 1 1 2 2, ; , ; ...; , , , ..., n n n n np x t x t x t P X t x X t x X t x = = = =

In tal caso le medie statistiche vanno riscritte con le opportune sostituzioni; ad

esempio, se ( )X t per ogni valore di t può assumere soltanto i valori ( ) ( ) ( )1 2, , ..., Lx x x

allora possiamo ridefinire “in maniera discreta”:

- il valor medio: ( ) ( ) ( )( )11

,L

i i

i

E X t x P x t=

= ∑ ;

- il momento del second’ordine: ( ) ( ) ( )( )22

11

,L

i i

i

E X t x P x t=

= ∑ ;

- la funzione di autocorrelazione:

( ) ( ) ( ) ( ) ( ) ( ) ( )2

1 1

, , ; ,L L

i l i l

X

i l

R t E X t X t x x P x t x tτ τ τ= =

= − = − ∑∑ .

La stazionarietà e l’ergodicità si introducono in maniera assolutamente analoga a quanto visto per i p.a. continui nei valori. 8. Processi aleatori tempo-discreti

Tale tipo di processo è rappresentato da una successione di variabili aleatorie

1 0 1 ..., , , , ..., , ...n nX X X X X−=

(se sono continue processo continuo nei valori se sono discrete processo discreto nei valori)

e le realizzazioni sono successioni ( ) inx .

Page 21: Comunicazioni elettriche LB

La descrizione statistica di questo tipo di processi aleatori è assolutamente analoga a quella del caso tempo-continuo: bisogna però tenere presente che il tempo assume solo certi valori (si può dire che procede “di quanto in quanto”). Possiamo dunque definire

(con riferimento a un p.a. suscettibile dei soli valori ( ) ( ) ( )1 2, , ..., Lx x x ):

- il valor medio: [ ] ( ) ( ) ( ) ( )( )11 1

,L L

i i i i

n n

i i

E X x P X x x P x n= =

= = =∑ ∑ ;

- il momento del second’ordine:

( ) ( ) ( ) ( )( )2 22

11 1

,L L

i i i i

n n

i i

E X x P X x x P x n= =

= = = ∑ ∑ ;

- la funzione di autocorrelazione:

( ) [ ] ( ) ( ) ( ) ( )2

1 1

, , ; ,L L

i l i l

X n n k

i l

R n k E X X x x P x n x n k−= =

= = − ∑∑ .

I concetti di stazionarietà ed ergodicità possono essere introdotti analogamente ai casi già considerati. In particolare:

- se il processo è WSS il valor medio non dipende dal tempo [ ] [ ]nE X E X=

e la funzione di autocorrelazione dipende solo dalla distanza relativa k fra i due istanti considerati

( ) ( ),X XR n k R k=

- la trasformata della funzione di autocorrelazione è:

( ) ( ) ( ) 2 fkT

X S X Xf R k R k e π∞

−∞

= = ⋅ ∑T F

(sono state applicate le proprietà della trasformata di Fourier e in particolare quella che fa corrispondere un fasore ad un ritardo)

9. Processi aleatori ciclostazionari e processi cicloergodici

Un processo aleatorio si dice ciclo stazionario se, per ogni 0t kT= (con k un numero

intero e T pari al periodo), ( )X t e ( ) ( )0X t t X t kT− = −

hanno la stessa descrizione statistica. Ciò influisce, ovviamente, sulle densità di probabilità, che diventa periodica in t con periodo T:

( ) ( )1 1 2 2 1 1 2 2, ; , ; ...; , , ; , ; ...; ,n n n n n np x t x t x t p x t kT x t kT x t kT= + + +

Diventano periodici in t con periodo T anche: - il valor medio: ( )E X t

- la funzione di autocorrelazione: ( ) ( ) ( ),X

R t E X t X tτ τ = −

- la funzione di autocovarianza: ( ),XC t τ

I processi cicloergodici sono un sottoinsieme dei processi ciclostazionari: per essi i rilievi statistici fatti su un insieme di istanti di osservazione Θ danno risultati coincidenti con probabilità 1 con quelli dei corrispondenti rilievi temporali fatti considerando istanti che differiscono per multipli di T da Θ . Dunque, in questo caso, le variazioni che vedo verticalmente (medie verticali) posso vederle anche orizzontalmente nella singola realizzazione, spostandomi da quel punto di T in T. Ad esempio il valor medio “verticale” ( )1E X t coincide, orizzontalmente, col

valor medio dei campioni presi sulla singola realizzazione ad ogni T. Un’altra

Page 22: Comunicazioni elettriche LB

importante conseguenza è il fatto che, per un processo ciclo ergodico, qualunque media statistica, mediata sul periodo T, coincide con la corrispondente media temporale (fatta su tutto l’asse!). Infatti queste sono le espressioni de:

- il valor medio temporale: ( ) ( )temporale statistico

1 d

T

x t E X t tT

= ∫ ;

- la funzione di autocorrelazione temporale:

( ) ( ) ( ) ( )statistica temporale

1, d

X x

T

x t x t R t t RT

τ τ τ− = =∫ ;

- lo spettro di potenza: ( ) ( ) x xG f R τ= F

- la funzione di autocovarianza temporale:

( ) ( ) ( ) ( ) ( ) ( )temporale statistica

1, d

x X

T

C x t x t x t x t C t tT

τ τ τ = − − − = ∫

Come esempio prendiamo un processo del tipo in figura: allo scadere di ogni periodo T viene “tirata a caso” la presenza o meno di un bit (1 = arco di sinusoide, 0 = nessuna variazione). Tale processo non è stazionario e neppure ergodico (tant’è che i processi possono tutti quanti essere 0 contemporaneamente): esso, tuttavia, è ciclostazionario, in quanto il valor medio letto all’istante 1 è lo stesso di quello letto all’istante 2 (vedi figura), ed è pure cicloergodico, perché tutte le realizzazioni hanno lo stesso spettro di potenza. Le medie verticali coincidono così

con le medie orizzontali e, conoscendo le peculiarità statistiche del processo su un qualsiasi periodo T, conosco tutto. 10. Segnali PAM (Pulse Amplitude Modulation) aleatori

Sia ( ) ( )is t un segnale PAM generico: la sua espressione sarà ( ) ( ) ( )

( )

un coefficiente

i i

n

n

s t a g t nT= −∑

Dunque, un segnale g(t) determinato e ad energia finita scelto opportunamente, viene

modulato di T in T da una serie di coefficienti na .

Page 23: Comunicazioni elettriche LB

Immaginiamo ora che ( )ina sia l’i-esima realizzazione di un processo aleatorio nA

ergodico e, evidentemente, tempo-discreto. Premesso questo, possiamo dire che pure ( ) ( )is t è un’i-esima realizzazione di un processo aleatorio S(t):

( ) ( )n

n

S t A g t nT= −∑

(come esempio si prenda quello illustrato nel paragrafo 9!) Ebbene, il processo che abbiamo fra le mani non è stazionario (perché il valor medio temporale dipende da t), ma è cicloergodico. Com’è possibile calcolarne il valor medio?

( ) [ ] ( ) [ ] ( )processo ergodico implicaper linearitàprocesso stazionario: il del valor ripetizione periodica dellavalor medio non dipendemedio funzione : quind

dall'istante di calcolo

n

n n

g

E S t E A g t nT E A g t nT = − = − ∑ ∑

i la funzionecomplessiva è periodica in T

NOTA: il valor medio statistico è periodico in t con periodo T. Cerchiamo ora lo spettro del segnale e, nel fare questo, utilizziamo la serie di Fourier (abbiamo fra le mani un segnale reale periodico!) e un simpatico trucchetto: nella serie di Fourier compare, all’interno dell’espressione dei coefficienti, una trasformata

SERIE DI FOURIER: ( ) ( ) ( ) ( ) 2 1 con j Tt

P n n

n n

x t x t nT c e c X f x tT

π= − = = =∑ ∑ F

e noi faremo in modo che il segnale da trasformare sia quello della funzione g. Riscriviamo dunque la formulazione del valor medio e mettiamo nella sua pancia la serie di Fourier:

( ) [ ] ( ) [ ]

( ) ( )

[ ]

( ) 2

2 2

1

1

j Tt

n n

t tj n j n

T T

n n n

g tx t nT X f e

T

E An nE S t E A g t nT E A G e G e

T T T T

π

π π

− =

= − = =

∑ ∑

∑ ∑ ∑

F

Ecco che compare la funzione G! Vogliamo ora trovare quest’ultima in maniera esplicita, in tre passi:

1) Troviamo la funzione di autocorrelazione statistica ( ) ( ) ( ),R t E t tτ τΓ = Γ − Γ − .

2) Sfruttiamo la cicloergodicità e integriamo su un periodo, in modo da ottenere

( ) ( )1, d

T

R R t tT

τ τΓ Γ= ∫ .

3) Trasformiamo secondo Fourier per trovare l’espressione del nostro spettro di potenza ( ) ( )XG f Rγ τ = F .

PASSO 1

Prendiamo un processo aleatorio tempo-discreto a valor medio statistico nullo: per ottenerlo prendiamo un processo qualsiasi di questo tipo (che ha dunque un valor medio in generale diverso da 0) e – trucchetto! – togliamo da ogni elemento della successione il valor medio stesso del processo in questione. Avremo una successione di variabili aleatorie così definita:

[ ] n nX A E A= − dove [ ] [ ] [ ][ ]

[ ] 0n n n

E A

E X E A E A E A E A

=

= − = − =

Come mai abbiamo escogitato questo artifizio (cit.)? Il motivo sta nel fatto che gli nA

(di cui sopra) sono, in realtà, i coefficienti di un processo PAM aleatorio formulato nel seguente modo:

Page 24: Comunicazioni elettriche LB

( ) ( ) ( ) ( ) ( ) [ ] ( ) ( )trucco diabolico!

n

n n

S t S t E S t E S t A g t nT E A g t nT E S t = − + = − − − + = ∑ ∑

[ ] ( ) ( ) ( )

( )

( )determinatoi nuovi simboli

PAM a valor medio nullo e periodicoche chiamiamo

n

n n

n nX

t

A E A g t nT E S t X g t nT E S t

Γ

= − − + = − + ∑ ∑

Dunque, ricapitolando:

( ) ( ) ( )S t E S t t = + Γ

con ( ) ( )n

n

S t A g t nT= −∑ e ( ) ( )n

n

t X g t nTΓ = −∑

NOTA: per come abbiamo definito la situazione ( )S t è un segnale determinato

periodico, ( )tΓ è un processo cicloergodico a valor medio nullo, la cui generica

realizzazione è: ( ) ( )n

n

t x g t nTγ = −∑

Comunque sia, l’obiettivo di questo primo punto del problema è trovare la funzione di autocorrelazione statistica ( ) ( ) ( ),R t E t tτ τΓ = Γ − Γ − . Applichiamo dunque la

definizione e infiliamoci dentro le espressioni appena trovate:

( ) ( )( )cambiodi indice

questa sì che è la funzionedi autocorrelazione statistica

di : essa, siccome il processoè ergodico, dipende solo da !

n

n n k

n kn k m

Xk

E X X g t nT g t n k Tτ−

= − − − −

∑∑≜

Dunque abbiamo ottenuto ciò che cercavamo, ovvero: ( ) ( ) ( ) ( )( ), X

n k

R t R k g t nT g t n k Tτ τΓ = − − − −∑∑

NOTA: tale funzione è periodica in t con periodo in T. PASSO 2

Per prima cosa cerchiamo la funzione di autocorrelazione temporale della generica realizzazione:

( ) ( ) ( ) ( ) ( ) ( ) ( )( )2 2

2 2

1 1, d d

T T

X

n kT T

R t t R t t R k g t nT g t n k T tT T

γ τ γ γ τ τ τΓ− −

= − = = − − − − =∑∑∫ ∫

( ) ( )( ) ( ) ( ) ( )

2 2

2 2

equivale ad un unico integrale che va da a +

1 1 d d

T T nT

X Xk n k nT T nT

R k g t nT g t n k T t R k g g kTT T

ξ

τ ξ ξ τ ξ−

− − −

−∞ ∞

= − − − − = − − =

∑ ∑ ∑ ∑∫ ∫≜

( ) ( ) ( ) [ ] ( ) ( )NOTA: somiglia alla funzione

di autocorrelazione del processotempo-discreto

,

n

n m n m

n m n m

X

R t E X g t nT X g t mT E X X g t nT g t mTτ τ τΓ = − − − = − − − = ∑ ∑ ∑∑

( ) ( ) ( )

( ) ( ) ( )

( ) ( )è una è una funzione

successione del tempointegrale di autocorrelazione:

d con

1 1 d

g

X X gk k

R g g kT

R k g g kT R k R kTT T

ψ ξ ξ ψ ξ ψ τ

ξ ξ τ ξ τ

−∞

−∞

= − = −

= − + = −

∑ ∑∫

Page 25: Comunicazioni elettriche LB

Quest’ultima espressione dell’autocorrelazione temporale di un segnale PAM aleatorio è convenzionalmente esprimibile anche mediante convoluzione ibrida:

( ) ( ) ( )1X gR R k R

Tγ τ τ= ⊗

PASSO 3 Possiamo ora passare, finalmente, al calcolo della funzione spettro densità di potenza della generica realizzazione:

( ) ( ) ( ) ( ) ( )2 21 d dj f j f

X gk

G f R R e R k R kT eT

π τ π τγ γτ τ τ τ τ

∞ ∞− −

−∞ −∞

= = = − = ∑∫ ∫F

( ) ( )

( ) ( )

( ) ( )

2

2 2

definizione di trasformata di Fourier

1 1 d

j fkTg g

j f j fkT

X g g Xk k

R kT R e

R k R kT e R e R kT T

π

π τ π

τ τ

τ τ τ

∞− −

−∞

− ⇒ ⋅

= − = ⋅∑ ∑∫F F

F

Per continuare coi calcoli servono due considerazioni: - anzitutto ricordiamo che la funzione di autocorrelazione si può scrivere anche come: ( ) ( ) ( )gR g gτ τ τ⊗ −≜ ;

- facciamo poi riferimento alle proprietà della trasformata di Fourier: seconda proprietà: trasformata di segnale reale

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2

prima proprietà: da convoluzione a semplice prodotto

*gR g g G f G f G f G f G fτ τ τ= ⊗ − = − = =

F F

Dunque nell’espressione dello spettro di potenza (quella definitiva) compare:

( ) ( ) ( )2

2j fkT

Xk

G fG f R k e

T

πγ

−= ⋅∑

Essa può essere riscritta mantenendo – e non sviluppando – la trasformata di Fourier (di una successione numerica)

( ) ( ) ( )( )

( ) ( ) 2 2

2

S XR k

j fkT

X S Xk

G f G fG f R k e R k

T T

πγ

− = ⋅ = ∑

F

F

La nostra lunga ricerca è finita! Ora, volendo, possiamo sviluppare la sommatoria spezzandola in tre parti e applicando la simmetria hermitiana propria dei segnali reali.

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

il segnale è reale!

sf2 2 2

2 2

spezziamo in tre parti spezziamo in tre parti

Re cos 2j fkT j fkT

X X X

k k k

G f G f G fG f R k e R k e R k fkT

T T T

π πγ π

∞ ∞ ∞− −

=−∞ =−∞ =−∞

= ⋅ = ⋅ = ⋅

∑ ∑ ∑

ruttiamo la formula di Eulero

=

( ) ( ) ( ) ( )

( ) ( )

( ) ( )1

cambio di estremi cos 2

21

1

0 cos 2 cos 2

X

k

R k fkT

X X X

k k

G fR R k fkT R k fkT

T

π

π π

=

⇒ − ⋅

− ∞

=−∞ =

∑ = + ⋅ + ⋅ =

∑ ∑

Page 26: Comunicazioni elettriche LB

( ) ( ) ( ) ( )

( ) ( )perché siccome il segnale è reale

2

1

0 2 cos 2

X XR k R k

X Xk

G fR R k fkT

= −

=

= + ⋅

Facciamo ora un passo indietro ed esaminiamo cosa succede alla generica realizzazione del processo: RICAPITOLANDO (vedi sopra per un’esposizione più completa):

( ) ( ) ( )( ) ( ) ( ) ( )con e n n

n n

S t t E S t

S t A g t nT t X g t nT

= Γ + = − Γ = −

∑ ∑

( ) [ ] ( ) [ ]

( ) ( )

[ ]

( ) 2

2 2

1

1

j Tt

n n

t tj n j n

T T

n n n

g tx t nT X f eT

E An nE S t E A g t nT E A G e G e

T T T T

π

π π

− =

= − = =

∑ ∑

∑ ∑ ∑

F

generica realizzazione ( ) ( ) ( ) ( ) [ ] 2t

j nT

n

E A ns t t E S t t G e

T T

πγ γ

= + = +

Se di questa realizzazione cerchiamo la densità spettrale di potenza otteniamo:

( ) ( ) ( ) ( ) ( )( ) 2

2

modellato il fasoreattraverso Dirac

2 22

21

componente continua (spettro distirbuito )

0 2 cos 2

tj n

T

n

S X Xk n

G fE A n

G eT T

G f E A n nG f R R k fkT G f

T T T T

γ π

π δ∞

=

= + ⋅ + −

∑ ∑

( )componente a righe che scappa fuori da E S t

OSSERVAZIONI: - se [ ] 0E A = lo spettro a righe scompare;

- la componente a righe scompare anche nel caso in cui, indipendentemente dal

valor medio, G è tale da far risultare n

GT

sempre pari a zero;

- ricordiamo che

( ) [ ]( )

[ ][ ] [ ]

[ ] ( ) [ ]2

n k

n

n n k x

E A

X n n k

n n k A

E A

x x R k

R k E X XE A E A A E A R k E A

=

−−

=

= = = = − − = −

Page 27: Comunicazioni elettriche LB

Dunque la funzione di autocorrelazione statistica non soltanto è pari alla funzione di autocorrelazione temporale, ma coincide anche con una funzione di autocovarianza delle A.

11. Qualche esempio di segnali PAM aleatori: codice bipolare puro

Diamo anzitutto lo schema sommario di quale sia il percorso intercorrente fra una sorgente binaria e il segnale PAM completamente formato.

SORGENTE BINARIA La sorgente binaria emette 1 bit ogni bT secondi (tempo di bit):

da questo dato si ricava anche la bitrate, che è definita come 1r bB T −= .

Un bit, in quanto bit, può assumere soltanto i valori 0,1. L’emissione della successione di bit nb è da considerarsi come una

realizzazione di nB , che è un processo aleatorio,

senza memoria e stazionario (e dunque ergodico).

⇓ CODIFICATORE

Il codificatore è un componente che associa a un certo numero di bit un simbolo appartenente a un preciso

alfabeto (finito). Riceve dunque in entrata una successione di bit nb ed emette, in output, una successione di simboli

na . I simboli vengono rilasciati ogni T secondi (tempo di simbolo);

analogamente a prima, si definisce la symbol-rate come 1sB T −= . Grazie

alla corrispondenza biunivoca fra i nb e gli na , possiamo dire che

pure il processo nA è ergodico.

⇓ MODULATORE PAM

Il modulatore PAM possiede, nella pancia, un determinato impulso g(t); riceve in ingresso i simboli generati dal codificatore e, in uscita,

rilascia ogni T secondi la funzione na g(t), ovvero l’impulso g(t) modulato

da un certo coefficiente na . La somma di tutti questi impulsi singolari

è la funzione ( ) ( )n

n

s t a g t nT= −∑ . NOTA: il processo S(t) è cicloergodico!

Esaminiamo ora alcune codifiche notevoli e, per cominciare, analizziamo quella concernente il codice bipolare puro. Esso utilizza i simboli binari 1,1na ∈ − , i quali sono posti in

corrispondenza biunivoca (cioè “in rapporto uno ad uno”, 1:1) con la coppia 0,1. Un esempio potrebbe essere quello mostrato in tabella (ma non è l’unico, esistendo anche la versione duale con i simboli an invertiti). Per come abbiamo definito questo processo il symbol-rate sarà uguale al bitrate, visto che il codificatore emette un simbolo per ogni bit.

bn an

0 1

1 -1

Page 28: Comunicazioni elettriche LB

Entrando un pelo più nello specifico, esemplifichiamo supponendo che la sorgente sia bilanciata, ovvero che l’uscita del bit 0 sia probabile come l’uscita del bit 1. Si ha, ovvero:

10

2nP B p= = = 11 1

2nP B p= = − =

Ora che disponiamo di dati numerici possiamo calcolare:

- il valor medio [ ]nE B : [ ] 1 0

11 1 2 0 1 2

2

n nP B P B

nE B

= =

= ⋅ + ⋅ = ;

- il valor medio [ ]nE A : [ ]

1 11 1

1 1 2 1 1 2 0

n n

n n

P A P A

P B P B

nE A

=− =+= = = =−

= − ⋅ + ⋅ = (NOTA: il fatto di

avere un valor medio nullo potrebbe risultare un ottimo vantaggio da sfruttare!) - la funzione di autocorrelazione dei simboli na , ovvero ( )AR k (NOTA: essendo

nullo il valor medio, tale funzione coincide con l’autocovarianza, vedi presso “OSSERVAZIONI”, paragrafo 10): ( ) ( ) [ ]

il valor medioè nullo!

A X n n kR k R k E A A −= =

. Ora possiamo

discriminare due casi:

[ ]

[ ] [ ]

2 1 11 1 12 2

2

stiamo valutando il processoin due istanti coincidenti

stiamo valutando il processoin due istanti differenti 0

0 1

0 0

nE A

n n n

n n k

k E A A E A

k E A E A

= ⋅ + ⋅ =

=

= → = = ≠ → =

Dunque la funzione di autocorrelazione/autocovarianza è così fatta:

12. Qualche esempio di segnali PAM aleatori: codice bipolare alternato (AMI,

Alterned Marked Inversion)

Il codice bipolare alternato (o “pseudo-ternario”) utilizza i simboli 1,0,1na ∈ − : il principio

di codifica consiste nell’associare al bit 0nb = il simbolo 0 e ai bit

1nb = alternativamente il simbolo

+1 e –1. Ancora una volta ad un bit corrisponde un simbolo e dunque la symbol-rate è uguale alla bit-rate. Passiamo ora al calcolo del valor medio degli nA :

[ ] ( )1 1 10 1 1 0

2 4 4nE A = ⋅ + ⋅ + − ⋅ =

Page 29: Comunicazioni elettriche LB

La peculiarità di questo codice è dunque che il valor medio dell’uscita è zero indipendentemente dal bilanciamento dei bit d’ingresso. 13. Qualche esempio di segnali PAM aleatori: codice multilivello

Il codificatore multilivello non genera un simbolo ogni l bit: di conseguenza, la symbol

rate è pari a 2log

r rB B

l L= . Il numero dei livelli, che corrisponde all’ampiezza

dell’alfabeto di simboli, è dunque: 2lL = 2logl L=

Infatti: - se l = 1 alfabeto di 2 simboli

In questo caso, banalmente, il codice multilivello diventa pari al codice bipolare.

- se l = 2 alfabeto di 4 simboli

Nel codice multilivello, come si nota, si generano simboli che sono numeri dispari; si osservi poi che, per quanto riguarda i bit nb , la codifica è quella del

codice Gray (tra una riga e l’altra cambia soltanto un bit).

- se l = 3 alfabeto di 8 simboli

In questo esempio con tre livelli si vede ancora meglio che, formalmente, i simboli generati sono

( ) ( )1 , ..., 5, 3, 1, 1, +3, +5, ..., 1L L− − − − − + −

Anche qui si nota la codifica Gray (tra una codifica a quella successiva vi è la differenza di un solo bit). Ora troviamo il valor medio del processo:

[ ] ( ) ( )11 ... 3 1 1 3 ... 1 0E A L L

L = − − − − − + + + + − =

E Essendo nullo questo valor medio, lo spettro di

potenza del processo non avrà la componente a righe

14. Il problema della

predizione Il problema della predizione è un problema di fondamentale interesse nel campo delle comunicazioni elettriche: saper prevedere i valori che potrebbero derivare da un processo aleatorio è infatti di grande importanza in sede di progetto.

nb na

0 +1 1 –1

nb na

00 –3 01 –1 11 +1 01 +3

nb na

000 –7 001 –5 011 –3 010 –1 110 +1 111 +3 101 +5 100 +7

Page 30: Comunicazioni elettriche LB

Immaginiamo di avere un processo aleatorio tempo-discreto nX : un interessante e

possibile metodo di predizione consiste nel prendere n valori passati del processo e moltiplicarli per dei coefficienti (che “pesano” tali valori); i risultati di questo procedimento vengono quindi sommati insieme e confluiscono in una stima nX (che è quindi una combinazione lineare dei valori precedentemente pescati). Come facciamo a capire se la stima è buona? Esiste anzitutto un indicatore chiamato errore di stima, così definito:

nn ne X X= −

poi, fortemente correlato ad esso, si definisce anche il mean square error (MSE), che è formulato nel seguente modo:

( )22nn nMSE J E e E X X = = = −

Per trovare i coefficienti che minimizzano l’errore, il componente chiamato MMSE (minimal mean square error) predictor impone all’MSE la condizione di minimo mediante la derivata parziale operata sui coefficienti:

0i

J

a

∂ =∂

Si può dimostrare che i coefficienti tirati fuori fissando questa condizione soddisfano questo sistema di equazioni esposto in forma “matriciale”:

( )( )

( )

( ) ( )( )

( ) ( )

1

2

1 0 1

2 1

1 0

X X X

X X

X X X n

R R R N a

R R a

R N R N R a

− = −

⋯ ⋯

⋯ ⋯ ⋮

⋮ ⋮ ⋯ ⋯ ⋮ ⋮

⋯ ⋯

Page 31: Comunicazioni elettriche LB

III – MODULAZIONI

1. Concetti preliminari

Un segnale si dice passa-basso se, nel dominio delle frequenze, le componenti significative sono concentrate attorno allo zero. Un esempio di segnale passa-basso è il segnale audio: le componenti significative si trovano infatti tra 20 e 20.000 Hz (questo range è anche detto banda del segnale). Un segnale viene invece classificato come passa-banda se le sue componenti significative sono tutte concentrate alle frequenze alte; fra i segnali di questo tipo vi sono quelli la cui banda B si dice relativamente stretta (per i quali si ha precisamente

che 1CC

Bf

<< , dove CCf è la frequenza centrale del segnale, ricavabile facendo la media

aritmetica fra gli estremi dell’intervallo di banda). Un esempio notevole di segnale passa-banda è il segnale radio (v. oltre). Una classificazione simile a quella appena fatta è riferibile anche ai sistemi LTI: un sistema LTI si dice infatti passa-basso se la sua funzione di trasferimento H(f) è fatta in modo tale da avere componenti significative intorno allo zero; altrimenti, un sistema si dice passa-banda se la banda passante della H(f) è concentrata alle frequenze alte. Queste considerazioni sono di grande interesse per quanto riguarda i sistemi di trasmissione delle informazioni:

- il cavo coassiale, quello del doppino telefonico, funziona come un sistema passa-basso: i segnali a bassa frequenza, infatti, vi si propagano bene, mentre le componenti ad alta frequenza si perdono per dispersione;

- il canale radio necessita invece di un segnale passa-banda (il segnale radio). La trasmissione avviene per mezzo di due antenne (un’antenna trasmittente e un’antenna ricevente); perché questo processo sia efficiente si devono avere antenne di dimensione geometrica non molto diversa dalla lunghezza d’onda: va dunque da sé che, esistendo la relazione

velocitàdella luce

0

cf

λ = ,

e non potendosi costruire antenne di dimensioni chilometriche, si possano trasmettere solo segnali passa-banda.

2. Modulazioni: principio e grandezze fisiche coinvolte Le considerazioni appena fatte ci fanno apparire chiaro come sia di fondamentale importanza trovare un modo per “spostare” la banda di un segnale lungo l’asse delle frequenze. Con questa strategia risulta quindi possibile trasmettere segnali a bassa frequenza, ad esempio, attraverso il mezzo radio (che è un canale implicitamente passa-banda). Il percorso di un segnale è dunque schematicamente questo: Sorgente analogica [segnale passa-basso x(t)] blocco modulatore [trasforma il segnale in s(t), passa-banda] canale passa-banda demodulatore [componente

Frequenza Lunghezza d’onda

(dimensione antenna) 30 Hz 10.000 Km 300 Hz 1.000 Km 300 kHz 1 Km 3 MHz 100 m 300 MHz 1 m 3 GHz 10 cm 30 GHz 1 cm

Page 32: Comunicazioni elettriche LB

duale del modulatore, che dà in uscita un segnale passa-basso x’(t), che si spera il più possibile simile a x(t)] destinatario. Un po’ di terminologia: - x(t) è detto segnale modulante; - s(t) è l’oscillazione modulata. Ovviamente, per la natura stessa del componente, un modulatore non può essere LTI: dobbiamo sacrificare o la linearità o la tempo-invarianza per fare in modo che sia possibile far nascere nuovi fasori (ovvero “traslare” in frequenza). Un sistema LTI, invece, modifica soltanto ampiezza e fase di un segnale, non la locazione della sua banda. L’oscillazione modulata s(t) si ottiene generalmente con due ingredienti: - il segnale modulante x(t);

- un riferimento alla 0f alla quale si vuole trasportare il segnale: tale

riferimento può essere una portante sinusoidale

frequenza

0 0 0

ampiezza faseiniziale

cos 2V f tπ ϕ

+

.

Un segnale sinusoidale è intrinsecamente passa-banda, dunque è perfetto per i nostri scopi! NOTA: la portante non veicola informazioni: dà solo indicazioni su fase, modulo e frequenza “d’arrivo”. Una volta che si ha in mano la portante, bisogna variarne i parametri in rapporto al segnale modulante: dunque questo sarà l’aspetto della nostra oscillazione modulata

( ) ( )

( )( ) ( ) ( )

ampiezzaistantanea

0

faseistantanea

cos 2 coss t V t f t t V t tπ ψ ϕ= + =

Si definiscono quindi le seguenti grandezze:

- pulsazione istantanea: ( ) ( ) ( )d

d

tt t

t

ϕω ϕ= = ɺ ;

- frequenza istantanea: ( ) ( ) ( )2 2

t tf t

ω ϕπ π

= =ɺ

;

- deviazione di ampiezza: ( ) 0V t V− ;

- deviazione relativa di ampiezza: ( ) ( ) 0

0

V t Vm t

V

−= ;

- deviazione di fase: ( ) ( ) ( ) ( )0 0 02t t f t tα ϕ π ϕ ψ ϕ= − + = − ;

- deviazione di frequenza: ( ) ( ) ( )0 2

tf t f t f

απ

∆ = − =ɺ

da cui si può ricavare,

integrando entrambi i membri ( ) ( ) ( ) ( ) d 2 d2

t ttf t f K

αξ ξ α π ξ ξ

π−∞ −∞

∆ = ⇒ = ∆ +∫ ∫ ∫ɺ

Con le nuove grandezze appena definite possiamo riscrivere l’oscillazione modulata:

( ) ( )( ) ( )

( )( )( ) ( )

0

0 00 2

0 0 01 cos 2

V t Vm t

t t f tV

s t V m t f t t

α ϕ π ϕ

π α ϕ

−=

= − −

= + + +

Page 33: Comunicazioni elettriche LB

3. Modulazione in ampiezza (Amplitude Modulation, AM)

( )

( )( )

sensibilità del modulatore:rende ( )

adimensionale

0

m t

am t k x t

= =

con ( ) ( )( )

( )

( )0 01 cos 2

V t

a

m t

s t V k x t f t tπ α = + +

( )

0

0

ϕ +

Nella modulazione in ampiezza il segnale di tipo passa-basso fa da l’inviluppo per l’oscillazione modulata, che eredita dal segnale portante (la sinusoide) i punti di intersezione con lo zero. Dove il segnale modulante è maggiore di zero, l’oscillazione modulata sarà più intensa della portante; viceversa, nelle parti corrispondenti ai valori in cui il segnale x(t) diventa negativo, la s(t) sarà una versione attenuata della s0(t). Tale tipo di modulazione in ampiezza nasconde l’insidia della sovramodulazione: essa avviene quando il blocco modulatore è troppo

sensibile (a

k molto alto) oppure

quando il segnale passa-basso x(t) è già intrinsecamente molto “ampio”. In situazione di sovramodulazione capita che V(t) diventa negativo (e quindi che –V(t) diventa positivo): dunque le due “pareti” dell’inviluppo si accavallano e il segnale s(t) non è più un rappresentante attendibile del segnale modulante. Inoltre abbiamo il fenomeno dell’inversione di fase (vedi disegno). Per evitare queste spiacevolezze deve accadere che ( ) 0V t ≥ per ogni t. Dunque, osservando l’espressione

dell’oscillazione modulata, bisogna imporre:

( ) ( )( )

( )

( )0 01 cos 2

V t

a

m t

s t V k x t f t tπ α = + +

( )

0

0

ϕ +

( )( )

0 1 0a

m t

V k x t

+ ≥

Page 34: Comunicazioni elettriche LB

( )( )

1 0a

m t

k x t+ ≥

Ora introduciamo il concetto di indice di modulazione di ampiezza:

( ) ( ) ( )max max maxa a a

m m t k x t k x t= = =

Se il segnale ha una dinamica ben definita, ovvero se è chiaramente contenuto, nei valori d’ampiezza, all’interno di un intervallo (che ora prendiamo per semplicità simmetrico e pari a [–M, M]), possiamo allora formulare tale indice nel seguente modo:

( )maxa a a

m k x t k M= =

Dunque ( )( )

1 0a

m t

k x t+ ≥

sarà sicuramente vera se ( )1 0ak M+ − ≥ (se l’ampiezza di s(t) è

ancora maggiore di zero per l’oscillazione “negativa” più ampia, vuol dire che tutte gli altri valori non sono pericolosi). Alla fine otteniamo un’importante condizione sulla sensibilità del modulatore, che è la seguente:

( ) 11 0 1

a a ak M k M k

M+ − ≥ ⇒ ≥ ⇒ ≤

4. Modulazione di fase (Phase Modulation, PM)

( )( )

( )

sensibilità del modulatore:

conferisce a dimensione [rad]

0

( )p

t

m t

t k x t

α

α

=

=

con ( )( )

( )( )( )

0 0 0cos 2

tV t

ps t V f t k x t

ϕ

π ϕ= + +

NOTA: ( ) ( ) ( )0

d( )

d ( )2 2 2

pp

k x t kt tf t f t f x tα

π π π∆ = − = = =

ɺɺ

Come si nota dalle relazioni appena scritte, l’oscillazione modulata non varia più in ampiezza (si vede anche dal disegno che s(t) ha ampiezza costante), bensì il suo andamento si modella in base all’entità della derivata di x(t): dove il segnale modulante ha derivata positiva, s(t) ha un andamento più “rapido” (si nota che la fase varia più velocemente

e la frequenza, di conseguenza, aumenta). Viceversa, dove la derivata è negativa, il segnale s(t) si “spancia” e la sua frequenza cala. È questo un primo esempio di modulazione d’angolo (il secondo esempio sarà quello che si vedrà nel paragrafo 5): in questo contesto si parla quindi di indice di

modulazione angolare; esso è così definito:

( )maxpm tα=

Page 35: Comunicazioni elettriche LB

Nel caso particolare in cui il segnale modulante è una sinusoide (di frequenza mf ) si

introduce poi un indice più specifico, ovvero l’indice di modulazione di frequenza:

( )maxf

m

f tm

f

∆=

5. Modulazione di frequenza (Frequency Modulation, FM)

( )( )

( )

sensibilità del modulatore:

conferisce a dimensione [Hz]

0

( )f

f t

m t

f t k x t

=

∆ =

con ( )( )

( )( )

( )

0 0 0cos 2 2 d

t

V tt

f

t

s t V f t k f

ϕ

α

π π ξ ξ ϕ−∞

= + ∆ +

Anche in tale modulazione l’ampiezza dell’oscillazione modulata è costante: quel che varia è la frequenza di s(t). Dove il segnale modulante x(t) è maggiore di zero la frequenza di s(t) sarà maggiore della frequenza della sinusoide portante; d’altro canto, dove x(t) è < 0, allora l’oscillazione modulata avrà una frequenza inferiore a quella di s0(t).

Per quanto riguarda l’indice di modulazione angolare, consulta il paragrafo 4. 6. Modulazioni ibride (APM, Amplitude Phase Modulation)

Nelle cosiddette modulazioni ibride il segnale modulante modula contemporaneamente in ampiezza ( )V t e fase ( )tϕ . In base a questo principio, posso

“trasportare”, su una sola portante, due segnali: con uno dei due modulo la fase, con l’altro modulo l’ampiezza. Dunque, operando nel seguente modo si ha che

( ) ( )( ) ( )( )0 1 0 2 01 cos 2a ps t V k x t f t k x tπ ϕ= + + +

7. Circuiti di modulazione e di demodulazione; esempio notevole:

demodulatore AM ad inviluppo

Il modulatore d’ampiezza ha, come simbolo grafico, quello affianco; tale componente riceve in ingresso il segnale modulante e la portante: dopodiché li compone e, dà in uscita, l’oscillazione modulata (come si vede in figura).

Page 36: Comunicazioni elettriche LB

Il modulatore di fase è disegnato in un modo molto ma molto simile a quello d’ampiezza, come si vede facilmente nell’immagine accanto. Ancora una volta si hanno in ingresso il segnale modulante x(t) e la portante ( )0s t e, in output,

l’oscillazione modulata per fase. Per quanto riguarda il modulatore di

frequenza c’è da fare qualche considerazione in più. Anzitutto è necessario dire che non serve una portante in ingresso in quanto l’oscillatore è già incorporato all’interno del modulatore stesso (VCO: Voltage Controlled Oscillator). Inoltre, come componente, il modulatore di frequenza ha la peculiarità di sostituire quello di fase se, in ingresso, gli diamo in pasto il segnale modulante derivato. In figura si riporta come devono essere

collegati i vari componenti del circuito in questione e la dimostrazione rigorosa di come sia possibile ottenere un segnale modulato in fase con un modulatore FM. Per quanto riguarda i circuiti di demodulazione, non vi è quasi nessuna differenza nei simboli grafici (si nota soltanto l’assenza della portante).

Per i circuiti di demodulazione si fa un distinguo fra:

- circuiti coerenti: sono quelli in grado di demodulare un segnale solo se conoscono una replica della portante;

- circuiti non coerenti: non hanno bisogno di una replica locale della portante per demodulare un segnale.

Fra i circuiti non coerenti un demodulatore notevole (del quale si dà lo schema circuitale qui affianco) è quello AM cosiddetto a

inviluppo.

Page 37: Comunicazioni elettriche LB

Il principio di funzionamento di questo circuitino è molto ingegnoso: per comprenderlo, supponiamo che il diodo sia in conduzione (con caduta di potenziale nulla ai suoi capi). Inizialmente, visto il parallelo fra i componenti, la tensione d’ingresso [data da

( )AMs t ] sarà sicuramente uguale a quella

dell’uscita [il segnale ( )V t , che – come

vedremo – somiglia molto all’inviluppo

( ) ( )( )0 1 aV t V k x t= + ]. Non appena il segnale

d’ingresso arriva su una cresta (un massimo relativo) e comincia a diminuire, la tensione d’uscita smetterà di essere uguale a quella d’ingresso perché la presenza del condensatore rallenta il processo con una

scarica (di tipo RC), più lenta dell’andamento decrescente di ( )AMs t . Dunque il diodo si

interdirà per poi riattivarsi [e ripristinare l’uguaglianza ( )V t = ( )AMs t ] non appena il

l’oscillazione modulata ( )AMs t tornerà ad essere pari al valore della tensione d’uscita.

Si intuisce facilmente che è di fondamentale importanza dimensionare bene la costante di tempo del circuito, in modo che la scarica abbia la giusta velocità e insegua adeguatamente l’inviluppo. 8. Analisi spettrale del segnale AM

Prendiamo l’espressione di un segnale modulato AM e distribuiamo il prodotto:

( ) ( )( ) ( )0 1 cos 2AM as t V k x t ftπ= + ( ) ( ) ( ) ( )ricompare la portante

0 0

termine di modulazione a prodotto

cos 2 cos 2AM as t V ft k V x t ftπ π= +

Ora distinguiamo due casi: 1) segnale x(t) ad energia finita. Se il segnale è ad energia finita, sicuramente ammette la trasformata di Fourier ( ) ( )x t X f = F . Calcoliamola sfruttando la

linearità della trasformata e, quindi, separando la prima componente (portante) dalla seconda (termine modulato a prodotto):

Prima componente: ( ) ( ) ( )0 00 0 0 0cos 2

2 2V V

V f t f f f fπ δ δ = − + + F (NOTA: è a righe)

Seconda componente: ( ) ( ) ( ) ( )0 00 0 0cos 2

2 2a a

a

k V k Vk V x t ft X f f X f fπ = − + + F

(NOTA: è continua)

Qui a fianco si vede come le due componenti vengono graficate.

Page 38: Comunicazioni elettriche LB

Come si nota, siamo davvero poco efficienti per quanto riguarda: - occupazione di banda: il segnale modulato S(f) occupa infatti il doppio della banda rispetto al segnale di partenza X(f); - potenza: ne “sprechiamo” una parte per trasmettere la portante e molta anche per trasmettere il segnale modulato (che, come dicevamo, ha una banda davvero larga)

2) segnale x(t) a potenza finita. Anche il segnale modulato sarà a potenza finita e possiamo, di quest’ultimo, trovare la densità spettrale di potenza:

( ) ( ) ( ) ( ) ( )2 2 2 2 2 20 0 0 0

0 0 0 04 4 4 4a a

S x x

V V k V k VG f f f f f G f f G f fδ δ= − + + + − + +

Come nel caso precedente, c’è una componente a righe e una componente continua (il disegno è analogo a quello del caso precedente, con di GS(f) al posto S(f) e GX(f) al posto di ( )X f ) e pure in questo caso abbiamo degli inconvenienti, analoghi a

quelli esaminati poco fa. 9. Varianti (ibride) di modulazione AM: DSB-SC, SSB

Dal punto di vista della potenza trasmettere la portante è uno spreco: se però disponiamo di un demodulatore coerente, è necessario trasmettere un residuo (possibilmente molto debole) di portante, in modo che si possa eseguire la

demodulazione. Abbiamo però un’altra possibilità: possiamo decidere di non trasmettere la portante a patto di poterla ricostruire – lato ricevente – con un circuito apposito. A tal proposito definiamo (con riferimento al disegno di prima) la upper e la lower side band (v. immagine). Ora possiamo formulare un’espressione alternativa per l’oscillazione modulata:

( ) ( ) ( ) ( ) ( )0

portante segnale di segnale di segnale diupper side band lower side band double side band

AM USB LSB DSBs t s t s t s t s t= + + ≡

Esaminiamo ora da vicino tre varianti (ibride) per la modulazione in ampiezza:

- DSB – SC (Double Side Band Suppressed Carrier – portante soppressa): è detta anche modulazione a prodotto, in quanto l’oscillazione modulata è così strutturata

( ) ( ) ( )0cos 2s t x t f tπ= (a meno di 0V ) ( ) ( )0

portante

DSB SCs t s t− =

( ) ( )segnale di segnale di

upper side band lower side band

USB LSBs t s t+ +

In effetti, il circuito modulatore è semplicissimo: esso è costituito da un modulatore a prodotto che moltiplica x(t) (segnale modulante) per una sinusoide a frequenza 0f generata da un oscillatore.

Lo spettro di potenza di s(t) (oscillazione modulata) è lo stesso di quello del caso DSB, ma senza la riga della portante. Eccone infatti la formulazione:

( ) ( ) ( )0 0

1 14 4S X XG f G f f G f f= − + +

Page 39: Comunicazioni elettriche LB

[NOTA: rispetto al caso DSB manca proprio il termine ( ) ( )2 20 0

0 04 4V V

f f f fδ δ− + + ]

Diamo ora uno sguardo al demodulatore:

Il demodulatore è coerente perché possiede una copia locale della portante, la quale viene moltiplicata per ( ) ( ) ( )0cos 2s t x t f tπ= così che un termine di coseno

al quadrato: ( ) ( ) ( ) ( )20 0cos 2 cos 2s t f t x t f tπ π= .

Formula di bisezione: 21 cos2 1 cos2cos cos

2 2α αα α+ += ± ⇒ =

( ) ( ) ( ) ( )( ) ( )

( ) ( )( )20 0 0

segnale inbanda base

1 1cos 2 cos 2 2 cos 2 2

2 2 2 2

x t x tx t f t x t f t f tπ π π = + = +

segnale modulato a prodottoche viene eliminato dal filtropassa-basso a valle del circuito

Abbiamo dunque in uscita il segnale originario (con ampiezza dimezzata, ma questo non è un problema, basta moltiplicare per 2 e il gioco è fatto!). Problema: la copia locale della portante dev’essere perfettamente in fase con la portante del segnale. Come evitare che ciò – per qualche motivo – non accada? La soluzione sta nell’integrare, all’interno del demodulatore, un circuito non lineare di carrier recovery (ricostruzione della portante), il quale riforma la portante e la fa combaciare col segnale DSB-SC.

NOTA: potevamo, in alternativa, ragionare secondo Fourier. Prendiamo l’oscillazione modulata

( ) ( ) ( )0cos 2s t x t f tπ=

Se la trasformiamo secondo Fourier abbiamo che:

( ) ( ) ( ) ( ) ( ) ( )0 0 0

1 1cos 2

2 2s t x t f t X f f X f f S fπ= = − + + =F F

Se vogliamo riottenere X(f) utilizziamo un piccolo trucchetto; prendiamo la S(f), la trasliamo tutta di 0f e poi sommiamo quel che otteniamo con la stessa S(f)

traslata di 0f− : quindi, facciamo passare il tutto per il filtro passa-basso.

Page 40: Comunicazioni elettriche LB

( ) ( ) ( ) ( )0 0

0 0 0 0 0 0 0 0

traslazione di traslazione di

1 1 1 12 2 2 2

f f

X f f f X f f f X f f f X f f f

+ −

− + + + + + − − + + − =

( ) ( ) ( ) ( ) ( )0 0

mangiato dal passa-basso mangiato dal passa-basso

1 1 1 12 2

2 2 2 2X f X f f X f f X f X f+ + + − + =

Et voilà!

Apriamo ora una piccola parentesi e vediamo cosa succede se, per qualche motivo, non vi perfetta è sincronia fra la portante del modulatore e quella del demodulatore e cioè se abbiamo

( )0portante 1 (modulatore) cos 2 f tπ→

errore!

0portante 2 (demodulatore) 2cos 2 f tπ

→ − ∆

Se chiamiamo p(t) il segnale che esce dal modulatore a prodotto presente nel blocco di demodulazione, allora si ha

( ) ( ) ( ) ( )( ) ( )

( ) ( ) ( )0 0 0

1 1 elliminato dal filtro passa-bassocos cos cos cos

2 2

2 cos 2 cos 2 cos cos 4p t x t f t f t x t x t f t

α β α β α β

π π π

= + + −

= − ∆ = ∆ + − ∆

Dunque il ricevitore ottiene una versione attenuata di x(t):

( )caso migliore, tutto resta com'è cos 1

cos attenuazione 0 cos 1

caso peggiore, il segnale scompare cos 0

x t

∆ =∆ = < ∆ < ∆ =

VANTAGGI: non dobbiamo trasportare la portante assieme al segnale, dunque risparmiamo in potenza. SVANTAGGI: non abbiamo risparmi di banda. - SSB (Single Side Band): è detta anche conversione di frequenza. Il principio di questa modulazione ibrida è quello di “spedire” o solo la USB o solo la LSB, più la portante:

( )

( )

( )segnale di

upper side band

segnale dilower side band

USB

SSB

LSB

s t

s ts t

=

Questo sarà dunque lo spettro di potenza del segnale trasmesso [quello ai lati: la parte in banda passante si riferisce al segnale originario x(t)]:

Se prendiamo come esempio una modulazione SSB in cui si conserva e si spedisce solo la USB, allora il modulatore (detto “convertitore di frequenza in

salita”, perché converte da frequenze basse a frequenze alte) è costituito dalla serie di:

- un modulatore DSB-SC (a prodotto), che moltiplica il segnale modulante x(t) per il termine ( )0cos 2 f tπ ;

Page 41: Comunicazioni elettriche LB

- un filtro passa-alto che elimina la componente LSB. NOTA: questo filtro dev’essere piuttosto severo, in quanto il suo compito è eliminare la LSB senza distorcere la USB. Il problema è che LSB e USB sono fra loro molto ravvicinate! Per questo, come vedremo, si utilizza la VSB, preferendo sacrificare un pochino più di banda alla possibilità di incorrere nel rischio di una pericolosa distorsione.

Il demodulatore (detto “convertitore di frequenza in discesa”, perché converte da frequenze alte a frequenze basse) è invece fatto così:

- un modulatore a prodotto che moltiplica il segnale modulante x(t) per il termine ( )0cos 2 f tπ in serie con…

- … un filtro passa-basso (che è poi il solito!). Anche in questo caso, come in quello precedente, possiamo (con considerazioni preliminari analoghe) ragionare secondo Fourier: se prendiamo la trasformata dell’oscillazione modulata, la trasliamo di 0f e poi la sommiamo alla stessa

funzione traslata però di 0f− , otteniamo due USB “isolate” alle alte frequenze

(che vengono sgranocchiate dal filtro passa-basso) e la trasformata di X(t) in banda-base (che invece sopravvive). VANTAGGI: risparmiamo il 50% della banda rispetto a quella necessaria per l’ordinaria modulazione AM! SVANTAGGI: possibile distorsione dovuta al filtro passa-alto del modulatore. - VSB (Vestigial Side Band): questa modulazione ha la strana particolarità di essere “una SSB venuta male”. Viene adottata per i motivi espressi nel caso precedente (quelli riguardanti i requisiti del filtro passa-alto) e per il fatto che è difficile utilizzare altre modulazioni con i segnali in banda-base che contengono anche la continua (frequenza f = 0), come ad esempio il segnale televisivo. Nella VSB bisogna immaginare di ritagliare l’oscillazione modulata (e quindi lo spettro del segnale “doppio” traslato a 0f+ e 0f− ) con un filtro passa-alto (anche

non severo), ma senza la rigorosa simmetria che caratterizzava la LSB e la USB. Qui, infatti, prendiamo “un po’ più di metà” delle frequenze della componente positiva e negativa del segnale. Ad esempio, nel caso televisivo (5 MHz di banda, 10 MHz di occupazione) prendiamo, dai 10 MHz che si trovano alla frequenza 0f+ e dai 10 MHz a 0f− un po’ più di 5 MHz (precisamente 6,25

MHz da ambo le parti). VANTAGGI: risparmiamo abbastanza banda rispetto al caso AM (anche se non arriviamo all’eclatante 50% della SSB); SVANTAGGI: possiamo modulare segnali in banda base senza problemi di filtri.

10. Modulazione QAM (Quadrature Amplitude Modulation)

Con la modulazione QAM trasmettiamo due segnali nella stessa banda: sembra impossibile, ma non è magia nera! Vediamo come si opera: prendiamo due segnali modulanti ( )1x t e ( )2x t

- il primo segnale [ ( )1x t ] viene dato a un modulatore a prodotto, che lo

moltiplica per un termine ( )0cos 2 f tπ ;

- il secondo segnale [ ( )2x t ] viene dato a un altro modulatore a prodotto, che lo

moltiplica per un termine ( ) ( )0 0cos 2 sin 22f t f tππ π+ = − , in quadratura rispetto a

( )0cos 2 f tπ (NOTA: il sfasatura di 2π si crea utilizzando un opportuno blocco di

ritardo. I modulatori a prodotto di cui stiamo parlando usano infatti una sola

Page 42: Comunicazioni elettriche LB

portante, la quale viene offerta una volta così com’è e la un’altra volta ritardata, appunto, di 2π . Se così non fosse potrebbe esserci serio pericolo di non ottenere la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori delle portanti).

A questo punto sommiamo i due segnali per ottenere s(t), l’oscillazione modulata che spediamo nel mezzo passa-banda.

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )1 0 2 0 1 0 2 0cos 2 cos 2 cos 2 sin 22s t x t f t x t f t x t f t x t f tππ π π π= + + = −

Ora esaminiamo il demodulatore: esso porta il segnale s(t) a due modulatori a prodotto con diversa portante…

- il primo dei due ha portante ( )02cos 2 f tπ e dà, in uscita, un segnale che

chiamiamo ( )IP t (I sta per “in fase”) e che ha la forma

( ) ( ) ( ) ( ) ( ) ( )1 0 2 0 0cos 2 sin 2 2cos 2I

P t x t f t x t f t f tπ π π = − =

( ) ( )

( )

( ) ( ) ( )( )0

0

21 0 2 0 0

trucchetto!! trucchetto!! sin 2 21 1 cos 2 22 2

2 cos 2 2sin 2 cos 2f t

f t

x t f t x t f t f t

ππ

π π π→ = ⋅

= + ⋅

= − =

( ) ( ) ( ) ( )1 0 2 0

1 12 cos 2 2 sin 2 2

2 2x t f t x t f tπ π = + ⋅ − ⋅ =

( ) ( ) ( ) ( ) ( )1 1 0 2 0

componenti ad alta frequenza mangiate dal filtro passa-basso

cos 2 2 sin 2 2x t x t f t x t f tπ π= + ⋅ − ⋅

( )1x t=

Come si specifica nel procedimento appena illustrato, quel che esce fuori è soltanto il segnale (di partenza!) ( )1x t , perché tutte le altre componenti vengono

eliminate da un filtro passa-basso che mettiamo a valle del modulatore a prodotto; - il secondo dei due ha portante ( )02sin 2 f tπ− e dà, in uscita, un segnale che

chiamiamo ( )QP t (Q sta per “in quadratura”) e che ha la forma

( ) ( ) ( ) ( ) ( ) ( )1 0 2 0 0cos 2 sin 2 2sin 2QP t x t f t x t f t f tπ π π = − − =

( ) ( ) ( )( )

( ) ( )

( )0

0

21 0 0 2 0

trucchetto!! trucchetto!! sin 2 21 1

cos 2 22 2

2sin 2 cos 2 2 sin 2f t

f t

x t f t f t x t f t

ππ

π π π→ = ⋅

= − ⋅

= − + =

( ) ( ) ( ) ( )1 0 2 0

1 1sin 2 2 2 cos 2 2

2 2x t f t x t f tπ π = − ⋅ + − ⋅ =

( ) ( ) ( ) ( )1 0 2 0

debellati dal filtro passa-basso

sin 2 2 cos 2 2x t f t x t f tπ π= − ⋅ − ⋅

( ) ( )2 2x t x t+ =

Anche questa volta un filtro passa-basso all’uscita del modulatore in questione elimina tutte le componenti ad alta frequenza e lascia intatto solo il segnale

( )2x t . (NOTA: anche nel demodulatore la sfasatura di 2π che vi è fra le

portanti dei modulatori a prodotto si crea utilizzando un opportuno blocco di ritardo e un solo oscillatore. I modulatori a prodotto di cui stiamo parlando usano infatti una sola portante, la quale viene offerta una volta così com’è e la un’altra volta ritardata, appunto, di 2π . Se così non fosse potrebbe esserci serio pericolo di non ottenere la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori. Inoltre, si usa un circuito di carrier recovery per essere sicuri che ci sia la corretta corrispondenza fra demodulatore e modulatore).

Page 43: Comunicazioni elettriche LB

Dunque è proprio vero! In una sola banda convivono due segnali i quali, in frequenza, sono sovrapposti in un intervallo di banda che è di 2 mf . Per capire meglio questa

affermazione trasformiamo l’oscillazione modulata e vediamo come è fatta nel dominio delle frequenze:

( ) ( ) ( ) ( ) ( ) 1 0 2 0cos 2 cos 2 2S f x t f t x t f t ππ π= + + =F

( ) ( )( ) ( )

( ) ( )

( ) ( ) ( ) ( )1 0

2 0 2 0

1 0 1 0 2 0 2 0

questa parte deriva da cos 2 questa parte deriva da cos 2 sin 22

1 1 1 12 2 2 2

x t f t

x t f t x t f t

X f f X f f j X f f X f f

πππ π+ = −

= − + + + − + +

Qui si nota bene che ( )2 0X f f− è sovrapposta a ( )1 0X f f− e che lo stesso accade fra

( )2 0X f f+ e ( )1 0X f f+ .

Piccola parentesi: cosa accade se, per qualche motivo, le oscillazioni dei modulatori a prodotto non sono ben sincronizzate? Prendiamo ad esempio il demodulatore e introduciamo un certo sfasamento ∆ fra le portanti

Calcoliamo ( )IP t [segnale in uscita del demodulatore a prodotto con portante

( )0cos 2 f tπ − ∆ ]:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )0 1 0 2 0 02 cos 2 2 cos 2 sin 2 cos 2IP t s t f t x t f t x t f t f tπ π π π = − ∆ = − − ∆ =

( ) ( )1 2cos 2 sin termini ad alta frequenza (eliminati dal passa-basso)x t x t= ∆ − ∆ +

Come si vede dalla figura e dalla formulazione di ( )IP t , lo sfasamento è

pericolosissimo perché ha il doppio effetto di: - attenuare il segnale utile [ovvero ( )1x t presso ( )IP t e ( )2x t presso ( )QP t ];

- amplificare il segnale sbagliato [ovvero ( )2x t ove sussiste ( )IP t e ( )1x t in

luogo di ( )QP t ].

Ancora una volta, un grande vantaggio (il risparmio di banda) ottenuto con tanta fatica viene pagato a caro prezzo: un piccolo errore, infatti, finisce per avere un grandissimo peso!

Page 44: Comunicazioni elettriche LB

11. Spettro di potenza per modulazioni d’angolo (PM, FM): la banda di

Carson

Come già abbiamo visto per quanto riguarda le modulazioni d’angolo, questa è

l’espressione dell’oscillazione modulata:

( ) ( )( )0 0cos 2s t V f t tπ α= +

Purtroppo ( )tα incarna una relazione fortemente non lineare, che non ci permette di

trovare matematicamente l’espressione dello spettro di potenza, né nella maniera

usuale, né in nessun’altra. Esiste tuttavia una relazione “empirica” che riesce a darci,

a grandi linee, l’estensione della banda del segnale modulato ad angolo (banda di

Carson):

( )

massima deviazionedi frequenza

max

max

2 m

f t

B f f

= ∆

= ∆ +

In base alla modulazione scelta, la massima deviazione di frequenza avrà una diversa

espressione:

CASO FM: f

k M= (M è la dinamica del segnale)

CASO PM: = ( )1max

2p

k x tπ

ɺ

Comunque sia, pare evidente che un segnale modulato con modulazione d’angolo

occupa una banda molto superiore a quella del caso AM. Infatti

( ) max max

mod. AMmodulazione d'angoloespressione della banda di Carson

2 2 2 2m m mf f f f f∆ + = ∆ + >

A titolo d’esempio, la maxf∆ di un segnale FM (del tipo che si riceve abitualmente con la

radiolina tascabile) è di 75 KHz, mentre la sua mf è di “soli” 15 KHz. Dunque un

segnale AM di equivalente frequenza occuperebbe 30 KHz contro i 180 KHz che si

hanno in modulazione di frequenza. Fatta questa considerazione si potrebbe pensare

che le modulazioni d’angolo siano svantaggiose in toto: in realtà esse hanno la

peculiarità di avere un inviluppo (cioè un’ampiezza) costante, particolare che facilita

molto la costruzione dei circuiti di modulazione/demodulazione e che rafforza la

resistenza ai disturbi. Le modulazioni d’ampiezza, che proprio nell’inviluppo portano

l’informazione, sono – sotto questo aspetto – maggiormente attaccabili.

Nonostante la forma dello spettro di potenza di un segnale modulato PM/FM sia

imprevedibile, si possono ancora una volta fare considerazioni qualitative ed empiriche

riguardo ad esso; se prendiamo, per semplicità, un segnale modulante di tipo

sinusoidale (che ha una trasformata a righe), avremo:

- nel caso AM: due righe per la portante (a frequenza 0f+ e 0f− ) e quattro righe

(due nella parte positiva e due nella parte negativa) per il segnale modulato;

- nel caso d’angolo (FM/PM): tante righe attorno alle frequenze 0f+ e 0f− , tutte

con passo mf .

Page 45: Comunicazioni elettriche LB

12. FDM, Frequency Division Multiplexing (modulazione di segnali a

divisione di frequenza)

Si tratta di una tecnica che permette di inviare attraverso uno stesso mezzo passa-

banda più segnali passa-basso opportunamente modulati a diverse (e opportune)

frequenze 1f , 2f , …, nf . Dal punto di vista del ricevente, è possibile ottenere l’i-esimo

segnale passa-basso spedito sapendo a che frequenza quest’ultimo è stato lanciato e

utilizzando un opportuno demodulatore. Ecco lo schema di funzionamento

(nell’esempio i segnali coinvolti sono tre):

I tre segnali di partenza ( )1x t , ( )2x t e ( )3x t vengono modulati ognuno su una diversa

frequenza, con l’accortezza che le bande alle quali vengono traslati siano

sufficientemente lontane da evitare fatali sovrapposizioni. Le oscillazioni modulate

così ricavate vengono fatte passare attraverso un sommatore, che le unisce e le

prepara quindi per la trasmissione. All’arrivo, i filtri passa banda sagomano quelle che

erano le tre oscillazioni modulate di partenza, che vengono quindi demodulate una ad

una per restituire (se tutto è andato bene) ( )1x t , ( )2x t e ( )3x t “ritardati”. La

peculiarità della FDT sta nella possibilità di modulare con la tecnica che si ritiene più

opportuna, a patto di rispettare la condizione di non sovrapposizione: dunque

- nel caso AM la distanza fra le portanti dev’essere 1 2i i mf f f+− ≥ (v. il paragrafo

sulla banda di Carson);

- nel caso SSB-SC (tale tecnica è stata usata per molti anni nel collegamento fra

centrali telefoniche) la distanza fra le portanti dev’essere 1i i mf f f+− ≥ .

Fra le caratteristiche della modulazione FDM vi è quella di poter considerare s(t) come

un segnale a sua volta modulante e, dunque, quella di poter effettuare FDM “doppie” o

a cascata. Per le fibre ottiche esiste una tecnica analoga a questa (WDM, Wavelength

Division Multiplexing).

13. Un esempio di FDM: segnale audio FM stereo

I parametri di questo tipo di segnale sono:

- banda mf : 15 KHz;

- deviazione massima di frequenza maxf∆ = 75 KHz.

Page 46: Comunicazioni elettriche LB

La peculiarità del segnale stereo (a differenza del segnale mono, che è singolo) è quella

di veicolare al suo interno sia le informazioni audio destinate alla cassa destra

[segnale ( )R t ] che quelle della cassa sinistra [segnale ( )L t ]. Con l’avvento della

stereofonia, la trasmissione audio-radio si è allineata e standardizzata in questa

direzione: tuttavia, i programmi radio possono essere percepiti sia da un ricevitore

mono che da un ricevitore stereo con un piccolo accorgimento.

Infatti lato RX non si spediscono separatamente il segnale ( )R t e ( )L t – come si

potrebbe pensare – bensì:

- il segnale media (quello che riceverà l’utente mono): ( ) ( ) ( )2

L t R tm t

+= ;

- il segnale differenza (la chiave per ricostruire il segnale destro e sinistro):

( ) ( ) ( )2

L t R td t

−= .

Ecco qui di seguito lo schema della modulazione.

LATO TX:

Come si trasmette il segnale? A tutti gli effetti si utilizza una FDM, visto che il

segnale differenza e il segnale media non si sovrappongono, ma – anzi – sono separati

da una portante (a 19 KHz):

- il segnale media è passa-basso;

- il segnale differenza è modulato DSB-SC e centrato ad una frequenza doppia

rispetto alla portante (38 KHz).

Page 47: Comunicazioni elettriche LB

I due segnali così ottenuti vengono sommati e quindi modulati in frequenza. Ora il

segnale è diventato passa-banda e può essere trasmesso nel mezzo radio.

LATO RX:

Lato ricevente il segnale viene anzitutto demodulato; dopodiché si cerca di separare la

parte che in trasmissione era passa-basso (il segnale media m(t), che è quello che

ricevono i possessori di apparato mono) da quella a 38 KHz: con un filtro passa-banda

strettissimo si ottiene la portante, la quale viene passata a un demodulatore a

prodotto, che a sua volta si occupa di elaborare e traslare alle frequenze originarie il

segnale d(t). A questo punto il ricevitore stereo può ottenere l’audio della cassa sinistra

sommando m(t) con d(t) e quello della cassa destra sottraendo d(t) da m(t).

14. Equivalente passa-basso di un’oscillazione modulata (inviluppo

complesso)

Se s(t)

( ) ( ) ( )( )0 0 01 cos 2s t V m t f t tπ α ϕ = + + +

è la generica espressione di un’oscillazione modulata, allora il suo equivalente passa-

basso è la funzione i(t)

( ) ( ) 02Re

j f ts t i t e

π=

L’obiettivo di questo procedimento è quello di depurare il segnale dalla sua frequenza

di posizionamento 0f .

Esaminiamo da vicino i vari casi di modulazione:

- AM: in questo caso l’oscillazione modulata si esprime come

( ) ( ) ( )0 0 01 cos 2AM as t V k x t f tπ ϕ = + +

Dunque è facile ricavare l’equivalente passa basso, perché:

Page 48: Comunicazioni elettriche LB

( ) ( ) 02Re

j f ts t i t e

π=

( ) ( ) 0 02

0

equivalente passa-basso

Re 1j j f t

as t V k x t e eϕ π

= +

(posto 0

0ϕ = , ( )0 1 aV k x t + è una quantità reale e utilizzando Eulero si possono

sciogliere i termini esponenziali generando un termine coseno. Si noti che il

termine 0f non compare nell’equivalente passa-basso)

L’equivalente passa-basso, se la fase iniziale è nulla, non ha parte immaginaria

e, sul piano di Gauss, è individuato da un vettore che modifica la sua ampiezza

scorrendo sull’asse reale. Dunque, ricapitolando, le informazioni che si possono

ricavare dall’equivalente passa basso sono che:

- l’inviluppo non è costante (il vettore modifica la sua ampiezza);

- non vi è alcuna variazione di fase (il vettore sta sempre sull’asse reale).

- FM/PM: nelle modulazioni d’angolo l’oscillazione modulata si esprime così

( ) ( )( )0 0cos 2AMs t V f t tπ α= +

Possiamo quindi trovare anche qui l’equivalente passa-basso

( ) ( ) 02Re

j f ts t i t e

π=

( ) ( ) 02

0

equivalente passa-basso

Rej t j f t

s t V e eα π

=

dove ( ) ( )pt k x tα = nel caso PM e ( ) ( )2 dt

ft k xα π ξ ξ

−∞

= ∫ .

L’equivalente passa-basso, questa volta, ha una parte immaginaria, che sarebbe

( )sin tα , ma ha lunghezza costante. Siamo quindi di fronte a un vettore che

ruota attorno all’origine generando una circonferenza (con raggio ovviamente

costante inviluppo costante); ovviamente questa volta la fase non sarà

costante, essendo pari a:

♦ ( ) ( )pt k x tα = nel caso PM

♦ ( ) ( )2 dt

ft k xα π ξ ξ

−∞

= ∫ nel caso FM

- QAM: l’oscillazione modulata ha la seguente espressione

( ) ( ) ( ) ( ) ( )1 0 2 0cos 2 sin 2s t x t f t x t f tπ π= −

L’equivalente passa-basso si ricava scrivendo la s(t) in tale forma:

( ) ( ) ( ) 02

1 2

eqiuvalente passa-basso

Rej f t

s t x t jx t eπ

= +

(NOTA: questo perché 2j

j eπ

= e perché sin cos2

πα α= + , provare per credere!)

Il vettore che sul piano di Gauss individua l’equivalente passa-basso ha dunque

una parte reale pari ad ( )1x t e una parte immaginaria pari a ( )2x t : siccome

Page 49: Comunicazioni elettriche LB

entrambe queste funzioni possono variare, questa volta non avremo né fase né

ampiezza costanti (infatti tale modulazione è ibrida).

- modulazione a prodotto (DSB-SC): l’oscillazione modulata è

( ) ( ) ( ) ( ) ( )( )0 0

funzione gradino

cos 2 cos 2s t x t f t x t f t u x tπ π π = = + ⋅ −

(NOTA: la seconda formulazione di s(t) è perfettamente equivalente alla prima)

In questa modulazione l’equivalente passa-basso è:

( ) ( )02

eq. passabasso

Rej f t

s t x t eπ

=

Dunque, sul piano di Gauss, il relativo vettore si muove sull’asse reale

assumendo valori sia positivi che negativi (derivati dallo sfasamento di π che si

vede bene nella formulazione alternativa di cui sopra). Anche questa volta né

abbiamo inviluppo costante, né fase costante (indice che la modulazione è

ibrida).

Torniamo alla trattazione generale sull’equivalente passa-basso di segnale passa-

banda. Abbiamo detto che esso è una funzione i(t) tale per cui:

( ) ( ) 02Re

j f ts t i t e

π=

Possiamo ora applicare una proprietà dei numeri complessi, la quale ci dice che:

*

Re2

z zz

+=

E infatti:

( ) ( ) ( ) ( )0 0

0

2 2*

2Re2

j f t j f t

j f ti t e i t e

s t i t e

π ππ

−+= =

Volendo, ora possiamo trasformare secondo Fourier e applicare le proprietà di:

- linearità;

- trasformata del coniugato;

- moltiplicazione per un fasore.

Quel che otteniamo è:

( ) ( ) ( ) ( ) ( )0 02 2* *

0 0

2 2

j f t j f ti t e i t e I f f I f f

s t

π π− + − + − − = =

F F

Da qui si evince un’altra proprietà importante dell’equivalente passa-basso: nel

dominio delle frequenze esso [cioè ( )I f ] altro non è che la parte positiva della

( )S f F spostata verso lo zero (traslata di 0f e moltiplicata per 2).

15. Equivalente passa-basso e potenza

Possiamo ora fare qualche considerazione sulla potenza dell’inviluppo complesso

(sinonimo di equivalente passa-basso).

Partiamo dalla funzione di autocorrelazione di un’oscillazione modulata a potenza

finita:

( ) ( ) ( )*

sR s t s tτ τ= −

Page 50: Comunicazioni elettriche LB

poi infiliamo dentro questa formula il fatto che, come abbiamo visto poco fa, possiamo

scrivere l’oscillazione modulata così:

( ) ( ) ( ) ( )0 0

0

2 2*

2Re2

j f t j f t

j f t i t e i t es t i t e

π ππ

−+= =

Si ottiene:

( ) ( ) ( ) ( ) ( ) ( ) ( )0 00 02 22 2* *

2 2

j f t j f tj f t j f t

s

i t e i t e i t e i t eR

π τ π τπ π τ ττ

− − −− + − + −= =

facciamo un bel respiro e sviluppiamo il prodotto …

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

0 00 0

0 00 0

2 22 2 *

2 22 2* * *

2 2 2 2

2 2 2 2

j f t j f tj f t j f t

j f t j f tj f t j f t

i t e i t e i t e i t e

i t e i t e i t e i t e

π τ π τπ π

π τ π τπ π

τ τ

τ τ

− − −

− − −− −

− −= + +

− −+ + =

… notiamo, per fortuna, che qualcosa si semplifica …

( ) ( ) ( ) ( ) ( ) 00 022 2 *

4

j f tj f t j f ti t i t e i t i t e

ππ π ττ τ+ −− −= +

02j f tπ− ( )

( ) ( ) 02*

4

j f ti t i t e

τ

πτ

+

−+

02j f tπ+ ( ) ( ) ( ) ( )0 02 2* *

4 4

j f t j f ti t i t e

τ π π ττ− − − −−+ =

… sfruttiamo la linearità del valor medio …

Come si nota, i termini ad alta frequenza scompaiono perché, mediati, restituiscono

zero a causa del termine esponenziale. Quel che rimane è:

( ) ( ) ( ) ( ) ( )0 02 2* *

4 4

j f j f

s

i t i t e i t i t eR f

π τ π ττ τ −− −= +

Sviluppiamo ciò che abbiamo appena ottenuto:

( )

( ) ( )( ) ( ) ( )

( ) ( )( ) ( ) ( )

( ) ( )0 0 0 0

* * *

costantecostante

2 2 2 2* * *

4 4 4 4i i

j f j f j f j f

s i i

R i t i t R i t i t

e e e eR f i t i t i t i t R R

π τ π τ π τ π τ

τ τ τ τ

τ τ τ τ− −

= − = −

= − + − = +

Ora che abbiamo una formulazione abbastanza semplice della funzione di

autocorrelazione del segnale s(t), possiamo trasformarla per trovare lo spettro di

potenza:

( ) ( ) ( ) ( )0 0

4 4

i i

s s

G f f G f fG f R f

− − −= = +F

(NOTA: anche questa volta abbiamo utilizzato la linearità della trasformata di

Fourier, la proprietà di trasformata di coniugato e quella di moltiplicazione per un

fasore)

( ) ( ) ( )0 02 2

4

j f t j f ti t i t e

π π ττ + −−=

( ) ( ) ( ) ( ) ( ) ( ) ( )0 00 02 22 2* * * *

4 4 4

j f t j f tj f j fi t i t e i t i t e i t i t e

π π τπ τ π ττ τ τ − − −−− − −+ + +

Page 51: Comunicazioni elettriche LB

Da questa ultima equazione si evince che, anche per lo spettro di potenza, accade che

la trasformata dell’equivalente passa basso ( )iG f sia parte positiva della ( )sG f

spostata verso lo zero (traslata di 0f e moltiplicata per 4).

16. Esempio notevole: segnale modulante sinusoidale

Prendiamo un generico segnale sinusoidale come, ad esempio:

( ) ( )cos 2 m mx t M f tπ ϕ= +

Supponiamo di sottoporlo alle modulazioni AM, PM, FM e di voler ricavare l’indice di

modulazione “ad occhio” oppure ragionando sui dati delle rilevazioni sperimentali.

- Nel caso di modulazione AM possiamo riuscire nel nostro intento con discreta facilità.

L’oscillazione modulata, infatti, è

( ) ( )( ) ( )0 0 01 cos 2s t V m t f tπ ϕ= + +

(NOTA: non si faccia confusione; moduliamo un segnale sinusoidale con una portante

altrettanto sinusoidale ma, mentre la portante ha frequenza 0f , ampiezza 0V e fase

0ϕ , il segnale modulante ha frequenza mf , ampiezza M e fase mϕ ).

In questa espressione m(t) è

( ) ( )am t k x t=

Inoltre, sappiamo che

( )maxam m t=

L’inviluppo dell’oscillazione modulata in ampiezza (inviluppo che ha la forma del

segnale modulante) avrà alcuni punti di minimo e di massimo, come si ha per

qualunque sinusoide. Questi punti (misurabili sperimentalmente) possono essere

espressi tramite l’indice di modulazione, visto che quest’ultimo rappresenta il massimo

valore che possiamo infilare dentro l’espressione dell’oscillazione modulata

( ) ( )

( )

( )qui!

0 0 01 cos 2

V t

s t V m t f tπ ϕ = + +

:

( ) ( )0max 1MAX aV V t V m= = +

( ) ( )0min 1MIN aV V t V m= = −

Se ora facciamo:

( ) ( )0 0 01 1 2MAX MIN a a aV V V m V m m V− = + + − =

( ) ( )0 0 01 1 2MAX MIN a aV V V m V m V+ = + − − =

Quindi, con qualche calcolo algebrico elementare

0

0

2

2aMAX MIN

a

MAX MIN

m VV Vm

V V V

− = =+

- nel caso PM ed FM la storia è un po’ più intricata. Prendiamo ancora il nostro

segnale modulante sinusoidale

( ) ( )cos 2 m mx t M f tπ ϕ= +

ricordando che, per le modulazioni d’angolo, si ha

Page 52: Comunicazioni elettriche LB

( )( )

( )

PM

2 d FM

p

t

f

k x t

tk x

απ ξ ξ

−∞

=

con l’x(t) sinusoidale queste ultime diventano

( )( )

( ) ( )

cos 2 PM

2 cos 2 d sin 2 FM

p m m

tf

f m m m m

m

k M f t

t k Mk M f f

f

π ϕα

π π ξ ϕ ξ π ξ ϕ−∞

+

= + = +

Possiamo ora dare una formulazione unitaria di queste due espressioni, espressione

valida, quindi, per le modulazioni d’angolo in generale:

( ) ( )sin 2p mt m f tα π ψ= +

dove

cos sin2

PM2

FM

p p m

f

p m

m

m k M

k Mm

f

πα α

πψ ϕ

ψ ϕ

= +

= = + = =

Ora possiamo scrivere così l’oscillazione modulata:

( ) ( )( ) ( )( )0 0 0 0cos 2 cos 2 sin 2p ms t V f t t V f t m f tπ α π π ψ= + = + +

E ricavare l’equivalente passa-basso:

( ) ( ) ( )sin 2 sin

0 0 0p m pjm f t jmj t

i t V e V e V eπ ψα + Φ= = =

Come si vede, l’equivalente passa-basso si può considerare periodico rispetto alla

quantità 2 mf tπ ψ+ = Φ con periodo 2π . Sorpresa: possiamo sviluppare il tutto in serie

di Fourier!

( ) ( )2

sin 2 20

funzione di funzione del tempo

p mjnjm f t jn

n nn n

i t V e c e c eπ

π ψ πΦ∞ ∞

+ Φ

=−∞ =−∞

= = =∑ ∑

Ricordando come si esprimono i coefficienti dello sviluppo in serie di Fourier:

( ) 21 d

nj t

Tn

T

c x t e tT

π−

∫≜

( )

sin sin

0 0

funzione di Bessel di ordine e argomento

1 1 d d

2 2p p

p

jm jmjn jn

n

nm

J mn p

c V e e V e eπ π

π ππ π

+ +Φ Φ− Φ − Φ

− −

Φ = Φ∫ ∫≜

Dunque, dopo tanta fatica, arriviamo al risultato che ci interessava:

( )0

jn jn

n n p

n n

i c e V J m e∞ ∞

Φ Φ

=−∞ =−∞= =∑ ∑

( ) ( ) ( ) ( )( )02

0 0Re cos 2j f t

n p m

n

s t i t e V J m f nf t nπ π ψ

=−∞= = + +∑

Le funzioni di Bessel, che non hanno forma chiusa, hanno le seguenti proprietà:

( ) ( ) ( )( )2

1

1

n

n n

n

n

J x J x

J x

− = − =∑

Page 53: Comunicazioni elettriche LB

(NOTA: la prima proprietà indica che, se l’indice della funzione di Bessel è pari, allora

anche la funzione stessa sarà pari; allo stesso modo, se l’indice è dispari, la funzione

sarà dispari)

Esse sono fatte così:

La ( )0J x è quella che esprime la riga della componente continua (la frequenza 0f del

segnale modulato), la ( )1J x fornisce le righe alle frequenze 0 mf f± , la ( )2J x le righe

alle frequenze 0 2 mf f± etc…

Nel grafico vi è un valore piuttosto importante: quello in cui scompare la riga della

continua, ovvero il valore per il quale ( )0J x = 0. Tale valore è x = 2,409. La cosa

interessante è che, in questo caso, “l’estensione” (anche se è difficile parlare di

estensione in tale contesto) che le righe occupano nello spettro delle frequenze è

effettivamente pari alla banda di Carson.

Page 54: Comunicazioni elettriche LB

V- MODULAZIONI NUMERICHE

1. Modulazioni numeriche: introduzione

Fin’ora abbiamo esaminato il caso in cui un segnale analogico veniva preso ed elaborato da un modulatore, secondo lo schema:

Segnale analogico Modulatore Oscillazione modulata analogica

Vogliamo ora estendere questo caso ai segnali PAM: lo schema, dunque, si allunga un pochetto:

Segnale digitale PAM Segnale analogico Modulatore Oscillazione modulata analogica

Come si vede c’è sempre di mezzo un’oscillazione modulata analogica: i modulatori, infatti, lavorano con portanti sinusoidali (analogiche) e segnali modulati a tutti gli

effetti analogici [la somma di impulsi ( ) ( )n

n

x t a g t nT+∞

=−∞= −∑ ]. La differenza, questa

volta, sta nel fatto che questi ultimi derivano da segnali digitali e che, lato ricevente, questi segnali potranno eventualmente essere demodulati e riconvertiti in segnali digitali. 2. Modulazione OOK (On-Off Keying)

È il tipo più semplice di “modulazione a prodotto” di segnali numerici. In questa modulazione i simboli na sono binari e l’oscillazione modulata assume la forma:

( ) ( ) ( )0cos 2n

n

s t a g t nT f tπ+∞

=−∞= − ⋅∑

Assumiamo, per ipotesi, che gli impulsi generati dal modulatore PAM siano rettangolari e di tipo NRZ (ampiezza MV ), e che dunque abbiano la forma

( ) 2rectM

Ttg t V

T

− =

NOTA: - MV regola l’ampiezza della rect;

- sottrarre T/2 al numeratore serve per far partire la rect, che normalmente è centrata nell’origine, dall’origine stessa; - dividere per T serve ad “allungare” la rect, che generalmente ha durata unitaria.

Dunque la OOK:

- in corrispondenza di na = 0 dà un contributo nullo sull’oscillazione modulata

s(t): si ha ( ) ( )00 cos 2 0g t nT f tπ⋅ − ⋅ = ;

Page 55: Comunicazioni elettriche LB

- in corrispondenza di na = 1 genera, sulla s(t), un treno sinusoidale di ampiezza

MV : si ha ( ) ( ) ( )0 021 cos 2 1 rect cos 2M

Ttg t nT f t V f t

Tπ π

− ⋅ − ⋅ = ⋅ ⋅

.

3. Modulazione L-ASK (Amplitude Shift Key a L livelli)

Facciamo le stesse ipotesi di prima, ma questa volta gli na sono i simboli generati da

una codifica multilivello ad L livelli. Si ricordi che, in questo caso: - 2lL = è il numero di livelli; - 2logl L= sono i bit per ogni simbolo della nostra codifica;

- i simboli na sono suscettibili dei valori ( )1, 3,. .., 1L ± ± ± − , ciascuno dei

quali rappresenta una parola di l bit secondo un codice Gray; - il tempo di simbolo è: 2log bT L T= ⋅ (con bT tempo di simbolo);

- la frequenza di simbolo è: 2logr

s

BB

L= .

In questo caso l’oscillazione modulata assume la forma:

( ) ( ) ( )0cos 2n

n

s t a g t nT f tπ+∞

=−∞= − ⋅∑

NOTA: qui è facilissimo accorgersi che l’equivalente passa basso del segnale è

( ) ( ) ( )n

n

i t a g t nT x t+∞

=−∞= − =∑

Dunque la modulazione L-ASK è a tutti gli effetti una modulazione d’ampiezza: la sinusoide viene infatti modulata dall’ampiezza della rect (l’impulso g). La costellazione di una modulazione L-ASK (ovvero lo schema, disegnato sul piano di Gauss, dei possibili coefficienti assunti da i(t), rappresentati come dei punti) ha valori tutti sull’asse reale, in corrispondenza delle ascisse ( ), 3 ,. .., 1M M MV V L V± ± ± − .

4. Modulazione M-QAM (Quadrature

Amplitude Modulation), detta anche

L2-QASK (Quadrature Amplitude

Shift Key a L2 livelli)

Abbiamo ancora una volta codici bipolari o multilivello ma – come accadeva nella modulazione QAM, la quale permetteva grazie a due portanti in quadratura la trasmissione di due segnali modulanti sulla stessa banda di frequenze – abbiamo due segnali, entrambi PAM e con lo stesso numero di livelli e la stessa frequenza di simbolo:

Page 56: Comunicazioni elettriche LB

( ) ( )1 1nn

x t a g t nT+∞

=−∞= −∑ ( ) ( )2 2n

n

x t a g t nT+∞

=−∞= −∑

L’oscillazione modulata ha una forma un pelo più complicata rispetto ai casi precedenti:

( ) ( ) ( ) ( ) ( )1 0 2 0cos 2 sin 2n n

n n

s t a g t nT f t a g t nT f tπ π+∞ +∞

=−∞ =−∞= − − −∑ ∑

Questa volta è più difficile verificarlo, ma l’equivalente passa-basso della s(t) è:

( ) ( ) ( )1 2 n n

n

i t a ja g t nT+∞

=−∞= + −∑

[l’unità immaginaria j fa “ruotare il piano di Gauss” per il segnale ( )2x t , in quanto fa diventare

immaginario il coseno e reale il seno nella formula di Eulero: in questo modo, estraendo la parte reale, il seno sopravvive, ma col segno meno, come si vede

dalla formula di s(t)] Come si nota, avendo per i(t) coefficienti che dipendono da 1 2n na ja+ , i punti sulla costellazione

della modulazione QAM saranno L L⋅ (cioè L relativi agli 1na e altri L relativi a 2na ). In figura si riporta un

esempio di costellazione per la modulazione 16-QAM (42 = 16 punti).

5. Modulazione L-PSK (Phase Shift Keying a L livelli)

Ancora una volta facciamo riferimento a un codice bipolare o multilivello: questa volta, tuttavia, moduliamo in fase visto che l’oscillazione modulata ha la forma

( ) ( )0 0cos 2s t V f t tπ α = +

In questa relazione ( ) ( )

( )PAM

2rectp p n p M n

n n

Tt nTt k x t k a g t nT k V a

+∞ +∞

=−∞ =−∞

− − = = − =

∑ ∑ .

Assumiamo p

M

kLV

π= , in modo che ( ) 2rectn

n

Tt nTt a

L T

πα+∞

=−∞

− − =

∑ e dunque i

possibili valori assunti si risultino uniformemente distribuiti sull’angolo giro. L’equivalente passa-basso dell’oscillazione modulata è:

( ) ( )2rect

0 0 02rect

nnn

Tt nTj a

j aL Tj t L

n

Tt nTi t V e V e V e

T

ππ

α

+∞

=−∞

− − +∞

=−∞

∑ − − = = =

La costellazione della modulazione PSK ha forma circolare con punti distribuiti uniformemente (l’abbiamo imposto noi stessi poco fa). NOTA: la 4-ASK coincide con la 4-QAM; allo stesso modo la 2-PSK coincide con la 2-ASK.

Page 57: Comunicazioni elettriche LB

6. Modulazioni L-FSK (Frequency Shift Keying a L livelli) L-CPFSK

(Continuous Phase Frequency Shift Keying a L livelli)

Facciamo ancora una volta riferimento ad un codice bipolare o multilivello, ma consideriamo – in questo contesto – un’oscillazione modulata in frequenza

( ) ( )0 0cos 2s t V f t tπ α = +

Qui ( ) ( )

( )PAM

2 2f f n

n

t k x t k a g t nTα π π+∞

=−∞

= = −∑ɺ , dalla quale otteniamo, integrando,

( ) ( )2 dt

f n

n

t k a g nTα π ξ ξ+∞

=−∞−∞

= −∑∫

Come si nota, la deviazione di fase ( )tα , a differenza dei casi fin’ora esaminati, ha un

andamento continuo nel tempo, con benefici sull’occupazione spettrale dell’oscillazione modulata (NOTA: non si pensi però che lo spettro della FSK sia a righe! L’oscillazione modulata non è affatto una sinusoide): questa peculiarità viene evidenziata con la sigla CPFSK (Continuous Phase FSK). Vogliamo ora capire quale sia l’entità della deviazione di frequenza f∆ (che è poi il vero parametro che caratterizza questa modulazione):

( )

2rectf Mk V

n d

n

Tt nTf t a f

T

=+∞

=−∞

− − ∆ =

Questi sono dunque i valori rispetto ai quali ci si discosta dalla frequenza portante 0f ;

da ciò deduciamo che la frequenza istantanea può assumere solo le quantità: ( )0 0 0, 3 , ..., 1d d df f f f f L f± ± ± −

7. Potenze e spettri nelle modulazioni numeriche

Abbiamo visto nello scorso capitolo che lo spettro di potenza dell’oscillazione modulata può essere espresso in questo modo:

( ) ( ) ( )0 0

1 14 4s i i

G f G f f G f f= − + +

Dunque possiamo scegliere di trovare ( )iG f invece che lanciarci a capicollo sulla

ricerca di ( )sG f , tanto il conoscere uno dei due spettri in questione significa conoscere

anche l’altro. L’equivalente passa-basso delle varie modulazioni ha la forma: ( ) ( )n

n

i t a g t nT= −∑

Dove i simboli na possono essere reali (L-ASK) oppure complessi (M-QAM, L-PSK).

Diamo ora le espressioni dei relativi spettri di potenza ( )iG f delle modulazioni:

- L-ASK: ( )2

2

trasformatadell'impulso rect

= una sinc

nE aG f

T

- M-QAM: ( )2

2nEG f

T

µ

Page 58: Comunicazioni elettriche LB

- L-PSK: 22

0 rectV t

T T

F

Comune a queste tre espressioni è lo spettro di potenza normalizzato:

( )( )

2

symbolrate

sinc0

i

i S

G f f

G B

=

Dunque la

( ) ( ) ( )0 0

1 14 4s i iG f G f f G f f= − + +

è fatta di due sinc (larghezza del lobo centrale: 2 SB ) a frequenza 0f e 0f− .

NOTA: esiste una relazione tra la symbol-rate di una codifica e il numero di punti nella costellazione della modulazione

symbol bit-raterate

2numerodi punti

logr

S

BB

M=

Si noti che maggiore è il numero di punti e minore sarà la banda occupata dal segnale (il denominatore diventa grande e la sinc più stretta perché SB cala). L’altra faccia

della medaglia è aumenta la difficoltà di ricezione a causa dei rumori.

Page 59: Comunicazioni elettriche LB

VI - RADIODIFFUSIONE

1. Modulazione multiportante (MC, Multicarrier Modulation), modulazione

OFDM (Orthogonal Frequency Division Multiplex), broadcasting video (DVB,

Digital Video Broadcasting) e audio (DAB, Digital Audio Broadcasting)

Nel caso dei segnali numerici è di particolare interesse la trasmissione di segnale su più portanti affiancate nel dominio della frequenza (MC): in questo caso da un flusso solo si formano, grazie a un convertitore S/P, un insieme di flussi associati a frequenze diverse (OFDM), le quali sono ortogonali fra di loro in un tempo di simbolo (cioè poste fra loro ad una distanza pari al tempo di simbolo). Due esempi notevoli dell’applicazione di tale principio sono

- la radiodiffusione numerica sonora: - frequenza di cifra: 32 192 Kbps∼ (con frequenze doppie nel caso stereo); - campionamento: 48 KHz (soddisfa Shannon); - codifica: livello 2 di MPEG-1; - numero di portanti: 1536;

- larghezza dei blocchi di frequenza: 1,536 MHz in VHF e UHF; ogni blocco può contenere fino a 6 programmi radiofonici.

- la radiodiffusione numerica televisiva: - frequenza di cifra: da 5 a 31,5 Mbps; - codifica: MPEG-2 per il video, livello 2 di MPEG-1 per l’audio;

- numero di portanti: 2k (nelle reti convenzionali) oppure 8k (in reti isofrequenziali); - larghezza dei blocchi di frequenza: 8 MHz in VHF e UHF; ogni blocco può contenere da 6 a 8 programmi video.

Bande di frequenza notevoli nello studio delle comunicazioni elettriche

NOTE: la banda N si estende da 0,3 10N⋅ a 3 10N⋅ ; lunghezza d’onda: c fλ = . Numero Simbolo Intervallo frequenze Note

3 ULF 3 30,3 10 3 10⋅ ⋅∼ Hz

4 VLF 4 40,3 10 3 10⋅ ⋅∼ Hz

5 LF 5 50,3 10 3 10⋅ ⋅∼ Hz Utilizzato per la trasmissione AM

6 MF 6 60,3 10 3 10⋅ ⋅∼ Hz Utilizzato per la trasmissione AM 7 HF 7 70,3 10 3 10⋅ ⋅∼ Hz

8 VHF 8 80,3 10 3 10⋅ ⋅∼ Hz

In questa regione si trovano gli intervalli di frequenza I, II (

radiodiffusione FM) e III utilizzati convenzionalmente nella

radiodiffusione sonora e televisiva

9 UHF 9 90,3 10 3 10⋅ ⋅∼ Hz

In questa regione si trovano gli intervalli di frequenza IV e V

utilizzati convenzionalmente nella radiodiffusione sonora e televisiva. Troviamo anche: bande L ed S per le radiocomunicazioni spaziali; bande GSM 900 e GSM 1800 per i sistemi

Page 60: Comunicazioni elettriche LB

radiomobili GSM e di terza generazione.

10 SHF 10 100,3 10 3 10⋅ ⋅∼ Hz Bande C, Ku, K, Ka per le radiocomunicazioni spaziali.

11 EHF 11 110,3 10 3 10⋅ ⋅∼ Hz

12 12 120,3 10 3 10⋅ ⋅∼ Hz 13 13 130,3 10 3 10⋅ ⋅∼ Hz

14 14 140,3 10 3 10⋅ ⋅∼ Hz

15 15 150,3 10 3 10⋅ ⋅∼ Hz 2. Politica del segnale televisivo

Il segnale televisivo, come abbiamo visto, viaggia a cavallo fra la VHF (I, II, III) e la UHF (IV e V). Si ricordi che il segnale video analogico in B/N è un segnale in banda base con banda 5 MHz e che tale segnale veicola le informazioni riguardanti il parametro di luminanza (intensità di luce, cioè bianco). Supponiamo che, per la trasmissione, tale segnale sia trasmesso tramite una portante a frequenza 0f e, fatta

questa ipotesi, esaminiamo come è trasmesso il segnale video analogico a colori: - tra 0 1,25 MHzf − e 0 5 MHzf + si trova il segnale di luminanza che, come si

osserva, tiene 6,25 MHz (invece che 10 MHz) in virtù di una “economica” modulazione VSB; tale segnale viene ricevuto sia da chi ha un televisore in B/N sia dagli utenti in grado di ricevere le trasmissioni a colori; - attorno a 0 4,43 MHzf + si osserva empiricamente che il segnale di luminanza

presenta, come in altre parti, “dei buchi” generati dalla periodicità dei frame; si sceglie dunque di porre qui il segnale di crominanza, modulato QAM, il quale, essendo meno massiccio di quello della luminanza, riesce a stare comodamente in tale piccolo intervallo di banda; il segnale di crominanza è interpretato solo dalla TV a colori: se si dispone di solo B/N, tale informazione non viene recepita e rimane ignorata; - alla frequenza 0 5,5 MHzf + si modula in FM il segnale audio (tiene circa 130

KHz). Dunque in totale il segnale video (a colori e analogico) tiene attorno ai 6,75 ∼ 7 MHz (e circa 8 MHz in UHF). Cenni sulle politiche di trasmissione dei segnali radio Come abbiamo visto esiste una legge fisica che indica come la lunghezza d’onda dipenda dalla frequenza di trasmissione secondo la legge c fλ = . Se si vuole trasmettere un segnale su un raggio molto ma molto ampio l’ideale è utilizzare un’antenna molto grande e di notevole potenza in modo da sfruttare le basse frequenze ( onde molto lunghe). Il problema è che tali frequenze sono preziosissime, in quanto sono in grado di coprire un’area così vasta da risultare occupate su tutto il globo. Utilizzarle su scala locale sarebbe sprecato, così in quest’ultimo caso si preferisce collegare fra loro tante stazioni a potenza minore, le quali trasmettono (“ripetono”) lo stesso segnale su una frequenza più alta (e quindi su un raggio minore). Facendo l’esempio audio, si sceglie quindi la modulazione AM (che tiene poca banda quindi è economica) per le preziose frequenze basse e a più grande portata (da VHF in giù),

Page 61: Comunicazioni elettriche LB

mentre si preferiscono la modulazione FM e una frequenza più alta per la trasmissione locale. 3. Trasmissione radiomobile GSM (Global System for Mobile communication)

Nella trasmissione GSM trasmettiamo una segnale audio che in banda base occupa 4 KHz e che viene campionato a 8 KHz per soddisfare Shannon: la bitrate del segnale digitale così ricavato è di circa 10 20∼ Kbps (compressa dai 64 Kbps originale). Per la trasmissione si utilizza una tecnica a di multiplazione a divisione temporale (TDM) con 8 slot differenti, uno per ogni utente, i quali si ripetono periodicamente; la banda totale utilizzata per 8 conversazioni tiene grosso modo 200 KHz, con differenzazione tra banda di uplink (invio) e downlink (ricezione). Tale banda è, in realtà, tantissima se consideriamo il numero di conversazioni telefoniche che si tengono contemporaneamente in tutto il paese: sarebbe impensabile utilizzare, su tutto il territorio nazionale, un range di frequenza per ogni conversazione, dunque si sfrutta il principio del riuso di frequenza e quello della multiplazione statistica. Il primo si realizza dal momento che esistono, su tutto il territorio, delle celle, ognuna di pochi chilometri di raggio, le quali sono adeguatamente distanti fra loro in modo da evitare interferenze. Due celle lontane possono usare per due conversazioni diverse la stessa frequenza: in questo modo riusciamo ad evitare la necessità di una banda smisurata per ospitare tutte quante le trasmissioni. Si è inoltre osservato che bastano relativamente pochi canali per servire una vasta popolazione, dal momento che non tutti gli utenti intraprendono una conversazione contemporaneamente. 4. Altri collegamenti “notevoli” Fra i collegamenti notevoli ricordiamo il collegamento P-P, che è quello tra parabole poste a non più di 50 Km l’un con l’altra: è infatti necessario che le due installazioni siano reciprocamente in vista e la curvatura terrestre, a questo scopo, è certamente d’ostacolo. La trasmissione avviene ad una banda molto elevata (circa 10 GHz) e dunque altrettanto elevato sarà il bitrate. Molto importante è anche l’uso delle bande ISM (Industrial Scientific and Medical), per le quali non serve licenza: è quindi possibile trasmettervi liberamente, a patto di rispettare alcuni vincoli riguardo lo spettro di potenza. Il problema sta nel fatto che tali bande sono relativamente strette e che vi è poco spazio, dal momento che tutti si lanciano ad utilizzare le frequenze di cui sopra. Il collegamento Bluetooth e quello WI-FI rientrano in quest’ambito. 5. Trasmissione passa-banda (radio) di segnali analogici Esistono due tipologie di sistemi di trasmissione radio del segnale analogico:

5.1 . Sistemi a modulazione/demodulazione diretta

Segnale analogico x(t) passa-basso

↓ Modulatore che riceve la portante a radio-frequenza 0f

↓ HPA (High Power Amplifier), un amplificatore di potenza

Page 62: Comunicazioni elettriche LB

↓ Trasmissione con antenna

↓ Mezzo radio

↓ Antenna ricevente

↓ Amplificatore a radio frequenza

↓ Demodulatore

↓ Segnale ( )rx t , versione quanto più possibile non distorta di x(t)

Questi circuiti hanno lo svantaggio di essere difficili da progettare, perché devono con un’unica operazione modulare direttamente alla frequenza 0f e ciò può risultare

abbastanza problematico. Per questo esistono i cosiddetti sistemi a supereterodina.

5.2. Sistemi a supereterodina

Segnale analogico passa-basso x(t)

↓ Modulatore a frequenza intermedia If

↓ Convertitore di frequenza If mf (up converter, o convertitore di frequenza in

salita)

↓ HPA (High Power Amplifier), un amplificatore di potenza

↓ Trasmissione con antenna

↓ Mezzo radio

↓ Antenna ricevente (*)

↓ Amplificatore a radio-frequenza

↓ Convertitore di frequenza mf If (down converter, o convertitore di frequenza

in discesa)

↓ Demodulatore

↓ Segnale ( )rx t , versione quanto più possibile non distorta di x(t)

NOTA: per le considerazioni che seguiranno si consulti il capitolo VII – Rumore.

Page 63: Comunicazioni elettriche LB

Per quanto riguarda il sistema di trasmissione a supereterodina è possibile, per l’analisi, utilizzare uno schema concettuale che rende facile la comprensione del problema: abbiamo

1) un generatore di segnale ( )Se t , che “incarna” tutto ciò che c’è prima

dell’antenna ricevente (*), in serie con la resistenza interna R, la quale si trova a temperatura AT (temperatura dell’antenna). Questa parte

del circuito scambia con quella successiva una potenza che chiameremo RP ;

2) un quadripolo che schematizza tutta la circuiteria a IF/RF (frequenza intermedia/radio frequenza) e cioè i componenti che nella catena di trasmissione stanno dall’antenna ricevente (*) fino al demodulatore escluso; tale quadripolo, che soddisfa le condizioni di non distorsione di gruppo, lavorerà ad una propria banda B, avrà una cifra di rumore F e una temperatura equivalente di rumore ( )0 1rT T F= − . A valle di

questa sezione si calcola, in genere, l’SNR (Signal to Noise ratio); 3) un demodulatore che porta il segnale in banda-base; 4) una resistenza R che rappresenta l’utilizzatore.

IPOTESI prese in considerazione: - tutte le sezioni adattate; - catena complessivamente non distorcente.

I punti 1) e 2) di tale schema possono essere equivalentemente rappresentati da:

1eq) un generatore di segnale ( )Se t , che “incarna” tutto ciò che c’è prima

dell’antenna ricevente (*), in serie con la resistenza interna R, la quale si trova a temperatura SISTT , cioè la temperatura di sistema, calcolata così:

( )0 1SIST A R AT T T T T F= + = + −

Utilizzando la formula di Friis possiamo dare un’altra espressione per

SISTT e cioè:

( ) ( ) ( )0 00

1 11 C IF

R RF

dRF dRF dC

T F T FT T F

G G G

− −= − + +

(RFF ,

RFG = cifra di rumore / guadagno del ricevitore a radio-frequenza;

CF ,

CG = cifra di rumore / guadagno del down converter,

IFF = cifra di

rumore dell’amplificatore a intermediate frequency). Come si nota, il contributo maggiore sul rumore proviene sempre dal primo blocco della cascata (che in questo caso è l’amplificatore a radio-frequenza). È dunque opportuno che l’amplificatore a radio-frequenza sia un LNA (Low Noise Amplifier). 2eq) un quadripolo ideale che schematizza tutta la circuiteria a IF/RF (frequenza intermedia/radio frequenza) e cioè i componenti che nella catena di trasmissione stanno dall’antenna ricevente (*) fino al demodulatore escluso; tale quadripolo, che soddisfa le condizioni di non distorsione di gruppo, lavorerà ad una propria banda B. A valle di questa sezione si calcola, in genere, l’SNR (Signal to Noise ratio).

Nella risoluzione degli esercizi, ma anche concettualmente, è di grande utilità e chiarezza disaccoppiare il rumore dai vari componenti e aggiungerlo “tutto in una volta” a valle dell’antenna ricevente, caratterizzandolo come rumore

Page 64: Comunicazioni elettriche LB

additivo gaussiano bianco ( )tν (AWGN, Additive White Gaussian Noise). Lo

spettro di potenza di questo rumore sarà costante e pari a

( ) 0

2 2SIST

N KTG fν = =

Page 65: Comunicazioni elettriche LB

VII – RUMORE

Tutti i circuiti sono in generale sorgenti di fluttuazioni aleatorie nel tempo di tensioni e/o correnti che si sovrappongono ai segnali stessi e che chiamiamo rumore. Le origini di questo rumore sono riconducibili alle leggi che regolano il funzionamento microscopico dei dispositivi, che sono di tipo statistico e non deterministico.

1. Le cause principali del rumore: effetto Johnson

Prendiamo un circuito semplicissimo, costituito da un resistore R e da un generatore di tensione 0V . La corrente che circola nel circuito, secondo la legge di Ohm, sarebbe:

0VIR

=

Invece, si osserva che così non accade. L’evidenza sperimentale (effetto Johnson) è che la corrente in realtà “oscilla” lievemente attorno a un valore medio, che è effettivamente quello della legge di Ohm. Si ha dunque:

( ) 0Vi tR

=

Mentre la corrente (istantanea) dipende dal tempo ed è pari a:

( ) ( )0Vi t i tR

δ= +

Allo stesso modo, se nel circuito caviamo il generatore di tensione, ci aspetteremmo di misurare una differenza di potenziale nulla ai suoi capi; anche questa volta, invece, l’esperienza ci contraddice: quel che si osserva è che vi sono delle leggerissime fluttuazioni attorno al valore nullo di tensione. Tale fluttuazioni sono fonte di rumore e il resistore si dice dunque rumoroso: attuando un artificio teorico tale componente può essere sostituito con un generatore di tensione fluttuante (generatore di rumore) e con un resistore cosiddetto non rumoroso. Se siamo più generali (in modo da poter quantificare l’effetto Johnson anche con induttori e condensatori), e prendiamo in considerazione un’impedenza Z, l’artificio di cui sopra consiste nel sostituire tale impedenza (rumorosa) con il famoso generatore di tensione fluttuante più la parte puramente resistiva R dell’impedenza e la parte puramente reattiva di quest’ultima

eqjX , entrambe non rumorose.

A cosa sono dovute le fluttuazioni? Il fatto è che il resistore è un conduttore e, in quanto tale, possiede elettroni di conduzione che si muovono di agitazione termica casuale e disordinata. A causa di questo movimento così caotico, sebbene mediamente gli atomi e gli elettroni sono fermi, istantaneamente ciò non accade: tale fenomeno, incontrollabile e assolutamente stocastico, dipende dalla temperatura – essendo appunto dovuto ad agitazione termica – e, essendo a tutti gli effetti costituito dalla somma di tantissimi processi indipendenti, è interpretabile come campione di un processo aleatorio gaussiano ergodico a valor medio nullo e spettro bianco. Per caratterizzare un processo gaussiano ergodico servono unicamente la funzione di autocorrelazione o lo spettro di potenza: di quest’ultimo, in particolare, è stata data un’espressione ricavata sperimentalmente

( ) 2

1e h f

kT

Rh fG f

e

=−

In questa formula:

Page 66: Comunicazioni elettriche LB

R è il valore, in Ohm, della resistenza in questione; f è la frequenza alla quale stiamo lavorando; k è la costante di Boltzmann ( 231,38 10 J/K−⋅ ); h è la costante di Planck ( 316,626 10 J/Hz−⋅ ); T è la temperatura del resistore, in gradi Kelvin. Il grafico di questo spettro assume un valore costante (è bianco) per un range di frequenze pari a 11 11[ 10 , 10 ]− + , dopodiché decade nel giro di poche unità logaritmiche. Per capire quale sia questo valore costante facciamo un passaggio al limite:

0

limite notevole

2 2 22

11 11

f

h f

kT

Rh f Rh f RRkT

h fe

kTkT

→→ = =+ −−

perché 0

lim 1x

xe x

→= +

Da cui: ( ) 2eG f RkT= ( ) 4MONO

eG f RkT= [V2 / Hz]

(formula di Nyquist)

È per questo motivo che, se h f

kT << 1, e ciò – sapendo che 102 10k

h= ⋅ – avviene

proprio nel range di frequenze 11 11[ 10 , 10 ]− + , lo spettro assume valore costante. Alla luce dei calcoli appena fatti, vogliamo ora dare un’espressione del rumore in funzione di una qualsivoglia porzione di banda [±f, ±(f+B)] (dove essa è costante): consideriamo dunque un resistore R a temperatura assoluta T. La potenza del rumore nella banda B sarà:

( )2 2, 2 2 4 Ve B BP e t kTR B kTRB = ⋅ = ≜

(nota: c’è 2B perché bisogna considerare sia la porzione positiva che quella negativa delle frequenze)

Questo vuol dire che il valore efficace del segnale-rumore è:

, 4 VB effe kTRB ≜

Tipicamente la potenza di rumore è dell’ordine dei microVolt (esempio numerico con: R = 1 kΩ, T = 290 K, B = 5 MHz Risultato: 9 µV ): tale quantità potrebbe essere rilevante se confrontata con segnali deboli, mentre è trascurabile con segnali dell’ordine del Volt o milliVolt. Alla luce dell’analisi appena fatta, possiamo dire che un qualsiasi resistore si comporta come una sorgente calibrata di rumore. 1b. Adattamento in potenza: potenza disponibile

Se abbiamo un circuito costituito da due parti:

- una parte con un generatore di tensione ( )Se t dotato di resistenza

interna R; - l’altra parte con un carico resistivo CR . A tale carico il generatore di

tensione cede una potenza SP .

Page 67: Comunicazioni elettriche LB

Allora dicasi potenza disponibile della sorgente di segnale ( )Se t il valore

massimo di SP , cioè maxSP . Si può dimostrare che, in questo semplice caso, il

massimo trasferimento di potenza si ha quando CR R= : allora si dice che il

carico è adattato alla sorgente. È facilissimo dimostrare che, se il carico è

adattato alla sorgente, la differenza di potenziale ai capi di CR è ( )2

Se t (metà

della forza elettromotrice viene dissipata nella resistenza interna R, l’altra metà è destinata al carico resistivo): di conseguenza la potenza maxS

P sarà

( )22,

max 4 4S S eff

S

e t eVP

R R R= =≜

Questo valore ha più significati: - è la potenza disponibile della sorgente; - è la massima potenza trasferibile a un carico; - è la potenza assorbita da un carico adattato. Nel caso generale, lavorando con le impedenze, e avendo un circuito siffatto:

- da una parte un generatore di tensione ( )Se t dotato di impedenza

interna Z; - dall’altra un carico resistivo

CZ . A tale carico il generatore di tensione

cede una potenza SP .

Allora l’impedenza di carico è adattata quando *C

Z Z= .

1c. Guadagno disponibile di un apparato

Prendiamo un quadripolo generico Q:

- in “ingresso” poniamo un generatore di tensione ( )Se t dotato di

resistenza interna R. La potenza disponibile in entrata è quindi maxSP ;

- in uscita sistemiamo un carico resistivo C

R . Se ci poniamo in questa

parte del circuito e guardiamo verso la prima (cioè verso il quadripolo e il generatore con resistenza), allora quest’ultima può essere vista (secondo Thévenin) come la serie fra un generatore di f.e.m. ( )SUe t e la sua

resistenza interna U

R (potenza disponibile maxSUP ).

Allora il guadagno disponibile di un apparato è:

( ) max

max

, , SUd d

S

PG G f R Q

P= =

Se il quadripolo è adattato sia in ingresso che in uscita, il guadagno disponibile coincide con quello effettivo, cioè con

SU

S

PG

P=

L’adattamento in ingresso e in uscita si ha con: (resistenza d'ingresso)

(resistenza d'uscita)I

C U

R R

R R

= =

.

Se poi, in particolare, CR R= si parla di livello di impedenza dell’apparato: tale

valore è quello che mi realizza l’adattamento in potenza.

Page 68: Comunicazioni elettriche LB

Si po’ dimostrare che la coppia ( ),I CR R che risolve il sistema sopra indicato

esiste sempre ed è unica. OSSERVAZIONI:

- le considerazioni appena fatte sono valide se è costante la frequenza di lavoro f [Hz]; - nella pratica si cercano di fare impedenze puramente resistive e costanti, in modo da ottimizzare la situazione; - per fare queste osservazioni è sufficiente che Q sia lineare.

Se abbiamo una serie di apparati in cascata (quadripoli 1 2, , ..., nQ Q Q con

guadagno rispettivamente pari a 1 2, , ..., d d dnG G G ), allora possiamo sostituire

tale struttura con un unico quadripolo con guadagno disponibile

1

n

d di

i

G G=

= ∏

Anche in questo caso, il guadagno disponibile coincide col guadagno “vero” se tutte le sezioni sono adattate.

Tornando alle nostre considerazioni sul rumore, consideriamo il solito semplicissimo circuito formato da:

- una resistenza rumorosa, che è equivalente ad una resistenza ideale R in serie con un generatore di f.e.m. fluttuante ( )e t ;

- un carico adattato (quindi con resistenza pari a R). Con le stesse ipotesi che abbiamo fatto prima possiamo dire che:

- la tensione ( )tν ai capi del carico adattato è pari a ( )2

e t (l’altra metà si è

dissipata sulla resistenza interna del generatore);

- lo spettro del monolatero del rumore è: ( ) 2V HzMONOG f kTRν

=

.

Quale sarà la potenza disponibile del rumore dN in una banda di ampiezza infinitesima [±f, ±(f+df)] (ovvero la potenza ceduta al carico dalla resistenza rumorosa)? Per trovarla basta fare:

dd d

kTR fN kT f

R= = [W]

Possiamo infatti definire la densità spettrale di potenza ceduta al carico in termini di Watt:

( ) d d2 d 2 d 2N

N kT f kTG f

f f= = =

⋅ ⋅

WHz

e ( )MONO

NG f kT=

(NOTA: il 2 al denominatore deriva dal fatto che c’è sia la parte di banda positiva che quella negativa)

2. Le cause principali del rumore: rumore granulare (shot noise)

Consideriamo un circuito costituito da un generatore di tensione costante 0V con in

serie un diodo a giunzione polarizzato nel senso della conduzione della tensione in questione. Sperimentalmente si osserva che la corrente che scorre nel circuito è

Page 69: Comunicazioni elettriche LB

lievemente fluttuante: l’espressione della corrente (che dunque è funzione del tempo) risulta infatti essere

( ) ( )0

fluttuazionealeatoria

i t I i tδ= +

Quel che osserviamo è detto rumore granulare: esso è legato al carattere discreto del flusso di corrente del dispositivo, che non è prodotto dal moto di un fluido continuo, ma da portatori elementari di carica; si dice in particolare che la corrente ha un carattere granulare in quanto gli elettroni non attraversano la giunzione in modo lineare. La componente fluttuante che ne deriva è sperimentalmente considerabile come un processo aleatorio gaussiano ergodico e, indicando con Kτ la durata

dell’attraversamento della giunzione da parte del k-esimo portatore di carica, la formula di Schottky ci dà l’espressione dello spettro di potenza (costante e dunque bianco):

( ) 0iG f qIδ = 2AHz

per 1

max K

<<

Possiamo, anche per questo caso di studio, indicare un artificio teorico che permette di sostituire a un diodo rumoroso un diodo non rumoroso posto in parallelo a un generatore di corrente fluttuante ( )i tδ legata a 0I .

NOTA: lo shot noise non si può ridurre abbassando la temperatura. 3. Le cause principali del rumore: rumore di ripartizione (partition noise)

Il rumore di ripartizione entra in gioco dei dispositivi tripolari (ad es. il BJT) ed è causato da quella parte di tensione che fuoriesce dalla base del transistore. 4. Le cause principali del rumore: rumore rosa (flicker noise)

Questo tipo di rumore è dovuto ad irregolarità e microimperfezioni nella costruzione dei resistori, i quali si ritrovano ad avere resistenza leggermente variabile. La densità spettrale di questo tipo di rumore è quantificabile in

( ) costanteG f

fα=

(con α circa uguale a 1) 5. Temperatura equivalente di rumore per apparati lineari Per introdurre il concetto di temperatura equivalente di rumore prendiamo in considerazione un quadripolo Q. Tale apparato produrrà, al suo interno, del rumore dovuto agli effetti già visti (shot noise, rumore termico, etc…): se quindi, lavorando in una banda di frequenze infinitesima [ ], df f f+ prendiamo tale quadripolo rumoroso Q

(guadagno disponibile dG , tutte le sezioni adattate) e

- poniamo da una parte (ingresso) una resistenza R a temperatura assoluta 0T

(potenza entrante nell’apparato 0d diN kT f= )

- colleghiamo agli altri due morsetti un carico adattato CR (potenza uscente

dall’apparato d UN )

Page 70: Comunicazioni elettriche LB

allora possiamo dividere la potenza d UN in due contributi:

( ) ( ) ( )potenza ceduta al contributo dovuto

carico se il quadripolo soltanto al rumorenon fosse rumoroso dell'apparato

d d dU U AN f N f N f′= +

Utilizziamo ora le relazioni studiate e il guadagno disponibile per esprimere in un altro modo questi due apporti di rumore:

( )

( )0

dd

potenza ceduta al contributo dovutocarico se il quadripolo soltanto al rumorenon fosse rumoroso dell'apparato

d d dR dKT G fKT f

U I d AN f N G N f

==

= ⋅ +

Come si vede, abbiamo espresso il rumore dovuto all’apparato come dR d

kT G f , dove

RT incarna un delta di temperatura con il quale si può “convertire” il rumore del

quadripolo, “trasferendo la colpa di tutto sull’effetto Johnson” (cit.). In sostanza, aggiungendo questo RT alla temperatura del resistore R (che va a 0 RT T+ ), e

considerando il quadripolo come non rumoroso, la situazione rimane invariata. Dunque

( ) ( )0 0

potenza ceduta al contributo dovutocarico se il quadripolo soltanto al rumorenon fosse rumoroso dell'apparato

d d d dU d R d R d

N f kT G f kT G f k T T G f= + = +

da cui ( )

0

d

dU

R

d

N fT T

KG f= + = temperatura equivalente di rumore dell’apparato

Come si nota, tale temperatura equivalente 0eq RT T T= + è funzione:

- del quadripolo (e del suo guadagno); - della frequenza di lavoro; - della resistenza R (per via dell’adattamento). Interessante osservazione: non dipende da 0T !

Com’è possibile misurare sperimentalmente la temperatura equivalente di rumore? Si prende il solito trito e ritrtito apparato: - quadripolo Q con guadagno disponibile dG ;

- resistenza R a temperatura T ai morsetti d’ingresso; - potenza complessiva di rumore di uscita pari a d UN .

Poi si cambia la temperatura per avere: - resistenza R a temperatura *T ai morsetti d’ingresso; - potenza complessiva di rumore di uscita pari a *d UN .

Nel primo caso la potenza complessiva di rumore in uscita sarà: d UN = ( ) dR dk T T G f+

Mentre, nel secondo caso: *d UN = ( )* d

R dk T T G f+

Facendo il rapporto otteniamo: ( )( )* **

ddd d

R dU R

U RR d

k T T G fN T T

N T Tk T T G fη

+ += = =

++

Page 71: Comunicazioni elettriche LB

La temperatura equivalente di rumore è quindi esprimibile facilmente così: *

1R

T TT

ηη−=

6. Cifra di rumore (NF, Noise Figure)

Consideriamo l’apparato visto nel paragrafo 5: un quadripolo rumoroso Q (guadagno disponibile dG , tutte le sezioni adattate) con

- da una parte (ingresso) una resistenza R a temperatura assoluta 0T (potenza

entrante nell’apparato 0d diN kT f= )

- agli altri due morsetti un carico adattato CR (potenza uscente dall’apparato

d UN ).

Come già abbiamo visto: ( ) ( ) ( ) 0

potenza ceduta alpotenza ceduta al contributo dovutocarico se il quadripolocarico se il quadripolo soltanto al rumorenon fosse rumorosonon fosse rumoroso dell'apparato

d d d dU U A d

N f N f N f kT G f′= + =

( )0

contributo dovutosoltanto al rumore

dell'apparato

d dR d R d

kT G f k T T G f+ = +

Definiamo allora cifra di rumore dd

U

U

NF

N ′≜ ; tale quantità può essere anche espressa in

funzione di 0T e RT :

( )0 0

0 0 0

dd1

d dR dU R R

U d

k T T G fN T T TF

N kT G f T T

+ += = = +

′≜

Qui è evidente che: - se 0RT T = 1 il quadripolo non è rumoroso;

- se 0RT T > 1 il quadripolo è rumoroso.

NOTE:

- la cifra di rumore è spesso espressa in dB: [ ]dB 10log U

U

dNF

dN=

′;

- la cifra di rumore dipende da: - il quadripolo Q; - la frequenza di lavoro f; - la resistenza R generatrice di rumore termico;

- la temperatura assoluta 0T della resistenza R (se nulla si specifica, si

intende 0 290 KT = .

- se ho F posso trovare RT :

- ( ) 01RT F T= − (con F in unità lineari).

Esaminiamo ora un caso particolare: prendiamo

- un attenuatore normale (cioè senza dispositivi a semiconduttore), ad esempio un cavo, a temperatura assoluta AT e caratterizzato da parametro di

attenuazione A (si ricordi che 1A G−= ). Potenza uscente dall’apparato d UN ;

- una resistenza R, anch’essa a temperatura AT , collegata all’attenuatore.

Page 72: Comunicazioni elettriche LB

Allora, al solito, ( )1

d dU A R d

A

N k T T G f= + .

Ora applichiamo Thévenin all’uscita e guardiamo verso l’apparato (attenuatore + resistenza): quel che vediamo è un’unica resistenza

UR a temperatura

AT . La potenza

ceduta al carico dU

N può ora essere espressa in un secondo modo:

d dU A

N kT f=

Ora uguagliamo le due quantità

( ) 1d d

A R Ak T T f kT f

A+ =

( )A R

A

T TT

A

+= ( )1R AT A T= −

Come abbiamo detto, se abbiamo F possiamo trovare R

T (e viceversa); dunque:

( )0 0

11 1 AR

A TTF

T T

−= + = +

Se poniamo 0AT T= (lavoriamo a temperatura ambiente):

F A= 7. Apparati rumorosi in cascata e formula di Friis

Prendiamo una serie di n apparati rumorosi in cascata, tutti vicendevolmente adattati fra di loro: al primo ( 1Q , caratterizzato da temperatura 1RT , guadagno disponibile 1dG ,

cifra di rumore 1F ) colleghiamo in entrata un resistore R; in uscita poniamo un

secondo quadripolo ( 2Q , caratterizzato da temperatura 2RT , guadagno disponibile 2dG ,

cifra di rumore 2F ) e poi continuiamo a collegare in serie fino all’ultimo componente

(n

Q , caratterizzato da temperatura Rn

T , guadagno disponibile dn

G , cifra di rumore

nF ). Si ha che a tale cascata di quadripoli equivale un solo quadripolo

eqQ (anch’esso

adattato), caratterizzato da temperatura R

T , guadagno disponibile 1

n

d di

i

G G=

= ∏ e cifra

di rumore F . Chiamiamo ancora una volta d d

A R dN kT G f=

la potenza ceduta al carico e dovuta a tutti gli apparati. In realtà, d

AN è la somma di tanti contributi: parte di rumore indotta dal primo quadr

1 1 2 3

contributo del primo ... che passa attraverso tuttiquadripolo della serie... gli altri quadripoli della cascata

d d ...A R d d d dn

N kT G f G G G= ⋅ ⋅ ⋅

ipolo parte di rumore in

2 2 3 4

contributo del secondo ... che passa attraverso tuttiquadripolo della serie... gli altri quadripoli della cascata

d ...R d d d dn

kT G f G G G+ ⋅ ⋅ ⋅

( ) ( )

dotta dal secondo quadripolo

parte di rumore indotta dal penultimo q

1 1

... che passa attraversocontributo del penultimo l'ultimoquadripolo della serie...

...

dnR n d n

kT G f G− −

+ +

+ ⋅

parte di rumore indotta uadripolo dall'ultimo quadripolo

d dRn dn R d

kT G f kT G f+ =

Se ora dividiamo per k, df e per 1 2 3 ...d d d d dn

G G G G G= ⋅ ⋅ otteniamo che

( )

2 31

1 1 2 1 2 3 1

......

R R RnR R

d d d d d d d n

T T TT T

G G G G G G G −

= + + + +⋅ ⋅

Page 73: Comunicazioni elettriche LB

Tale equazione è detta formula di Friis e illustra come, nella sommatoria che costituisce l’apporto totale di rumore, il contributo del blocco i-esimo venga attenuato dal prodotto dei guadagni dei blocchi che lo precedono. Appare quindi evidente che i blocchi più critici siano i primi della serie, quelli in testa alla cascata: si vuole che questi abbiano un guadagno molto alto e una piccola cifra di rumore e, dunque, che possano essere considerati come dei LNA (Low Noise Amplifier, amplificatori a basso rumore).

Sostituendo alla formula di Friis la relazione ( ) 00

1 1RR

TF T F T

T= + ⇒ = − otteniamo:

( )

321

1 1 2 1 2 3 1

1 11...

...n

d d d d d d d n

F FFF F

G G G G G G G −

− −−= + + + +⋅ ⋅

8. Temperatura equivalente di rumore della sorgente

Le antenne e più generalmente le sorgenti di informazione, come gli altri componenti che abbiamo preso fin’ora in considerazione, non sfuggono al rumore: una sorgente non può essere semplicemente schematizzata come un generatore di tensione/corrente perché - avrà una sua resistenza interna R (consideriamola non rumorosa);

- genererà rumore per effetto termico e per altre cause (quali quelle già trattate) generatore di rumore ( )e t ;

- sarà sorgente di potenza utile generatore ideale di segnale ( )Se t .

Ponendo in serie queste tre entità ricaviamo una valida rappresentazione della nostra sorgente e teniamo anche conto del rumore; possiamo quindi ridurre il numero di questi componenti da tre a due con il solito escamotage, trasferendo, ovvero, tutta la rumorosità sulla resistenza R (che consideriamo a temperatura più alta). Se il rumore prodotto dalla sorgente e disponibile nella banda infinitesima di frequenza [ ], df f f+

lo addossiamo tutto quanto all’effetto Johnson, allora possiamo esprimerlo come d d

S SN kT f= . Dunque la temperatura equivalente di rumore della sorgente (detta

anche temperatura equivalente di rumore d’antenna) sarà d d

SS

NT

k f=

Possiamo spingerci ancora più avanti e unificare il rumore d’antenna col rumore del circuito a cui questa antenna è collegato (tipicamente il ricevitore, rappresentato come un quadripolo Q, con sezioni tutte quante adattate). Prima di tutto trasferiamo tutta la componente di disturbo come temperatura “virtuale” equivalente sulla resistenza R, che sarà a temperatura:

SIST S RT T T= +

(temperatura di sistema) La densità spettrale di rumore di questo rumoroso resistore sarà, come abbiamo già visto:

( )2V

2 Hze SIST

G f kT R

=

Il passo successivo è quello di disaccoppiare il rumore dalla resistenza R e considerarlo, a parte, come generatore.

Page 74: Comunicazioni elettriche LB

Avremo quindi, collegati a un quadripolo Q non rumoroso: - un rumore complessivo ( )e t (sotto forma di forza elettromotrice di rumore) che

tiene conto del rumore dell’antenna, della resistenza interna e dunque anche del quadripolo (che ora è ideale); - una resistenza R non rumorosa; - la vera e propria sorgente di segnale utile ( )Se t .

Ai capi del quadripolo cui è collegata la serie di questi componenti avremo una caduta di potenziale che sarà data dalla somma di due contributi:

- per il segnale utile ( )Se t : ( ) ( )2

Se ts t = ;

- per il rumore ( )e t : ( ) ( )2

e ttν = (rumore additivo gaussiano bianco, AWGN)

spettro di potenza ( ) ( )14 e

G f G fν = =2V W

2 Hz 2 HzSIST SIST

kT R kT =

;

in versione monolatera ( ) 0

W WHz Hz

MONO

SISTG f kT Nν

= =

.

NOTA: il fattore 1/2 deriva dal fatto che metà di queste tensioni sono cadute sulla resistenza non rumorosa R. Siccome il quadripolo è lineare possiamo dare, in uscita, ( )Rs t e ( )n t . Ecco il percorso

completo: - s(t) viene sommato al rumore ( )tν (che dipende da

SISTT ). Il tutto in un solo

passaggio; - ( ) ( )s t tν+ passa attraverso il quadripolo;

- in uscita abbiamo ( )Rs t + ( )n t .

Come già detto si parla di AGN (Additive Gaussian Noise) e, più specificatamente, di AWGN (Additive White Gaussian Noise).

Page 75: Comunicazioni elettriche LB

VIII – LINEE DI TRASMISSIONE E

TRASMISSIONE ANALOGICA IN BANDA BASE

1. Generalità sulle linee di trasmissione

Per linea di trasmissione intendiamo generalmente una coppia di conduttori

tipicamente isolati. Una tratta di linea di trasmissione ha una certa impedenza;

consideriamo ad esempio una linea di lunghezza semi-infinita (oggetto

monodimensionale), collegata ad un generatore di onde sinusoidali: se fissiamo un

sistema di riferimento (semi-asse x) che ha per origine il generatore e che si estende

(infinitamente) nella direzione della linea di trasmissione, possiamo scegliere di porci

ad una determinata coordinata xɶ . Allora: - se guardiamo nella direzione positiva dell’asse vedremo una certa impedenza

0Z associata alla linea. Essendo la linea semi-infinita, tale impedenza sarà

sempre la stessa (ci si può spostare dove si vuole che, in ogni caso, si avranno

infiniti metri di linea da lì in poi). Per le linee ben costruite questa impedenza è

di tipo puramente resistivo ( [ ]0 Z R= Ω ): i valori tipici di tale impedenza sono

stati standardizzati e posti pari a 50 o 75 Ω;

- mentre (nell’origine) il generatore di tensione emetteva un segnale sinusoidale

del tipo

( ) ( )( )0 cos 2 0M

V ftπ ϕ+

alla coordinata xɶ la tensione sarà

( ) ( )( )valore di piccodella sinusoide

cos 2MV x ft xπ ϕ+ɶ ɶ

Il valore di picco ( )MV xɶ può essere calcolato in questo modo:

( ) ( )0 x

M MV x V e α−= ɶɶ

Come si vede il decadimento è di tipo esponenziale ed è regolato dal parametro

( )fα α=

(la dipendenza è secondo la f )

Il parametro xα è misurato spesso in unità logaritmiche:

- in Neper su unità di lunghezza: ( )( )

( )( )

0 01 Neperln ln

2 m

M

M

V Px

V x P xα = =

;

- in decibel: ( )( )

( )( )

0 0 dB20log 10log

m

M

M

V PA

V x P x

= =

.

- la potenza media che entra nella linea alla sezione xɶ è

( ) ( )2

2

MV xP x

R=

ɶɶ [W]

(NOTA: il fattore 1/2 deriva dal fatto che calcoliamo una potenza media.

C’è di mezzo un coseno e il valor medio del cos2 è proprio 1/2)

Per trovare la potenza entrante è possibile anche utilizzare la relazione

( ) 0 10 xP x P α−= ⋅ ɶɶ

In questo caso il fattore di attenuazione ( )fα α= è pari a ( )( )

[ ]dB

100

10

AP

P xα = =

ɶ.

Page 76: Comunicazioni elettriche LB

2. Effetto del rumore sui collegamenti nella trasmissione analogica in banda

base

La trasmissione avviene in questa sequenza (NOTA: per ora trascuriamo il rumore):

- SORGENTE ANALOGICA: che emette un segnale analogico x(t);

- TRASMETTITORE: il quale, appunto, spedisce il segnale analogico attraverso

il mezzo di propagazione. Immaginiamo che sia anche LTI con funzione di

trasferimento ( )TH f ;

- MEZZO DI PROPAGAZIONE: è passa-basso (potrebbe essere anche la linea di

trasmissione di cui si parla nel paragrafo 1). Immaginiamo che sia anche LTI

con funzione di trasferimento ( )MPH f ;

- RICEVITORE: prende in consegna il segnale, che si suppone non distorto e

dunque avente la forma

( )0Ax t t−

Immaginiamo che il ricevitore sia anche LTI con funzione di trasferimento

( )RH f .

- DESTINATARIO.

Il segnale utile, in pratica, viaggia attraverso la cascata di:

trasmettitore + mezzo di propagazione + ricevitore

( )TH f ( )MPH f ( )RH f

Volendo che si verifichi la relazione

( ) ( )0v t Ax t t= −

e che il segnale v(t) sia una versione non distorta di x(t), dobbiamo porre il vincolo

sull’ampiezza

( ) ( ) ( )T MP RH f H f H f A⋅ ⋅ =

e fissare la condizione sulla linearità dell’argomento

( ) ( ) ( )( ) 0arg 2T MP R

H f H f H f ftπ⋅ ⋅ = −

Non è necessario che queste equazioni valgano per ogni f: è infatti sufficiente che siano

vere nella banda di lavoro mf f< . Per verificare tali condizioni di non distorsione

posso, ad esempio, agire sul ricevitore ed attribuire ad esso i vincoli di cui sopra,

modellando la sua funzione di trasferimento e rendendo il tutto complessivamente

non-distorcente:

( ) ( ) ( )T MP RH f H f H f A⋅ ⋅ = ( ) ( ) ( )R

T MP

AH f

H f H f=

( ) ( ) ( )( ) 0arg 2T MP RH f H f H f ftπ⋅ ⋅ = − ( )( ) ( )( ) ( )( ) 0arg arg arg 2R T MPH f H f H f ftπ= − − −

In queste due ultime relazioni scritte consiste la cosiddetta equalizzazione analogica.

Quel che salta subito all’occhio è che il ricevitore si configura come un componente

piuttosto semplice e comune e, cioè, come un filtro passa-basso (banda passante =

banda di lavoro). Ipotizziamo ora un modello possibile, all’interno di uno scenario

x(t) v(t)

Page 77: Comunicazioni elettriche LB

siffatto (componenti tutti lineari, sezioni tutte quante adattate alla medesima

resistenza R), e andiamo a specificare le grandezze numeriche che ci interessano:

- sorgente: a temperatura equivalente di rumore SORG

T ;

- trasmettitore: ( )TH f costante nella banda di lavoro e con valore 0TH . Questo

blocco ha inoltre un guadagno ( ) 2

0dT TG H f= e temperatura equivalente di

rumore rT

T ;

- mezzo di propagazione: ( )MPH f costante nella banda di lavoro e con valore

0MPH . Questo blocco ha inoltre un guadagno ( ) 2

0dMP MPG H f= e temperatura

equivalente di rumore rMP

T ;

- ricevitore: ( )RH f costante nella banda di lavoro e con valore 0RH . Questo

blocco ha inoltre un guadagno ( ) 2

0dR RG H f= e temperatura equivalente di

rumore rR

T ;

Fin’ora abbiamo ignorato gli effetti di rumore: ebbene, dove li collochiamo nella

cascata sopradescritta? Il disturbo che andiamo ad aggiungere è la somma di tanti

apporti generati da ogni componente (si noti infatti che ogni blocco ha la sua

temperatura equivalente di rumore); tuttavia, per semplicità, scegliamo un modello in

cui il rumore viene posto, una sola volta e tutto insieme, “a monte” del ricevitore

[rumore additivo ( )tν ]. Questo perché in tal modo riusciamo ad incorporare in una

“virtuosa” formulazione di ( )RH f sia la non distorsione (1° requisito) sia la parziale

eliminazione (tramite filtraggio) del rumore che si trova nelle frequenze che sappiamo

non essere di lavoro. Dunque

( ) ( ) ( )0

rumoreversione non distortadel segnale utile

v t Ax t t n t= − +

(NOTA: il rumore deve essere molto inferiore al segnale utile ( )rs t 2° requisito)

Al fine di effettuare un corretto confronto fra potenza di rumore e potenza del segnale

(come potrei, sennò, confrontare fra loro due componenti aleatorie?), così da avere un

parametro che indichi la bontà di un certo collegamento, si introduce l’indicatore

rapporto segnale/rumore (SNR, signal to noise ratio), riferito al punto di vista

dell’utente finale:

( )( )

2

2

rs tSNR

n t≜

(NOTA: è un rapporto fra potenze – si tenga presente ciò nell’eventuale calcolo in dB;

l’SNR tiene conto di “quanto il segnale utile è più potente del rumore”: quindi più è

alto e meglio è! Una notazione alternativa per SNR è S/N)

Diamo, per completezza, i valori tipici di SNR per alcune applicazioni interessanti:

- telefonia (300 3400 Hz∼ ): 25-35 dB

- audio HI-FI (20 15.000 Hz∼ ): 60 dB

- video analogico (5 MHz): > 30 dB

Ricordiamoci ora delle condizioni di non distorsione per elaborare la relazione:

Page 78: Comunicazioni elettriche LB

( ) ( ) ( )T MP RH f H f H f A⋅ ⋅ = ( ) ( ) ( )0

rumoreversione non distorta

v t Ax t t n t= − +

( ) ( ) ( ) ( ) ( ) ( )0

rumoreversione non distorta

T MP Rv t H f H f H f x t t n t= ⋅ ⋅ − +

Utilizzando le caratteristiche dei sistemi LTI possiamo poi dare una relazione fra lo

spettro di potenza del rumore ( )tν (quello che entra prima del ricevitore) e fra

l’analogo spettro di n(t) (che è il rumore in uscita, ovvero ( )tν passato attraverso il

ricevitore):

( ) ( ) ( )2

2

V

2 HzSIST

n R

kT R

G f G f H fν

=

=

(NOTA: facciamo l’ipotesi che la temperatura di sistema SISTT non dipenda in maniera

significativa da f nella banda che ci interessa)

Ora è agevole capire a quanto è pari la potenza del rumore n(t): abbiamo infatti tutte

quantità costanti nell’intervallo di frequenze che ci interessa (k è la costante di

Boltzmann, per SISTT è stata poco fa fatta l’ipotesi che sia costante, R è la resistenza di

adattamento e dunque non cambia, ( )RH f come si è già detto è costante e pari ad

0RH ).

( ) ( ) ( ) 22

cambio diestremi

d d 1 d2 2

m

mdR

f

SIST SISTn R dR m SIST dR

fG

kT R kT Rn t N G f f H f f G f f T G kR

++∞ +∞

−∞ −∞ −=

= = = = =∫ ∫ ∫

Giunti a questo punto, per capire a quanto è pari l’SNR, ci manca solo la potenza del

segnale utile, ma a questo punto è facile perché:

( ) ( ) ( ) ( ) ( ) ( )0 0

versione non distorta

r T MP Rs t Ax t t H f H f H f x t t= − = ⋅ ⋅ −

( ) ( ) ( ) ( ) ( ) ( ) ( )22 2 2 2 2 2

0 0 0

costante

r T MP Rs t A x t t A x t t S H f H f H f x t t= − = − = = ⋅ ⋅ − =

( )2

0dT dMP dRG G G x t t= −

Siamo dunque pronti e procediamo:

( )( )

( ) ( )

2

potenza media delsegnale utile in uscita

dalla sorgente V

2 2 2

0 0

2

potenza media del segnale utile in uscitadal mezzo di propagazione W

chiamia

r dT dMP dR dT dMP

m SIST dR

s t G G G x t t G G x t tSNR

f T G kR Rn t

− −= =

mo questa quantità "potenza ricevuta"

1

m SISTf T k

Quanto vale SISTT ? Tale temperatura equivalente aggiunge rumore a monte del

ricevitore: per quantificarlo ragioniamo nel solito modo e consideriamo un apparato

fatto da

- un generatore di tensione in serie con la resistenza a temperatura SORGT ;

- un quadripolo (trasmettitore) con temperatura equivalente di rumore rTT ;

- un quadripolo (mezzo di propagazione) con temperatura equivalente di rumore

rMPT ;

Page 79: Comunicazioni elettriche LB

- un quadripolo (ricevitore) con temperatura equivalente di rumore rRT .

Ponendoci nei pressi dell’ingresso del ricevitore e guardando a monte del circuito ci

accorgiamo che non siamo in un caso leggermente più complicato di quello “base”

(generatore + resistenza + un solo quadripolo); qui ci sono più quadripoli: nessun

problema, comunque, perché ci basta applicare Thévenin per trasformare tutto quello

che c’è prima del generatore in una serie

generatore + resistenza R a temperatura ST

Dunque ora SISTT = ST (ciò che c’è prima del ricevitore) + rRT (il ricevitore).

Per calcolare ST dobbiamo aprire una piccola parentesi. Supponiamo di avere:

- un generatore di segnale in serie con una resistenza R a temperatura

resistT ; tutto ciò è collegato ad un quadripolo con temperatura di rumore

quadT e guadagno disponibile

dG ;

Ora, come già abbiamo fatto altre volte nel capitolo VII, carichiamo sulle spalle

dell’effetto Johnson tutto il rumore che c’è (quadripolo + resistenza): ciò significa

far virtualmente innalzare la temperatura della resistenza R da resist

T a new

T ,

con la possibilità, però, di eliminare il quadripolo.

Nel primo caso abbiamo che la quantità infinitesima di potenza di rumore du

N

additabile alle frequenze [ ], df f f+ è

( )d du resist quad d

N k T T G f= +

Nel secondo caso, invece, si ha

d du new

N kT f=

Quindi, eguagliando :

( )d dnew resist quad d

kT f k T T G f= +

( )new resist quad dT T T G= +

Torniamo al nostro problema: dobbiamo calcolare S

T . Applichiamo due volte questa

regolina (nell’esempietto sopra avevamo solo un quadripolo, qui invece ne abbiamo

due):

PRIMA APPLICAZIONE (quadripolo coinvolto: trasmettitore):

regolina ( )new resist quad dT T T G= + ( )S SORG rT dTT T T G= +

SECONDA APPLICAZIONE (quadripoli coinvolti: trasmettitore e mezzo di

propagazione):

regolina ( )new resist quad dT T T G= + ( )

nuova resistT

S SORG rT dT rMP dMPT T T G T G

= + +

Ora abbiamo tutto! La temperatura di rumore di sistema (complessiva, quella che

genera il rumore ( )tν senza bisogno di nessun altro apporto)

( )SIST SORG rT dT rMP dMP rRT T T G T G T = + + +

Page 80: Comunicazioni elettriche LB

COMMENTI e OSSERVAZIONI:

- Molto spesso avviene che rR

T sia molto più grande di S

T e che e SORG rT

T T

siano trascurabili.

- La temperatura equivalente di rumore del sistema SIST

T non dipende dal

guadagno del ricevitore, perché tanto quest’ultimo agisce allo stesso modo sia

sul segnale utile che sul rumore.

- Non serve avere un ricevitore con elevato guadagno; conta invece avere un

ricevitore con bassa rumorosità e quindi piccola cifra di rumore.

- In un collegamento radio accade che, con la distanza, aumenta l’attenuazione

che il mezzo di propagazione causa al segnale. Dunque maggiore sarà

l’attenuazione e minore sarà la potenza ricevuta, così come più piccolo sarà il

rapporto SNR. A volte, per fissare un requisito di qualità che permetta una

corretta ricezione, si definisce l’SNR minimo

min

S S

N Nγ ≥ =

E dunque

sensibilità

minr

r m SIST R

m SIST

PP f T k P

f T kγ γ≥ ⇒ ≥ =

Page 81: Comunicazioni elettriche LB

IX - TRASMISSIONE NUMERICA PASSA-BASSO

1. Lo schema

• SORGENTE: trattasi di una sorgente numerica, che dunque emette un

insieme di bit nb in sequenza;

• CODIFICATORE DI LINEA: traduce i bit in simboli. Ad un simbolo possono essere associati uno (o più) bit, tenendo ben presente che la funzione in grado di legare uno (o più) nb al simbolo na è biunivoca. Questo

componente ha una certa symbol rate SB (il che significa che emette un

simbolo ogni T secondi); da esso esce infine una sequenza di simboli na ;

• MODULATORE PAM: a partire da una funzione impulsiva di base g(t), questo componente modula forma tale impulso in ampiezza sulla base della sequenza di simboli na . Quel che esce da questo componente è una

funzione s(t); • MEZZO DI PROPAGAZIONE: si comporta come un attenuatore ed è

assimilabile ad un sistema LTI con funzione di trasferimento ( )MPH f ;

• AMPLIFICATORE/EQUALIZZATORE: rimuove tutte le componenti che si trovano nella banda in cui sappiamo non esserci il segnale (dunque rimuove il rumore in eccesso filtrando il segnale che riceve in ingresso e che è appena giunto a destinazione) e amplifica ciò che ha nella propria banda-passante (cioè il segnale utile, se tutto è andato bene). Dà in uscita una funzione ( )v t ;

• CAMPIONATORE: esegue un campionamento con passo T (il tempo di simbolo). Problema: dobbiamo fare in modo che il T del campionatore sia esattamente pari al tempo di simbolo del codificatore di linea, altrimenti si sballa tutta la catena. Per ottenere un sincronismo perfetto si utilizza un circuitino chiamato estrattore di sincronismo di simbolo, il quale permette a questo componente di scegliere gli istanti esatti 0kt t kT= + ; all’uscita del

campionatore abbiamo dunque una successione ( ) kv t ;

• DECISORE: fa una stima sui simboli ( ) kv t in modo da poter restituire la

sequenza ˆna tanto più vicina a na ;

• DECODIFICATORE: trasforma ˆna in nb compiendo l’operazione duale

rispetto al codificatore di linea; • UTENTE: colui che (a meno di errori, che vogliamo siano il meno possibile)

riceve i bit nb e dunque l’informazione che proviene dalla sorgente.

2. Misurazione della qualità

La qualità dell’informazione (ricevuta da parte di un destinatario) è tanto maggiore tanto più ricalca il segnale originale (appena uscito dalla sorgente). Un modo per misurare la qualità è quello di ottenere il tasso di errore per bit (BER, Bit Error Rate) il quale è definito in questo modo:

Page 82: Comunicazioni elettriche LB

bit erratibit trasmessi

eeb

NT

N≅ =

(quando N è molto grande) I valori tipici che tale tasso assume dipendono dall’applicazione: - trasmissione di voce convertita in digitale: 310− ;

- trasmissione di video compresso (MPEG): 610− (l’alta compressione sottintende che i singoli bit sono importantissimi!);

- trasmissione di dati molto importanti (ad es. conto bancario): 1210− . Un’altra maniera per esprimere la qualità è quello di valutare se la consegna dei bit avviene nei tempi giusti; se, al contrario, essi non arrivano al destinatario con una tempistica esatta, quel che si verifica è il cosiddetto fenomeno di gitter. Altrimenti si può valutare se sono rispettati i requisiti sul ritardo (delay), i quali fondamentalmente dipendono dall’applicazione con la quale si ha a che fare. Siccome nella pratica avviene spessissimo che il processo, in base al quale si genera un errore nella trasmissione, sia ergodico, allora possiamo effettuare l’equivalenza

Tasso di errore per bit = Probabilità di errore per bit

(stima a posteriori) (stima a priori)

ebT =

ebP

rilevazione orizzontale = rilevazione verticale 3. Il rumore e le sue conseguenze

Il problema del rumore e degli errori è di grande importanza: infatti, mentre il segnale s(t) (quello che esce dal modulatore PAM) è molto “limpido” e regolare, il segnale v(t) non è altrettanto chiaro a causa del rumore termico e dei contributi di rumore apportati da circuiteria e mezzo di propagazione. In un modello interpretativo “a soglia”, che vede il ricevitore scegliere tra un valore e un altro in base a se il segnale sia sopra o sotto un determinato valore, potrebbero infatti esserci alcuni fraintendimenti (ad es. uno “0” visto al posto di un “-1”). Iniziamo dunque a scindere il problema nelle sue parti per vedere come porre rimedio al rumore. Il segnale s(t) ha questa espressione

( ) ( )n

n

s t a g t nT= −∑

in quanto nasce come somma di più impulsi modulati dai simboli na e traslati nel

tempo di T in T. Tale segnale entra nel mezzo di propagazione, che si comporta come un sistema LTI con funzione di trasferimento ( )MPH f . A valle di questo componente

simbolico compiamo un’astrazione e aggiungiamo, tutto in una volta, il rumore ( )tν

considerato come termico e come conseguenza di una temperatura di sistema SISTT .

Segnale e rumore entreranno quindi insieme nel secondo blocco astratto “ricevitore” [funzione di trasferimento ( )RH f ] che dà come uscita

( ) ( ) ( )rv t s t n t= +

Studiamo ora il solo segnale utile: se chiamiamo

Page 83: Comunicazioni elettriche LB

• g(t) l’impulso utilizzato dal modulatore PAM; • r(t) il singolo impulso passato attraverso ( )MPH f e ( )RH f ;

• ( )g t nT− l’impulso traslato;

• ( )r t nT− la risposta all’impulso traslato (formulata utilizzando le ipotesi di

linearità e tempo-invarianza)… … allora potremo dire che la risposta ( )rs t al segnale ( ) ( )n

n

s t a g t nT= −∑ .

può essere espressa come combinazione lineare di impulsi tra loro distanti T, in questo modo:

( ) ( )r n

n

s t a r t nT= −∑

Per il principio di sovrapposizione degli effetti, il segnale utile che troviamo in fondo all’intero blocco mezzo di propagazione-ricevitore è una combinazione lineare delle tante risposte al sistema generate dalla sollecitazione degli impulsi del PAM. Passiamo ora al rumore ( )tν (che, come abbiamo detto, viene inserito dopo il mezzo di

propagazione). Esso dovrà attraversare il solo blocco-astratto ricevitore [funzione di trasferimento ( )RH f ], la cui uscita sarà in questo caso n(t). Detto questo, si può

esprimere una relazione tra lo spettro di potenza di ( )tν e quello di n(t):

( ) ( ) ( ) 2n RG f G f H fν=

Se teniamo conto del fatto che ( )tν è caratterizzabile come un processo aleatorio

ergodico a valor medio nullo, allora potremo dire che la sua potenza sarà:

( ) ( ) ( ) ( )2 22 d d d2SIST

n n R R

kRTP G f f G f H f f H f fνσ

+∞ +∞ +∞

−∞ −∞ −∞

= = = =∫ ∫ ∫

(NOTA: abbiamo utilizzato la formula del rumore termico a temperatura SISTT )

Abbiamo quindi dato una caratterizzazione a segnale utile e rumore, che – ricordiamo – viaggiano “uniti” in v(t) con questa espressione:

( ) ( ) ( ) ( ) ( )r n

n

v t s t n t a r t nT n t= + = − +∑

Come abbiamo spiegato nel paragrafo 1, questo segnale v(t) passa attraverso un campionatore, il quale esegue un campionamento con passo T (il tempo di simbolo) in modo da riottenere na . I simboli campionati (agli istanti

kt ) sono in sequenza e

hanno questa espressione

( ) ( )( ) ( )0k n k

n

v t a r t n k T n t= − − +∑

Tale campione è quello che verrà passato al decisore e quello sulla base del quale dovremo valutare quale sarà effettivamente il k-simo simbolo. Esistono, a tal proposito, due strategie di decisione: - simbolo per simbolo (1 campione alla volta); - stima di sequenza (si guardano più campioni alla volta prima di decidere). Per ragioni di semplicità e brevità esamineremo soltanto il primo dei due casi. Portiamo dunque fuori dall’ultima relazione scritta l’espressione concreta del generico k-simo simbolo e noteremo che compaiono tre interessanti contributi!

Page 84: Comunicazioni elettriche LB

( ) ( ) ( )( ) ( )0 0

rumorel'effettivo-simo simbolo un contributo che dipende da tutti

i simboli trante il k-esimo (interferenza inter-simbolo, o ISI

)

k k n kn k

k

Inter Symbol Interference

v t a r t a r t n k T n t≠

= + − − +∑

Il primo contributo (come si può direttamente leggere sotto di esso) è quello del vero e proprio k-simo simbolo. Esaminiamo ora meglio il secondo (interferenza ISI): anzitutto è necessario specificare che non è detto che tale apporto (a tutti gli effetti disturbante e quindi “rumoroso”) ci sia “per forza”. Esso c’è quando l’impulso-trasformato e modulato

( )0ka r t è tanto “lungo”, nell’asse dei tempi, da interferire con quello immediatamente

successivo (e dunque, essendo tutti gli impulsi in sequenza, anche con quello precedente). Dunque – ad esempio – il generico apporto ( )0ka r t viene “disturbato”

dalle code di: ( ) ( ) ( ) ( )2 0 1 0 1 0 2 0... 2 , , , 2 ...k k k ka r t T a r t T a r t T a r t T− − + +− − + +

Il nostro obiettivo è ovviamente quello di eliminare l’interferenza ISI: si intende, da come abbiamo esposto il problema, che la chiave di volta sta nel scegliere un impulso g(t) [che diventa r(t) dopo essere passato da mezzo di propagazione e ricevitore] che faccia al caso nostro. Intuitivamente si potrebbe pensare che sia sufficiente un vincolo sulla durata dell’impulso in questione; in realtà – e qui sta la furbata – è sufficiente che r(t) sia nullo agli istanti

0 0 0 0..., 2 , , , 2 , ...t T t T t T t T− − + +

[NOTA: 0t è un istante di campionamento, in particolare è quello in cui è centrato

l’impulso r(t). Se r(t), ad esempio, è una sinc, in 0t tale funzione varrà 1]

Questo vincolo è davvero ingegnoso perché, se ripetiamo il ragionamento per l’impulso successivo, esso – per rispettare le appena esposte condizioni di annullamento dell’ISI – dovrà essere nullo agli istanti

( )

1 1 1 1 1

0 0 0 0

..., 3 , 2 , , , 2 , ... "nuovo impulso"

..., 2 , , , 2 , ... "vecchio impulso"

t T t T t T t T t T

t T t T t T t T r t

− − − + +

↓ ↓ ↓ ↓− − + +

[NOTA: 1t è l’istante di campionamento in cui è centrato l’impulso successivo ad r(t)]

Come si vede, gli istanti in cui l’impulso successivo ad r(t) è nullo vanno a coincidere esattamente con quelli in cui proprio r(t) era nullo e, guarda caso, essi sono gli istanti in cui il campionatore va a fare le sue rilevazioni, aiutato dall’estrattore di sincronismo di simbolo. Riassumendo, se in tali punti l’impulso è nullo, l’ISI si elimina perché automaticamente (possiamo dire per costruzione) gli impulsi successivi e precedenti (traslati di T) passeranno attraverso di essi. Quindi, in notazione matematica, questi sono i vincoli su r(t):

( ) ( )0 0 0

0

0 in

0 in , 0

r r t t tr t

t t kT k

= ≠ == = + ∀ ≠

Centrando il tutto nello zero (per semplicità) si ha:

( ) ( )0 0 0 in 0

0 in , 0

r r tr t

t kT k

= ≠ == = ∀ ≠

ɶ

Come si traduce tale vincolo nel dominio delle frequenze? La trasformata della successione dei punti di annullamento che ci interessano è:

Page 85: Comunicazioni elettriche LB

( ) 00 0

j

Sr kT r e r− ⋅ = = ɶF

(trasformata di una successione) [NOTA: rimane soltanto un valore perché gli altri sono tutti pari a zero e quindi

rimangono tali] Ora incrociamo questa relazione con quella della trasformata di un segnale periodico nel dominio dei tempi:

( ) 1S

n

nr kT R f

T T

= + ∑ ɶɶF dove ( ) ( )R f r t =

ɶ ɶF

Dunque possiamo creare la catena di uguaglianze

( ) 00 0

1j

S

n

nr kT r e r R f

T T

⋅ = = = + ∑ ɶɶF

Nel dominio delle frequenze, dunque, la condizione di annullamento dell’ISI (criterio di Nyquist) è davvero singolare! Essa ci impone che, se ripetiamo periodicamente

l’impulso con passo 1

SB

T= (la symbol-rate), si debba ottenere la costante

0n

nR f r T

T

+ =

∑ ɶ

Diamo ora l’esempio di qualche impulso che funziona bene a questo scopo: - il più semplice impulso di questo tipo è certamente quello che, nel dominio

delle frequenze, è rettangolare e di banda 2SB (intervallo di frequenze

,2 2S SB B −

): se lo ripetiamo periodicamente per tutto l’asse delle frequenze

con passo 1

SB

T= , tutti i blocchetti rettangolari – cioè i singoli impulsi –

appariranno come consecutivi, formando una retta orizzontale (costante). NOTA: la retta orizzontale in questione è frutto di una “falsa consecutività”; ad ogni ripetizione, infatti, il punto di congiunzione fra due impulsi (i quali appaiono perfettamente adesi) è in realtà sede di un punto di discontinuità locale nella derivata prima. Nel dominio del tempo, un impulso del genere è una sinc:

( ) ( )0 sinc Sr t r tB=ɶ

Risulta facile verificare che ( )r tɶ rispetta le condizioni di annullamento dell’ISI

in quanto si annulla in …– 2T, – T, T, 2T… - la famiglia di impulsi con un andamento anti-simmetrico rispetto alle rette

verticali 2SB

f = ± . Impulsi di questo tipo hanno una banda che può andare da

2SB a

SB , dipendentemente da “quanto in fretta” la funzione decade a zero

nell’intervallo ,2S

S

BB

. Qualunque sia la forma di questi impulsi, se essi

rispettano l’anti-simmetria di cui sopra, allora sicuramente, qualora venissero

ripetuti periodicamente con passo 1

SB

T= e sommati tutti insieme, andrebbero

ad affiancarsi e a sormontarsi fino a formare una costante. Un andamento simile potrebbe quello di un impulso trapezoidale centrato nell’origine e con lati

obliqui antisimmetrici rispetto a 2SB

f = ± (decadimento lineare verso lo zero)

Page 86: Comunicazioni elettriche LB

oppure quello di un impulso con andamento “a coseno rialzato” (decadimento non lineare, bensì “smussato”, verso lo zero). In quest’ultimo caso si parla di fattore di roll-off α (con 0 1α< < ): tale fattore indica in quale punto,

nell’intervallo ,2S

S

BB

, l’impulso degrada a zero. Tale punto è infatti al

valore di frequenza ( )12SB α+ ; esaminiamo i casi limite:

- se 0α = si torna nel caso di impulso rettangolare (rect con banda 2SB )

visto poco fa; - se 1α = l’impulso somiglia più che altro a una gaussiana (derivata nulla solo in 0 e fuori da [ ],S SB B− ).

Le funzioni a coseno rialzato hanno il fondamentale vantaggio di non avere discontinuità nella derivata prima e per questo sono molto usate.

Qualche osservazione: - abbiamo detto che ( )r tɶ è la versione centrata nello zero di ( )r t . Sfruttando le

proprietà della trasformata di Fourier possiamo senz’altro dire che, nel dominio delle frequenze, ciò comporti

( ) ( )02j ftR f e R f

π = ɶ ⇔ ( ) ( ) 02j ftR f R f e

π−= ɶ

- l’argomento di ( )R f è lineare in f. Infatti, se ( )R fɶ è reale positiva, il suo

argomento è nullo e, dalle relazioni scritte sopra, si ha

( ) ( ) ( ) ( ) ( )0 02 20 0

0

arg arg arg arg 2 2j ft j ftR f R f e R f R f e R f ft ft

π π π π− −

=

= ⇒ = − = − = −ɶ ɶ ɶ

4. Equalizzazione e progettazione del ricevitore

Rimaniamo nel caso numerico e consideriamo il seguente schema: impulso g(t), una rect [trasformata G(f), una sinc] entrante - mezzo di propagazione con funzione di trasferimento ( )MPH f ;

- ricevitore ( )RH f ;

segnale r(t) [trasformata R(f)] uscente Quel che ci chiediamo è: come possiamo progettare correttamente il filtro di ricezione, in modo che quel che ricavo al’uscita sia una versione non distorta di g(t)? Teoricamente mi servirebbe una banda enorme: G(f) è infatti una sinc e ha tanti lobi che si estendono parecchio in là sull’asse delle frequenze; prenderli tutti è impossibile. In realtà questa preoccupazione è superflua perché la distorsione del canale si può spesso ignorare, rendendo l’annullamento dell’ISI sufficiente ad evitare gli errori: l’informazione non è, infatti, nella forma d’onda (come nel caso analogico). Qui stiamo parlando di trasmissione numerica e quel che importa è che il ricevitore riconosca correttamente i simboli. Supponiamo che R(f) sia una funzione a coseno rialzato e che sia conforme al criterio di Nyquist. Ricordandoci dello schema che abbiamo fatto sopra, possiamo applicare le proprietà della funzione di trasferimento e dire che:

Page 87: Comunicazioni elettriche LB

( ) ( ) ( ) ( )MP RR f G f H f H f=

Dunque il ricevitore deve avere:

( ) ( )( ) ( )R

MP

R fH f

G f H f=

Ma questo che significa? Contestualizziamo con un esempio: - mezzo di propagazione ( ) 0MP MPH f H= costante nella banda di lavoro;

- impulso g(t) di tipo NRZ (rettangolare);

- dunque si ha ( ) ( )( ) 0

una sinc

(a coseno rialzato)R

MP

R fH f

G f H=

Proviamo a graficare! Abbiamo graficato R(f) (a coseno rialzato) e la trasformata di g(t) – ovvero G(f) – che è una sinc; quindi abbiamo disegnato ( )1G f− e

moltiplicato quest’ultima per R(f) [ 0MPH è una costante

quindi la lasciamo stare]. Quel che salta fuori è una funzione che in maniera evidente distorce. La cosa è davvero poco intuitiva ma, per avere una corretta interpretazione del segnale numerico, il blocco ricevitore deve distorcere il segnale nella banda di lavoro (ed avere funzione di trasferimento identicamente nulla al di fuori di essa, in modo da eliminare i rumori inutili). D’altronde, come già abbiamo detto, qui non accade che l’informazione stia nella forma d’onda del segnale, caso in cui diventa di magistrale importanza la non distorsione a tutti i livelli.

5. Probabilità di errore con ISI nulla

Se l’equalizzazione è stata fatta per il verso, il generico simbolo della sequenza ( ) kv t

avrà questa forma, determinata dalla presenza di un segnale utile e di un rumore additivo gaussiano (a valor medio nullo e varianza 2σ ):

Page 88: Comunicazioni elettriche LB

( )( )

( )

( )

0 0

2

0

segnale utile rumore additivogaussiano: 0,

k kr r t n n t

k k k

N

v t a r n

σ

= =

= +

Facciamo ora un esempio concreto: poniamo che i simboli ka siano quelli del codice

bipolare (e quindi +1 e –1, con sorgente bilanciata, il che significa 1r kP a = + =

1 1 2r kP a= = − = ) e che il decisore lavori simbolo per simbolo. Supponiamo poi, per

ipotesi, che 0 0r > ; ebbene, se non ci fosse il rumore, avremmo che

( ) ( )( )

0

0

0 simbolo trasmesso: +1

0 simbolo trasmesso: 1t

rv k

r

> ←= − < ← −

Il decisore, in questo caso, avrebbe vita facilissima e ci beccherebbe sempre: chiamando infatti ˆka il simbolo che verrà stimato dal componente, si ha che

( )( )

ˆse 0 allora 1il decisore dice:

ˆse 0 allora 1k k

k k

v t a

v t a

> = +

< = −

ne consegue che ( )ˆ signk ka v t =

Ovviamente la realtà dei fatti non è così rosa e fiori. Il rumore, infatti, sporca la chiarezza di ( )kv t in quanto aggiunge all’eventuale + 0r o – 0r una certa quantità kn ;

( ) 0k kv t r n= ± +

siccome però il rumore è gaussiano a valor medio nullo, possiamo asserire che il possibile scarto dal valore + 0r o – 0r sia simmetrico (e cioè corrispondente ad un

intervallo centrato proprio in + 0r o – 0r ).

Chiamiamo ora eP la probabilità di errore: essa sarà pari alla probabilità che il

simbolo stimato dal decisore sia diverso da quello trasmesso e cioè che ˆ

e r k kP P a a= ≠

Sfruttiamo il teorema della probabilità totale:

1 1ˆ 1 1

k ke r k k r k r ke a e aP P a a P P a P P a=+ =−= ≠ = = + + = −

la probabilità d’errore è cioè uguale alla probabilità che vi sia stato un errore con simbolo trasmesso 1ka = + sommata alla probabilità che si sia verificata una non

corretta interpretazione nel caso 1ka = − .

Elaboriamo la nostra relazione:

( ) ( ) 1 10 1 0 1

k ke r k k r k ke a e aP P P v t a P P v t a=+ =−= < = + + > = −

0 01 10 1 0 1

k ke r k k r k ke a e aP P P r n a P P r n a=+ =−= + < = + + − + > = −

0 01 11 1

k ke r k k r k ke a e aP P P n r a P P n r a=+ =−= < − = + + > = −

Dunque, utilizzando la funzione erfc, possiamo dire che:

0 01 1 1 1erfc erfc

2 2 2 22 2e

r rP

σ σ− = ⋅ + ⋅

0 01 1 1 1erfc erfc

2 2 2 22 2

r r

σ σ+ = ⋅ + ⋅ =

20 0

2

1 1erfc erfc

2 2 22eb eb

r rP T

σσ = = = ≡

Page 89: Comunicazioni elettriche LB

Tale espressione, grazie alle proprietà di ergodicità, caratterizza sia la probabilità che si verifichi un errore nell’interpretazione del simbolo, sia la probabilità di errore per bit, sia il tasso di errore di bit (identità di rilevazioni orizzontali e verticali).

NOTA: la quantità 2022

r

σ è, a tutti gli effetti, un rapporto S/N (più 0r è distante

dall’origine e più è difficile che il rumore sia così potente da risultare, in modulo, più intenso di 0r ; d’altra parte, maggiore è la varianza e maggiormente si spancia la

gaussiana: conseguentemente, i valori assunti dal rumore potrebbero discostarsi di più dal valore medio, che è zero e dunque è l’origine degli assi). Dunque posso decidere di misurare questo SNR in decibel e di agire su di esso per avere una migliore trasmissione. Infatti: - aumentando 0r il segnale è più robusto;

- diminuendo 2σ il rumore si attenua. Se poi consideriamo il codice bipolare come caso “estremo” di codice multilivello (con l = 2), possiamo asserire che sia possibile estendere le considerazioni fatte fin’ora per l anche maggiori di 2. Non è un’estensione complicata ed è, anzi, abbastanza naturale: se prima avevamo due punti d’interpretazione nell’asse delle ( )kv t (e cioè quello del

simbolo +1 e quello del simbolo −1), ora ne avremmo 4 (oppure 8, o 16, etc…) tutti equidistanti fra loro e con un proprio intervallino in cui l’interpretazione è esatta. È intuitivo il fatto che con un maggior numero di valori (e quindi intervalli più stretti) diventa più facile, per un rumore anche non troppo potente, sballare tutto. Se riportiamo su un grafico cartesiano la probabilità di errore in funzione del rapporto segnale/rumore (v. figura a destra) notiamo proprio che la BER (Bit Error Rate) aumenta con l’aumentare del numero l di livelli. Ricordiamo però che con un l maggiore si restringe la banda

che dobbiamo utilizzare per trasmettere il nostro segnale (e questo è indubbiamente un vantaggio). Alla fine, come sempre, siamo alle prese con la scelta di un compromesso che in questo caso è fra: - quantità di banda occupata (l maggiore B minore); - possibilità di errore (l maggiore BER maggiore). 6. Trasmissione su fibra ottica Lo schema della trasmissione su fibra ottica è il seguente: - SORGENTE BINARIA: emette bit nb ;

- CODIFICATORE: codifica i bit nb nei simboli na , che però sono ancora

binari 0,1na ∈ ;

- FOTOEMETTITORE: è modulato OOK (On-Off Keying); - FIBRA OTTICA: che è il mezzo di trasmissione; le fibre ottiche sono filamenti di materiali vetrosi con un diametro dell’ordine della decina di micron formato da materiale dielettrico, come la silice, opportunamente drogato in modo da avere una variazione omogenea dell’indice di rifrazione rispetto al rivestimento esterno tale da costringere un’onda elettromagnetica a propagarsi lungo la

Page 90: Comunicazioni elettriche LB

tratta senza apprezzabile irradiazione all’esterno. Le fibre ottiche sono normalmente disponibili sotto forma di cavi e sono dunque classificate come guide d'onda dielettriche. Vengono comunemente impiegate nelle comunicazioni anche su grandi distanze e nella fornitura di accessi di rete a larga banda (dai 10 Mbit/s al Tbit/s usando le più raffinate tecnologie WDM – Wavelength Division Multiplexing);

- DIODO FOTORILEVATORE: traduce gli impulsi ottici in corrente; - RIGENERATORE NUMERICO: ripristina, a meno di errori, i simboli trasmessi (stima ˆna );

- DECODIFICATORE: dai simboli ˆna passa ai bit (stimati) nb ;

- UTENTE FINALE. Le fibre ottiche presentano interessanti vantaggi:

- anzitutto disperdono pochissimo: il minor valore di attenuazione specifica raggiungibile nella pratica è di circa 0,2 dB/Km (corrispondente alla lunghezza

d’onda 1,55 µmλ = frequenza 8 12

63 10 194 10 Hz

1,55 10cf λ −

⋅= = = ⋅⋅

), mentre

quello teorico è di 0,16 dB/Km (centinaia di unità logaritmiche inferiore a quello dei conduttori ordinari: si noti che centinaia di unità logaritmiche è un’enormità in unità lineari!!); - utilizzando la WDM la quantità di dati trasmettibile con fibra ottica è imbarazzantemente enorme: con 160 portanti a 4 Gbit/s si può realizzare una capacità trasmissiva di circa 6 Tbit/s (giusto 1500 volte più veloce di una ADSL a 4 Mega); - non si necessita di rigeneratori intermedi, a meno di non voler superare le centinaia di kilometri di lunghezza di linea; anche in questo caso, tuttavia, esisterebbero amplificatori ottici (che non richiedono conversione dal dominio ottico verso quello elettrico, né viceversa!) costituiti da spezzoni di fibra drogati con erbio e muniti di un opportuno sistema di pompaggio (EDFA, Erbium Doped Fibre Amplifier); - posso sfruttare una banda di frequenze gigantesca: immaginiamo di prendere sull’asse delle lunghezze d’onda λ un tratto infinitesimo ( dλ = 1 nm) di

possibili valori centrato su 1,55 µmλ = . Ad esso corrisponderebbero, in frequenza:

( )2

differenziamo!!

dd d d

d

cc c

f fλ λ λ

λ λ λ= ⇒ = =

df = 125 GHz

I segnali appartenenti a questo piccolissimo intervallo di lunghezza d’onda potrebbero offrire una banda entro la quale ci starebbe 135 volte l’intero spettro di frequenze usato per la radiodiffusione sonora e televisiva. Niente male, eh?