116
Principi di comunicazioni elettriche Fiandrino Claudio 25 novembre 2009

Principi di comunicazioni elettriche

Embed Size (px)

DESCRIPTION

Appunti corso Principi di comunicazioni elettriche

Citation preview

Page 1: Principi di comunicazioni elettriche

Principi di comunicazioni elettriche

Fiandrino Claudio

25 novembre 2009

Page 2: Principi di comunicazioni elettriche

II

Page 3: Principi di comunicazioni elettriche

Indice

1 Trasmissione dell’informazione 3

2 Rumore 7

2.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 7

2.2 Rumore nei doppi bipoli . . . . . . . . . . . . . . . . . . . . . 11

2.3 Rumore in cascate di doppi bipoli . . . . . . . . . . . . . . . . 12

2.4 Rumore nei sistemi wireless . . . . . . . . . . . . . . . . . . . 14

2.5 Banda equivalente di rumore . . . . . . . . . . . . . . . . . . 14

2.6 Rapporto segnale-rumore . . . . . . . . . . . . . . . . . . . . 16

2.7 Attenuatore dissipativo . . . . . . . . . . . . . . . . . . . . . 17

3 Teoria dell’informazione 19

3.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 19

3.2 Codifica di sorgente . . . . . . . . . . . . . . . . . . . . . . . 22

3.3 Codifica di canale . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.4 Canale discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Modulazioni 31

4.1 Modulazioni analogiche . . . . . . . . . . . . . . . . . . . . . 31

4.1.1 Modulazioni di ampiezza . . . . . . . . . . . . . . . . 31

4.1.2 Segnale analitico e inviluppo complesso . . . . . . . . 36

4.2 Modulazioni numeriche . . . . . . . . . . . . . . . . . . . . . . 40

4.2.1 Introduzione generale . . . . . . . . . . . . . . . . . . 40

4.2.2 Costellazioni e regioni di decisione . . . . . . . . . . . 60

4.2.3 Modulazioni in banda base . . . . . . . . . . . . . . . 62

4.2.4 Modulazioni in banda traslata . . . . . . . . . . . . . 69

5 Isi e Criteri di Nyquist 83

5.1 Interferenza intersimbolica . . . . . . . . . . . . . . . . . . . . 83

5.2 1◦ criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 87

5.3 2◦ criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 92

5.4 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . 93

III

Page 4: Principi di comunicazioni elettriche

IV INDICE

6 Esempi conclusivi 95

6.1 Esempio modulazione PAM . . . . . . . . . . . . . . . . . . . 956.2 Diagramma ad occhio . . . . . . . . . . . . . . . . . . . . . . 104

6.2.1 Esempio per la modulazione 2-PAM . . . . . . . . . . 1046.2.2 Esempio per la modulazione QPSK . . . . . . . . . . . 106

Page 5: Principi di comunicazioni elettriche

Prefazione

Gli appunti sono stati redatti seguendo le lezioni del corso ed approfondendoalcuni argomenti sul libro di testo consigliato (Giorgio Taricco, Comunica-zioni elettriche con elementi di teoria dell’informazione, edito CLUT).Se fossero presenti errori potete segnalarli al il mio recapito mail:claudio [email protected] sito in cui e possibile trovare questi appunti e:http://claudiofiandrino.altervista.org.

1

Page 6: Principi di comunicazioni elettriche

2 INDICE

Page 7: Principi di comunicazioni elettriche

Capitolo 1

Trasmissione

dell’informazione

Analizziamo le due parole del titolo di questo capitolo: trasmissione e infor-mazione.Trasmettere consiste nel prendere in esame l’insieme dei dispositivi fisici chepermettono la comunicazione; cio che viene trasmessa e l’informazione, ossiai segnali opportunamente trattati.

Sistemi di trasmissione

Esistono due tipi di sistemi di trasmissione: analogici e digitali.

Sistemi analogici

I sistemi analogici trasmettono segnali a tempo continuo in cui, l’informazio-ne da scambiare nella comunicazione, e proporzionale ad uno dei parametridel segnale (fase, ampiezza). Il segnale non viene manipolato, ma riprodottofedelmente.

x(t)

t

3

Page 8: Principi di comunicazioni elettriche

4 CAPITOLO 1. Trasmissione dell’informazione

Sistemi digitali

Nei sistemi digitali i segnali trasmessi non rappresentano l’informazionescambiata: essa va interpretata.Si parla di informazione discreta perche, con opportune manipolazioni, sicodifica l’informazione in simboli (sequenze di bit); in fase di ricezione essisaranno riconosciuti e decodificati per conoscere l’esatto contenuto di infor-mazione ricevuto.Sul canale di trasmissione il segnale e un segnale di tipo analogico (ondaelettromagnetica) e non una sequenza numerica anche nel caso di sistemidigitali.

x(t)

t

Rispetto a sistemi analogici, con segnali digitali e possibile ricostruire la for-ma d’onda se durante la trasmissione si sono verificati errori; la prestazionedei processori che trattano l’informazione e decisamente migliore come mi-gliore e la qualita di questi sistemi.I sistemi analogici per contro sono meno complicati da realizzare e c’e de-gradazione graduale della qualita a differenza dei sistemi digitali; per questiultimi se non ci sono errori la qualita e alta, ma in caso contrario la qualitae nulla.

Schemi a blocchi per i due tipi di sistemi

Sistemi analogici:

Sorgente

S

Modulatoreanalogico

MOD

DemodulatoreAnalogico

DEMOD

Ricevitore

R

Page 9: Principi di comunicazioni elettriche

5

Sistemi digitali:

Sorgente

S

Campionatoree

Quantizzatore

C-Q

ModulatoreNumerico

MOD

DemodulatoreNumerico

DEMOD

Ricevitore

R

Page 10: Principi di comunicazioni elettriche

6 CAPITOLO 1. Trasmissione dell’informazione

Page 11: Principi di comunicazioni elettriche

Capitolo 2

Rumore

In questo capitolo verra analizzato il rumore termico nei suoi aspetti fonda-mentali.

2.1 Introduzione generale

In ogni trasmissione si puo osservare un disturbo che prende il nome di ru-more termico.Il rumore termico e un modello fisico sempre presente nei dispositivi di tra-smissione in quanto caratterizza la variazione elettrica degli elettroni nelsistema hardware.Analizziamo con dettaglio il rumore presente nei sistemi di telecomunicazio-ne; e possibile caratterizzarlo con le seguenti proprieta:

. e un processo casuale che chiameremo n(t);

. e bianco;

. la sua distribuzione statistica e di tipo gaussiano.

L’aggettivo bianco evidenzia che lo spettro del processo n(t) e costante sututte le frequenze e, date le sue proprieta di processo casuale WSS ed ergo-dico, puo essere modellizato come:

f

GN (f)

N02

7

Page 12: Principi di comunicazioni elettriche

8 CAPITOLO 2. Rumore

Poiche lo spettro e costante, l’autocorrelazione del rumore termico, che none altro che l’antitrasformata di Fourier dello spettro di potenza, e una deltanell’origine:

τ

RN (τ)

N02

In formule:

GN (f) = F {RN (τ)} RN (τ) = F−1 {GN (f)}

La funzione di autocorrelazione misura quanto due istanti di tempo t e t1 diun processo siano correlati.Se la funzione di autocorrelazione mostra una forte correlazione fra dueistanti di tempo allora il segnale, nel dominio del tempo, e lento; viceversaun segnale veloce avra una funzione di autocorrelazione bassa perche t1 einfluenzato poco da t; poiche il rumore termico ha una delta nell’origine laconclusione e che ogni istante di tempo non e correlato in nessun modo conaltri.Non e possibile quindi partendo da t cercare di indovinare cosa succedera int1 perche, siccome questi istanti di tempo sono scorrelati, il processo cambiain modo impredicibile.Per τ −→ 0 cio che evidenzia la funzione di autocorrelazione e la potenza ovalor quadratico medio del segnale (N0

2 ); invece per τ −→ ∞, solo nel casodi processi causali come n(t) si legge il valor medio al quadrato (0).

Page 13: Principi di comunicazioni elettriche

2.1. Introduzione generale 9

La distribuzione statistica e di tipo gaussiano in quanto somma di eventicasuali statisticamente indipendenti:

fn

n

Questo tipo di distribuzione evidenzia che mediamente il rumore ha medianulla, ma, seppure con probabilita bassa, possono verificarsi picchi di am-piezza molto alta o molto bassa di durata breve.

Dimostrazione

Collegando un resistore ad un oscilloscopio si osserva che anche senza ali-mentazione scorre una microcorrente spuria; questo fenomeno e dovuto all’a-gitazione termica degli elettroni semplicemente perche la resistenza si trovaad una certa temperatura.Lo spettro della corrente misurata i(t) e il seguente:

f

Gi(f)

Il rumore termico decade a frequenze dei THz, anche se solitamente si imma-gina lo spettro costante su tutte le frequenze; la densita spettrale di potenzavale:

Gi(f) =2 · κ · TR

[

A2

Hz

]

dove:

. κ e la costante di Boltzman che vale 1.38 · 10−23[

JK

]

;

. T e la temperatura a cui e posto il resistore;

. ed R il valore della sua resistenza.

Page 14: Principi di comunicazioni elettriche

10 CAPITOLO 2. Rumore

La tensione generata dall’agitazione termica e:

e(t) = i(t) ·RPossiamo dedurre che la funzione di trasferimento sia:

H(f) =E(f)

I(f)= R

Sapendo che:Ge(f) = Gi(f) · |H(f)|2

otteniamo questa relazione che lega gli spettri di potenza di tensione ecorrente:

Ge(f) = Gi(f) · R2 = 2 · κ · T · RUn generatore di tensione eroga la massima potenza se R e uguale allaresistenza interna del generatore stesso:

Pdisp =e(t)

4 ·RLa potenza fisica del rumore:

Gn(f) =Ge(f)

4 ·R =Gi(f) · R2

4 ·R =2·κ·T

R· R2

4 ·R =2 · κ · T · R2

4 · R2=κ · T

2

Indicando con N0 il valore del prodotto κ · T si ha che:

Gn(f) =N0

2

[

W

Hz

]

Si puo notare che il rumore non dipende dal materiale, in questo caso dalvalore della resistenza, ma solo dalla temperatura a cui e posto; dunquemaggiore e la temperatura piu alta sara la potenza di rumore associata equindi piu grande sara il disturbo creato.Nell’ambito delle telecomunicazioni il rumore termico e il fattore discrimi-nante per le prestazioni dei dispositivi ed e il principale fattore di abbassa-mento della qualita del segnale.

Esempio

Calcolare la potenza di rumore nella banda B di 10 MHz alla tempera-tura T di 290◦ K.

f

X(f)

−B B

Page 15: Principi di comunicazioni elettriche

2.2. Rumore nei doppi bipoli 11

Pn =

∫ B

−B

Gn(f) df =

∫ B

−B

N0

2df =

N0

2· 2B = N0 · B = κ · T · B

Sostituendo i valori numerici:

Pn = (1.38 · 10−23) · 290 · (10 · 106) = 4 · 10−14 W

Il valore ottenuto e molto basso, ma occorre precisare che e necessario unconfronto con la potenza del segnale trasmesso per poter dare un giudizio.Ad esempio, la telefonia cellulare, utilizza potenze di questo ordine di gran-dezza; in questo caso un disturbo con questa potenza sarebbe significativo.

2.2 Rumore nei doppi bipoli

Quando un segnale attraversa un doppio bipolo viene disturbato dal rumorecreato dal dispositivo.

D.B

n(t)

⊕x(t) y(t)

Il parametro importante e la temperatura di lavoro: abbiamo visto comeinfluenza il rumore aumentandone la potenza e quindi peggiorando il segnale.In ingresso al doppio bipolo abbiamo una potenza di rumore pari a:

Gin =κ · T

2

Ipotizzando che gli elementi siano adattati in impedenza, quindi sia lapotenza del segnale che quella del rumore sono massime, si ha in uscita:

Gout = Gin · gdb +Gdb (2.1)

Supponiamo di avere un doppio bipolo ideale, che non introduce rumore,con una potenza in uscita data da:

G′

out = Gin · gdb

e un doppio bipolo rumoroso con potenza in uscita descritta nel’equazione(2.1).

Page 16: Principi di comunicazioni elettriche

12 CAPITOLO 2. Rumore

Si definisce temperatura equivalente di rumore Te l’incremento di tem-peratura che occorre dare all’ingresso del doppio bipolo ideale affinche abbiala stessa potenza di uscita del doppio bipolo rumoroso.

Ricapitolando:

D.B ideale D.B reale

G′

out = κ·T2 · gdb Gout = κ·(T+Te)

2 · gdb

G′

in = κ·T2 Gin = κ·T

2

Si introduce:

γT =Gout

G′

out

= 1 +Te

T

Tale rapporto viene definito cifra di rumore (figure noise), quando T euguale a To, temperatura operativa (290◦ K, 17◦ C):

F =Gout

G′

out

= 1 +Te

To

Questa quantita misura quanto peggiora l’uscita del doppio bipolo rumorosorispetto al suo ingresso.

Invertendo la formula della cifra di rumore e possibile determinare anali-ticamente un’espressione per la temperatura equivalente:

Te = To · (F − 1)

2.3 Rumore in cascate di doppi bipoli

Ipotizziamo di avere una cascata di doppi bipoli con:

. cardinalita N ;

. temperatura Ti;

. cifra di rumore Fi;

. guadagno gi;

i = 1 i = 2 i = N

Ti, Fi, gi Ti, Fi, gi Ti, Fi, gi

Page 17: Principi di comunicazioni elettriche

2.3. Rumore in cascate di doppi bipoli 13

Se consideriamo tutti i doppi bipoli ideali si avra:

G′

out =κ · To

2· gtot

dove gtot rappresenta il guadagno complessivo della catena:

gtot = g1 · g2 · g3 · ... · gN

La potenza in uscita ipotizzando tutti i doppi bipoli reali sara invece:

Gout = G′

out +Gtot

dove Gtot rappresenta i contributi complessivi di rumore introdotti dallacascata di doppi bipoli:

Gtot =

N∑

i=1

Gdbi

Analizziamo l’uscita del primo elemento:

Gout(1) =κ · (To+ T1)

2· gtot +Gdb(1)

E come considerare il primo doppio bipolo reale e tutti gli altri ideali.Ripetendo l’operazione sull’intera catena si ottiene:

Ftot = 1 +T1

To+

T2

To · g1+ · · · + TN

To · (g1 · g2 · ... · gN−1)

Detta formula di Friis. Equivalentemente:

Ftot = F1 +F2 − 1

g1+F3 − 1

g1 · g2+ · · · + FN − 1

gtot

Si puo notare dalla formula di Friis che sono i primi stadi ad essere significa-tivi nel garantire buone o cattive prestazioni del sistema: per questo motivodopo dispositivo ricevente come un’antenna viene posto un amplificatore abasso rumore (Low Noise Amplifier) il quale, avendo una cifra di rumorebassa, non peggiora il rumore di tutta la catena.

Come nel caso del doppio bipolo e possibile determinare la temperaturaequivalente totale come:

Tetot = To · (Ftot − 1) = T1 +T2

g1+

T3

g1 · g2+ · · · + TN

gtot

Page 18: Principi di comunicazioni elettriche

14 CAPITOLO 2. Rumore

2.4 Rumore nei sistemi wireless

In un sistema nello spazio libero:

TaRX

La temperatura di antenna e la temperatura a cui si trova un resistore equi-valente collegato al ricevitore che genererebbe la stessa quantita di rumoredell’antenna; essa si sostituisce alla temperatura a cui si trova il sistemaperche tiene conto di tutti i disturbi ricevuti (es. rumore galattico).Con sistemi di questo tipo la temperatura operativa a cui si lavora e:

Top = Ta+ Te

Ricapitolando:

Sistemi wired Sistemi wireless

Top = T + Te Top = Ta+ Te

2.5 Banda equivalente di rumore

Nelle sezioni precedenti si e parlato spesso impropriamente di potenza dirumore; il termine piu corretto sarebbe stato densita spettrale di potenzadel rumore.La potenza di rumore vera e propria infatti tiene conto della banda del se-gnale che viene utilizzato.Ipotizziamo di effettuare una trasmissione su un canale AWGN (AdditiveWhite Gaussian Noise) che aggiunge al segnale solo rumore termico; model-lizziamo semplicemente la trasmissione da una sorgente verso un destinatariosu un canale AWGN in questo modo:

x(t) ⊕ y(t)

n(t)

Page 19: Principi di comunicazioni elettriche

2.5. Banda equivalente di rumore 15

Se si pensa al segnale y(t) come risultato di una trasformazione data da unafunzione di trasferimento, la relazione fra le densita spettrali di potenza e:

Gy(f) = |H(f)|2 ·Gx(f)

Poiche il sistema di trasmissione e lineare, possiamo pensare di scomporre ladensita spettrale dell’uscita come somma delle densita spettrali di ingressoe quella del rumore; per questo motivo e possibile calcolare direttamente lapotenza del rumore come:

PNout =

∫ +∞

−∞

N0

2· |H(f)|2 df =

∫ +∞

−∞

κ · To2

· |H(f)|2 df

Siccome κ·To2 e costante si ottiene:

PNout =κ · To

2·∫ +∞

−∞|H(f)|2 df

Si osserva che l’integrale non dipende dalla geometria del filtro, ma solo dallasua area.Si definisce banda equivalente di rumore:

Beq =1

2· 1

|H(f)|2 ·∫ +∞

−∞|H(f)|2 df

Per cui la potenza di rumore risulta essere:

PNout = κ · To · Beq · |H(f)|2

La banda equivalente di rumore e un filtro passabasso che ha una bandacapace di far passare la stessa quantita di rumore del filtro vero e proprio:

|H(f)|2

f

|H(f)|2

f−Beq Beq

Ad esempio, se |H(f)|2 = 1:

PNout = κ · To ·Beq

Page 20: Principi di comunicazioni elettriche

16 CAPITOLO 2. Rumore

2.6 Rapporto segnale-rumore

Ipotizzando di avere un doppio bipolo caratterizzato da:

. temperatura equivalente Te;

. guadagno disponibile gd;

. cifra di rumore F ;

. banda equivalente di rumore Beq;

. potenza del segnale di ingresso PSin.

Il rapporto segnale-rumore, in inglese signal to noise ratio (SNR), vienedefinito come:

SNR =Potenza segnale

Potenza rumore

Se non si specifica dove si effettano queste due misure l’indicazione data daSNR e totalmente inutile; pensiamo di calcolare tale quantita all’ingressodel doppio bipolo considerato:

SNRin =PSin

PNin

Il termine della potenza del rumore in ingresso puo essere esplicitato come:

PNin=κ · T

2· 2Beq = κ · T · Beq

Quindi:

SNRin =PSin

κ · T ·Beq

Effettuiamo ora il calcolo all’uscita del doppio bipolo:

SNRout =PSout

PNout

=PSin

· gd

PNout

Determiniamo la potenza di rumore in uscita:

PNout =κ · (T + Te)

2· gd · 2Beq = κ · (T + Te) · gd ·Beq

Per cui:

SNRout =PSin

· gd

κ · (T + Te) · gd ·Beq

=PSin

κ · (T + Te) · Beq

Il significato di questa espressione e che non serve aumentare la potenza delsegnale per migliorare la qualita della trasmissione perche verrebbe amplifi-cato anche il rumore, non cambiando di fatto nulla.

Page 21: Principi di comunicazioni elettriche

2.7. Attenuatore dissipativo 17

Se la temperatura di lavoro e To:

SNRout =PSin

κ · T ·Beq· 1

1 + TeTo

= SNRin +1

F

Esprimendo tutte le grandezze in decibel:

SNRout|dB = SNRin|dB − F |dB

2.7 Attenuatore dissipativo

Piu comunemente noti come cavi, gli attenuatori dissipativi sono caratteriz-zati da:

gd =1

L

dove L e l’attenuazione.

Supponendo che lavori a temperatura To possiamo definire:

. Gin = κ·To2 , potenza di rumore in ingresso;

. G′

out = κ·To2 · 1

L, potenza di rumore in uscita considerando ideale

l’attenuatore;

. Gout = κ·To2 , potenza di rumore in uscita considerando rumoroso

l’attenuatore.

Calcoliamone la cifra di rumore:

F =Gout

G′

out

=κ·To

2κ·To

2 · 1L

= L

Fisicamente e un concetto esatto perche, piu e lungo un cavo, piu si dissipapotenza in calore per effetto Joule; cio provoca un’aumento della tempera-tura e, di conseguenza, di rumore.

Page 22: Principi di comunicazioni elettriche

18 CAPITOLO 2. Rumore

Page 23: Principi di comunicazioni elettriche

Capitolo 3

Teoria dell’informazione

3.1 Introduzione generale

Data una sorgente in grado di emettere un numero finito di simboli discreti:

S −→ {xi}Mi=1

si puo pensare all’informazione come ad una grandezza che dipende dallaprobabilita che venga emesso uno dei simboli della sorgente piuttosto cheun altro. Piu un simbolo ha probabilita di essere trasmesso, meno infor-mazione conterra; al contrario un simbolo trasporta tanta informazione seviene emesso poche volte.

Proprieta

1. Dati due simboli xi e xj :

I(xi) > I(xj) se P(xi) < P(xj);

2. Se gli eventi sono statisticamente indipendenti:

P(xi, xj) = P(xi) + P(xj) =⇒ I(xi, xj) = I(xi) + I(xj).

Una funzione matematica che verifica queste proprieta e il logaritmo; perdefinizione:

I(xi) , loga1

P(xi)

A seconda della base a scelta si individuano diverse unita di misura perl’informazione:

. I(xi) = ln 1P(xi)

[nat]

. I(xi) = log21

P(xi)[bit]

19

Page 24: Principi di comunicazioni elettriche

20 CAPITOLO 3. Teoria dell’informazione

I bit dunque non sono ′′0′′ e ′′1′′ che viaggiano nei segnali, ma misura diquantita di informazione scambiata.Solo in casi particolari vi e una correlazione fra cifre binarie e bit di infor-mazione, come si vedra in seguito.

Si definisce entropia della sorgente la quantita:

H(x) =M∑

i=1

P(xi) · I(xi) =M∑

i=1

P(xi) · log21

P(xi)

L’entropia rappresenta quindi una media dell’informazione trasmessa dallasorgente pesata, per ogni simbolo, dalla sua probabilita di essere emesso;per questo motivo si misura in [ bit/sym].

Esempio 1

Data una sorgente S che puo emettere 4 simboli diversi (x0, x1, x2, x3) conprobabilita uguale per ogni simbolo; si calcoli l’entropia della sorgente.

Poiche i simboli sono equiprobabili e l’alfabeto e composto di 4 simboli:

P(x0) = P(x1) = P(x2) = P(x3) =1

4

Si ha che la quantita di informazione che ogni simbolo ha e uguale per ognisimbolo emesso.L’entropia per definizione e:

H(x) =

M∑

i=1

P(xi) · log21

P(xi)

Quindi nel nosto caso:

H(x) = M · 1

M· log2M = log24 = 2bit/sym

Esempio 2

Ipotizziamo ora che la sorgente S non emetta con la stessa probabilita isimboli, ma secondo le regole della tabella:

Simbolo xi Probabilita P(xi)

x0 P(x0) = 1/2x1 P(x1) = 1/4x2 P(x2) = 1/8x3 P(x3) = 1/8

Page 25: Principi di comunicazioni elettriche

3.1. Introduzione generale 21

In questo caso con probabilita diverse anche la quantita di informazione chetrasporta ogni simbolo e diversa:

x0 =⇒ I(x0) = log21

P(x0)= log22 = 1bit;

x1 =⇒ I(x1) = log21

P(x1)= log24 = 2bit;

x2 =⇒ I(x2) = log21

P(x2)= log28 = 3bit;

x3 =⇒ I(x3) = log21

P(x3)= log28 = 3bit.

Si puo notare come i simboli meno probabili, che dunque contengono piuinformazione, trasportano il maggior numero di bit; viceversa i simboli piuprobabili sono quantificati con un bit.Calcoliamo ora l’entropia della sorgente:

H(x) =

M∑

i=1

P(xi) · log21

P(xi)=

1

2· 1 +

1

4· 2 + 2 · 1

8· 3 =

7

4= 1.75 bit/sym

Rispetto al caso di simboli equiprobabili quindi si ha meno entropia in quan-to alcuni simboli sono piu frequenti e, dunque, forniscono meno informazionequando sono emessi.

Esempio 3

Consideriamo ora una sorgente S che emetta simboli binari:

X = {x0 , x1}

Le cui probabilita di emissione sono:

. P(x0) = p0 ;

. P(x1) = 1 − p0 .

L’entropia della sorgente e:

H(x) = p0 · log21

p0+ (1 − p0) · log2

1

(1 − p0)

Diagrammando l’entropia in funzione della probabilita p0:

H(x)

p0

1

12

0 1

Page 26: Principi di comunicazioni elettriche

22 CAPITOLO 3. Teoria dell’informazione

Il significato di questo grafico e il seguente: se si trasmette con probabilitap0 = 1 allora viene emesso solo il simbolo x0; esso non trasporta informazionequindi l’entropia della sorgente e nulla. Lo stesso discorso vale nel caso incui si emette il simbolo x1 sempre, ossia p0 = 0; quando invece i simbolisono equiprobabili l’entropia e massima e vale 1:

H(x) =1

2· log2

112

+

(

1 − 1

2

)

· log21

(1 − 12)

=1

2+

1

2= 1bit/sym

Solo in questo caso vi e una corrispondenza fra cifra binaria ed bit; si noti,ad esempio, che se si tramette per il 60% delle volte il simbolo x0 e per il40% x1 allora l’entropia sara un numero compreso fra 0 e 1.

3.2 Codifica di sorgente

L’obbiettivo di una codifica di sorgente e capire se, data una sorgente S conun alfabeto di simboli discreti:

S −→ X = {xi}Mi=1

e possibile trovare una sorgente binaria equivalente:

SBIN −→ Y = {y0 , y1}

in modo tale da rappresentare la stessa quantita di informazione della sor-gente S con stringhe binarie.

Lunghezza media

Si definisce n, lunghezza media delle parole di codice, la quantita:

n =M∑

i=1

P(xi) · ni

dove:

. P(xi) rappresenta la probabilita di emissione del simbolo della sorgentenon binaria;

. ni rappresenta la lughezza della singola parola in cifre binarie.

Teorema di Shannon:H(x) ≤ n ≤ H(x) + 1

La condizione importante e:n ≥ H(x)

Page 27: Principi di comunicazioni elettriche

3.2. Codifica di sorgente 23

Significa che nel caso migliore, simboli equiprobabili, servono tante cifre bi-narie quanto e l’entropia della sorgente; in caso contrario ne servono di piu,quindi ci sara uno spreco di cifre che non sono informazione, ma ridondanza.

Con questi ragionamenti si puo anche ridefinire il concetto di entropia comeil numero minimo di bit necessari per rappresentare in cifre binarie i simbolidella sorgente.

L’obbiettivo di buoni codificatori e quello di cercare di portare il valoredi n vicino al valore dell’entropia della sorgente H(x).Una possibile classificazione dei codificatori prende in esame la caratteristicadi mantenere o accettare perdite di informazione rispetto alla sorgente:

. codificatori LOSSLESS, o senza perdite (es: compressione ZIP);

. codificatori LOSSY, con perdite (es: formati JPEG, MP3, ...).

Un algoritmo per la codifica di sorgente e l’algoritmo di HUFFMAN; ipassi necessari per effettuare una codifica Huffman sono i seguenti:

1. ordinare i simboli xi secondo probabilita non decrescenti di P(xi);

2. raggruppare i simboli xi e xj con probabilita piu bassa ed associare unnuovo simbolo xk che abbia una probabilita P(xk) = P(xi) + P(xj);

3. ripetere il passo 2 fino ad ottenere un solo simbolo finale con probabi-lita 1;

4. associare le cifre binarie ′′0′′ e ′′1′′ alle transizioni dei rami dell’alberoottenuto;

5. leggere le stringhe dalla radice fino alle foglie dell’albero.

Esempio

Consideriamo una sorgente con un alfabeto:

S −→ X = {xi}4i=1

in cui le probabilita di emissione per simbolo sono descritte in tabella:

Simbolo xi Probabilita P(xi)

x0 P(x0) = 1/2x1 P(x1) = 1/4x2 P(x2) = 1/8x3 P(x3) = 1/8

Realizziamo per questa sorgente una codifica di Huffman:

Page 28: Principi di comunicazioni elettriche

24 CAPITOLO 3. Teoria dell’informazione

x0

x1

x2

x3

P = 1/8

P = 1/8

P = 1/4

P = 1/4

P = 1/2

P = 1/2

P = 1

1

0

1

0

1

0

I simboli possono essere dunque cosı codificati:

Simbolo Codifica

x3 111x2 110x1 10x0 1

Calcoliamo n:

n =1

2· 1 +

1

4· 2 + 2 · 1

8· 3 =

7

4= 1.75

Il risultato e uguale all’entropia di questa sorgente; infatti con la codificaHuffman si ha n = H(x) nel caso in cui le probabilita siano distribuite come:

P(x) =1

αi

i=2,4,8,16,...

dove α ∈ N.In questi casi una cifra binaria corrisponde ad un bit di informazione; se peron 6= H(x) si introduce un parametro η che misura l’efficienza di codifica,definito come:

η =H(x)

n

Page 29: Principi di comunicazioni elettriche

3.3. Codifica di canale 25

3.3 Codifica di canale

Riassumendo i concetti visti finora, sappiamo che le parole composte dauna sorgente con un alfabeto qualsiasi possono essere codificate in stringhebinarie con algoritmi particolari; l’obbiettivo di questi codificatori e evitaredi creare codici con cifre binarie inutili che non trasportano informazione.In uno schema a blocchi:

S

Sorgente

X = {xi}Mi=1

C.S

Codificatore di sorgente

Y = {y0 , y1}

Il problema principale e che dopo il codificatore di sorgente l’informazionenon e robusta: se durante la trasmissione si perde anche un solo bit, quelbit e sicuramente di informazione quindi si e persa parte del messaggio.Al fine di proteggere l’informazione si preferisce aggiungere bit di ridondanzaprima di effettuare la trasmissione sul canale; ridondanza che pero e control-lata a differenza di quella introdotta dalla sorgente; questo processo avvienegrazie ai codificatori di canale:

S

Sorgente

C.S

Cod. Sorgente

C.C

Cod. Canale Canale AWGN

Una codifica di canale riceve, dopo il codificatore di sorgente, una stringa dim cifre binarie e fornisce in uscita stringhe con n cifre, con:

n > m

Viene definito rate di codifica il rapporto:

Rc =m

n

un parametro che rappresenta l’efficienza dei codificatori.

L’obbiettivo dei codificatori di canale e duplice: riuscire a rilevare (fasedi detection) l’errore e, se possibile, correggerli.

Un esempio di codificatore di canale e il codice a ripetizione.Un codice a ripetizione (n,m) riceve in ingresso m cifre binarie e le ripeten volte.

Page 30: Principi di comunicazioni elettriche

26 CAPITOLO 3. Teoria dell’informazione

Esempio

Codice a ripetizione (3,1):

Input Output

0 0001 111

In questo caso il rate di codifica risulta essere:

Rc =1

3

Si puo notare che il codice permette di rilevare errori e, secondo oppurtu-ne scelte, la correzione, ma questo pregio viene pagato con un’occupazionemaggiore del canale.La rilevazione avviene praticamente sempre perche, ricevendo una sequenzache non presenta n cifre uguali ci si accorge di un errore di trasmissione; lacorrezione puo solo avvenire se vengono decisi a priori criteri particolari.Nel nostro esempio del codice (3,1) si puo decidere di correggere a maggio-ranza:

. se la stringa ricevuta presenta due 0 ed un 1 si decodifica con 0;

. se la stringa ricevuta presenta due 1 ed uno 0 si decodifica con 1.

Ma tale criterio funziona solo per errori singoli: se infatti durante la tra-smissione vengono fatti due errori, cio che accade e un errore di decodifica(0 anziche 1 e viceversa).Aumentando la complessita del codice, ad esempio utilizzando un codice(5,1), si riuscirebbero a rilevare due errori e a correggere quando le stringhepresentano meno di 3 errori di tramssione; ovviamente questo comporta unadiminuzione del rate di codifica che diventerebbe pari ad 1

5 .

Page 31: Principi di comunicazioni elettriche

3.4. Canale discreto 27

3.4 Canale discreto

Data una sorgente S con un alfabeto di simboli:

S −→ X = {xi}Mi=1

se in ricezione si ha:R −→ Y = {yj}N

j=1

un modello che descrive cio che accade prende il nome di canale discreto.In generale non e detto che avendo M simboli alla sorgente si debbano avereN = M simboli in ricezione.Ad esempio, la sorgente trasmette stato alto (1) e stato basso (0) in cuiM = 2; sul canale e presente sicuramente il rumore che potrebbe portaread avere, oltre ai corrispettivi stati alto e basso, anche un terzo stato ditransizione: in questo caso N = 3.Per questo esempio costruiamo il modello del canale discreto:

bx0

bx1

b y2

b y1

b y0

Se ogni simbolo ha una certa probabilita di essere emesso e ricevuto:

Simbolo Probabilita

x0 P(x0)x1 P(x1)y0 P(y0)y1 P(y1)y2 P(y2)

si puo identificare su ogni ramo del canale una probabilita di ricevere unsimbolo yj dato un simbolo xi; la notazione e: P(yj |xi) .

La probabilita a posteriori, invece, definita come P(xi|yj) esprime la proba-bilita che avendo ricevuto un simbolo yj sia stato trasmesso xi.

Page 32: Principi di comunicazioni elettriche

28 CAPITOLO 3. Teoria dell’informazione

Un caso particolare di canale discreto e il canale binario, in cui M = N = 2:

bx0

bx1 b y1

b y0

dove con i tratti rossi tratteggiati si sono rappresentate le transizioni deicanali, mentre con il tratto nero continuo i casi di corretta trasmissione.Nel caso in cui le probabilita di errore siano uguali:

P(y1|x0) = P(y0|x1) = Pe

si parla di canale binario simmetrico (BSC).

Definiamo sul BSC la quantita media di informazione trasmessa e ricevuta:

. H(x) =∑M

i=1 P(xi) · log2 1P(xi)

=⇒ entropia della sorgente in tra-smissione;

. H(y) =∑N

j=1 P(yj) · log2 1P(yj)

=⇒ entropia della sorgente in rice-

zione.

Sempre per il BSC, con il teorema della probabilita totale, calcoliamo:

. P(y0) = P(x0) · P(y0|x0) + P(x1) · P(y0|x1);

. P(y1) = P(x0) · P(y1|x0) + P(x1) · P(y1|x1);

Si introducono ora altre due quantita:

1. H(y|x) =∑M

i=1

∑Nj=1 P(xi , yj) · log2 1

P(yj |xi);

2. H(x|y) =∑M

i=1

∑Nj=1 P(xi , yj) · log2 1

P(xi|yj).

La prima definizione misura la quantita media di informazione associata alletransizioni del canale, quindi la sua incertezza; a denominatore del logaritmoe presente la probabilita di errore dei rami: se questa quantita e alta saragrande anche l’incertezza del canale.

La seconda definizione prende il nome di equivocazione del canale: essarappresenta la quantita di informazione che si perde nel canale; se si cono-scesse sarebbe possibile decodificare perfettamente ogni simbolo.

Corollario

0 ≤ H(y|x) ≤ H(x)

Page 33: Principi di comunicazioni elettriche

3.4. Canale discreto 29

Vediamo il significato spezzando in due casi questa relazione ed analizzan-done gli estremi:

. H(y|x) = 0 siamo nel caso migliore, perche se l’equivocazione e nullaallora tutta l’informazione trasmessa viene ricevuta senza errori: ilcanale e ideale;

. H(y|x) = H(x) siamo nel caso peggiore, dove l’incertezza e massimaperche l’equivocazione del canale e pari all’informazione media emessadalla sorgente: il canale diventa inutilizzabile.

Dal Teorema di Shannon si evince che:

I(x, y) = H(x) −H(x|y) [ bit/sym]

I(x, y) rappresenta la quantita di informazione scambiata; l’uguaglian-za dice che essa e pari all’entropia della sorgente meno l’equivocazione delcanale.Questa quantita non e l’informazione ricevuta, la quale dipende solo dalleprobabilita P(yi).Si puo dimostrare che:

I(x, y) = H(x) −H(x|y) = H(y) −H(y|x)

Questo passaggio e piu difficile da spiegare concettualmente, ma e utile alfine dei calcoli: infatti, a differenza dell’equivocazione del canale, che e unaquantita per definizione ignota, H(y|x) e piu facile da determinare.

Un buon progetto di sistema di trasmissione-ricezione prevede di massi-mizzare la quantita di informazione scambiata; si definisce capacita delcanale:

C = max {I(x, y)} [ bit/sym]

La capacita del canale e un parametro che indica la massima quantita diinformazione che il canale puo trasportare; un’ulteriore bit aggiunto oltre lacapacita C diventa informazione persa e non recuperabile in nessun modo.

Il parametro su cui si agisce per massimizzare la capacita non e, come sipotrebbe pensare, l’equivocazione del canale in quanto una volta definite letransizione non si puo intervenire; in ogni caso, anche se si riuscissero adevitare transizioni, rimarrebbe comunque il rumore termico come fonte dierrore.Si agisce dunque sulle probabilita P(xi) che possono essere scelte in modoopportuno dal progettista.

Page 34: Principi di comunicazioni elettriche

30 CAPITOLO 3. Teoria dell’informazione

I simboli della sorgente vengono emessi con una frequenza regolare; si defi-nisce:

Rs =H(x)

Ts

dove:

. Rs e il rate di emissione della sorgente, misurato in bit/s;

. Ts e il tempo di simbolo, ovvero ogni quanto tempo la sorgente emetteun nuovo simbolo.

Rs viene anche chiamato Bit Rate, sottointendendo per bit rate il rate diemissione di una quantita unitaria di informazione e non il rate di emissionedi cifre binarie.Quest’ultimo viene indicato con rb e si puo facimente capire che:

rb ≥ Rs

Ipotizziamo infatti che, dopo il codificatore di sorgente, sia presente un codi-ficatore di canale con codice a ripetizione: sicuramente le cifre binarie emessedal codificatore di sorgente verranno ripetute quindi rb sara piu grande diRs.

Si definisce:

Cs =C

Ts

come capacita per tempo di simbolo, misurata anch’essa in bit/s.

Teorema della codifica di canale

Se Rs ≤ Cs allora esiste un modo per trasmettere l’informazione sul ca-nale senza errori.

Questo teorema di esistenza viene di fatto realizzato attraverso codifichedi canale molto sofisticate, come i turbocodici. Questi codici introduconouna complessita notevole, quindi, per alcune applicazioni non sono sempreutilizzabili.

Page 35: Principi di comunicazioni elettriche

Capitolo 4

Modulazioni

In questo capitolo verranno affrontate le modulazioni analogiche e numeri-che dei segnali.

4.1 Modulazioni analogiche

La modulazione dei segnali significa spostare la frequenza a cui viene emessoil segnale dalla sorgente.

x(t)

Modulatore

MODy(t)

4.1.1 Modulazioni di ampiezza

La modulazione di ampiezza piu semplice avviene moltiplicando il segnalex(t) per un coseno:

x(t) −→ ⊗ −→ y(t)

cos(2πf0t)

Il risultato e il seguente nel dominio delle frequenze:

31

Page 36: Principi di comunicazioni elettriche

32 CAPITOLO 4. Modulazioni

X(f)

f

1

Y (f)

f

12

−f0 f0

Lo spettro Y (f) viene spostato dalla banda base attorno alla frequenza dellaportante: si parla di segnali in banda traslata.

Le frequenze sono le risorse piu costose per le comunicazioni ; esse vengonodivise in bande, le piu importanti sono:

. 3-30 kHz: very low frequency (es: trasmssioni marine);

. 30-300 MHz: very high frequency (es: trasmissioni soccorso alpino);

. 0.3-3 GHz: UHF (es: televisione, telefonia, telefonia cellurare, comu-nicazioni wireless);

. 3-30 GHz: comunicazioni satellitari, ponti radio.

Per trasmissioni via etere e possibile utilizzare le frequenze a piacimento, manello spazio libero occorrono precisa disposizioni per non creare confusionenelle comunicazioni.

In fase di ricezione il segnale deve essere demodulato; questa fase puo avve-nire in due modi:

. demodulazione coerente;

. demodulazione non coerente.

La demodulazione coerente avviene, partendo dal segnale ricevuto r(t) checomprende il rumore, moltiplicando per un coseno:

y

cos(2πfct)

r(t) −→ ⊗ −→ w(t)

Nel caso di demodulazione coerente occorre conoscere le informazioni dellaportante: frequenza e fase.Anche la fase e un parametro importante perche, ad esempio, se si moltipli-casse per cos(2πfct+ϕ), con ϕ = 90◦ accadrebbe che il coseno diventerebbeun seno ed un’eventuale operazione di filtraggio successiva avrebbe risultatonullo perche seno e coseno sono ortogonali fra loro.Poiche la fase dipende dalla distanza a cui sono posti trasmettitore e ricevi-tore e possibile ricostruire la portante, in ricezione, solo con un sincroniz-

zatore; il sincronizzatore opera con un filtro molto stretto sulla frequenzafc della portante.

Page 37: Principi di comunicazioni elettriche

4.1. Modulazioni analogiche 33

Dato un segnale di banda base s(t):

S(f)

f

1

Con la modulazione si ottiene un segnale sm(t):

Sm(f)

f

1/2

−fc fc

In fase di demodulazione, moltiplicando sm(t) per cos(2πfct) si ha sd(t):

Sd(f)

f

1

−2fc 2fc

Il segnale sd(t) = s(t) quando, con un opportuno filtraggio di tipo passabas-so, vengono elimitate le frequenze immagine attorno a ±2fc.Per segnali che hanno componente continua, l’operazione di sincronizzazio-ne avviene senza problemi; ma nel caso del segnale s(t), che ne e privo,osserviamo cosa capita filtrando Sm(f) con una banda stretta attorno allafrequenza di carrier:

Sm(f)

f

1/2

−fc fc

Il risultato dell’operazione di filtro e nullo quindi non si riuscirebbe a de-modulare; come vedremo piu avanti, con opportuni segnali si risolve questoproblema.

Page 38: Principi di comunicazioni elettriche

34 CAPITOLO 4. Modulazioni

La demodulazione non coerente avviene grazie ai rilevatori di picco, chedemodulano il segnale seguendone i picchi; questo tipo di demodulazionenon e ottima, ma ha il vantaggio di essere poco costosa.Solo nel caso di un segnale veloce, scegliendo opportunamente la costantedi tempo RC e possibile demodulare abbastanza bene il segnale ricevuto; ilproblema sorge quando il segnale compie un’inversione di fase: il rilevatoredi picco, infatti, legge solo il modulo positivo quindi non fornirebbe un ri-sultato corretto. Questo fenomeno prende il nome di sovramodulazione.

L’amplitude modulation e realizzata per poter essere demodulata in tuttie due i modi, risolvendo i problemi di recupero della portante per segnali acomponente continua nulla e di sovramodulazione.

Modulazione AM

Sm(t) = Ac · [1 +Ka ·m(t)] · cos(2πfct)

dove:

. m(t) rappresenta il segnale modulato;

. Ka e l’indice di modulazione.

Si puo notare che l’ampiezza di Sm(t) e tutta l’espressione Ac · [1+Ka ·m(t)];questa quantita, quotato Ac, e un segnale che dipende dal segnale modulantem(t), ma si trova in un intorno di Ac a meno di un fattore Ka:

Ac

−Ka

Ka

Notiamo, dunque, che il problema della sovramodulazione si risolve sempli-cemente scegliendo opportunamente il coefficiente Ka: ad esempio alzandoil segnale affinche non abbia inversione di fase.Il comportamento in frequenza e il seguente:

Sm(f) = F {Sm(t)}

Sm(f) =Ac

2·δ(f−fc)+

Ac

2·δ(f+fc)+

Ac ·Ka

2·M(f−fc)+

Ac ·Ka

2·M(f+fc)

Page 39: Principi di comunicazioni elettriche

4.1. Modulazioni analogiche 35

Parte della potenza del segnale viene quindi usata per trasportare due por-tanti proprio sulla frequenza di carrier; il sincronizzatore dunque, nel casodi segnali a componente continua nulla, filtrando recupera le informazioniutili perche il risultato dell’operazione non e piu nullo:

Sm(f)

f

1/2

−fc fc

Questo tipo di modulazione prende il nome di modulazione a doppia ban-

da laterale (DSB, double side band) a portante non soppressa (NSC,non suppress carrier).

Questa modulazione e addirittura eccessiva perche utilizza il doppio dellabanda strettamente necessaria per ricostruire il segnale: se infatti la mo-dulante e reale, lo spettro e pari ed e sufficiente conoscerne la meta perdemodulare senza errori.

S(f)

f

1

Sm(f)

f−fc fc

1/21/2

Immaginando di tagliare con un filtro passa alto la parte di spettro superiorea fc ed inferiore a −fc:

Page 40: Principi di comunicazioni elettriche

36 CAPITOLO 4. Modulazioni

Rm(f)

f−fc fc

1/21/2

Questo segnale permette ancora di ricostuire perfettamente il segnale di par-tenza; moltiplicando rm(t) per cos(2πfct) si ottiene:

Rd(f)

f

1/4

−2fc 2fc

1/41/4

Ovviamente non si tengono in considerazione le frequenze immagine a ±2fc

perche, per ricostruire il segnale di banda base si filtra con un passabas-so; l’ampiezza durante il processo viene ridotta di un fattore 4, ma cio eininfluente ai fini della demodulazione. Questa modulazione, che prevedel’utilizzo di una sola meta dello spettro di banda base, prende il nome dimodulazione single side band (SSB).

4.1.2 Segnale analitico e inviluppo complesso

In questa sezione vengono definiti il segnale analitico, la sua espressionecome composizione di segnale in banda base e trasformata di Hilbert e ilsignificato dell’inviluppo complesso.

Segnale analitico

Dato un segnale in ingresso si definisce segnale analitico:

x(t)2u(f)

x(t)

Il segnale analitico di x(t) si indica con x(t). Vediamo graficamente questaoperazione evidenziando con tre grafici X(f), |H(f)| e F {x(t)}:

Page 41: Principi di comunicazioni elettriche

4.1. Modulazioni analogiche 37

X(f)

f

1

|H(f)|

f

2

X(f) ·H(f)

⇓F {x(t)}

f

2

Lo spettro di H(f) non e pari, quindi la risposta all’impulso non e reale:

h(t) = F−1 {H(f)} = F−1 {2u(f)} = δ(f) + j1

πt

Se determiniamo analiticamente il segnale analitco:

x = x(t) ∗ h(t) = x(t) ∗(

δ(f) + j1

πt

)

= x(t) +j

π

∫ ∞

−∞x(τ)h(t − τ) dτ =

= x(t) +j

π

∫ ∞

−∞

x(τ)

t− τdτ

L’espressione:

x =1

π

∫ ∞

−∞

x(τ)

t− τdτ

prende il nome di trasformata di Hilbert per il segnale x(t).Dunque il segnale analitico x(t) puo essere visto come composizione di:

x(t) = x(t) + jx(t)

In via grafica possiamo dare un significato alla trasformata di Hilbert; sap-piamo infatti come risulta essere la forma di x(t) e x(t):

X(f)

f

1

F {x(t)}

f

2

Page 42: Principi di comunicazioni elettriche

38 CAPITOLO 4. Modulazioni

Per differenza dunque x(t), per poter tagliare la parte negativa, deve essere:

F {x(t)}

f

2

La traformata di Hilbert, quindi, realizza degli sfasamenti:

. la parte positiva del segnale viene moltiplicata per −j in modo tale dapassare inalterata;

. la parte negativa viene moltiplicata per j cosı da essere cambiata disegno.

Proprieta del segnale analitico

Presi due segnali:

. s(t) segnale di banda base;

. z(t) segnale di banda passante.

Si dimostra che se:x(t) = s(t) · z(t)

⇓x(t) = s(t) · z(t)

Questa proprieta e molto importante, perche nell’ambito delle telecomuni-cazioni capita molto spesso di trovarci di fronte a casi di questo tipo: unesempio e la modulazione.Infatti il segnale modulante e per definizione di banda base, come s(t), men-tre la portante deve essere un segnale di banda passante; se consideriamo lamodulazione di ampiezza studiata:

x(t) = m(t) · cos(2πfct)

Possiamo definire il segnale analitico di x(t) una volta calcolato il segnaleanalitico di z(t) = cos(2πfct):

Z(f) =1

2δ(f − fc) +

1

2δ(f + fc)

⇓F {z(t)} = Z(f) ·H(f) = Z(f) · [2u(f)] = δ(f − fc)

Page 43: Principi di comunicazioni elettriche

4.1. Modulazioni analogiche 39

⇓z(t) = F−1 {δ(f − fc)} = ej2πfct

Quindi:

x(t) = m(t) · ej2πfct

Inviluppo complesso

Dato un segnale analitico x(t):

F {x(t)}

ff0

Esso puo essere espresso come:

x(t) = x · ej2πf0t

dove x rappresenta l’inviluppo complesso del segnale x(t).L’inviluppo complesso e un segnale modulante di una portante ben definita,con frequenza di carrier f0, la quale deve essere all’interno dello spettro delsegnale analitico; se non e centrale a x(t) allora il segnale e complesso perchela forma dello spettro non e pari.x(t) e un inviluppo perche se esprimiamo:

m(t) · ej2πf0t = m(t) · [cos(2πf0t) + jsin(2πf0t)]

anche m(t)cos(2πf0t) e un inviluppo.

Decomponiamo x in parte reale ed immaginaria:

x(t) = xc(t) + jxs(t)

Il segnale x(t) puo essere determinato come:

x(t) = Re {x(t)} = Re{

x · ej2πf0t}

=

= Re {[xc(t) + jxs(t)] · [cos(2πf0t) + jsin(2πf0t)]} =

= xc(t)[cos(2πf0t)] − xs(t)[sin(2πf0t)]

Dunque un inviluppo complesso di un segnale in banda passante vuol direosservare il segnale spezzato nelle sue componenti in fase (coseno) e quadra-tura (seno); le componenti che trasportano l’informazione del segnale sono

Page 44: Principi di comunicazioni elettriche

40 CAPITOLO 4. Modulazioni

pero solo xc(t) ed xs(t).In banda base la componente in quadratura non esiste perche il seno si an-nulla, quindi se si lavora con una certa frequenza di carrier fc e sottointesoche il segnale puo essere visto come somma di entrambe le componenti.Visualizziamo in modo grafico:

xc(t)⊗cos(2πf0t)

xs(t)⊗sin(2πf0t)

⊕x(t)

4.2 Modulazioni numeriche

4.2.1 Introduzione generale

Nei sistemi numerici il segnale e proporzionale all’informazione trasmessa.Ricordando brevemente lo schema a blocchi:

S

Sorgente

C.S

Cod. Sorgente

C.C

Cod. Canale

MOD

Modulatorenumerico

Il modulatore numerico non riceve in ingresso un segnale da trasmetterecome nel caso analogico, ma parole di codice, ovvero sequenze di stringhebinarie che sappiamo essere bit (come misura di informazione) se n = H(x).

{xi}Mi=1

Modulatorenumerico

MOD{si}M

i=1

Dove:

. {xi}Mi=1 sono bit in ingresso;

Page 45: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 41

. {si}Mi=1 sono segnali in uscita.

In uscita dal modulatore ci devono necessariamente essere segnali fisici perpropagarsi nel vuoto o via cavo; essi dovranno poi essere demodulati in fasedi ricezione dal demodulatore:

{ri}Mi=1

Demodulatorenumerico

DEMOD{xi}M

i=1

Dove:

. {ri}Mi=1 sono i segnali ricevuti in ingresso;

. {xi}Mi=1 sono i simboli stimati in uscita.

Sul canale sappiamo che e presente il rumore termico quindi modellizziamoi segnali ricevuti come:

{si}Mi=1 ⊕

n(t)

{ri}Mi=1

Il demodulatore deve dunque, in base ad alcuni parametri, stimare quale siail simbolo che con piu probabilita era stato emesso dalla sorgente.

Il parametro principale per valutare un sistema e la probabilita di erroreP(e): questa grandezza rappresenta la probabilita che emesso un simbolo xi

dalla sorgente si abbia in ricezione xj.Ipotizziamo di associare a due simboli due sequenze numeriche:

Trasmissione Ricezione

Simbolo xi xj

Codifica 000 001

In ricezione viene stimato il simbolo xj nonostante fosse stato trasmesso xi;e possibile definire dunque una probabilita di errore sul simbolo:

P(e) = P(xj |xi)

Ma se osserviamo ogni cifra binaria singolarmente si nota che in realta nontutte sono errate ma solo una; si introduce quindi anche una probabilita dierrore sul bit Pb(e).

Page 46: Principi di comunicazioni elettriche

42 CAPITOLO 4. Modulazioni

Esempio

Data una sorgente di simboli:

X −→ {0, 1}

associati dal modulatore numerico a due segnali:

S −→ {s1(t), s2(t)}

Determiniamo delle possibili scelte per i segnali:

1◦ tipologia

s1(t)

t

A

T

s2(t)

t-A

T

2◦ tipologia

s1(t)

t

A

T

s2(t)

t-A

T

3◦ tipologia

s1(t)

t

A

T1

s2(t)

t

A

T2

Il criterio di scelta e la probabilita di errore quindi bisogna chiedersi qualeconfigurazione e piu robusta in presenza di rumore.

Page 47: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 43

Occorre capire come opera il demodulatore, ossia come stima i parametrinecessari che passera ad un blocco successivo chiamato decisore; e quest’ul-timo componente che si occupa di decidere, appunto, quali sono i simboliche piu probabilmente sono stati emessi.Per le tre tipologie di segnali viste i parametri che il modulatore deve stimaresono:

. 1◦ tipologia: ampiezza del segnale;

. 2◦ tipologia: fase del segnale;

. 3◦ tipologia: durata del segnale.

Consideriamo solo segnali a durata finita, in cui i simboli vengono emessiogni Ts, noto come tempo di simbolo; si definisce:

Rs =1

Ts

symbol rate.Questi segnali fisici, associati a simboli xi, trasportano una certa quantitadi informazione; e questo il parametro importante e non tanto la forma delsegnale di per se, quindi si definiscono anche:

Tb =Ts

n

dove:

. Tb e il tempo di bit;

. n rappresenta il numero di bit associati al segnale.

Anche in questo caso l’inverso del tempo di bit prende il nome di bit rate:

Rb =1

Tb

Si deve prestare attenzione perche Ts e Rs sono parametri fisici, mentre Tb

ed Rb si introducono per comodita.

Page 48: Principi di comunicazioni elettriche

44 CAPITOLO 4. Modulazioni

Vediamo ora come decodificare un insieme di segnali {si(t)}Mi=1.

In ricezione si ha r(t) = sk(t) + n(t):

⊗ ⊕r(t)

s1(t)

∫ Ts

0

−12ε1

λ1

⊗ ⊕s2(t)

∫ Ts

0

−12ε2

λ2

⊗ ⊕sM(t)

∫ Ts

0

−12εM

λM

I parametri misurati dal demodulatore che vengono passati al decisore sonodunque i vari {λi(t)}M

i=1; il segnale che il decidore stima e quello per cui ilvalore di λi risulta maggiore.

Esempio

Dati quattro segnali:

s1(t)

t

A

Ts

s2(t)

t

2A

Ts

s3(t)

tA

Ts

s4(t)

t

2A

Ts

Page 49: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 45

Ipotizzando di avere trasmesso il segnale s1(t) calcoliamo i parametri λi; intabella si riportano i passaggi da effettuare:

TX Moltiplicazione Integrazione Sottr. energia λi

s1(t) s1(t) · s1(t) = A2 A2 · Ts −12A

2 · Ts12A

2 · Ts

s1(t) s1(t) · s2(t) = 2A2 2A2 · Ts −124A2 · Ts 0

s1(t) s1(t) · s3(t) = −A2 −A2 · Ts −12A

2 · Ts −32A

2 · Ts

s1(t) s1(t) · s4(t) = −2A2 −2A2 · Ts −124A2 · Ts −4A2 · Ts

In questo caso dunque il parametro scelto λi sarebbe il primo; la stima equindi esatta perche era stato trasmesso proprio s1(t).Si puo osservare che, nel caso l’alfabeto sia molto grande il decisore dovrebbeogni tempo di simbolo effettuare un sacco di operazioni; esiste un metodomigliore per stimare i parametri poiche, nel nostro esempio di prima, si notache in realta i quattro segnali sono formati a partire da un singolo segnaledi base a cui si cambia di volta in volta l’ampiezza.Esprimiamo dunque M segnali dell’alfabeto da trasmettere come:

sk(t) =M∑

n=1

sk,n(t) · ψn(t) (4.1)

Le funzioni ψn(t) sono le funzioni, o componenti base, con cui si costruisconotutti i segnali; esse devono formare una base ortonormale e in particolare:

. il prodotto scalare tra due componenti deve essere nullo, ovvero:∫ +∞

−∞ψi(t) · ψj(t) dt = δij

1

. i coefficienti sk,n(t) possono essere individuati come:

sk,n =

∫ +∞

−∞s(t) · ψn(t) dt

Ipotizziamo:sk(t) = α · ψ1(t) + β · ψ2(t)

Come si e visto:

α =

∫ +∞

−∞s(t) · ψ1(t) dt = sk,1

β =

∫ +∞

−∞s(t) · ψ2(t) dt = sk,2

Proviamo a visualizzare graficamente i concetti fin qui introdotti; le funzioniψ sono gli assi del piano cartesiano mentre α e β le proiezioni del segnales(t) sui due assi:

1La δij vale 1 se i = j oppure 0 se i 6= j

Page 50: Principi di comunicazioni elettriche

46 CAPITOLO 4. Modulazioni

ψ2(t)

ψ1(t)

β

α

sk(t)

Questo comportamento si verifica in assenza di rumore; se invece e presente:

ψ2(t)

ψ1(t)

β

α

rk(t)β + n(t)

[α+ n(t)]

Calcolando le proiezioni di rk(t) sulle componenti base si ottengono:

α+ n(t) =

∫ +∞

−∞r(t) · ψ1(t) dt = rk,1

β + n(t) =

∫ +∞

−∞r(t) · ψ2(t) dt = rk,2

Gli rk,n sono i parametri calcolati dal demodulatore; grazie alla rappresen-tazione mediante segnali di base la demodulazione e ideale.

Lo schema del demodulatore ideale quindi prevede:

⊗r(t)

ψ1(t)

∫ Ts

0

r1

⊗ψ2(t)

∫ Ts

0

r2

⊗ψM (t)

∫ Ts

0

rM

Io ogni istante di tempo Ts il segnale viene scomposto dal demodulatore chene calcola le proiezioni sugli assi ψi.

Page 51: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 47

Calcoliamo sul ramo l-esimo:

rl =

∫ Ts

0r(t) · ψl(t) dt

Scomponiamo il segnale r(t) come somma di segnale utile e rumore:

rl =

∫ Ts

0[sk(t) + n(t)] · ψl(t) dt

Trattiamoli ora separatemente:

rl =

∫ Ts

0sk(t) · ψl(t) dt +

∫ Ts

0n(t) · ψl(t) dt (4.2)

Per quanto riguarda la componente utile del segnale, sostituiamo a sk(t) lasua espressione equivalente (4.1):

∫ Ts

0

M∑

n=1

sk,n(t) · ψn(t) · ψl(t) dt

Scambiamo la sommatoria con l’integrale si ha:

M∑

n=1

sk,n(t)

∫ Ts

0ψn(t) · ψl(t) dt

Il risultato dell’integrale e δnl quindi solo quando il segnale trasmesso n e nelramo giusto l = n l’operazione non e nulla; in tutti gli altri casi il risultatoe zero per cui la demodulazione non e affetta da errori di decodifica.Si noti che in assenza di rumore, su ogni ramo si trovano esattamente lecomponenti l-esime; osserviamo ora la seconda parte dell’espressione (4.2)contenente la sola componente di rumore:

∫ Ts

0n(t) · ψl(t) dt = nl

Con nl variabile casuale gaussiana; il processo e il seguente in via grafica:

n(t)⊗ψl(t)

∫ Ts

0

nl

Page 52: Principi di comunicazioni elettriche

48 CAPITOLO 4. Modulazioni

Come n(t) in ingresso anche nl ha la medesima proprieta di media nulla inquanto:

E(nl) = E

(

∫ Ts

0 n(t) · ψl(t) dt)

=∫ Ts

0 E[n(t)] · ψl(t) dt =

=

∫ Ts

00 · ψl(t) dt = 0

Analizziamo ora:

E(nl · nk) = E

(∫ Ts

0n(t1) · ψl(t1) dt1 ·

∫ Ts

0n(t2) · ψk(t2) dt2

)

=

= E

(∫ Ts

0

∫ Ts

0n(t1) · n(t2) · ψl(t1) · ψk(t2) dt1 dt2

)

=

=

(∫ Ts

0

∫ Ts

0E[n(t1) · n(t2)] · ψl(t1) · ψk(t2) dt1 dt2

)

= (‡)

Poiche:

E[n(t1) · n(t2)] =N0

2· δ(t1 − t2)

rappresenta l’autocorrelazione del rumore si ha:

(‡) =N0

2·(∫ Ts

0

∫ Ts

0δ(t1 − t2) · ψl(t1) · ψk(t2) dt1 dt2

)

Risolvendo rispetto a dt2:

N0

2·∫ Ts

0ψl(t1) · ψk(t1) dt1 =

N0

2·∫ Ts

0ψl(t) · ψk(t) dt

Il risultato dell’integrale vale nuovamente:

. 1 se k = l;

. 0 se k 6= l.

Quindi il rumore generato in ingresso sul ramo l e scorrelato con tutte ledimensioni k 6= l: demodulando sul ramo l, si ha solo componente di rumorerelativa e non il contributo di altre. In sostanza il rumore su assi ortogonali eindipendente e crea disturbo, quindi probabilita di errore, in modo scorrelatosu dimensioni diverse.

Page 53: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 49

I segnali ricevuti, tenendo conto della componente di rumore, possono esserescritti come abbiamo visto:

rn = sk,n + nn

dove:

. rn e la variabile causale calcolata come parametro dal demodulatore;

. nn sono variabili casuali di rumore associate al ramo i-esimo.

Con notazione vettoriale enunciamo la medesima quantita:

−→r = −→s k,n + −→n n

Esempio

Si considerino i due segnali:

s1(t)

t

A√Ts

Ts

s2(t)

tB√Ts

Ts

Notiamo che possono essere espressi come combinazione lineare di un unicosegnale di base:

ψ(t)

t

1√Ts

Ts

Il segnale ψ(t) deve soddisfare i soliti vincoli per poter essere un segnale di

base, quindi deve possedere energia unitaria; per questo la sua ampiezza none causale.

A questo punto i due segnali s1(t) ed s2(t) si possono scrivere nella seguenteforma:

s1(t) = A · ψ(t)

s2(t) = B · ψ(t)

Page 54: Principi di comunicazioni elettriche

50 CAPITOLO 4. Modulazioni

Lo spazio dimensionale e pari ad 1 perche e presente un solo segnale di base;

visualizzando graficamente:

ψ(t)B A

A e B rappresentano le proiezioni dei due segnali sulla dimensione ψ.

Immaginiamo di dovere trasmettere la sequenza s1, s1, s2, s1; la forma delsegnale s(t), nel dominio del tempo, sara:

s(t)

t

A√Ts

B√Ts

Ts

2Ts 3Ts

4Ts

Per questo caso semplice, lo schema del demodulatore ha un solo ramo:

r(t)⊗ψ(t)

∫ Ts

0

r

La variabile casuale calcolata r si puo ricavare come:

r =

∫ Ts

0r(t) · ψ(t) dt

Sapendo che:r(t) = s(t) + n(t)

r =

∫ Ts

0[s(t) + n(t)] · ψ(t) dt

Questa e la formula generale; ipotizziamo sia stato trasmesso il segnale s1(t)e sviluppiamo i calcoli per questo caso:

r =

∫ Ts

0[s1(t) + n(t)] · ψ(t) dt =

∫ Ts

0s1(t) · ψ(t) dt +

∫ Ts

0n(t) · ψ(t) dt

Page 55: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 51

ma:

.∫ Ts

0 s1(t) · ψ(t) dt rappresenta la proiezione di s1(t) su ψ quindi e pro-prio A;

.∫ Ts

0 n(t) · ψ(t) dt e la proiezione del rumore su ψ quindi e la variabilecasuale n.

In definitiva, trasmesso s1(t) si esprime la variabile casuale r come:

r = A+ n

Questa variabile ha come media A e, l’effetto del rumore su di essa, e quellodi spostare sull’asse ψ il segnale ricevuto con densita di probabilita gaussiana(denominata come f(r|A) o anche f(r|s1(t)):

ψ(t)A

f(r|A)

Se invece si trasmettesse sempre il segnale s2(t) si avrebbe:

ψ(t)B

f(r|B)

Osservando insieme le due componenti:

ψ(t)B A

Regole di decisione

Dopo avere calcolato i parametri necessari il demodulatore invia al decisoreil vettore −→r composto da:

r1...rN

=

sk,1...

sk,N

+

n1...nN

Page 56: Principi di comunicazioni elettriche

52 CAPITOLO 4. Modulazioni

Quanto vale la densita di probabilita che avendo trasmesso −→sk si siano rice-vuti −→r ?Considerando il ramo l-esimo, la densita di probabilita e:

f(rl|sk,l) =1√πN0

· e−(rl−sk,l)

2

N0

Invece in generale:

f(−→r |−→s k) =N∏

l=1

f(rl|sk,l) =N∏

l=1

1√πN0

· e−(rl−sk,l)

2

N0 = (πN0)−N

2 e− 1

N0·PN

l=1 (rl−sk,l)2

ma la∑N

l=1 (rl − sk,l)2 e come fare la norma su ogni ramo l, per cui:

f(−→r |−→s k) = (πN0)−N

2 e− 1

N0·|rl−sk,l|2

La funzione f(−→r |−→s k) prende il nome di funzione di verosimiglianza, likely-hood function.

La regola di decisione ottima e quella per cui si massimizza la densita diprobabilita a posteriori, ossia f(−→s k|−→r ); questa regola prende il nome diMaximum a posteriori.Essa viene definita, con il teorema di Bayes, come:

P(−→s k|−→r ) =f(−→r |−→s k) · P(−→s k)

f(−→r )

Massimizzare f(−→s k|−→r ) vuol dire trovare il massimo rispetto ai segnali tra-messi −→s k della probabilita di ricevere il segnale giusto, quindi si cerca solorispetto al numeratore perche solo quella parte dell’espressione dipende dai−→s k.Dato che f(−→r |−→s k) e esponenziale anche f(−→s k|−→r ) lo e quindi cercare:

maxsk{f(−→r |−→s k) · P(−→s k)}

e come cercare:maxsk

{ln[f(−→r |−→s k) · P(−→s k)]}perche il logaritmo e una funzione monotona crescente.In questo caso la funzione lnf(−→r |−→s k) prende il nome di ln-likelyhood func-tion.Indicando con λk l’espressione {ln[f(−→r |−→s k) · P(−→s k)]} procediamo con ilcalcolo al fine di determinare la regola di decisione:

λk = ln[

(πN0)−N

2 e− 1

N0·|rl−sk,l|2 · P(−→s k)

]

=

= ln(πN0)−N

2 − 1

N0· |rl − sk,l|2 + lnP(−→s k)

Page 57: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 53

Analizziamo separatamente i tre contributi:

. ln(πN0)−N

2 e un termine che tiene in considerazione la componente dirumore, ma non dipende dai segnali considerati quindi e trascurabile;

. − 1N0

· |rl − sk,l|2 rappresenta la distanza tra il segnale ricevuto ed ilsegnale trasmesso al quadrato;

. lnP(−→s k) e legato alla probabilita di emissione di un segnale.

Tenendo in considerazione solo gli ultimi due contributi possiamo definirecon Λk i parametri stimati dalla regola MAP:

Λk = − 1

N0· |rl − sk,l|2 + lnP(−→s k)

La regola MAP e ottima per trasmissioni su canali AWGN; nel caso in cuii simboli emessi siano equiprobabili allora sparisce il termine legato allaprobabilita di emissione ed i parametri su cui il decisore effettua la stimasono semplicemente le distanze tra segnali emessi e ricevuti.Si parla, in questa ipotesi, di regola ML (Maximum Likelyhood) perche vienepresa in esame, per il calcolo dei Λk, solo la funzione di verosimiglianza:

Λk = |rl − sk,l|2

Questa regola viene anche detta regola a distanza minima, perche stimare ilsegnale che piu probabilmente e stato emesso vuol dire cercare, tra l’alfabetoa disposizione, quello piu vicino al segnale ricevuto.

Nell’esempio precedente:

Regola MAP

Λ1 = − 1N0

· |r1 − sk,1|2 + lnP(−→s 1) = − 1N0

· |r −A|2 + lnP(−→s 1) (4.3)

Λ2 = − 1N0

· |r2 − sk,2|2 + lnP(−→s 2) = − 1N0

· |r −B|2 + lnP(−→s 2) (4.4)

Regola ML

Λ1 = |r1 − sk,1|2 = |r −A|2

Λ2 = |r2 − sk,2|2 = |r −B|2

Per la regola ML e possibile non tenere in considerazione − 1N0

il che rendemolto piu semplice l’implementazione di questa regola rispetto alla MAP incui e necessario conoscere la densita di rumore e le probabilita di emissionedei segnali trasmessi.

Page 58: Principi di comunicazioni elettriche

54 CAPITOLO 4. Modulazioni

Si noti che se i segnali di base sono equiprobabili la regola ML e la regolaMAP sono identiche e dunque la regola ML e anch’essa ottima per canaliAWGN.

Operativamente utilizzare la regola ML significa posizionare una soglia econfrontare il segnale ricevuto con essa; nell’esempio fin qui considerato:

. se i simboli sono equiprobabili la soglia sara posizionata in A+B2 ;

. in caso contrario la soglia verra posta vicino al segnale meno pro-babilmente tramsesso perche si devono privilegiare i casi possibili diemissione del simbolo piu probabile.

Visualizziamo graficamente:

ψ(t)B A

Soglia simboli equiprobabili

ψ(t)B A

Soglia simbolo B piu probabile

ψ(t)B A

Soglia simbolo A piu probabile

Si noti che le regole di decisione fin qui viste non dipendono dalla forma delsegnale: questo implica che e possibile sceglierle a piacimento rispettandosolo i vincoli di ortogonalita ed energia unitaria e la demodulazione sarasempre ottima.

Page 59: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 55

Come si fa a posizionare la soglia? La soglia e quel valore del segnale ricevutor per cui Λ1 = Λ2; quindi eguagliando le (4.3) e (4.4) si ha:

− 1

N0· |r −A|2 + lnP(s1) = − 1

N0· |r −B|2 + lnP(s2)

|r −B|2 − |r −A|2N0

= lnP(s2) − lnP(s1)

r2 − 2rB +B2 − r2 + 2rA−A2

N0= ln

(P(s2)

P(s1)

)

2r(A−B)

N0=A2 −B2

N0· ln(P(s2)

P(s1)

)

Per cui si ricava:

r =(A2 −B2) ·N0

2 ·N0+

N0

2 · (A−B)· ln(P(s2)

P(s1)

)

r =(A2 −B2)

2+

N0

2 · (A−B)· ln(P(s2)

P(s1)

)

Si noti che se i segnali sono equiprobabili:

P(s2) = P(s1) =⇒ N0

2 · (A−B)· ln (1) = 0

quindi rimane solo:

r =(A2 −B2)

2

Se invece il simbolo s2(t) ha probabilita minore di essere emesso rispetto as1(t) allora il logaritmo di un numero minore di 1 e negativo quindi la soglia

si sposta da (A2−B2)2 verso il simbolo s2(t), cioe quello meno probabile; stesso

discorso se P(s2) > P(s1).La probabilita di errore si puo visualizzare graficamente come la coda dellagaussiana:

Page 60: Principi di comunicazioni elettriche

56 CAPITOLO 4. Modulazioni

ψ(t)A

La soglia diventa il limite oltre il quale si commette un errore; definendo conTh la soglia, si calcola la probabilita di errore P(e) come:

P(e) =

∫ Th

−∞f(r|A) dr

dove viene integrata la parte in grigio.La probabilita di corretta ricezione invece:

P(c) = 1 − P(e) =

∫ ∞

Th

f(r|A) dr =

∫ ∞

Th

1√π ·N0

· e−(r−A)2

N0 dr

L’integrale non e risolvibile in forma chiusa, ma con la funzione degli erroricomplementare si ha:

P(c) = 1 − 1

2· erfc

(

A−B

2 ·√N0

)

Quindi la probabilita di errore risulta essere:

P(e) =1

2· erfc

(

A−B

2 ·√N0

)

Per avere una probabilita di errore bassa si puo agire su due fattori:

. far diminuire il fattore N0;

. far aumentare il fattore A−B.

Nel primo caso si tratta essenzialmente di ridurre il rumore, ma e un parame-tro su cui si puo agire poco; nel secondo caso invece e sufficiente distanziareA e B in maniera simmetrica, da non spostare la soglia.Purtroppo non e possibile spostare a piacimento A e B perche questi valoriinfluenzano l’energia dei segnali s1(t) ed s2(t):

s1(t)

t

A√Ts

Ts

s2(t)

tB√Ts

Ts

Page 61: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 57

Calcoliamo l’energia dei due segnali:

E1 = A2·Ts

Ts= A2

E2 = B2·Ts

Ts= B2

L’energia media e:

Em =E1 + E2

2=A2 +B2

2L’effetto che si ha distanziando molto A e B e quello di spendere moltaenergia e questo magari non e possibile per i requisiti di progetto.

Fissata dunque un’energia media la scelta migliore, che massimizza la di-stanza fra A e B e quella in cui B = −A:

ψ(t)−A A

In questo caso l’energia media e la probabilita di errore sono:

Em =A2 +A2

2= A2 (4.5)

P(e) =1

2· erfc

(

A− (−A)

2 ·√N0

)

=1

2· erfc

(

A√N0

)

(4.6)

Nel caso di due segnali l’informazione associata e un bit solo quindi A2 el’energia necessaria per trasmettere un bit di informazione:

Em = Eb = A2

Ricaviamo:A =

Eb

Sostituendo in (4.6) si ottiene:

P(e) =1

2· erfc

(

Eb

N0

)

Si definisce Eb

N0rapporto segnale rumore per le modulazioni numeriche.

Operativamente realizzare il modello:

r(t)⊗ψ(t)

∫ Ts

0

r

Page 62: Principi di comunicazioni elettriche

58 CAPITOLO 4. Modulazioni

e piuttosto complicato in quanto il prodotto di due segnali analogici e didifficile implementazione hardware ed inoltre senza sincronizzazione non sipuo sapere quando effettuare l’integrazione ogni Ts.Esiste un modo del tutto equivalente per effettuare la demodulazione; pen-siamo a:

r =

∫ Ts

0r(t) · ψ(t) dt

come a:

r =

∫ Ts

0r(t) · ψ(t− τ) dt

τ=0

Siccome ψ(t) ha supporto fra (0 − Ts) e equivalente scrivere:

r =

∫ +∞

−∞r(t) · ψ(t− τ) dt

τ=0

Scritto in questo modo e:

r = r(t) ∗ ψ(−t)|τ=0

Utilizzando un modello di questo tipo:

r(t)

h(t) = ψ(Ts − t)

Filtroy(t) Ts

r

In questo caso il modello e facilmente implementabile in hardware; si prefe-risce inserire un ritardo della durata di Ts cosı la risposta all’impulso diventacasuale e il filtro fisicamente realizzabile.Si determinano i parametri da passare la decisore in questo modo:

r = r(t) ∗ ψ(Ts − t)|t=Ts

Il filtro con risposta all’impulso h(t) prende il nome di filtro adattato; ilsistema con il filtro adattato e equivalente al modello di demodulazione vistoin precedenza quindi e ottimo.

Nel solito esempio con due segnali trasmessi:

s1(t)

t

A√Ts

Ts

s2(t)

t−A√Ts

Ts

Page 63: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 59

con proiezioni sull’asse ψ:

ψ(t)−A A

Analizziamo cosa succede in caso di demodulazione con filtro adattato.

r(t)

h(t) = ψ(Ts − t)

Filtroy(t) Ts

r

Trasmettendo il segnale s1(t) sappiamo che:

r1(t) = s1(t) + n(t) = A · ψ(t) + n(t)

Il segnale y(t) filtrato sara:

y(t) = z(t) + nf (t)

dove:

. z(t) e la componente di segnale utile;

. nf (t) e la componente di rumore filtrata.

Scriviamo:z(t) = A · ψ(t) ∗ ψ(Ts − t)

Quindi il segnale z nel tempo ha la forma dell’autocorrelazione di ψ. Lafunzione di autocorrelazione ha il massimo nell’origine, in Ts perche e sta-ta ritardata, dove viene campionata; per questo motivo il filtro adattato eottimo: campionare nel massimo vuol dire massimizzare il rapporto segnalerumore al campionatore.

Il rumore, la cui varianza e:

σ2nf =

N0

2· 2 ·Beq (4.7)

dove si ricorda che la banda equivalente di rumore e definita come:

Beq =1

2 · max {|H(f)|2} ·∫ +∞

−∞|H(f)|2 df =

=1

2 · max {|H(f)|2} ·∫ +∞

−∞Ψ(f) e−j2πfTs df =

1

2

perche:

Page 64: Principi di comunicazioni elettriche

60 CAPITOLO 4. Modulazioni

.∫ +∞−∞ Ψ(f) e−j2πfTs df risulta essere uguale ad 1 in quanto Ψ(f) e un

segnale di base;

. 1max{|H(f)|2} normalmente e uguale ad 1 perche il filtro non deve ne

attenuare ne dissipare (funzione di trasferimento con modulo pari ad1).

Con questo risultato sostituiamo in (4.7) ottenendo:

σ2nf =

N0

2· 2 · 1

2=N0

2[W]

In questo caso l’unita di misura e una potenza perche il rumore e stato fil-trato, quindi dimensionalmente moltiplicato per una banda [Hz].

4.2.2 Costellazioni e regioni di decisione

La costellazione e l’insieme dei segnali rappresentati in una certa base ψ.Come fare a stimare se un segnale ricevuto r e s1(t) piuttosto che s2(t)?Graficamente e possibile suddividere in regioni diverse lo spazio generatodai segnali; r dunque viene decodificato con s1(t), ad esempio, se appartienealla regione di s1(t) oppure con s2(t) se appartiene a quella regione.Nel caso con una sola dimensione e due segnali sappiamo come esprimerela probabilita di corretta ricezione e di errore; inoltre, implicitamente, e giastato formalizzato il concetto delle regioni di decisione perche, definita lasoglia, si e diviso il piano in due zone, che sono proprio le due regioni didecisione.Osserviamo graficamente:

ψ(t)s1 s2

Regione 1 Regione 2

Questo e il caso piu semplice, ma in generale la costellazione comprendesempre piu di due punti perche a due segnali e associato un solo bit di in-formazione, quantita irrisoria per comunicazioni normali.Osserviamo cosa succede per una costellazione a 4 punti, quindi a 4 segnaliin uno spazio a due dimensioni:

ψ2(t)

ψ1(t)

s1

s4

s2

s3

1◦ Tipologia

ψ2(t)

ψ1(t)

s1

s4s2s3

2◦ Tipologia

Page 65: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 61

Si noti che la probabilita di ricevere r dipende solo dalla geometria dellacostellazione e non da rotazioni o traslazioni perche, nel grafico di cui so-pra, osserviamo che le aree di ciascuna regione sono uguali (la 2◦ tipologiae ruotata di 45◦ gradi rispetto alla prima).Inoltre per segnali equiprobabili le regioni di decisione hanno la stessa for-ma geometrica perche la costellazione e simmetrica (come si evince dai duegrafici precedenti).

Considerando un punto preso come riferimento (origine) ed un generico pun-to si si definisce, in via geometrica, l’energia del segnale come la distanzaeuclidea tra i due.L’energia media della costellazione e

Em =

M∑

i=1

P(si) · |si|2

ossia una media pesata per la probabilita di emissione della distanza dall’o-rigine di tutti i punti della costellazione.Cio che differenzia una costellazione da un’altra e proprio la sua energiamedia; osserviamo nel disegno seguente le due costellazioni semplici:

ψ2(t)

ψ1(t)

s1s2

0

dψ2(t)

ψ1(t)

s1s2

0

d

La costellazione a sinistra avra un’energia media piu alta rispetto quella adestra perche e piu distante dall’origine.Dati M numero dei punti della costellazione e N numero delle dimensioni sidefinisce costellazione simplex la costellazione ad energia minima.Il baricentro della costellazione e la quantita:

b =

M∑

i=1

P(si) · si

Si puo pensare quindi alla costellazione simplex come alla costellazione cheha il suo baricentro nell’origine; di conseguenza una costellazione non sim-plex qualsiasi si puo vedere come una costellazione il cui baricentro e statotraslato rispetto all’origine.

Page 66: Principi di comunicazioni elettriche

62 CAPITOLO 4. Modulazioni

4.2.3 Modulazioni in banda base

Modulazione M-PAM

La modulazione M-PAM e una modulazione di banda base (pulse amplitudemodulation) in cui e presente una sola dimensione; la proiezione dei varisegnali sulla dimensione ψ e simmetrica rispetto all’origine e tutti i puntisono equispaziati fra loro:

ψ(t)bc

−d2

bc

d2

b

0bc

3d2

bc

−3d2

d

Il numero di segnali trasmessi M e generalmente un numero in potenza di 2in quanto i bit di informazione, determinabili come log2M , non possono esse-re numeri qualisiasi ma devono appartenere all’insieme dei numeri naturali.Questo principio punta a massimizzare l’efficienza del sistema: ipotizzandodi avere 6 segnali si potrebbero tramettere log26 = 2, 585 bit di informazioneche verrebbero ridotto a 2 con uno spreco di 0.585.

Se i segnali sono equiprobabili:

P(si) =1

M

La probabilita di corretta ricezione sarebbe espressa:

P(c) =1

M∑

i=1

P(c|si) (4.8)

dove:

P(c|si) =

Reg

f(r|si)

Sostanzialmente la probabilita di corretta ricezione di un segnale e l’integra-le della densita di probabilita [f(r|si)] sulla regione di decisione pesata perla sua probabilita di emessione.

Osserviamo che per un segnale che non sta ai bordi la probabilita di correttaricezione e l’area colorata in grigio:

ψ(t)bc

d2

bc

3d2

bc

−d2

bc

5d2

0 d

Page 67: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 63

Definita la probabilita di corretta ricezione come:

P(c) = 1 −P(e)

la probabilita di errore e:

1 −P(c) = P(e)

nel grafico sarebbe la probabilita che il segnale ricevuto sia interno alle regio-ni delle due code della gaussiana, le quali, siccome i punti sono equidistanti,hanno area uguale.Analiticamente la densita di probabilita di errore si definisce per questo caso:

∫ 0

−∞f(r|si)

∫ +∞

d

f(r|si)

Se invece il segnale e ai bordi la probabilita di errore si ha quando il segnalericevuto e all’interno dell’area di una sola coda della gaussiana; tenendoconto di questi ragionamenti usando la (4.8) :

P(c) =1

M·{

(M − 2) ·[

1 − (2) · 1

2erfc

(

d

2√N0

)]

+ (2) ·[

1 − 1

2erfc

(

d

2√N0

)]}

= 2

=1

M·{

M − 2 − (M − 2) · erfc(

d

2√N0

)

+ 2 − erfc

(

d

2√N0

)}

=

=1

M·{

M − (M − 1) · erfc(

d

2√N0

)}

= 1 − M − 1

M· erfc

(

d

2√N0

)

La probabilita di errore quindi sara:

P(e) = 1 − P(c) =M − 1

M· erfc

(

d

2√N0

)

I segnali, per la modulazione M-PAM, sono descritti come:

Si = ai · ψ(t)

dove:

ai = (2i− 1 −M) · d2

Se si considere l’energia media, essa puo venire descritta come:

Em =1

M∑

i=1

|ai|2

2Nell’ordine:(M-2) e l’insieme dei segnali esclusi i due ai bordi(2) e il numero delle code della gaussiana(2) e il numero di segnali ai bordi

Page 68: Principi di comunicazioni elettriche

64 CAPITOLO 4. Modulazioni

Sostituendo l’espressione equivalente per gli ai:

Em =1

M∑

i=1

(2i− 1 −M) · d2

2

=M2 − 1

3· d

2

4

Si ricava il parametro d2 :

d

2=

3

M2 − 1· Em

Determiniamo la probabilita di errore in funzione dell’energia media:

P(e) =M − 1

M· erfc

(

3

M2 − 1· Em

N0

)

(4.9)

Si noti che 3M2−1 e il parametro di perdita γ mostrato nel grafico sotto.

Osservazione

Per M = 2 si ritorna all’espressione gia vista:

P(e) =2 − 1

2· erfc

(

3

22 − 1· Em

N0

)

=1

2· erfc

(

Em

N0

)

Per M = 4 si ha:

P(e) =4 − 1

4· erfc

(

3

42 − 1· Em

N0

)

=3

4· erfc

(

3

15

Em

N0

)

Osserviamo graficamente sulla curva rossa la probabilita di errore nel casoM = 2, mentre con la curva blu si prende in considerazione il caso conM = 4 :

P(e)

Em

N0γ

Come si puo notare, per mantenere la stessa probabilita di errore (si seguasul grafico la linea tratteggiata), che vuol dire mantenere la stessa distanzad tra i punti passando da una costellazione con M = 2 ad una con M = 4,e necessario trasmettere con piu energia i segnali perche e maggiore il rap-porto Em

N0.

Page 69: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 65

Se al contrario si vuole mantenere la stessa energia di trasmissione accadeche i punti saranno piu vicini tra loro (si riduce la distanza d) e quindi au-mentera la probabilita di commettere un errore.

L’espressione (4.9) e una probabilita di errore sul simbolo; gia altre volteabbiamo descritto come la probabilita di sbagliare un simbolo non comportinecessariamente errori su tutti i bit di informazione.Indicando con n il numero di bit associati ad una costellazione (n = log2M)sidefinisce l’energia per bit:

Eb =Em

n

Osserviamo le differenza tra la modulazione 2-PAM e 4-PAM:

M = 2 n = 1 Eb = Em

M = 4 n = 2 Eb = Em

2

Nel primo caso tutta l’energia serve per trasportare un bit di informazionementre nel secondo ogni bit costa meta di Em.Ricavando l’espressione dell’energia media in funzione dell’energia per bit sipuo determinare probabilita di errore sul bit:

Pb(e) =M − 1

M· erfc

(

3

M2 − 1· log2M · Eb

N0

)

I confronti tra modulazioni dello stesso tipo vengono fatte analizzando que-sta probabilita di errore e non quella sul simbolo, dove si ha un’aumentodelle prestazioni soltanto aumentando M .

Codifica di Gray

Prendiamo ora in esame la modulazione 4-PAM ed ipotiziamo di associaread ogni segnale una stringa di bit come in tabella:

Segnale Codifica

s1 00s2 01s3 10s4 11

Page 70: Principi di comunicazioni elettriche

66 CAPITOLO 4. Modulazioni

Graficamente:

ψ(t)01

s2

10

s3

11

s4

00

s1

Si osservi che in base a come viene effettuato il labelling (la codifica trasimboli e bit) si avranno Pb(e) diverse; per questo esempio trasmettendo s1si ha probabilita di sbagliare un bit se si finisce nelle regioni di decisione dis2 ed s3 e probabilita di sbagliare due bit se la regione e s4.Sembra una scelta ragionevole perche nella regione di s4 la coda della gaus-siana sara piccola, e dunque anche la probabilita che tramettendo s1 si ricevar in tale regione e bassa.Se invece si prende in considerazione l’ipotesi di trasmettere s3 notiamo im-mediatamente che la regione di decisione di s2 presenta entrambi i due bitdiversi; la probabilita di errore su due bit sara grande in una regione dovela coda della gaussiana non e poi cosı bassa.

La codifica di gray e il labelling per cui segnali adiacenti vengono co-dificati con stringhe che si differenziano per un bit.In questo modo si risolve il problema dell’esempio precedente:

ψ(t)01

s2

11

s3

10

s4

00

s1

Segnale Codifica

s1 00s2 01s3 11s4 10

Analiticamente non e facile calcolare la probabilita di errore sul bit, ma epossibile trovarne un limite inferiore e superiore:

P(e)

log2M< Pb(e) < P(e)

dove:

. P(e)log2M

e la probabilita di sbagliare un solo bit;

. P(e) e la probabilita di sbagliare completamente il simbolo, ossiasbagliare tutti i bit.

Page 71: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 67

Se si utilizza una codifica di Gray si puo approssimare la probabilita di erroresul bit con il limite inferiore:

Pb(e) ∼=P(e)

log2M

in pratica vengono trascurate le code delle gaussiane che cadono oltre leregioni adiacenti.

Nello schema a blocchi:

S

Sorgente

C.S

Cod. Sorgente

C.C

Cod. Canale

MAP

Mapper

MOD

Modulatorenumerico

il compito del mapper e quello di decidere quale segnale associare alla strin-ga binaria in uscita dal codificatore di canale. Questa decisione viene presaogni tempo di simbolo Ts.

Union Bound

Nelle modulazioni M-PAM il tempo di trasmissione totale e proporzionalealla dimensione del file da trasmettere; un modo per aumentare la velocitae aumentare il numero di bit, ma il costo e l’energia necessaria per inviarei segnali; se invece si riduce il parametro Ts aumenta la frequenza e questavelocita necessaria si traduce con un’aumento di banda.

Un metodo alternativo e aumentare il numero delle dimensioni della co-stellazione; la modulazione M-PAM ha una sola dimensione, ma osserviamocosa succede a combinare due costellazioni 2-PAM:

ψ1(t)

tTs

ψ2(t)

t

Ts

Page 72: Principi di comunicazioni elettriche

68 CAPITOLO 4. Modulazioni

Dando vita alla costellazione:

ψ2(t)

ψ1(t)

s1

s4s2s3

La forma del segnale nel dominio del tempo, trasmettendo la sequenza s1 s2s4 s3 e:

tTs

2Ts

3Ts

4Ts

Per una costellazione del genere e facile determinare le regioni di decisione,ma in casi piu complicati diventerebbe difficile ripetere i ragionamenti fattiin precedenza per la modulazione M-PAM.Come sappiamo il caso in cui la probabilita di errore e piu alta e quelloper cui i segnali sono molto vicini sulla costellazione; l’union bound eun’approssimazione in cui si ipotizza di essere proprio in questo caso, ilpeggiore in assoluto, stimando la probabilita di errore come:

P(e) ≤ M − 1

2· erfc

(

dmin

2 ·√N0

)

dove dmin rappresenta il minimo tra tutte le distanze dei segnali presentisulla costellazione.L’approssimazione di questa formula consiste nell’ipotizzare di avere M − 1segnali a distanza minima, ma e una stima quasi sicuramente peggiorativanella maggioranza dei casi; considerando invece di avere Ndmin

segnali adistanza minima si puo concludere che:

P(e) ∼= Ndmin· 1

2· erfc

(

dmin

2 ·√N0

)

Page 73: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 69

Modulazione ON-OFF Keying

La modulazione ON-OFF Keying e una modulazione di banda base in cui isegnali utilizzati sono solo due:

. s1(t) = 0;

. s2(t) =√

2·Em

Ts· cos(2π f0 t) · pTs (t− Ts)

La parte√

2·Em

Tsserve per garantire ad s2(t) di avere energia unitaria, di

conseguenza s2(t) e un versore.Questa modulazione ha una sola dimensione ψ; le proiezioni dei segnali suψ sono:

ψb

0

s1b

1

s2

In sostanza e una modulazione 2-PAM ma non simplex perche non ha ilbaricentro nell’origine; quindi l’espressione della probabilita di errore non ealtro che:

P(e) =1

2· erfc

(

d

2 ·√N0

)

quando il ricevitore ha il filtro adattato.Se la frequenza f0 e molto alta il segnale e luminoso; questa modulazioneviene infatti usata nelle fibre ottiche.

4.2.4 Modulazioni in banda traslata

Il segnale analitico e stato definito come:

z(t) = v(t) · e j 2π f0 t

dove v(t) e l’inviluppo complesso del segnale modulato [v(t) = vc(t)+jvs(t)].

In banda traslata non si opera con il segnale, ma con il suo inviluppo com-plesso che e appunto la rappresentazione di v(t) centrato ad una frequenzaf0.

Per determinare il segnale analitico:

. vc e moltiplicato per il coseno (asse reale);

. vs e moltiplicato per il seno (asse immaginario).

Page 74: Principi di comunicazioni elettriche

70 CAPITOLO 4. Modulazioni

Quindi il seno ed il coseno sono ortogonali tra loro; dato

v(t) =

M∑

n=1

an · g(t− nTs)

e presi due segnali vc e vs come componenti da v(t) essi viaggiano nellastessa banda nello stesso momento.

Osserviamo in via grafica il modello di modulazione e demodulazione perquesto caso:

vc(t)⊗

cos(2πf0t)

vs(t)⊗

sin(2πf0t)

⊕ Canale ⊕

cos(2πf0t)

sin(2πf0t)

g(Ts − t)

g(Ts − t)

Il ramo superiore prende il nome di ramo in fase mentre quello inferioreramo in quadratura.Il filtro e un filtro passabasso con risposta all’impulso g(Ts − t): e il filtroadattato alla sagoma del segnale in trasmissione quindi, su entrambi i rami,oltre ad elminare le frequenze immagine inutili permette di campionare ilsegnale ogni Ts.

Concettualmente il modello visto in precedenza non e altro che lo sche-ma:

vc

vs ⊗j

⊕ Canale

Re{ · }

Im{ · }

rc

rs

Page 75: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 71

dove:

. rc e la componente in fase demodulata;

. rs e la componente in quadratura demodulata.

Questo modello prende il nome di schema equivalente in banda base.

Analizziamo come esempio una modulazione per cui:

vc(t) =∑

n

αn · ψ1(t− nTs) + βn · ψ2(t− nTs)

vs(t) =∑

n

γn · ψ1(t− nTs) + ςn · ψ2(t− nTs)

Il ramo in fase ha due dimensione come quello in quadratura: il risultato euna costellazione con quattro dimensioni e 16 punti.Una sua possibile realizzazione e:

s = [αn + βn] + j[γn + ςn]

Modulazione PSK

La modulazione PSK e una modulazione di banda traslata (phaze shiftkeying) dove si definiscono:

v(t) =

+∞∑

n=−∞an · g(t− nTs)

in cui:

. an sono segnali complessi di tipo e jφn

. φi ∈{

2πM

· (i− 1) + φ0

}

[φ0 = 2πM

]

Ad esempio, con M = 2:

. φ1:2π2 · (1 − 1) + φ0 con φ0 = π;

. φ2:2π2 · (2 − 1) + φ0 = φ0 + π = 2π.

Analizziamo analiticamente v(t):

v(t) = Re {v(t)} = Re{

v(t) · e j 2π f0 t}

= Re

{

+∞∑

n=−∞an · g(t− nTs) · e j 2π f0 t

}

=

= Re

{

+∞∑

n=−∞e jφn · g(t− nTs) · e j 2π f0 t

}

= Re

{

+∞∑

n=−∞g(t− nTs) · e j 2π f0 t+φn

}

=

Page 76: Principi di comunicazioni elettriche

72 CAPITOLO 4. Modulazioni

=+∞∑

n=−∞g(t− nTs) · cos(2π f0 t+ φn)

Con M fasi nell’intervallo di tempo Ts si trasmette un coseno che ha esat-tamente M fasi diverse; per esempio con M = 2 il coseno, come abbiamovisto, ha due fasi pari a π e 2π.

Il generico segnale si(t) puo essere visto come:

si(t) = g(t) · cos(2π f0 t+ φi)

Sviluppando il coseno secondo la regola [cos(α±β) = cosα cos β∓ sinα sinβ]:

si(t) = g(t) · cos(2π f0 t) cos(φi) − g(t) · sin(2π f0 t) sin(φi) (4.10)

Indicando:

. g(t) · cos(2π f0 t) con E ;

. g(t) · sin(2π f0 t) con E .

Si rielabora l’equazione (4.10) moltiplicando e dividendo per√E :

si(t) =√E · 1√

E·g(t) ·cos(2π f0 t) cos(φi)−

√E · 1√

E·g(t) · sin(2π f0 t) sin(φi)

In questo modo si riconosce che:

. 1√E · g(t) · cos(2π f0 t) e il versore ψ1(t), la componenete in fase;

. 1√E · g(t) · sin(2π f0 t) e il versore ψ1(t), la componenete in quadratura.

Invece√E · cos(φi) e

√E · sin(φi) rappresentano i coefficienti.

Graficamente:

ψ2(t)

ψ1(t)

√E

cos(φi)

sin(φi)

φi

b

Al variare delle fasi φi i segnali avranno comunque la stessa energia perchesono posizionati su una circonferenza di raggio

√E .

Vediamo alcuni esempi al variare di M .

Page 77: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 73

2-PSK

Con due soli punti la costellazione e:

ψ2(t)

ψ1(t)

b φ0

bφ0 + π

La distanza fra i due segnali e semplicemente:

d = 2√E

4-PSK

Per la modulazione 4-PSK i punti sulla costellazione si possono disporre:

ψ2(t)

ψ1(t)

b φ0bφ0 + π

2

bφ0 + π b φ0 + 3π2

In questo caso:

d = 2 ·√

E2

Si osserva che la probabilita di errore aumenta perche e diminuita la distanzatra i due segnali; rimane invariata invece l’energia utilizzata in trasmissione.

8-PSK

La costellazione diventa:

ψ2(t)

ψ1(t)

b φ0

b φ0 + π4

b φ0 + 7π4

b

φ0 + 6π4

bφ03π4

bφ0 + π2

bφ0 + πb

φ0 + 5π4

Page 78: Principi di comunicazioni elettriche

74 CAPITOLO 4. Modulazioni

Per questa modulazione e molto complicato effettuare il calcolo della proba-bilita di errore in quanto occorrerebbe risolvere l’integrale della distribuzionedi probabilita su un’area che e un spicchio.Esiste un’approssimazione per cui:

P(e) ≤ erfc

(

EN0

· sin( π

M

)

)

Cio che contraddistingue un segnale ricevuto da un altro, dato che han-no modulo uguale a

√E , e la fase; ad esempio, nell’ 8-PSK, se la fase del

segnale ricevuto φr e compresa fra [0 − φ0] allora potrebbe essere ricono-sciuto come s1;invece nel caso in cui [φ0 < φr < φ0 + π

4 ] il segnale stimatosarebbe s2.Il problema si riduce, di fatto, a come stimare la fase di un segnale ricevutoperche, una volta determinata, e possibile effettuare la demodulazione comeconfronto tra φr e le fasi-soglie φi.

Demodulazione del PSK

Dato un segnale nel dominio del tempo a frequenza f0, se si riuscisse adeffettuare il confronto con una sinusoide z(t) generata con la stessa f0, sipotrebbe calcolare con un fasometro lo sfasamento dei segnali ogni tempodi simbolo Ts.

t

st

Ts 2Ts

t

zt

Page 79: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 75

Questa operazione e complicata per due motivi: il primo e dovuto al fattodi non sapere a priori che fase avra il coseno dopo Ts quindi per calcolarelo sfasamento a 2Ts occorre uno strumento molto rapido oppure usare untempo di simbolo molto lungo.

Il secondo problema riguarda il sincronismo fra trasmettitore e ricevitore;il segnale inviato, viaggiando nel tempo, subisce uno sfasamento che rendepressoche impossibile determinare con quale fase fosse partito. Dunque, siha uno sfasamento ignoto tra la sinusoide generata e segnale ricevuto.

Sulla costellazione questo fatto comporta semplicemente una rotazione de-gli assi di riferimento; in via grafica si osservi con tratto rosso i nuovi assimentre con tratto nero gli assi di riferimento soliti:

Se quindi la costellazione e traslata si commette sempre lo stesso errore pertutti i segnali in fase di demodulazione.Si puo pensare di mappare i bit anziche ai segnali sulle transizioni dei segnalistessi.

Osserviamo per la costellazione di un 8-PSK:

ψ2(t)

ψ1(t)

b s1

b s2

b s8bs7

bs4

bs3

bs5b

s6

Page 80: Principi di comunicazioni elettriche

76 CAPITOLO 4. Modulazioni

Vediamo le differenze di mapping con due possibili codifiche:

Codifica PSK

Segnale Codifica

s1 000s2 001s3 010s4 011s5 100s6 101s7 110s8 111

Codifica D-PSK

Transizione Codifica

s2 − s1 000s3 − s2 001s4 − s3 010s5 − s4 011s6 − s5 100s7 − s6 101s8 − s7 110s1 − s8 111

Ipotizziamo di avere trasmesso il segnale s2 con informazione utile di faseϕ2 ed avere ricevuto r con informazione utile ϕr.La fase effettivamente trasmessa e:

φ2 = ϕ2 + φ1

Il ricevitore stima:

φr = φ2 + φt

dove φt e lo sfasamento ignoto.L’informazione utile di fase ricevuta diventa:

ϕr = φr − φr−1 = (φ2 + φt) − (φ1 + φt) = φ2 − φ1 = ϕ2

Questo sistema viene chiamato Differential-PSK perche ha un mapping as-sociato alle differenze di fase.

In termini di prestazioni il D-PSK e peggiore rispetto ad un PSK normaleperche sbagliando un simbolo viene sbagliato anche il successivo; in mediasi sbagliano il doppio dei bit, ma questo non cambia l’ordine di grandezzadella P(e).Il D-PSK puo essere visto come una codifica di canale tesa ad irrobustire latrasmissione; tale codifica effettua differenze tra i bit e usa una modulazionePSK.

Tecniche di sincronizzazione

Per costruire un demodulatore coerente, che recuperi fase e frequenza dellaportante, si utilizza lo schema:

Page 81: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 77

SYNCportante

r(t)⊗

cos(2πf0t)

δ(Ts − t)

SYNCsimbolo

Ts

π/2

⊗sin(2πf0t)

Ts

Il sincronismo di portante serve per recuperare le informazioni (fase e fre-quenza) della portante, mentre il sincronismo di simbolo e necessario al cam-pionatore per sapere quando cominciare e ogni quanto campionare il segnale.

Si ipotizzi di conoscere che il rumore disturbi molto la dimensione ψ2 epoco ψ1:

ψ2(t)

ψ1(t)

In rosso sono evidenziate le zone in cui, per il rumore, il segnale puo esserericevuto.Ad esempio:

ψ2(t)

ψ1(t)

s

r

Il segnale ricevuto r puo essere visto come somma di componenti:

r = r1 + jr2

Page 82: Principi di comunicazioni elettriche

78 CAPITOLO 4. Modulazioni

dove:

. r1 e la componente in fase;

. r2 e la componente in quadratura;

Conoscendo solo una delle due componenti e possibile riuscire a prenderedecisioni parziali sulla stringa dei bit associati ai segnali?In linea generale non si riesce: si osservi per notare questa proprieta la co-difica di Gray della modulazione 8-PSK:

Codifica PSK

Segnale Codifica

s1 000s2 010s3 011s4 111s5 110s6 100s7 101s8 001

ψ2(t)

ψ1(t)s1

s2

s8

s7

s4

s3

s5

s6

In questo caso non si riescono a prendere decisioni parziali con la codifica diGray; il motivo e dovuto al fatto di avere regioni di decisione a spicchi, lecui soglie non sono parallele agli assi di riferimento.

Considerando invece il 4-PSK:

ψ2(t)

ψ1(t)

s1s2

s3 s4

Page 83: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 79

La cui codifica di Gray e:

Codifica PSK

Segnale Codifica

s1 00s2 10s3 11s4 01

Con la stessa ipotesi precente, di conoscere solo r1, in questo caso e possi-bile discriminare su un bit: il primo dei due bit della codifica permette diconoscere in quale semipiano ci si trova [s1, s4] oppure [s2, s3].Conoscendo invece r2 si decodifica il secondo bit, che distingue i semipiani[s1, s2] oppure [s3, s4]; in questo modo si sono disaccoppiati i due assi (elecito farlo perche si sa che il rumore e indipendente su ogni dimensione).Il demodulatore quindi non e piu unico, ma si divide in due rami per stimarein maniera indipendente il primo ed il secondo bit; si modellizza come:

⊗cos(2πf0t)

≁≁∼

><r1 0

1◦ bit

⊗sin(2πf0t)

≁≁∼

><r2 0

2◦ bit

Il 4-PSK con codifica di Gray prende il nome di QPSK (Quadrature PSK);avere la codifica di Gray e una condizione necessaria per poter dare questadefinizione.Sostanzialmente il QPSK e una moltiplicazione vettoriale di un 2-PAM sulramo in coseno per un 2-PAM sul ramo in seno.

Analizziamo nel dettaglio:

. se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 1si ha s1;

. se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 1si ha s2;

. se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 0si ha s3;

Page 84: Principi di comunicazioni elettriche

80 CAPITOLO 4. Modulazioni

. se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 0si ha s4.

Sul grafico:

ψ2(t)

ψ1(t)

s1 = 1101 = s2

00 = s3 s4 = 10

10

1

0

La probabilita di errore P(e) puo essere vista come la composizione delleprobabilita di errore dei 2-PAM proprio perche esiste indipendenza tra ledue dimensioni ψ1 e ψ2.

Definiti ψ1 = x e ψ2 = y, indichiamo sul grafico seguente le distanze trai segnali con d:

ψ2(t)

ψ1(t)

s1s2

s3 s4

dd

d

d

Come avevamo gia visto per il 2-PAM la probabilita di errore puo esserecalcolata come 1 − P(c):

. P(c) = (1 − p) dove p = 12erfc

(

d2·√

N0

)

sul ramo x;

. P(c) = (1 − p) con p = 12erfc

(

d2·√

N0

)

sul ramo y.

In generale quindi:

P(c) = (1 − p) · (1 − p) = (1 − p)2

La probabilita di errore risulta dunque essere:

P(e) = 1 − P(c) = 1 − (1 − p)2

Page 85: Principi di comunicazioni elettriche

4.2. Modulazioni numeriche 81

Modulazione QAM

Estendendo il ragionamento di comporre su due dimensioni ortogonali mo-dulazioni semplici di banda base si ottengono le modulazioni QAM (Qua-drature AM).Sono modulazioni di banda traslata perche e comodo utilizzare, come di-mensioni ortogonali, seno e coseno, i segnali che servono per spostare labanda del segnale ad una frequenza f0 e raddoppiano automaticamente ledimensioni disponibili.

La modulazione M-QAM e una costellazione a M punti che sono ottenutidalla combinazione di:

.√

M-PAM in fase;

.√

M-PAM in quadratura.

Ad esempio, il 16-QAM e una costellazione a 16 punti data dalla moltiplica-zione vettoriale di due 4-PAM; si puo osservare come si dispongono i segnalisul grafico:

ψ2(t)

ψ1(t)

I punti rossi sono i segnali della modulazione 4-PAM utilizzati come base; ipunti neri sono i segnali effettivi della modulazione 16-QAM mentre le rettetratteggiate in blu rappresentano le soglie di decisione.Si osservi che per questa modulazione si hanno almeno tre tipi di regioni didecisione:

. un quadrato, per i 4 segnali interni;

. un rettangolo infinito, per 8 segnali;

Page 86: Principi di comunicazioni elettriche

82 CAPITOLO 4. Modulazioni

. un quadrato infinito per i 4 segnali ai bordi.

Nel grafico seguente si evidenziano le regioni di decisione in base a questaclassificazione:

ψ2(t)

ψ1(t)bc bc bc bc

bc

bc

bc

bc bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

bc

Esistono poi modulazioni miste, che combinano per esempio ampiezza e faseche non hanno costellazioni con geometrie simili al QAM.

Page 87: Principi di comunicazioni elettriche

Capitolo 5

Isi e Criteri di Nyquist

5.1 Interferenza intersimbolica

Finora si e supposto di lavorare con segnali con durata temporale finita, parial tempo di simbolo Ts.Con questa supposizione, nel dominio delle frequenze, i segnali hanno dura-ta infinita; purtroppo per almeno due ragioni non e possibile avere questasituazione:

. la banda e una risorsa costosa, quindi non e pensabile acquistarlacompletamente;

. il canale puo avere una funzione di trasferimento non uguale ad uno,quindi e selettivo e filtra su una certa banda il segnale trasmesso.

Il segnale trasmesso e:

v(t) =+∞∑

n=−∞an · r(t− nTs)

dove gli an sono coefficienti casuali; questo implica che il segnale v(t) e unprocesso casuale anche senza considerare il rumore.A seconda del valore assunto dagli an il processo assume forma diversa quin-di, nel dominio spettrale non e facile calcolare la trasformata di Fourier.Comunque, qualsisasi sia la modulazione utilizzata, v(t) e ciclostazionariodunque e possibile renderlo stazionario.In questo modo si ottiene che:

Gv(f) = Sa(f) · |R(f)|2Ts

dove:

1. Sa(f) =∑

mRa(mTs) · e−2π m f Ts

83

Page 88: Principi di comunicazioni elettriche

84 CAPITOLO 5. Isi e Criteri di Nyquist

2. Ra(mTs) = E[an · an+m]

La seconda espressione e la media degli an e degli an traslati di m quindi eun’autocorrelazione discreta. Misura quanto un dato in un’istante di tempoe correlato ad un’altro; questa quantita prende il nome di autocorrelazio-

ne dei dati.Vi e correlazione se e presente una codifica di canale, oppure quando le pa-role utilizzate sono molto lunghe e vengono splittate in piu parti; invece nonc’e correlazione quando nello stesso tempo di simbolo vengono trasmesse piuparole di codice.

La prima espressione invece e la trasformata di Fourier discreta dell’au-tocorrelazione: prende il nome di spettro dei dati.

In sostanza Gv(f) dipende dal segnale elementare utilizzato |R(f)|2 e anchedalla sequenza dei dati tramsessi (in base alla loro correlazione).Scegliamo per ipotesi Ra(mTs) come:

Ra(mTs) = δ(mTs) · σ2a

La sequenza dei dati trasmessi e scorrelata dopo ogni tempo di simbolo: idati sono scorrelati e il loro valor medio e nullo.Ne segue che:

Gv(f) = σ2a · |R(f)|2

Ts

Questa e una condizione che si cerca sempre di raggiungere agendo sul co-dificatore di sorgente e sulla costellazione perche, creando scorrelazione frai dati, lo spettro del segnale in trasmissione non dipende piu dalla sequenzatrasmessa.Rimane solo da capire come scegliere i segnali di base r(t−nTs); essi devonoessere per forza di durata temporale infinita per soddisfare il vincolo dellalimitazione di banda.Questo pare in contraddizione con le ipotesi fatte in precedenza, in cui sisupponeva di avere segnali di base di durata Ts.

S HT (f) C(f) ⊕n(t)

HR(f)

t0 + i Ts

y(t)

r(t)v(t)

n an hT (t− nTs)∑

n an δ(t− nTs)

dove:

. HT (f) e il filtro sagomatore di ingresso;

Page 89: Principi di comunicazioni elettriche

5.1. Interferenza intersimbolica 85

. HR(f) e il filtro di ricezione;

Come prima ipotesi si considera il caso in cui:

. C(f) = 1, il canale non e selettivo;

. n(t) = 0, il contributo del rumore e nullo.

Il segnale y(t) puo essere espresso come:

y(t) = r(t) ∗ hR(t)

Sostituendo ad r(t) la sua espressione equivalente:

y(t) = v(t) ∗ hR(t)

Sfruttando l’ipotesi di rumore assente e canale non selettivo r(t) = v(t).Il segnale v(t) e definito come:

v(t) =∑

n

an hT (t− nTs) =∑

n

an δ(t− nTs) ∗ hT (t)

Quindi y(t) risulta essere:

y(t) =∑

n

an δ(t− nTs) ∗ hT (t) ∗ hR(t)

Indicando con:h(t) = hT (t) ∗ hR(t)

Si ottiene l’espressione finale per y(t):

y(t) =∑

n

an h(t− nTs)

L’istante di campionamento e t0+i Ts; t0, si presti attenzione, non puo essere0 perche in una comunicazione normale si deve tenere conto del tempo dipropagazione del segnale.L’istante t0 rappresenta l’origine degli assi dei tempi del ricevitore, istantedopo il quale parte il processo di campionamento.Dal campionamento del segnale ricevuto si ricavano n variabili casuale yn;nell’i-esimo intervallo (t = t0 + iTs):

yi =∑

n

an h(t0 + iTs − nTs)

Cercando di isolare la componente dovuta all’i-esimo simbolo trasmesso:

yi = ai h(t0) +∑

n 6=i

an h(t0 − iTs + iTs − nTs)

Page 90: Principi di comunicazioni elettriche

86 CAPITOLO 5. Isi e Criteri di Nyquist

L’espressione:∑

n 6=i

an h(t0 − iTs + iTs − nTs)

rappresenta i contributi di tutti i simboli precedenti trasmessi che contribui-scono a determinare la i-esima variabile casuale campionata; questa quantitaprende il nome di interferenza intersimbolica o ISI.

Esempio

hT (t)

t

1√Ts

Ts

hR(t)

t

1√Ts

hT (t) ∗ hR(t)

⇓h(t)

t

1

Trasmettendo un 2-PAM e utilizzando come an ±1, la sequenza {1, 1,−1, 1}ha il seguente segnale nel dominio del tempo:

y(t)

t

Ts 2Ts

3Ts

4Ts

Si nota che in ogni istante di campionamento, tranne il primo, il segnale esporcato dalle code precedenti; e questo che accade realmente ai segnali conISI.

Page 91: Principi di comunicazioni elettriche

5.2. 1◦ criterio di Nyquist 87

Si ha assenza di ISI quando la forma del segnale h(t) = hT (t)∗hR(t) presentadegli zeri periodici di Ts tranne nel punto i-esimo in cui si vuole effettuareil campionamento.La condizione di avere un segnale con zeri periodici e meno restrittiva ri-spetto a quella di avere segnali di durata finita; non e importante il compor-tamento del segnale fra un tempo di simbolo e l’altro, ma la forma d’ondadeve valere 0 in corrispodenza di:

n

an h(t− κTs) = 0 ∀κ 6= 0

dove κ = i− n.Infatti per κ = 0 la sommatoria risulta essere il termine ai h(t0) che e iltermine utile di campionamento yi.

5.2 1◦ criterio di Nyquist

I segnali di base r(t− nTs) dunque devono essere scelti in modo tale che:

. abbiano supporto infinito nel tempo;

. abbiano una h(t) con zeri periodici.

La seconda condizione, in sostanza, pone un vincolo sulla scelta tra hT (t)ed hR(t).Si consideri ora il rumore, mantenendo comunque l’ipotesi di canale nonselettivo; sappiamo che la condizione per avere il demodulatore ottimo inpresenza di rumore e utilizzare il filtro adattato.In questo modo:

hR(t) = hT (Ts − t)

Osserviamo che:

h(t) = hT (t) ∗ hR(t) = hT (t) ∗ hT (Ts − t) = RhT(t− Ts)

RhT(t − Ts) e l’autocorrelazione di hT (t), quindi il segnale y(t) viene cam-

pionato dove la sua sagoma ha il valore massimo.Le due condizioni:

. assenza di ISI;

. filtro adattato.

Sono le due condizioni alla base del primo criterio di Nyquist.Sono indipendenti perche l’assenza di ISI e una condizione riguardante laforma del segnale mentre il filtro adattato serve solo per eliminare il rumore.In pratica le due condizioni richiedono:

Page 92: Principi di comunicazioni elettriche

88 CAPITOLO 5. Isi e Criteri di Nyquist

. h(t) con zeri periodici;

. campionamento nel massimo dell’autocorrelazione.

Esempio

Il segnale:

hT (t)

t

Non soddisfa il criterio di Nyquist perche:

RhT(τ)

τ

la funzione RhT(t) non ha zeri periodici.

Criterio di Nyquist nel dominio della frequenza

Ipotizziamo per semplicita che t0 = 0; allora:

n

ak h(t− nTs)

t=κ Ts

= ak

Se ak = 1:∑

n

h(t− nTs)

t=κ Ts

= 1

⇓RhT

(t) ·∑

n

δ(t− nTs) = δ(t)

Trasformando con Fourier si ha:

|HT (f)|2 ∗ 1

Ts

n

δ

(

f − n

Ts

)

= 1

Page 93: Principi di comunicazioni elettriche

5.2. 1◦ criterio di Nyquist 89

⇓∑

n

H

(

f − n

Ts

)∣

2

= cost

Cio significa che la somma di tutte le repliche traslate di nTs

e costante.Ad esempio:

|HT (f)|2

f−12Ts

12Ts

A

Replicandolo ogni Ts:

|HT (f)|2

f−12Ts

12Ts

A

−1Ts

−32Ts

1Ts

32Ts

Si nota che il criterio di Nyquist e soddisfatto perche la somma e costante.L’antitrasformata di Fourier del filtro passabasso ideale e una sinc che hazeri periodici tranne nell’origine e durata temporale infinita, quindi rispettatutti i vincoli richiesti e permette di avere il pieno controllo della banda.Un’altro esempio e:

|HT (f)|2

f− 12Ts

12Ts

A

Le repliche della parte eccedente ± 12Ts

si elidono fra loro perche hanno areasimmetrica e quindi la somma e di nuovo costante come nel grafico prece-dente.

Se un segnale occupa una banda:

B <1

2Ts

Page 94: Principi di comunicazioni elettriche

90 CAPITOLO 5. Isi e Criteri di Nyquist

non si puo soddisfare il primo criterio di Nyquist in quanto l’ISI sara sicu-ramente presente.Si definisce banda di Nyquist la quantita:

1

2Ts

Si puo pensare a 1Ts

come alla frequenza di campionamento di un segnale fc;allora l’interpretazione e quella di avere:

fc > 2B

Per non perdere informazione si deve campionare un segnale ad almeno duevolte la banda; in caso contrario l’informazione si perde perche si vuole ef-fettuare una trasmissione che richiede una banda B usando una banda piupiccola B1. Questo equivale a voler trasmettere su un canale di capacita Cad un rate troppo elevato il che, come abbiamo visto nel capitolo 3, significaperdere informazione.

|HT (f)|2

f− 12Ts

12Ts

A

La parte colorata in rosso viene chiamata eccesso di banda.

Filtro a coseno rialzato

Il filtro a coseno rialzato rispetta il primo criterio di Nyquist ed ha una fun-zione di trasferimento di questo tipo:

|HT (f)|2

f− 12Ts

12Ts

A

−1−α2Ts

1−α2Ts

−1+α2Ts

1+α2Ts

Il fattore α rapprensenta il roll-off del filtro ed e l’eccesso di banda.Questo fattore e sempre compreso fra 0 ed 1:

0 < α < 1

Page 95: Principi di comunicazioni elettriche

5.2. 1◦ criterio di Nyquist 91

Nel caso in cui α = 0 si ha il filtro passabasso ideale.

Tipicamente nei sistemi di trasmissione la funzione di trasferimento delcanale C(f) non e costante ovunque, ma solo su una certa banda poi attenua:

C(f)

f−BC BC

Nei sistemi reali si sceglie il filtro di trasmissione in modo tale che la suabanda sia all’interno della zona in cui C(f) e costante; in questo modo ilsegnale inviato non viene distorto.Ipotizziamo di utilizzare il filtro a coseno rialzato in banda base; la condizio-ne per non avere perdita di informazione e utilizzare per la banda del filtroBRC una banda minore di BC :

1 + α

2Ts< BC (5.1)

Gli unici parametri che si possono scegliere sono:

. α che e l’eccesso di banda;

. Ts il tempo di simbolo.

Si osservi che, poiche la sorgente trasmette i simboli con un bit rate Rb, lascelta di Ts non puo essere casuale ma e legata al mapping.Se si utilizza un 2-PAM abbiamo visto nel capitolo 4 che Eb = Em e si tra-smette un bit per simbolo quindi anche Rb = Rs: ad esempio, trasmettendoa 100 Mbit/s si hanno 100 Msym/s.Scegliendo invece un 4-PAM allora 2Eb = Em perche si tramsmettono duebit per simbolo: per l’esempio precedente, trasmettendo 100 Mbit/s si han-no 50 Msym/s.La modulazione va quindi scelta in accordo con la banda disponibile e il bitrate a cui si vuole effettuare la trasmissione.

Esempio

Data una banda BC = 25MHz ed un bit rate Rb = 100Mbit/s quale modu-lazione si puo usare?Con un 4-PAM, M = 4 si trasmettono 2 bit per simbolo quindi Rs = Rb

2 =50Msym/s.Dato Rs = 1

Tssi puo provare a verificare se l’equaglianza (5.1) e soddifatta:

(1 + α) ·Rs < BC =⇒ (1 + α) · 50 < 25 =⇒ α <1

2− 1

Page 96: Principi di comunicazioni elettriche

92 CAPITOLO 5. Isi e Criteri di Nyquist

Il risultato α = −0.5 non puo essere accettato perche α e un parametro chedeve essere positivo e minore di 1.

Con un 8-PAM, M = 8 si trasmettono 3 bit per simbolo e Rs = Rb

3 =33Msym/s.Verificando come prima:

(1 + α) · Rs < BC =⇒ (1 + α) · 33 < 25 =⇒ α <25

33− 1 =

= α < 0.76 − 1 =⇒ α < −0.24

Per le stesse considerazioni di prima il risultato non e valido.

Serve almeno una modulazione con una costellazione a 16 punti; trasmet-tendo 4 bit per simbolo si ottiene:

Rs =Rb

4= 25Msym/s

Per cui:

(1 + α) ·Rs < BC =⇒ (1 + α) · 25 < 25 =⇒ α < 1 − 1

Il risultato α = 0 puo essere valido, si tratta del filtro passabasso ideale.

5.3 2◦ criterio di Nyquist

Si ipotizzi ora che il vincolo (5.1) non sia soddisfatto e che, quindi, si utilizziper il filtro a coseno rialzato una banda maggiore di BC .Il canale e distorcente per le considerazioni fatte in precedenza; il filtro diricezione da usare per avere il migliore rapporto segnale rumore e il filtroadattato all’insieme di HT (f) e della funzione di trasferimento del canaleC(f).Prendendo come HR(f):

HR(f) =HT (f)

C(f)

la parte utile di segnale sarebbe corretta, ma il rumore laddove 1C(f) non e

costante verrebbe amplificato.

Il secondo criterio di Nyquist si applica proprio in queste condizionie richiede:

. filtro adattato;

. equalizzatore.

L’equalizzatore e un filtro fir che elimina le code dei segnali precedenti.

Page 97: Principi di comunicazioni elettriche

5.4. Considerazioni finali 93

5.4 Considerazioni finali

I parametri importanti nelle comunicazioni da scegliere per realizzare unsistema sono il tipo di modulazione da utilizzare e le dimensioni dellacostellazione; da questa scelta si ottiene un certo symbol rate Rs permet-tendo di determinare la banda di Nyquist.Ogni modulazione ha una sua energia legata alla distanza dei punti sullacostellazione.Per poter essere demodulato, il segnale trasmesso deve passare in un filtrodi ricezione che al fine di garantire il miglior rapporto segnale-rumore deveessere il filtro adattato; in seguito viene campionato.

L’efficienza del sistema si valuta in base alla probabilita di errore P(e)di ricevere un simbolo quando era stato trasmesso un’altro.Un sistema efficiente ha una P(e) bassa che si traduce principalmente conavere una distanza elevata tra i punti della costellazione; questa ipotesi perocomporta la richiesta di notevole energia per effettuare la trasmissione.Trasmettendo con un’energia piu bassa invece, la distanza tra i punti dimi-nuisce causando un peggioramento delle prestazioni del sistema; l’aumentodella probabilita di errore puo essere ridotto dall’introduzione di una codi-fica di canale.La codifica di canale aumenta la quantita di dati da trasmettere e la com-plessita del sistema, quindi occorre trasmettere con un bit rate maggiore perpoter garantire le stesse prestazioni.

Un trasmissione piu veloce comporta l’utilizzo di una banda piu grande; se,per varie ragioni, non e possibile una soluzione e quella di cambiare modula-zione, utilizzando una modulazione in banda traslata, perche raddoppiandoil numero delle dimensioni si creano due flussi separati per la trasmissionedei dati e si utilizza in maniera piu efficiente la banda a disposizione.Se, in presenza di una codifica di canale, si utilizza una modulazione PAM,trasmettere ad un bit rate maggiore significa utilizzare piu punti sulla di-mensione ψ e quindi aumentare l’energia oppure posizionare tutti i punti adistanza minore aumentando la P(e).

Con una costellazione di tipo PSK l’aumento del numero di punti sulla co-stellazione non comporta aumento dell’energia, ma un peggioramento delleprestazioni del sistema; una modulazione PSK ha rese migliori con pochipunti e quindi con un bit rate non elevato.

Page 98: Principi di comunicazioni elettriche

94 CAPITOLO 5. Isi e Criteri di Nyquist

Page 99: Principi di comunicazioni elettriche

Capitolo 6

Esempi conclusivi

6.1 Esempio modulazione PAM

Dato lo schema a blocchi:

S HT (f) C(f) ⊕n(t)

HR(f)

t0 + i Ts

yi

v(t)

hT (t) = r(t) hR(t) = hT (Ts − t)

Utilizzando come segnale di base r(t):

r(t)

t

1√Ts

Ts

Si vuole trasmettere con una modulazione 2-PAM; i coefficienti del segnale:

v(t) =∑

n

an r(t− nTs)

sono due ampiezze: an ∈ {±A}.La costellazione ha una sola dimensione ψ ed i due punti si dispongono inmodo simmetrico su di essa; inoltre con la regola ML si individa una sogliaTh posta in modo equidistante tra i punti:

95

Page 100: Principi di comunicazioni elettriche

96 CAPITOLO 6. Esempi conclusivi

ψ(t)b

-Ab

A

Th

La sorgente emette un treno di delta che passando nel filtro sagomatorehT (t) prendono la forma del segnale di base scelto r(t); ipotizzando di tra-smettere la sequenza { A, A, -A, A } il segnale trasmesso v(t) ha la forma:

v(t)

t

Ts 2Ts 3Ts 4Ts

A√Ts

− A√Ts

A questo segnale si deve sommare la componente di rumore aggiunta dallamodellizzazione assunta del canale tramsissivo.Considerando separatamente la componente utile di segnale ed il rumorepossiamo determinare analiticamente:

y(t) = v(t) ∗ hR(t) + n(t) ∗ hR(t)

Indicando con:

. z(t) = v(t) ∗ hR(t);

. nf (t) = n(t) ∗ hR(t).

Si ha:y(t) = z(t) + nf

Si puo operare questa separazione per la proprieta di linearita del sistema.

Sapendo che hR(t) e il filtro adattato, quindi con la stessa forma di r(t),osserviamo come risulta essere z(t):

z(t)

t

Ts 2Ts 3Ts 4Ts 5Ts

A

-A

Page 101: Principi di comunicazioni elettriche

6.1. Esempio modulazione PAM 97

L’ampiezza di z(t) si determina come:

A√Ts

· 1√Ts

· Ts =A

Ts· Ts = A

Si adopera il procedimento analogo nel caso di ampiezza negativa.

Page 102: Principi di comunicazioni elettriche

98 CAPITOLO 6. Esempi conclusivi

Il segnale vero e proprio e:

z(t)

t

Ts 2Ts 3Ts 4Ts 5Ts

A

-A

b

b b

b

b

b

Il campionatore, effettuando il campionamento negli istanti di tempo mul-tipli di Ts fornisce sempre come variabili yi i valori ± A. La spiegazione esemplice: come segnale di base e stato utilizzato un segnale di durata tem-porale finita quindi, trascurando il rumore perche z(t) e la componente utile,non c’e ISI che potrebbe causare incertezza.La varianza del rumore filtrato nf risulta essere:

σ2nf

=N0

2·∫ +∞

−∞|HR(f)|2 df =

N0

2·∫ +∞

−∞|hR(t)|2 dt =

N0

2· 1 =

N0

2‡1

I segnali ricevuti saranno disposti sulla costellazione attorno ai valori ± A:

ψ(t)b

-Ab

A

Th

rs rsrs rs rs rs

Sul grafico:

z(t)

t

Ts 2Ts 3Ts 4Ts 5Ts

A

-A

b

b b

b

b

b

rs

rs

rs

rs

rs

rs

rs

rs

rs

rs

L’errore si commette, ad esempio, con i quadrati verde in quanto i segnalitrasmessi hanno ampiezza positiva e quelli ricevuti ha ampiezza negativaoppure viceversa.

1Utilizzando l’uguaglianza di Parceval si e passati dal dominio della frequenza neldominio del tempo; il risultato dell’integrale e 1 in quanto hR(t) e scelta con la stessaforma di r(t) che era un segnale di base.

Page 103: Principi di comunicazioni elettriche

6.1. Esempio modulazione PAM 99

Si ipotizzi ora di cambiare il filtro di ricezione, utilizzando:

hR(t)

t

1√Ts

In questo caso, come abbiamo gia visto nel capitolo 5, il segnale z(t) e datoda:

z(t)

t

A

-A Ts 2Ts

3Ts

4Ts

E complessivamente:

z(t)

t

A

-A Ts 2Ts

3Ts

4Ts

A differenza del caso precedente, qui si nota immediatamente che i simboliricevuti (trascurando il rumore perche si prende in considerazione solo z(t))possono avere molti valori perche i simboli precedenti influenzano il com-portamento di ogni variabile yi: c’e ISI.

Il comportamento di ogni segnale dipende da come e stata trasmessa lasequenza dei simboli precedenti: si consideri il caso in cui si trasmetta co-stantemente il valore A per κ simboli e il κ+ 1 simbolo sia -A.Cio che accade e che per i contributi delle code precedenti positivi il valore-A puo venire a trovarsi oltre la soglia, venire decodificato con A causandoun errore.

Page 104: Principi di comunicazioni elettriche

100 CAPITOLO 6. Esempi conclusivi

Si noti che questo e un peggioramento delle prestazioni del sistema anchesenza prendere in esame il rumore.Ora la varianza del rumore filtrato nf e:

σ2nf

=N0

2·∫ +∞

−∞|HR(f)|2 df =

N0

2·∫ +∞

−∞|hR(t)|2 dt =

=N0

2·∫ +∞

−∞

1√Ts

e−2tτ dt =

N0

2· τ2· 1√

Ts

e−2tτ

+∞

0

=N0 · τ4 ·

√Ts

Questo risultato e peggiore rispetto al caso in cui si usa il filtro adattato,che, abbiamo visto, ha come varianza del rumore filtrato N0

2 .

Sulla costellazione i punti ricevuti si dispongono esattamente come prima:

ψ(t)b

-Ab

A

Th

rs rs rs rsrs rsrs rs

Tuttavia si osservino i punti colorati in arancione e verde; ricevendo i primisi e sicuri di sbagliare poco perche la coda della gaussiana ha area moltopiccola:

ψ(t)b

-Ars

Th

Questo guadagno e compensato da un aumento della probabilita di errorericevedo i punti verdi :

ψ(t)b

-Ars

Th

In generale quindi le prestazioni peggiorano perche l’area azzurra nel secon-do grafico e molto grande.

Se un segnale sporca un numero finito di simboli successivi e possibile saperei contributi di ISI ogni Ts:

Page 105: Principi di comunicazioni elettriche

6.1. Esempio modulazione PAM 101

h(t)

t

1Ts

Ts 2Ts 3Ts

bc

bcbc

In questo caso i punti azzurri sono i contributi di ISI:

. h(Ts) e il valore da ricevere;

. h(2Ts) e il valore che sporca il simbolo successivo;

. h(3Ts) e il valore che sporca i due simboli successivi.

Ogni variabile casuale ricevuta e data da :

yk = ak h(Ts) +

+∞∑

n=−∞, n 6=k

an h(nTs)

Si definiscono due quantita, distorsione media e di picco, che misurano icontributi di ISI:

Distorsione media

Dm =

n 6=1 h2(nTs)

h2(Ts)

Distorsione di picco

Dp =

n 6=1 |h(nTs)|h(Ts)

La distorsione di picco e un caso peggiore in quanto considera tutti i contri-buti di ISI presi concordi; queste due quantita sono valori percentuali.

Si ipotizzi che ogni simbolo possa sporcare solo il successivo:

h(t)

t

1Ts

Ts 2Ts 3Ts

bc

bc

Page 106: Principi di comunicazioni elettriche

102 CAPITOLO 6. Esempi conclusivi

La costellazione ricevuta e:

ψ(t)b

-Ab

A

Th

rs rs rs rs

Con 2 segnali trasmessi:

. Ah(Ts);

. −Ah(Ts).

I possibili segnali ricevuti sono 4:

. punto azzurro: −Ah(Ts) −Ah(2Ts);

. punto arancione: −Ah(Ts) +Ah(2Ts);

. punto verde: Ah(Ts) −Ah(2Ts);

. punto lavanda: Ah(Ts) +Ah(2Ts).

La loro ampiezza dipende dal segno del simbolo precedente, positivo o ne-gativo.

Per calcolare la probabilita di errore esistono due strade:

1. approssimare la nuova distanza minima;

2. ipotizzare i 4 simboli equiprobabili e calcolare tutte le distanze.

Scegliendo la prima soluzione la distanza minima e:

dmin = Ah(Ts) −Dph(Ts)

perche:

ψ(t)b

-Ab

A

Th

rs rs rs rs

Dp

Page 107: Principi di comunicazioni elettriche

6.1. Esempio modulazione PAM 103

Calcolata la distanza minima, che e la distanza tra il punto verde e arancione,possiamo determinare con l’union bound la probabilita di errore:

P(e) ∼= 1

2erfc

(

dmin

2 ·√N0

)

Con la seconda soluzione si devono calcolare tutte le distanze:

ψ(t)b

-Ab

A

Th

rs rs rs rs

β1β2β3β4

La probabilita di errore, senza approssimazioni, e:

P(e) =1

4·[

1

2erfc

(

β1

2 ·√N0

)

+1

2erfc

(

β2

2 ·√N0

)

+1

2erfc

(

β3

2 ·√N0

)

+

+1

2erfc

(

β4

2 ·√N0

)]

dove:

. 18erfc

(

β1

2·√

N0

)

e la P(e|β1);

. 18erfc

(

β2

2·√

N0

)

e la P(e|β2);

. 18erfc

(

β3

2·√

N0

)

e la P(e|β3);

. 18erfc

(

β4

2·√

N0

)

e la P(e|β4).

Page 108: Principi di comunicazioni elettriche

104 CAPITOLO 6. Esempi conclusivi

6.2 Diagramma ad occhio

6.2.1 Esempio per la modulazione 2-PAM

Un modo per misurare la distorsione di picco e visualizzare la costellazionecon il diagramma ad occhio.Questo strumento riporta in un tempo di simbolo tutte le possibili replichedel segnale sovrapponendone le tracce.

Considerando il caso di modulazione 2-PAM con filtro adattato si ha il se-guente diagramma ad occhio:

0 10 20 30 40 50 60 70−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1Diagramma ad occhio della parte reale del segnale ricevuto

Time

Figura 6.1: diagramma ad occhio modulazione 2-PAM in condizioni ideali

Si puo visualizzare la costellazione corrispondente nello scattering diagrammostrato in figura 6.2.

Quando il segnale non e affetto da ISI il diagramma ad occhio si dice aperto

verticalmente: e il caso del grafico in figura 6.1.

Considerando l’ipotesi di avere sı il filtro adattato, ma di campionare il se-gnale nell’istante di tempo sbagliato si ottiene lo scattering diagram di figura6.3; l’istante di campionamento ideale si osserva sul diagramma ad occhio:in figura 6.1 e esattamente 33, l’attimo in cui l’occhio e completamente aper-to.Invece, campionando a 35, i possibili segnali ricevuti non sono solo due comeprima, ma diventano quattro (come evidenzia anche lo scattering diagramdi figura 6.3) perche in quell’istante si hanno quattro possibili combinazioni.Tale comportamento e illustrato in figura 6.4.

Page 109: Principi di comunicazioni elettriche

6.2. Diagramma ad occhio 105

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1Scattering diagram del segnale ricevuto

Re

Im

Figura 6.2: scattering diagram per modulazione 2-PAM in condizioni ideali

La sensibilita della modulazione usata di avere piu istanti di campionamentoideali si puo leggere guardando l’apertura orizzontale del diagramma adocchio: se e elevata allora sbagliando di poco l’istante di campionamentol’ISI sara poco influente, rendendo la modulazione piu robusta.Se l’apertura orizzontale e invece lieve occorre avere un sincronizzatore mol-to preciso, in grado cioe di campionare il segnale nel solo istante ideale,perche altrimenti la modulazione sarebbe molto disturbata dall’interferenzaintersimbolica.

Se non si utilizza il filtro adattato, ma ad esempio:

hT (t)

t

1√Ts

Ts

hR(t)

t

1√Ts

h(t)

t

1

Page 110: Principi di comunicazioni elettriche

106 CAPITOLO 6. Esempi conclusivi

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1Scattering diagram del segnale ricevuto

Re

Im

Figura 6.3: scattering diagram per modulazione 2-PAM con campionamentosbagliato

Come abbiamo visto nel capitolo 5 la risposta all’impulso h(t) non soddisfail criterio di Nyquist e quindi e presente l’interferenza intersimbolica.Osserviamo che, in questo caso, il diagramma ad occhio del segnale ricevutocambia e non si riesce a trovare un istante ottimo di campionamento taleper cui le code dei segnali precedenti non sporchino il segnale attuale: e perquesto motivo che l’ISI non puo essere evitata.Si noti che, anche in caso di filtro adattato puo verificarsi ISI, ma il disturbopuo essere eliminato perche esiste un istante ottimo di campionamento.

In figura 6.5 viene riportato il grafico del diagramma ad occhio quandonon si utilizza il filtro adattato e si usa come istante di campionamento 35;la costellazione ottenuta comprende molti piu punti rispetto ai due che sidovrebbero avere.

In figura 6.6 si riporta lo scattering diagram mentre in figura 6.7 si puoosservare l’ingrandimento fatto sui due punti a sinistra: si noti come inrealta i due punti visibili a sinistra in figura 6.6 siano in realta il doppio.

6.2.2 Esempio per la modulazione QPSK

Per la modulazione QPSK gli esempi sono stati realizzati usando il filtro aradice di coseno rialzato in trasmissione e in ricezione, quindi si ha la con-

Page 111: Principi di comunicazioni elettriche

6.2. Diagramma ad occhio 107

Figura 6.4: diagramma ad occhio per modulazione 2-PAM concampionamento sbagliato

dizione di filtro adattato.

Con un roll-off di 0.6 ed effettuando il campionamento nell’istante di tempoesatto, 42, si ottiene un diagramma ad occhio illustrato del segnale ricevutoin figura 6.8 e del segnale trasmesso in figura 6.9.Lo scattering diagram che mostra la costellazione viene invece riportato infigura 6.10.

Mantenendo lo stesso roll-off, ma campionando in un istante di tempo sba-gliato, come conseguenza data dall’ ISI si otterranno in ricevzione molti piusimboli: in figura 6.11 si puo vedere questo comportamento.

Ipotizzando di cambiare il roll-off, scegliendo come parametro α = 0.1 (mol-to vicino al filtro ideale passa-basso) anziche 0.6, e campionando il segnalenell’istante ideale, si puo vedere in figura 6.12 che il diagramma ad occhio emolto chiuso orizzontalmente rispetto a quello mostrato in figura 6.8.

Lo scattering diagram riporta la costellazione in figura 6.13 e l’ingrandimen-to di uno dei vertici in figura 6.14.Si puo notare il comportamento gia descritto nell’esempio per la modulazio-ne 2-PAM per cui in ricezione si hanno piu simboli rispetto a quelli in realtatrasmessi.

Page 112: Principi di comunicazioni elettriche

108 CAPITOLO 6. Esempi conclusivi

0 10 20 30 40 50 60 70−2

−1.5

−1

−0.5

0

0.5

1

1.5

2Diagramma ad occhio della parte reale del segnale ricevuto

Time

Figura 6.5: diagramma ad occhio per modulazione 2-PAM senza filtroadattato

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1Scattering diagram del segnale ricevuto

Re

Im

Figura 6.6: scattering diagram per modulazione 2-PAM senza filtro adattato

Page 113: Principi di comunicazioni elettriche

6.2. Diagramma ad occhio 109

−1.86 −1.84 −1.82 −1.8 −1.78 −1.76 −1.74 −1.72 −1.7 −1.68 −1.66

−10

−8

−6

−4

−2

0

2

4

6

8

x 10−4 Scattering diagram del segnale ricevuto

Re

Im

Figura 6.7: scattering diagram ingrandito per modulazione 2-PAM senzafiltro adattato

0 10 20 30 40 50 60 70−1.5

−1

−0.5

0

0.5

1

1.5Diagramma ad occhio della parte reale del segnale in ricezione

Time

Figura 6.8: diagramma ad occhio per modulazione QPSK

Page 114: Principi di comunicazioni elettriche

110 CAPITOLO 6. Esempi conclusivi

0 10 20 30 40 50 60 70−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3Diagramma ad occhio della parte reale del segnale in trasmissione

Time

Figura 6.9: diagramma ad occhio in trasmissione per modulazione QPSK

−1.5 −1 −0.5 0 0.5 1 1.5−1.5

−1

−0.5

0

0.5

1

1.5Scattering diagram del segnale in ricezione

Re

Im

Figura 6.10: scattering diagram per modulazione QPSK

Page 115: Principi di comunicazioni elettriche

6.2. Diagramma ad occhio 111

−1.5 −1 −0.5 0 0.5 1 1.5−1.5

−1

−0.5

0

0.5

1

1.5Scattering diagram del segnale in ricezione

Re

Im

Figura 6.11: scattering diagram per modulazione QPSK con campionamentonon ideale

0 10 20 30 40 50 60 70−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5Diagramma ad occhio della parte reale del segnale in ricezione

Time

Figura 6.12: diagramma ad occhio per modulazione QPSK con roll-off paria 0.1

Page 116: Principi di comunicazioni elettriche

112 CAPITOLO 6. Esempi conclusivi

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5Scattering diagram del segnale in ricezione

Re

Im

Figura 6.13: scattering diagram per modulazione QPSK con roll-off pari a0.1

−1.08 −1.06 −1.04 −1.02 −1 −0.98 −0.96 −0.94 −0.92

0.94

0.96

0.98

1

1.02

1.04

1.06

Scattering diagram del segnale in ricezione

Re

Im

Figura 6.14: scattering diagram ingrandito per modulazione QPSK con roll-off pari a 0.1