162

Appunti Di Comunicazioni Elettriche (162)

Embed Size (px)

DESCRIPTION

xz

Citation preview

  • Appunti di Comunicazioni

    Elettriche

    Andrea Austa, Alberto Cuda

    9 Aprile 1998

    Revisione 1.1.0

  • AVVERTENZAQuesto documento puo` essere liberamente distribuito, tramite fotocopie o in

    forma elettronica, nei formati PostScript e LATEX, purche nessuna parte, in par-ticolar modo questa avvertenza, venga rimossa.

    In conformita` con la formula shareware, se il lavoro si e` rivelato particolar-mente utile e soddisfaciente, si puo` decidere di contribuire ad esso; nel caso speci-fico, questo lo si puo` fare in due modi:

    Aggiornando il presente documento (il che da` diritto ad essere inseriti nellalista degli autori);

    Mettendo a disposizione i propri appunti di una qualsiasi materia ed appo-nendovi questa stessa nota.

    1

  • Un particolare ringraziamento a Claudio Vacca, Felice Cifarelli, Daniele Bechis, Fa-brizio Vacca, Ezio Ricca, Michelangelo de Bonis : : :

    Andrea Austaemail: [email protected]: http://www.cclinf.polito.it/s83414

    Alberto Cudaemail: [email protected]: http://www.cclinf.polito.it/s84606

  • Prefazione

    Questo fascicolo contiene gli appunti relativi al corso di Comunicazioni ElettricheGenerale tenuto dal professore Guido Albertengo, svoltosi durante lanno accademico1996-97 presso il Politecnico di Torino.

    Lidea e` nata da una nostra necessita` di avere degli appunti ordinati, ma anche dal-la convinzione che la collaborazione debba sempre svolgere un ruolo significativo nellavita di chiunque; saremo percio` grati a chi vorra` contribuire inviandoci segnalazioni esuggerimenti.

    Questo documento e` stato realizzato mediante AM

    SLATEX1; la copertina, invece, e`

    stata composta mediante il pacchetto FoilTEX2; il sistema operativo utilizzato e` DebianGNU Linux3.

    Il presente testo puo` essere liberamente distribuito tramite fotocopie o in forma elettro-nica, nei formati Postscript e LATEX ed e` disponibile sulla rete Internet a partire dallenostre home page.

    Per contattarci, potete inviare una e-mail ai nostri indirizzi; consigliamo inoltre divisitare periodicamente le nostre home page per consultare lerrata corrige o di scriverci sevolete essere avvertiti ogni volta che viene aggiornata.

    Siamo disponibili a fornire supporto a chiunque voglia intraprendere un lavoro discrittura in LATEX.

    ANDREA AUSTA ALBERTO CUDA

    1Si pronuncia late; lultima lettera va aspirata, come Ich in tedesco.2Copyright c1995 IBM Corporation.3Abbandonate ogni altra distribuzione, questa e` lunica veramente GNU.

    3

  • Indice

    Prefazione 3

    Capitolo 1. Teoria dellInformazione 71. Struttura di un Sistema di Comunicazione 72. Codifica di Fano 83. Codifica di Fano-Huffman 9

    Capitolo 2. Analisi di Segnali 131. Potenza 132. Lo Spazio delle Funzioni 163. Realizzazione di Trasmettitore e Ricevitore 20

    Capitolo 3. Serie e Trasformata di Fourier 221. Base di Fourier 222. La Serie di Fourier delle funzioni reali. Teorema di Parseval 243. Trasformata di Fourier 254. Conversione da Serie a Trasformata e viceversa 26

    Capitolo 4. Densita` Spettrali di Energia e di Potenza 321. Definizione di densita` spettrale di energia e di potenza 322. Densita` di potenza di funzioni periodiche 33

    Capitolo 5. Processi Casuali 351. Definizioni 352. Calcolo di media e varianza di x(t) 363. Applicazione: trasmissione con rumore termico 37

    Capitolo 6. Il Digital Signal Processing 391. Analisi del DSP con componenti ideali 392. Analisi del DSP con componenti reali 43

    Capitolo 7. Codici di Linea 461. Definizioni 462. Densita` spettrale di potenza per simboli equiprobabili 483. Generalizzazione a simboli non equiprobabili 51

    Capitolo 8. Segnalazioni in Banda Limitata 531. Parametri caratteristici della trasmissione in bande 532. Interferenza Intersimbolica 573. Il Primo Criterio di Nyquist 634. Il Filtro Trasversale 66

    4

  • INDICE 5

    Capitolo 9. Rumore 701. Resistore Rumoroso 702. Doppio Bipolo Rumoroso 733. Modello della temperatura equivalente 754. Catena di doppi bipoli 765. Rumore gaussiano bianco con il modello della T

    e

    79

    Capitolo 10. Filtro Adattato 811. Presentazione 812. Dimostrazione 813. Filtro adattato con rumore gaussiano bianco. 834. Esempio 84

    Capitolo 11. Soglie, codifica Gray, Canali 871. Soglie in un NRZ 872. Soglie e probabilita` di errore in sistemi multilivello 893. Codifica Gray 904. Canale 91

    Capitolo 12. Modulazioni Numeriche 931. Banda base e banda traslata 932. On-Off Keying 963. Amplitude Shift Keying e Binary Phase Shift Keying 994. Frequency Shift Keying 100

    Capitolo 13. Segnalazioni Multilivello Modulate 1031. M-ASK 1032. M-PSK 1043. M-QAM 1064. Confronto fra sistemi 108

    Capitolo 14. Rumore Associato a Segnali Modulati 1091. Il Rumore Modulato 1092. Stazionarieta` di n(t) 1103. Altre Caratteristiche Statistiche di x

    n

    (t) e yn

    (t) 1124. Modulazione in Banda Vestigiale. AMSSB 114

    Capitolo 15. Probabilita` dErrore in Segnali Modulati 1161. Probabilita` dErrore nel B-PSK con Demodulazione Coerente 1162. Probabilita` dErrore nel 4-PSK con Demodulazione Coerente 1163. Probabilita` dErrore nellOOK con Demodulazione Incoerente 1184. Probabilita` dErrore nel 16-QAM con Demodulatore Coerente 1205. Probabilita` dErrore nel M-PSK 1246. Probabilita` dErrore nel FSK con Demodulatore Coerente 1277. Union Bound 1298. La Ritrasmissione 130

    Capitolo 16. Quantizzazione di segnali analogici 1331. Campionamento e quantizzazione 1332. Rumore di quantizzazione: un primo approccio 1343. Trasmissioni attraverso un BSC 137

  • INDICE 6

    4. Rumore di quantizzazione: un approccio generale. 142

    Appendice A. Alcune Formule Trigonometriche 1471. Algebra delle Delta4 1472. Alcune Relazioni Trigonometriche 150

    Appendice B. Formulario 1521. Teoria dellInformazione 1522. Analisi di Segnali 1523. Serie e Trasformata di Fourier 1534. Densita` Spettrali di Energia e di Potenza 1545. Processi Casuali 1556. Il Digital Signal Processing 1557. Codici di Linea 1558. Segnalazioni in Banda Limitata 1569. Rumore 15710. Filtro Adattato 15711. Soglie, codifica Gray, Canali 15812. Modulazioni Numeriche 15813. Segnalazioni Multilivello Modulate 15914. Rumore Associato a Segnali Modulati 15915. Probabilita` dErrore in Segnali Modulati 16016. Quantizzazione di segnali analogici 161

    4Adattato da: Mencuccini, Silvestrini, Fisica II (Liguori Editore).

  • CAPITOLO 1

    Teoria dellInformazione

    1. Struttura di un Sistema di Comunicazione

    Un sistema di comunicazione elettriche puo` essere schematizzato cos`:

    S

    !

    TX

    !

    Canale trasmissivoz }| {

    !

    RX

    | {z }

    Parte elettrica

    !

    U

    FIGURA 1

    Dove: S e` la sorgente, che genera linformazione; TX e` il trasmettitore, che converte le informazioni in segnali elettrici; RX e` il ricevitore, che esegue la trasformazione inversa; U e` lutilizzatore;

    Un classico esempio e` il telefono: TX e RX sono gli apparecchi telefonici,S ed U gli utenti, il canale trasmissivo la rete telefonica. Si osservi che solo lecomunicazioni fra trasmettitore e ricevitore sono di natura elettrica.

    Qualora si voglia classificare i sistemi di comunicazione, la prima ovvia distin-zione da operare e` tra sorgente numerica (detta anche digitale) e sorgente analogica:una sorgente numerica e` discreta nel tempo ed ha un numero finito di valori si-gnificativi, mentre una sorgente analogica e` continua nel tempo ed ha un numeroinfinito (seppure limitato) di valori significativi.

    Un sistema numerico e` di qualita` superiore (piu` immune al rumore) rispettoad uno analogico, ma quando il rumore supera una certa soglia le prestazioni ca-lano bruscamente, mentre un sistema analogico peggiora in maniera graduale alcrescere dei disturbi.

    Gli esempi di sistemi digitali sono molti: Compact Disk; Telex / Telefax; Computer; GSM; ...

    Quelli analogici di una certa importanza, invece, sono attualmente solo due: Radio; Televisione (anche se nel 1997 e` stato approvato uno standard per la televi-

    sione digitale);

    7

  • 2. CODIFICA DI FANO 8

    Storicamente i sistemi di comunicazione numerici sono stati i primi ad essereutilizzati, mentre i sistemi analogici sono entrati in scena solo grazie allimpiegodellelettricita`, la quale ha permesso le comunicazioni a lunga distanza.

    2. Codifica di Fano

    Una sorgente numerica e` caratterizzata da un alfabeto A, composto da n sim-boli:

    A = fs

    1

    ; s

    2

    ; :::; s

    n

    g

    Ad ogni simbolo si

    si associa una probabilita` pi

    . In linea teorica questo da-to e` incompleto, in quanto sarebbe necessario conoscere le probabilita` congiunte,cioe` quelle di ogni sequenza di simboli di lunghezza arbitraria, in quanto gli ele-menti di un alfabeto non sono in generale indipendenti fra loro (ad esempio laprobabilita` che ad una T segua una Z in un testo italiano e` oltremodo bassa). Persemplicita` qui si supporra` sempre lindipendenza statistica, cioe`:

    f

    XY

    (s

    x

    ; s

    y

    ) = f

    X

    (s

    x

    )f

    Y

    (s

    y

    )

    Un simbolo e` tanto piu` rilevante quanto piu` raramente viene trasmesso; unmodo per misurare questa importanza e` dunque:

    I

    j

    /

    1

    p

    j

    I

    j

    viene detta quantita` di informazione. Siccome e` comodo esprimerla in bit (cos`da assegnare al simbolo in questione una stringa di bit di tale lunghezza), la suadefinizione e`:

    I

    j

    = log

    2

    1

    p

    j

    Ad esempio:

    p

    1

    = p

    2

    =

    1

    2

    ) I

    1

    = I

    2

    = 1

    p

    1

    = p

    2

    = p

    3

    = p

    4

    =

    1

    4

    ) I

    1

    = I

    2

    = I

    3

    = I

    4

    = 2

    Un importante parametro della sorgente e` il valore atteso della quantita` diinformazione trasmessa:

    H EfI

    j

    g =

    N

    X

    j=1

    I

    j

    p

    j

    =

    =

    N

    X

    j=1

    p

    j

    log

    2

    1

    p

    j

    =

    =

    N

    X

    j=1

    p

    j

    log

    2

    p

    j

    (1)

    Il parametro H e` detto entropia della sorgente, e misura la regolarita` dellesue trasmissioni, ad esempio supponiamo che lalfabeto sia costituito dai segenti

  • 3. CODIFICA DI FANO-HUFFMAN 9

    simboli:

    A : p

    A

    =

    1

    2

    B : p

    B

    =

    1

    4

    C : p

    C

    =

    1

    8

    D : p

    D

    =

    1

    8

    Si ottiene:

    H =

    1

    2

    log

    2

    2 +

    1

    4

    log

    2

    4 +

    1

    8

    log

    2

    8 +

    1

    8

    log

    2

    8 = 1; 75 bit/simbolo

    Volendo assegnare ad ogni simbolo una stringa di bit lunga come la quantita`di informazione che porta, bisogna rispettare la regola del prefisso: nessun simbolodeve iniziare con la codifica di un altro. Il metodo piu` semplice (particolarmenteappropriato a questo caso) e` usare il bit 1 per indicare la fine del simbolo:

    A ! 1

    B ! 01

    C ! 001

    D ! 000

    Questo alfabeto si puo` rappresentare cos`:

    {A B C D}

    {A}{B}

    {C} {D}

    {C D}{B C D}1 0

    1 0

    1 0

    FIGURA 2

    Tale codifica e` detta codifica di Fano, ma puo` essere applicata solo se

    p

    j

    =

    1

    2

    j

    8j < N(2)

    3. Codifica di Fano-Huffman

    E` estremamente raro che la condizione (2) sia rispettata: bisogna trovare unmetodo che permetta di codificare i simboli anche quando non sia cos`; lidea e`di partire da un albero analogo a quello illustrato in figura 2, ma costruito al con-trario, cioe` partendo da insiemi formati da un singolo elemento, come in figura 3.

  • 3. CODIFICA DI FANO-HUFFMAN 10

    0,60,30,060,04

    ABCD

    FIGURA 3

    Se osserviamo ancora la figura 2, notiamo che, partendo dal basso, vengo-no uniti i due insiemi con la probabilita` minore di tutti. Applichiamo lo stessoprincipio anche qui:

    0,60,30,1

    ABCD

    0,60,30,060,04

    FIGURA 4

    A questo punto si puo` reiterare fino ad arrivare alla radice:

    ABCD

    0,60,30,060,04

    0,1 0,4

    1

    FIGURA 5

    Non resta che etichettare i nodi dellalbero:

    01 0

    1

    1

    0

    ABCD

    0,60,30,060,04

    FIGURA 6

    Cui corrisponde una codifica del tipo:

    A ! 1

    B ! 01

    C ! 001

    D ! 000

    In questo caso la lunghezza media delle stringhe di bit non e` piu` uguale al-la quantita` media di informazione trasmessa, cioe` lentropia; valutiamo questegrandezze:

    H = 0; 6 log

    2

    0; 6 0; 3 log

    2

    0; 3 0; 06 log

    2

    0; 06 0; 004 log

    2

    0; 004 =

    = 1; 39

    N = 3 0; 1 + 2 0; 3 + 1 0; 6 = 1; 5

  • 3. CODIFICA DI FANO-HUFFMAN 11

    E` sempre H 6 N , con H = N se e solo se vale la (2), ed in questo caso lal-goritmo descritto (detto algoritmo di Fano-Huffman) produce gli stessi risultati dellacodifica di Fano. E` da notare che in generale il simbolo 1 non e` piu` il simbolo ditermine sequenza, infatti lalbero puo` essere piu` complesso:

    0,20,10,4

    0,3

    0

    1

    01

    01A

    BCD

    FIGURA 7

    Che fornisce:

    A ! 11

    B ! 10

    C ! 01

    D ! 00

    Non viene mai violata pero` la regola del prefisso.Il problema della codifica e` particolarmente sentito nella scelta del formato

    delle immagini; possono esserci vari approcci al problema: Un metodo ingenuo puo` essere quello di assegnare ad ogni colore lo stesso

    numero di bit, il che richiede N p bit (N e` il numero di pixel, mentre p e` ilnumero di colori);

    Un metodo migliore e` utilizzare proprio lalgoritmo di Fano-Huffman: nonsi perdono informazioni, ma non si sfrutta il fatto che difficilmente duepixel adiacenti hanno colori fortemente differenti

    Il metodo impiegato nella codifica JPEG e` quello di dividere limmaginein quadrati di dimensioni 8x8 pixel, eseguire lanalisi di Fourier e filtrarele frequenze basse ed alte: si perdono delle informazioni, ma le dimen-sioni dei file sono particolarmente modeste. Nei file MPEG (filmati) sisfrutta anche il fatto che il colore di un pixel nel tempo non varia moltovelocemente.

    Che rischi si corrono compattando? Supponiamo di trasmettere la sequenzaA B B A D C C A

    Codificata in maniera usuale si ottiene:

    1 01 01 1 000 001 001 1

    Se un disturbo sulla linea dovesse modificare la sequenza, ad esempio se ilricevitore riconoscesse:

    1 01 00 1 000 001 001 1

    Questa sequenza verrebbe interpretata come

    1 01 001 000 001 001 1

    cioe`

  • 3. CODIFICA DI FANO-HUFFMAN 12

    A B C D C C AUn errore in B si propaga e corrompe anche A. Le possibili soluzioni a questo

    problema sono: Tenere molto basso il rumore Proteggere linformazione

    La protezione dellinformazione puo` essere eseguita in varie maniere, tuttepero` basate sullinserimento di una certa quantita` di ridondanza nelle trasmissio-ni. Il modo piu` semplice e` aggiungere in fondo al pacchetto trasmesso un singolobit (bit di parita`), in modo tale che la somma di bit a 1 sia sempre pari (o sempredispari). I vantaggi sono:

    La ridondanza inserita e` molto modesta (solo un bit); Rileva tutti gli errori che interessano un numero dispari di bit (ed e` raro che

    siano gia` due in un pacchetto);Uno svantaggio e` che, sebbene ci si accorga dellerrore, e` impossibile correggere ilpacchetto, quindi e` necessaria la ritrasmissione (cosa non sempre possibile, comenel caso di sistemi a tempo reale).

    Quando e` necessario correggere oltre che rilevare gli errori, si puo` ricorrere ametodi piu` complessi, come quello illustrato in figura 8.

    InformazioneParit verticale

    Parit orizzontale

    FIGURA 8

    Lunica regola che vale con questi sistemi di protezione e` che la dimensionedellinformazione codificata e protetta e` sempre minore di quella dellinformazio-ne non codificata.

  • CAPITOLO 2

    Analisi di Segnali

    1. Potenza

    Sia dato un bipolo nella configurazione di figura 1.

    i(t)

    v(t)p

    FIGURA 1

    Valgono le note relazioni

    p = v(t)i(t) = R(t)i

    2

    (t) =

    v

    2

    (t)

    R(t)

    Uno strumento di misura reale non puo` fornire la potenza istantanea, ma soloquella media. La media temporale si definisce come:

    < >=

    1

    b a

    Z

    b

    a

    []dt

    Da un punto di vista teorico, dovrebbe essere:

    < >= lim

    T!+1

    1

    T

    Z

    +

    T

    2

    T

    2

    []dt

    ma, anche qui, visto che si parla di strumenti reali, ci si accontenta di un intervallodi tempo sufficientemente lungo.

    Supponiamo che il doppio bipolo sia un semplice resistore:

    < p(t) >= R < i

    2

    (t) >=

    < v

    2

    (t) >

    R

    Se poi R = 1:

    < p(t) >=< i

    2

    (t) >=< v

    2

    (t) >(3)

    La potenza, in questo caso particolare, viene detta normalizzata, e deve la suaimportanza al legame diretto con la tensione; a tale proposito va osservato chev(t) e` interpretabile come:

    v(t) = v

    0

    (t)+ < v(t) >(4)

    Linformazione e` tutta in v0(t), ragion per cui si tenta sempre di ridurre a zero latensione media, che rappresenta solo potenza sprecata.

    13

  • 1. POTENZA 14

    La potenza (normalizzata e non) gioca un ruolo fondamentale nellanalisi deisegnali, ad esempio permette di classificarli: un primo tipo (lunico fisicamenterealizzabile) e` quello di figura 2.

    0+T0

    A

    FIGURA 2

    Questo genere di segnale viene detto ad energia finita, mentre la sua potenzamedia e` nulla infatti:

    < P >= lim

    T!+1

    A

    T

    = 0

    Un secondo tipo di segnale e` illustrato in figura 3.

    FIGURA 3

    Qui lintegrale da eseguire per calcolare la media temporale della potenzadiverge, dunque si parla di segnale a potenza media infinita.

    In figura 4 e` rappresentato un terzo tipo di segnale:

    FIGURA 4

  • 1. POTENZA 15

    Essendo un segnale periodico, si puo` far tendere T ad infinito, ma con lacondizione che sia sempre multiplo del periodo della funzione, quindi si ottiene

    < P >= lim

    T!+1

    CT

    T

    = C

    con

    C =

    Z

    T

    0

    0

    2

    (t)dt

    Unaltra applicazione della potenza e` la misura del livello di disturbi presentein una trasmissione: esso normalmente si esprime come

    S

    N

    Dove S e` la potenza del segnale utile, mentre N e` la potenza del rumore. Ingenere il rumore introdotto e` funzione di piu` contributi

    f = f

    S

    N

    1

    ;

    S

    N

    2

    ; :::

    Per misurare tali grandezze si e` soliti usare il decibel, definito come

    P

    dB

    = 10 log

    10

    P

    x

    P

    0

    (5)

    dove P0

    e` una potenza di riferimento; nella telefonia e` frequente luso del dBm,dove P

    0

    = 1mW o del dBW, dove P0

    = 1W.Spesso si conoscono solo le tensioni, ma, proprio per il fatto che quel che conta

    e` il rapporto di due potenze, il calcolo dei decibel si puo` effettuare facilmente:

    P

    x

    P

    0

    =

    V

    2

    x

    =R

    V

    2

    0

    =R

    =

    V

    2

    x

    V

    2

    0

    10 log

    10

    V

    2

    x

    V

    2

    0

    = 20 log

    10

    V

    x

    V

    0

    Supponiamo ora di avere una cascata di doppi bipoli

    !

    g

    1

    !

    g

    2

    !

    g

    3

    !

    Ognuno di essi puo` essere caratterizzato da una impedenza di ingresso ed una diuscita, come in figura 5.

    Z Zout in

    FIGURA 5

    Per quale valore della resistenza di ingresso la potenza fornita ad ognuno diessi e` massima? Chiaramente deve essere un valore finito, perche, se Z

    in

    = 0, latensione di ingresso e` nulla, mentre se Z

    in

    = +1, sara` la corrente ad essere paria zero. Si puo` dimostrare che la condizione di massimo trasferimento di potenza

  • 2. LO SPAZIO DELLE FUNZIONI 16

    (detta anche condizione di adattamento) si ha per Zin

    = Z

    out

    . La potenza trasferitain condizione di adattamento e` detta potenza disponibile, e vale

    P

    d

    u

    = (Z

    out

    i

    out

    )i

    out

    =

    V

    2

    out

    4Z

    out

    (6)

    Un esempio di applicazione di questa regola e` il televisore: ogni cavo coassialeha una resistenza di 75, dunque ogni televisore ha una resistenza di ingresso di75. Dora innanzi si sottointendera` sempre, quando si parla di catene di doppibipoli, che essi siano in condizione di adattamento.

    2. Lo Spazio delle Funzioni

    Si puo` pensare ad una funzione (t) come ad un vettore, le cui componentisiani i valori assunti al variare di t, cioe`:

    t

    (t)

    La definizione di prodotto scalare fra funzioni risulta quindi ovvia

    b

    X

    t=a

    t

    t

    Z

    b

    a

    (t)

    (t)dt(7)

    Si puo` verificare che tale definizione soddisfa i requisiti per essere un prodottoscalare e che i segnali non devono necessariamente essere reali.

    Due segnali si dicono ortogonali se vale la relazioneZ

    b

    a

    (t)

    (t)dt = 0(8)

    Sono di particolare importanza gli insiemi di funzioni a due a due ortogonalifra di loro, cioe` certe funzioni

    k

    tali cheZ

    b

    a

    i

    (t)

    j

    (t)dt = K

    i

    i;j

    (9)

    dove i;j

    e` il simbolo di Kronecker, che vale uno se i = j, zero altrove (si puo`vedere come un elemento della matrice identita`). Se inoltre K

    i

    = 1 8i, allorai segnali sono fra loro ortonormali. Va segnalato che i K

    i

    hanno un ben precisosignificato fisico, infatti

    K

    i

    =

    Z

    b

    a

    j

    i

    j

    2

    dt = E

    i

    (10)

    E

    i

    e` lenergia normalizzata del segnale (t) 1. Condizione necessaria affincheun insieme di segnali sia ortonormale e` dunque che siano dotati di energia finita.

    Supponiamo ora che una funzione u(t) sia esprimibile come combinazionelineare delle funzioni componenti la base ortogonale

    = f

    j

    jj 2 N; 1 6 j 6 Ng

    1Se si interpreta i

    (t) come una tensione o una corrente, 2i

    (t) e` la sua potenza normalizzata, inaccordo con la (3). Poiche si integra nel tempo, si ottiene lenergia fornita dal segnale dallistante aallistante b.

  • 2. LO SPAZIO DELLE FUNZIONI 17

    Allora esisteranno certi coefficienti aj

    tali che:

    u(t) =

    N

    X

    j=0

    a

    j

    j

    (t)

    Geometricamente questi coefficienti si possono vedere come le proiezionidella funzione u(t) lungo i vettori della base, quindi si dovrebbero ricavare me-diante il prodotto scalare; si puo` verificare che e` proprio cos`:

    < u(t)j

    j

    (t) > =

    1

    K

    j

    Z

    b

    a

    u(t)

    j

    (t)dt =

    =

    1

    K

    j

    Z

    b

    a

    N

    X

    i=0

    a

    i

    i

    (t)

    j

    (t)dt =

    =

    N

    X

    i=0

    1

    K

    j

    Z

    b

    a

    a

    i

    i

    (t)

    j

    (t)dt =

    =

    N

    X

    i=0

    1

    K

    j

    a

    i

    K

    j

    i;j

    =

    = a

    j

    Noti i coefficienti aj

    e` facile ricavare anche lenergia che il segnale trasporta:

    E

    w

    = Efw(t)g =

    = E

    8

    b a, quindi le componenti di una funzione rispetto alla base orora introdotta sono:

    c

    n

    =

    1

    p

    T

    0

    Z

    a+T

    0

    a

    w(t)e

    jn!

    0

    t

    dt

    Una volta ottenute le componenti, si puo` esprimere la funzione originale comecombinazione lineare delle

    n

    (t):

    w(t) =

    1

    p

    T

    0

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t

    Normalmente si raggruppano le due radici esterne allintegrale e si indicanoin una sola delle due formule:

    c

    n

    =

    1

    T

    0

    Z

    a+T

    0

    a

    w(t)e

    jn!

    0

    t

    dt(14)

    w(t) =

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t(15)

    Poiche lintegrale e` stato eseguito solo su di una porzione dellasse delle ascis-se, non esiste alcun vincolo che costringa la sommatoria al secondo membro adessere identicamente nulla al di fuori di esso. Per sapere quali valori assuma inrealta`, e` opportuno indagare sulle funzioni periodiche: esse non sono ad energiafinita, ma sono a potenza media finita, e, particolare essenziale, possono esseredescritte completamente conoscendo il loro andamento su di un intervallo finito.

    w (t)w (t)

    T

    FIGURA 2. Funzione periodica w(t) e relativo troncamento wT

    (t)

    Data dunque una funzione periodica w(t) eseguiamo un troncamento, ovveroconsideriamo la funzione w

    T

    (t) che assume i suoi stessi valori solo su di un inter-vallo di lunghezza pari al periodo T di w(t), mentre e` identicamente nulla al difuori di esso.

  • 2. LA SERIE DI FOURIER DELLE FUNZIONI REALI. TEOREMA DI PARSEVAL 24

    Chiaramente wT

    (t) e` ad energia finita, quindi se ne puo` fare lanalisi di Fou-rier:

    c

    n

    =

    1

    T

    0

    Z

    T

    0

    w

    T

    (t)e

    jn!

    0

    t

    dt

    w

    T

    (t) =

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t

    Se pero` considerassimo un altro troncamento, a causa della periodicita` dellespo-nenziale complesso (!

    0

    e` uguale alla pulsazione della funzione periodica), otter-remmo gli stessi coefficienti c

    n

    , dunque si puo` dire che una funzione periodica e`uguale allo sviluppo di Fourier su tutto lasse delle ascisse.

    2. La Serie di Fourier delle funzioni reali. Teorema di Parseval

    Se la funzione in questione e` reale, i coefficienti della Serie di Fourier godonodi particolari proprieta`, utili quando si devono fare delle verifiche:

    w(t) Reale ! cn

    = c

    n

    w(t) Reale e pari ! =fcn

    g = 0 c

    n

    = c

    n

    w(t) Reale e dispari !

  • 3. TRASFORMATA DI FOURIER 25

    Parseval, applicazione della (11):

    1

    T

    0

    Z

    a+T

    0

    a

    jw(t)j

    2

    dt =

    1

    T

    0

    Z

    a+T

    0

    a

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t

    "

    +1

    X

    m=1

    c

    m

    e

    jm!

    0

    t

    #

    dt =

    =

    1

    T

    0

    +1

    X

    n;m=1

    Z

    a+T

    0

    a

    c

    n

    c

    m

    e

    j(nm)!

    0

    t

    dt =

    =

    +1

    X

    n;m=1

    n;m

    c

    n

    c

    m

    =

    =

    +1

    X

    n=1

    jc

    n

    j

    2(18)

    Questo teorema e` unestensione del Teorema di Pitagora applicato ad uno spa-zio con uninfinita` numerabile di dimensioni, ed ha la caratteristica di permettereil calcolo dellenergia di una funzione w(t) sviluppabile secondo Fourier noti soloi suoi coefficienti.

    3. Trasformata di Fourier

    Aumentando T0

    , cioe` le dimensioni dellintervallo in cui la funzione e` diversada zero (o, nel caso di funzioni periodiche, aumentando il loro periodo), f

    0

    si ridu-ce di conseguenza. Al limite per T

    0

    tendente allinfinito, f0

    diviene infinitesimale,quindi si puo` sostituire a nf

    0

    (discreto) la variabile f (continua). Si parla allora diTrasformata di Fourier, e si indica con il seguente formalismo:

    w(t)

    F

    !W (f)

    La trasformata di Fourier e` utile per calcolare la banda di frequenze occupatada un certo segnale; le sue formule sono:

    W (f) = F [w(t)] =

    Z

    +1

    1

    w(t)e

    j2ft

    dt(19)

    w(t) = F

    1

    [W (f)] =

    Z

    +1

    1

    W (f)e

    j2ft

    df(20)

    Si puo` sostituire la pulsazione alla frequenza, ma in tal caso bisogna tenerconto del un fattore costante 1

    2

    da portare fuori dallintegrale:

    W (!) =

    Z

    +1

    1

    w(t)e

    j!t

    dt(21)

    w(t) =

    1

    2

    Z

    +1

    1

    W (!)e

    j!t

    d!(22)

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 26

    Se un segnale e` reale, la parte reale della sua trasformata e` pari, mentre la parteimmaginaria e` dispari. E` inoltre facile ricavare le proprieta` analoghe alle (16):

    w(t) Reale ! W (f) =W (f)

    w(t) Reale e pari ! =fW (f)g = 0!W (f) =W (f)

    w(t) Reale e dispari !

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 27

    Ricordiamo alcune proprieta` notevoli della delta di Dirac:

    (x) =

    Z

    +1

    1

    e

    j2xy

    dy

    Z

    +1

    1

    (x)dx = 1

    Z

    +1

    1

    w(x)(x x

    0

    )dx = w(x

    0

    )

    Una funzione periodica ammette dunque come trasformata un treno di deltaequispaziate, e la distanza fra due delta adiacenti e` pari allinverso del periododella funzione nel dominio del tempo.

    Come esempio notevole si puo` calcolare la trasformata della sinusoide:

    v(t) = A sin(!

    0

    t)

    V (f) =

    Z

    +1

    1

    A sin(!

    0

    t)e

    j2ft

    dt =

    = A

    Z

    +1

    1

    sin(!

    0

    t)e

    j!t

    dt =

    = A

    Z

    +1

    1

    e

    j!

    0

    t

    e

    j!

    0

    t

    2j

    e

    j!t

    dt =

    =

    A

    2j

    Z

    +1

    1

    e

    j(!!

    0

    )t

    dt

    A

    2j

    Z

    +1

    1

    e

    j(!+!

    0

    )t

    dt =

    =

    A

    2j

    [(f f

    0

    ) (f + f

    0

    )](27)

    f0

    -f 0

    -A/2j

    A/2j

    f

    FIGURA 3. Trasformata di A sin(!0

    t)

    Non e` difficile trovare anche la trasformata del coseno:

    FfA cos(!

    0

    t)g =

    A

    2

    [(f f

    0

    ) + (f + f

    0

    )](28)

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 28

    f0-f 0 f

    A/2

    FIGURA 4. Trasformata di A cos(!0

    t)

    Unimportante funzione e` il pettine di Dirac, ovvero la funzione:

    w(t) =

    +1

    X

    m=1

    (tmT

    0

    )(29)

    Se si tenta di trasformare direttamene la (29), si ottiene:

    W (f) =

    Z

    +1

    1

    +1

    X

    m=1

    (tmT

    0

    )e

    j2ft

    dt =

    =

    +1

    X

    m=1

    e

    j2fmT

    0

    (30)

    Intuitivamente questa funzione assomiglia molto ad un treno di delta, infattise f = 1

    T

    0

    largomento della sommatoria e` unitario (quindi W ( 1T

    0

    ) ! 1), mentreper gli altri valori della f le varie armoniche dovrebbero tendere ad elidersi a vi-cenda. Un metodo per risolvere questo problema e` calcolare la serie ed ottenere latrasformata mediante la (26). I suoi coefficienti sono:

    c

    n

    =

    1

    T

    0

    Z

    +

    T

    0

    2

    T

    0

    2

    w(t)e

    jn!

    0

    t

    dt =

    =

    1

    T

    0

    Z

    +

    T

    0

    2

    T

    0

    2

    +1

    X

    m=1

    (tmT

    0

    )e

    jn!

    0

    t

    dt =

    1

    T

    0

    Questo perche fra T02

    e +T02

    ce` solo una delta. Da questi coefficienti e` facilerisalire alla trasformata:

    W (f) = f

    0

    +1

    X

    m=1

    (f mf

    0

    )(31)

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 29

    Dalla (31) e dalla (30) otteniamo una relazione che ci sara` utile:

    +1

    X

    m=1

    e

    j2fmT

    0

    = f

    0

    +1

    X

    m=1

    (f mf

    0

    )(32)

    Sappiamo ottenere la trasformata nota la serie: ci si puo` chiedere se sia possi-bile eseguire anche il passaggio inverso, cioe`, data la trasformata, trovare la serie(come e` ovvio, la trasformata deve essere un treno di delta); il nostro obiettivo e`calcolare i coefficienti c

    n

    tali che:

    w(t) =

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t

    O anche, utilizzando la funzione troncata (ricordiamo che w(t) e` periodica):

    +1

    X

    n=1

    w

    T

    (t nT

    0

    ) =

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t(33)

    *

    FIGURA 5. Esempio di convoluzione con una delta

    Lidea e` di trasformare ambo i membri: per quanto riguarda quello di destra,e` presto fatto:

    F

    (

    +1

    X

    n=1

    c

    n

    e

    jn!

    0

    t

    )

    =

    +1

    X

    n=1

    c

    n

    (f nf

    0

    )(34)

    La convoluzione di una funzione f(x) con una delta equivale a centrare f(x)sullargomento della delta stessa, come indicato in figura 5. Tutto cio` permette di

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 30

    esprimere in modo differente la traslazione della wT

    nella (33):

    w(t) =

    +1

    X

    n=1

    w

    T

    (t nT

    0

    ) =

    =

    +1

    X

    n=1

    w

    T

    (t) (t nT

    0

    ) =

    =

    Z

    +1

    1

    +1

    X

    n=1

    w

    T

    ()( t+ nT

    0

    )d =

    =

    Z

    +1

    1

    w

    T

    ()

    +1

    X

    n=1

    ( t+ nT

    0

    )d =

    = w

    T

    (t)

    +1

    X

    n=1

    (t nT

    0

    )

    Questo risultato si poteva immaginare anche senza il calcolo diretto: il segnaleperiodico e` somma di tanti segnali elementari opportunamente sfasati fra di lorodi un tempo pari a T

    0

    ; per spostare un segnale basta convolverlo con una delta, ela somma di infinite delta equispaziate e` il pettine di Dirac.

    Trasformando:

    W (f) = F

    (

    w

    T

    +1

    X

    n=1

    (t nT

    0

    )

    )

    =

    =W

    T

    (f)F

    (

    +1

    X

    n=1

    (t nT

    0

    )

    )

    =

    =W

    T

    (f)f

    0

    +1

    X

    n=1

    (f nf

    0

    )

    Lespressione trovata e` dunque costituita da un pettine di Dirac moltiplica-to per una funzione: gli unici valori significativi che tale funzione assume sonoin realta` in corrispondenza delle ascisse in cui una delle delta e` diversa da zero,quindi si puo` scrivere:

    W (f) = f

    0

    +1

    X

    n=1

    W

    T

    (nf

    0

    )(f nf

    0

    )(35)

    Tornando allequazione (33), combinando (34) con (35), si ottiene:

    +1

    X

    n=1

    f

    0

    W

    T

    (nf

    0

    )(f nf

    0

    ) =

    +1

    X

    n=1

    c

    n

    (f nf

    0

    )

    ovvero:

    c

    n

    =W

    T

    (nf

    0

    )f

    0

    (36)

  • 4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA 31

    Graficamente la (36) corrisponde a porre delle delta equispaziate alle ascissemultiple della f

    0

    e con forza pari al valore che assume in quel punto la WT

    (f)

    (scalandola di un fattore f0

    ).

    f0f0-2 f0- f02 f0f0-2 f02f0-

    FIGURA 6. Due importanti esempi di applicazione della (36): ilpettine di Dirac (a sinistra) e la funzione sinusoidale (a destra). Inentrambi i casi la W

    T

    (f) e` indicata a tratto discontinuo

  • CAPITOLO 4

    Densita` Spettrali di Energia e di Potenza

    1. Definizione di densita` spettrale di energia e di potenza

    La relazione di Parseval ha un importante significato fisico:Z

    +1

    1

    jw

    1

    (t)j

    2

    | {z }

    Potenza del segnale

    dt =

    Z

    +1

    1

    jW

    1

    (f)j

    2

    | {z }

    Densita` spettrale di energia

    df(37)

    La densita` spettrale di energia si misura in J/Hz ed e` un parametro fonda-mentale nellanalisi dei segnali: indica infatti la distribuzione di energia in funzio-ne della frequenza, ed il confronto fra le densita` del segnale trasmesso e di quelloricevuto puo` rivelare le distorsioni subite.

    Se il sistema non e` ad energia finita (cioe` non ha potenza media nulla), si puo`tentare di trovare un modo per esprimere come la potenza sia distribuita al variaredella frequenza.

    Sappiamo che:

    P = lim

    T!+1

    1

    T

    Z

    +

    T

    2

    T

    2

    jw(t)j

    2

    dt

    Poiche T tende ad infinito, si puo` anche riscrivere cos`:

    P = lim

    T!+1

    1

    T

    Z

    +1

    1

    jw

    T

    (t)j

    2

    dt

    Dove con wT

    (t) si intende la funzione w(t) troncata allintervallo

    T

    2

    ;+

    T

    2

    . Gra-zie alla relazione di Parseval:

    P = lim

    T!+1

    1

    T

    Z

    +1

    1

    jW

    T

    (f)j

    2

    df =

    = lim

    T!+1

    Z

    +1

    1

    jW

    T

    (f)j

    2

    T

    df

    E` dunque ovvio definire densita` spettrale di potenza:

    P

    w

    (f) = lim

    T!+1

    jW

    T

    (f)j

    2

    T

    (38)

    Se il segnale w(t) e` reale, allora Pw

    (f):

    E` pari; E` sempre positiva o nulla; Se il segnale e` periodico e` costituita da un treno di delta equispaziate; Ha una delta nellorigine se e solo se esiste una componente continua;

    32

  • 2. DENSITA` DI POTENZA DI FUNZIONI PERIODICHE 33

    Le prime due asserzioni sono inoltre condizioni necessarie e sufficienti.Un grave limite della definizione (38) e` il fatto che non sempre la trasfor-

    mata di wT

    (t) e` agevole da calcolare, anche per segnali molto semplici come lasinusoide. In tali casi e` molto piu` comodo usare la seguente formula:

    P

    w

    (f) = FfR

    w

    ()g(39)

    Dove Rw

    () e` detta funzione di autocorrelazione di w(t), ed e` pari a:

    R

    w

    () = w

    (t) w(t + )(40)

    Se il segnale e` reale, allora Rw

    ():

    E` pari; Assume il massimo assoluto (che coincide con la potenza del segnale) nel-

    lorigine; La sua trasformata ha le caratteristiche di una densita` spettrale di potenza; E` periodica se e solo se anche w(t) e` periodico ed ha uguale periodo;

    Le prime tre asserzioni sono inoltre condizioni necessarie e sufficienti.

    2. Densita` di potenza di funzioni periodiche

    Come esempio di applicazione della formula precedente, supponiamo di do-ver calcolare la densita` spettrale di potenza per il segnale w(t) = A sin!

    0

    t: e` logicoaspettarsi che tutta la potenza sia concentrata alla pulsazione !

    0

    . Per prima cosabisogna calcolare la funzione di autocorrelazione:

    R

    w

    () = lim

    T!+1

    1

    T

    Z

    +

    T

    2

    T

    2

    A

    2

    sin!

    0

    t sin(!

    0

    t+ !

    0

    )dt =

    = lim

    T!+1

    A

    2

    2T

    Z

    +

    T

    2

    T

    2

    [cos!

    0

    cos(2!

    0

    t+ !

    0

    )] dt =

    =

    A

    2

    2

    cos!

    0

    A questo punto si puo` calcolare la sua trasformata di Fourier:

    P

    w

    (f) = FfR

    w

    ()g =

    A

    2

    4

    [(f + f

    0

    ) + (f f

    0

    )]

    P

    w

    =

    Z

    +1

    1

    P

    w

    (f)df =

    A

    2

    2

    In effetti il risultato e` proprio quello che ci aspettavamo: tutta la potenzae` equipartita alle due frequenza f

    0

    e f0

    , in modulo pari alla frequenza dellasinusoide.

    Come conseguenza del fatto che il termine superstite nel calcolo della funzionedi autocorrelazione e` il coseno avente come argomento la differenza di t e t + , ladensita` spettrale di potenza di una cosinusoide (che e` una sinusoide sfasata di =2)e` uguale a quella calcolata precedentemente per il seno.

    Ci si puo` chiedere se sia possibile calcolare la densita` spettrale di potenza nelcaso in cui il segnale sia periodico e si abbiano a disposizione i coefficienti c

    n

    della

  • 2. DENSITA` DI POTENZA DI FUNZIONI PERIODICHE 34

    Serie di Fourier: in tal caso la funzione di partenza e` esprimibile come:

    w(t) =

    +1

    X

    n=1

    c

    n

    e

    j2nf

    0

    t

    E, come si e` detto precedentemente, la sua trasformata sara`:

    W (f) =

    +1

    X

    n=1

    c

    n

    (f nf

    0

    )

    Calcoliamo la funzione di autocorrelazione:

    R

    w

    () =

    *

    +1

    X

    n=1

    c

    n

    e

    j2nf

    0

    t

    +1

    X

    m=1

    c

    m

    e

    j2mf

    0

    (t+)

    +

    =

    =

    +1

    X

    n;m=1

    c

    n

    c

    m

    < e

    j2nf

    0

    t

    je

    j2mf

    0

    (t+)

    >=

    =

    +1

    X

    n;m=1

    c

    n

    c

    m

    e

    jm!

    0

    < e

    jn!

    0

    t

    je

    jm!

    0

    t

    >=

    =

    +1

    X

    n=1

    jc

    n

    j

    2

    e

    jn!

    0

    Dove si e` sfruttata la relazione

    < e

    j2nf

    0

    t

    je

    jm!

    0

    t

    >=

    n;m

    (41)

    Per finire:

    P

    w

    (f) = F

    (

    +1

    X

    n=1

    jc

    n

    j

    2

    e

    jn!

    0

    )

    =

    =

    +1

    X

    n=1

    jc

    n

    j

    2

    (f nf

    0

    )(42)

    Quindi lo spettro e` composto da un treno di delta (spettro a righe), cos` comesuccede per la trasformata del segnale.

  • CAPITOLO 5

    Processi Casuali

    1. Definizioni

    Si definisce processo casuale una funzione in una o piu` variabili casuali ed unao piu` variabili deterministiche. Si dice che un processo casuale e` stazionario se lesue caratteristiche statistiche non dipendono dal tempo.

    I segnali sono tipici esempi di processi casuali, in cui le variabili casuali sonoi valori campionati, mentre la variabile deterministica e` il tempo. La densita` diprobabilita` in generale si indica con:

    f

    (x; y)

    dove ed sono le variabili casuali. Nel caso sopracitato, la densita` di probabilita`sara`:

    f

    n

    1

    n

    2

    (x; y)

    con

    n

    1

    = n(t

    1

    )

    n

    2

    = n(t

    2

    )

    Le due variabili casuali indicano, dunque, i campioni prelevati ai tempi t1

    et

    2

    . Se il processo e` stazionario, si richiede non solo che fn

    1

    n

    2

    (secondo ordine) siaindipendente dal tempo, ma che lo siano anche f

    n

    1

    n

    2

    n

    3

    , fn

    1

    n

    2

    n

    3

    n

    4

    e cos` via (terzo,quarto ordine...). E` dunque particolarmente difficile dimostrare la stazionarieta`cos` come e` stata definita precedentemente (detta anche stazionarieta` in senso stret-to), e spesso ci si accontenta di una condizione piu` blanda (detta stazionarieta` insenso lato) le cui caratteristiche sono:

    n(t) indipendente dal tempo R

    n

    () = n(t

    1

    )n(t

    2

    ) dipendente solo da = t2

    t

    1

    Vale la pena di ricordare che il simbolo < > indica media nel tempo,mentre significa media statistica. Le rispettive definizioni sono:

    < x(t) > = lim

    T!+1

    1

    T

    Z

    +

    T

    2

    T

    2

    x(t)dt(43)

    Efg = x(t) =

    Z

    +1

    1

    xf

    (x)dx(44)

    Ad esempio consideriamo la funzione

    x(t) = A sin(!

    0

    t+

    0

    )

    in cui: A e` costante;

    35

  • 2. CALCOLO DI MEDIA E VARIANZA DI x(t) 36

    !

    0

    e` costante;

    0

    e` una variabile casuale con densita` di probabilita` indicata in figura 1;

    ()0

    FIGURA 1

    Si ottiene:

    x(t) =

    A

    2

    Z

    +

    sin(!

    0

    t+ )d = 0

    R

    x

    (t

    1

    ; t

    2

    ) = x(t

    1

    )x(t

    2

    ) =

    = A sin(!

    0

    t

    1

    +

    0

    )A sin(!

    0

    t

    2

    +

    0

    ) =

    = A

    2

    sin(!

    0

    t

    1

    +

    0

    ) sin(!

    0

    t

    2

    +

    0

    ) =

    =

    A

    2

    2

    cos!

    0

    (t

    1

    t

    2

    ) cos[!

    0

    (t

    1

    + t

    2

    ) + 2

    0

    ]

    | {z }

    Mediamente nullo

    =

    =

    A

    2

    2

    cos(!

    0

    )

    Dunque il processo esaminato e` stazionario in senso lato. Va comunque se-gnalato il fatto che se la distribuzione fosse, ad esempio, una porta fra 0 e , lamedia non piu` sarebbe nulla.

    Si dice che un processo casuale e` ergodico se vale la relazione

    < x(t

    1

    )x(t

    2

    ) >= x(t

    1

    )x(t

    2

    )(45)

    2. Calcolo di media e varianza di x(t)

    Nella maggior parte delle distribuzioni e` sufficiente conoscere media e varian-za (talvolta anche solo una di esse) per conoscere landamento esatto della f

    x

    (t).Lo scopo di questo paragrafo e` di trovare un legame fra R

    x

    (f) e media e varianzadi x(t).

    Consideriamo la definizione della funzione di autocorrelazione

    R

    x

    () = x(t)x(t + )(46)

    Se e` sufficientemente grande, x(t) e x(t+ ) diventano statisticamente indi-pendenti, quindi:

    x(t)x(t + ) = x(t) x(t+ )

  • 3. APPLICAZIONE: TRASMISSIONE CON RUMORE TERMICO 37

    Ma abbiamo richiesto stazionarieta`1, quindi:

    x(t) = x(t+ )

    In conclusione:h

    x(t)

    i

    2

    = lim

    !+1

    R

    x

    ()(47)

    Intuitivamente (47) indica che se due campioni infinitamente lontani sono in qual-che maniera legati fra loro (cioe` la media del loro prodotto non e` nulla), deve es-serci una componente continua. Un altro indizio per scoprire se il processo e` amedia non nulla e` la presenza di una delta nellorigine della P

    x

    (f).Per calcolare la varianza, va prima trovato il valore atteso di x2(t):

    x

    2

    (t) = R

    x

    (0) = P =

    Z

    +1

    1

    P

    x

    (f)df

    Dunque:

    2

    x

    = x

    2

    (t)

    2

    x

    = R

    x

    (0)R

    x

    (+1)(48)

    3. Applicazione: trasmissione con rumore termico

    Per il teorema del limite centrale la densita` di probabilita` della somma di in-finite variabili casuali e` una gaussiana. Questo e` proprio il caso del rumore ter-mico, somma delle perturbazioni delle particelle atomiche, che sono in numeropraticamente infinito, quindi si ha:

    f

    (x) =

    1

    p

    2

    2

    x

    e

    (x

    x

    )

    2

    2

    2

    x

    In figura 2 e` indicata la distribuzione del rumore gaussiano bianco su un canaletrasmissivo.

    N /20

    f

    FIGURA 2

    La media e` nulla, perche non ci sono delta nellorigine, del resto la sua an-titrasformata, che rappresenta la funzione di autocorrelazione, e` una delta, cheallinfinito e` nulla, mentre nellorigine e` infinita, per cui la varianza di x(t) e`infinita.

    1Peraltro la condizione di ergodicita` x(t) =< x(t) > ci assicura che x(t) e` indipendente daltempo.

  • 3. APPLICAZIONE: TRASMISSIONE CON RUMORE TERMICO 38

    Questi valori fuori della norma derivano dal fatto che la banda non e` statalimitata: se questo viene effettuato tramite un filtro passabasso ideale, si ottieneuna P

    y

    (f) come quella in figura 3.

    N /20

    f+B-B

    FIGURA 3

    Siccome il filtro e` un sistema lineare, se allingresso ce` una gaussiana, deveuscirne una gaussiana. Si ottiene cos`:

    y(t) = 0

    y

    2

    (t) =

    Z

    +1

    1

    P

    x

    (f)df =

    N

    0

    2

    2B = N

    0

    B

  • CAPITOLO 6

    Il Digital Signal Processing

    1. Analisi del DSP con componenti ideali

    Per elaborare dei segnali analogici in maniera agevole, si puo` discretizzarli,operare sul corrispondente segnale digitale (tramite un DSP), e quindi riconvertireil tutto in segnale analogico. La struttura che si usa in genere e` la seguente:

    S. anal!

    C

    !

    Q

    S. num.!

    DSP

    !

    D=A

    !

    R

    S. anal.!(49)

    Dove: C e` il campionatore (Sample and Hold); Q e` il quantizzatore; DSP e` il Digital Signal Processor; D/A e` il convertitore digitale/analogico; R e` il ricostruttore di segnale (detto anche filtro ricostruttore)

    Se il DSP non facesse nulla (cioe` lasciasse inalterato il segnale digitale), allin-gresso ed alluscita si dovrebbe teoricamente trovare lo stesso segnale analogico.La struttura equivalente sarebbe la seguente:

    x(t)

    S. analogico!

    C

    S. numerico!

    R

    S. analogico! ~x(t)(50)

    Lobiettivo di questo capitolo e` fare in modo da avere:

    x(t) = ~x(t)(51)

    Prima di affrontare questo problema e` opportuno pero` aprire una breve pa-rentesi riguardante i sistemi lineari.

    1.1. Sistemi Lineari ed Invarianti. Si definisce sistema lineare ed invarianteun funzionale [x(t)] che goda delle proprieta` di:

    Linearita`: [a1

    x

    1

    (t) + a

    2

    x

    2

    (t)] = a

    1

    [x

    1

    (t)] + a

    2

    [x

    2

    (t)]; Invarianza temporale: [x(t)] = y(t)! [x(t T )] = y(t T ) 8T 2 R

    Si puo` dimostrare che un sistema lineare invariante puo` essere caratterizzatocompletamente dalla risposta allimpulso h(t):

    x(t)=(t)

    !

    y(t)=h(t)

    !

    y(t) = x(t) h(t)

    Y (f) = X(f)H(f)

    Se allingresso di un sistema lineare e` presente un segnale x(t) caratterizzatoda una certa P

    x

    (f), quale sara` la densita` spettrale di potenza Py

    (f) del segnale

    39

  • 1. ANALISI DEL DSP CON COMPONENTI IDEALI 40

    y(t) alluscita?

    P

    x

    (f)

    x(t)

    ! h(t)

    y(t)

    ! P

    y

    (f) = lim

    T!+1

    Y

    T

    (f)

    2

    T

    =

    = lim

    T!+1

    Y

    T

    (f)Y

    T

    (f)

    T

    =

    = lim

    T!+1

    H(f)X

    T

    (f)H

    (f)X

    T

    (f)

    T

    =

    = lim

    T!+1

    X

    T

    (f)

    2

    T

    H(f)

    2

    =

    =

    H(f)

    2

    P

    x

    (f)(52)

    Un elemento di ritardo non influisce su questo risultato:

    P

    x

    (f)

    x(t)

    ! h(t) ! e

    j!t

    ! P

    y

    (f) =

    H(f)e

    j!t

    2

    P

    x

    (f) =

    =

    H(f)

    2

    e

    j!t

    2

    P

    x

    (f) =

    =

    H(f)

    2

    P

    x

    (f)

    Questo fatto si puo` esprimere dicendo che la potenza non dipende dalla fase.Come conseguenza, se si conoscono solo gli spettri di ingresso e di uscita e` impos-sibile conoscere completamente la funzione di trasferimento: ci e` dato conoscernesolo il modulo, mentre la fase e` totalmente indeterminata:

    H(f)

    2

    =

    P

    y

    (f)

    P

    x

    (f)

    (53)

    Un sistema non e` distorcente se valgono le relazioni(

    H(f)

    = C

    \H(f) = 2fT

    d

    (54)

    che mantengono inalterato il rapporto (53). Queste condizioni sono soddisfatteda

    y(t) = Cx(t)

    Ma anche da

    y(t) = Cx(t )

    (purche sia costante).Un tipico esempio e` il filtro passabasso (fig. 1).

    C

    R

    x(t)

    i(t)

    y(t)

    FIGURA 1

  • 1. ANALISI DEL DSP CON COMPONENTI IDEALI 41

    Il sistema e` retto dalle equazioni

    x(t) = Ri(t) + y(t)

    i(t) = C

    d

    dt

    y(t)

    (55)

    E` immediato ricavare

    H(f) =

    1

    1 + j

    f

    f

    0

    f

    0

    =

    1

    2RC

    H(f

    0

    )

    =

    p

    2

    2

    H(0)

    Il sistema distorce al crescere delle frequenze, infatti:

    Il modulo decresce, ma

    H(f)

    =

    1

    p

    1+(f=f

    0

    )

    2

    ' C se f f0

    La fase decresce in maniera non lineare, ma\H(f) = arctan

    f

    f

    0

    ' Kf se f f0

    Pero` se f f0

    , Py

    ' CP

    x

    1.2. Il campionatore ideale. Puo` essere schematizzato cos`:

    x(t)

    !

    x

    c

    (t)=

    P

    +1

    n=1

    x(nT

    c

    )(tnT

    c

    )

    !

    x

    ?

    ?

    P

    +1

    n=1

    (tnT

    c

    )

    e la sua mansione e` illustrata in figura 2.

    cT

    FIGURA 2

    E` chiaro che, affinche durante il campionamento non vadano perse delle in-formazioni preziose tali da rendere impossibile riottenere il segnale elementare, e`necessario che la funzione non vari troppo tra un campione e quello successivo.Matematicamente questo si esprime dicendo che il segnale deve essere a bandalimitata, cioe` supporremo che:

    X(f) = 0 8jf j > B

  • 1. ANALISI DEL DSP CON COMPONENTI IDEALI 42

    Come deve essere scelto B in relazione a Tc

    ? Per prima cosa occorre calcolarela trasformata del segnale campionato mediante loperazione di convoluzione delsegnale x(t) con il treno di delta S(t):

    X

    c

    = S(f) X(f) =

    =

    Z

    +1

    1

    X()S(f )d =

    = f

    c

    Z

    +1

    1

    X()

    +1

    X

    n=1

    (f + nf

    c

    )d =

    =

    +1

    X

    n=1

    f

    c

    X(f + nf

    c

    )

    Quindi la convoluzione con un treno di delta trasla il segnale originale1. Seil segnale e` quello descritto in figura 3, si otterra` quello di figura 4.

    +B-B

    FIGURA 3

    fccf -B

    B

    FIGURA 4

    1.3. Il filtro ricostruttore ideale. Per riavere il segnale originario, si puo` pen-sare ad un filtro passabasso ideale, che agira` come si vede in figura 5. Si vedesubito che il segnale ricostruito non e` quello originale, perche le due copie adia-centi non vengono filtrate. Lunico sistema e` allontanare fra di loro le replichecampionando piu` spesso (vd. figura 6).

    1Vedi paragrafo 4 del capitolo 3.

  • 2. ANALISI DEL DSP CON COMPONENTI REALI 43

    FIGURA 5

    FIGURA 6

    La condizione richiesta e`:

    f

    c

    > 2B(56)

    2. Analisi del DSP con componenti reali

    Chiaramente la realizzazione della catena (49) con componenti reali richiededelle considerazioni aggiuntive, che riguardano

    Il campionatore; Il filtro ricostruttore.

    2.1. Il filtro ricostruttore reale. Le specifiche per un filtro reale introduconodelle zone che la funzione di trasferimento non deve attraversare, tipicamentecome in figura 7.

    FIGURA 7

  • 2. ANALISI DEL DSP CON COMPONENTI REALI 44

    Piu` le specifiche sono severe (e stretti i corridoi fra le zone non permesse),piu` complessa (e costosa) e` la progettazione e la realizzazione, ma aumentandola frequenza di campionamento un numero intero di volte la frequenza richiestadalla (56), il filtro puo` essere meno sofisticato (vd. figura 8).

    FIGURA 8

    Un esempio di applicazione di questa tecnica sono i lettori CD x2: lorecchioumano non riesce ad apprezzare suoni di frequenza superiore ai 16 KHz, ragionper cui i campionamenti su di un CD sono di 44 KHz, in modo da eliminare la-liasing. I lettori piu` recenti interpolano i campioni, passando al filtro ricostruttorecampioni a frequenza 88 KHz, cosicche il filtro risulta piu` semplice, meno costosoe la qualita` del suono alluscita e` migliore.

    2.2. Il campionatore reale. Abbiamo sempre espresso lazione del campiona-tore mediante delle delta di Dirac, ma non e` cos`: in un campionamento reale, gliimpulsi sono rappresentati come in figura 9.

    Tc

    FIGURA 9

    Poiche il campionatore reale da` in uscita porte anziche impulsi, viene chia-mato S/H (Sample and Hold). Il S/H e` un sistema lineare, caratterizzato dallafunzione di trasferimento illustrata in figura 10.

    La funzione di trasferimento ideale e` quella tratteggiata, che non distorce (am-plifica alla stessa maniera tutte le frequenze). Si vede bene che alle alte frequenzequesto filtro riduce il guadagno, ma a noi interessano solo le frequenze in modulominori di B e, per quella banda, la funzione e` sufficientemente piatta (e` del tiposinx

    x

    ), inoltre riducendo la funzione diviene sempre piu` prossima a quella ideale.Si puo` pensare di inserire un filtro correttore Z(f) tale che H(f)Z(f) = 1

    (almeno per le frequenze che ci interessano). Lo schema diventa:

    !

    S=H

    ! !

    Z(f)

    !

  • 2. ANALISI DEL DSP CON COMPONENTI REALI 45

    FIGURA 10

    Un filtro di tal tipo e` piuttosto complicato, e spesso non e` necessario, perche e` sempre molto piccolo. In genere si progetta il filtro passabasso in modo tale chela sua funzione di trasferimento comprenda gia` al suo interno la Z(f).

  • CAPITOLO 7

    Codici di Linea

    1. Definizioni

    Supponiamo di voler trasmettere un segnale digitale, ad esempio1 1 0 1 0 0 1

    Il metodo piu` semplice (impiegato, ad esempio, nella trasmissione mediantefibre ottiche) consiste nel trasmettere un impulso in presenza di un 1, oppurenulla in presenza di un 0.

    ? ? ? ?

    Gia` dallesame della linea precedente si puo` notare che un problema rilevantee` la possibile perdita di sincronismo in seguito a lunghe sequenze di 0. Esisteun corrispettivo elettrico di questo sistema di comunicazione, ed e` chiamato NRZ(Non Return to Zero): alla sequenza di cui sopra e` associata una forma donda deltipo descritto in figura 1.

    1 1 1 10 0 00

    +V

    FIGURA 1. NRZ unipolare

    Il segnale e` costante allinterno di una bit-cell, e non torna a zero: il nome NRZderiva da questa caratteristica; un altro considerevole svantaggio e` il valor mediodiverso da zero, che provoca lo spreco di energia senza la trasmissione di alcunainformazione1, inoltre i trasformatori che si interfacciano al canale ricevendo unacomponente continua vengono saturati, isolando il secondario.

    Per eliminare questo difetto si puo` ricorrere allNRZ antipodale, in cui i duelivelli di tensione sono V , anziche +V e 0. Questo sistema funziona finche idue simboli sono equiprobabili in quanto le componenti positive e negative sicompensano originando un segnale a media nulla.

    Laltro difetto dell NRZ, cioe` la perdita di sincronismo, puo` essere eliminatoadottando una delle seguenti tecniche:

    Usare orologi precisi;

    1Vedi paragrafo 1 del capitolo 2.

    46

  • 1. DEFINIZIONI 47

    1 1 1 10 0 00

    +V

    -V

    FIGURA 2. NRZ antipodale

    Usare pacchetti brevi (ad es. RS232C: 1 bit di start, 8 bit di informazioni, 1-2bit di stop);

    Usare un altro canale per trasmettere il segnale di sincronismo; Ricorrere allRZ (Return to Zero), dove nella bit cell di ciascun 1 si torna a

    zero, come illustrato in figura 3.

    1 1 1 10 0 00

    +V

    FIGURA 3. RZ unipolare

    Anche con lRZ si puo` eliminare la componente continua: si ricorre a tale sco-po alla segnalazione RZ bipolare, in cui a 0 e` sempre associata tensione nulla,mentre a 1 e` associata una tensione alternativamente +V e V . Questo metodoveniva implementato nella realizzazione dei primi telex, ed e` indipendente dallaprobabilita` dei simboli 1 e 0 (vedi figura 4).

    1 1 1 10 0 0

    0

    +V

    -V

    FIGURA 4. RZ bipolare

    Ce` comunque il problema delle lunghe sequenze di 0: a questo si puo` ov-viare utilizzando lRZ antipodale (figura 5), oppure ricorrerndo al bit-stuffing.

  • 2. DENSITA` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 48

    1 1 1 10 0 0

    0

    +V

    -V

    FIGURA 5. RZ antipodare

    Il bit stuffing dal punto di vista del trasmettitore consiste nellinserire un 1dopo una sequenza di 0 di una certa lunghezza (stuffing); tale bit biene denomi-nato stuff bit. Il ricevitore deve riconoscere lo stuff bit contando il numero di 0consecutivi ed eliminarlo (destuffing), ad esempio:

    1 0 1 0 0 0 0 0 0 1 0Stuffing

    1 0 1 0 0 0 0 1 0 0 1 0Destuffing

    1 0 1 0 0 0 0 0 0 1 0Evidentemente se avviene un errore che interessa un 0 in quella sequenza, lo

    stuff bit viene scambiato per un bit significativo.

    2. Densita` spettrale di potenza per simboli equiprobabili

    Il segnale puo` essere considerato un processo casuale, funzione del tempo e dicerte variabili aleatorie

    n

    :

    x(t) =

    +1

    X

    n=1

    n

    s(t nT

    s

    )

    Consideriamo la trasmissione NRZ unipolare: in tal caso s(t) (segnale elemen-tare) sara` una porta di periodo T

    s

    , mentre la distribuzione di ciascuna delle n

    e`:

    n

    =

    (

    A con probabilita` p1

    0 con probabilita` p0

    La probabilita` del primo ordine e` indipendente dal tempo (p0

    = p

    1

    = K, assu-miamo K = 1

    2

    ), mentre la densita` di probabilita` del secondo ordine dipende dalladifferenza dei tempi (se t

    2

    t

    1

    < T

    s

    , la probabilita` che il segnale assuma lo stes-so valore e` maggiore, perche si potrebbe ricadere nella stessa bit-cell). Possiamoinoltre pensare che il processo sia ergodico: lo e` certamente al primo ordine, infatti

    < x(t) >= x(t) =

    A

    2

    ma non possiamo essere certi che sia cos` anche per quel che riguarda gli ordinisuperiori.

  • 2. DENSITA` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 49

    Vogliamo ora calcolare la densita` spettrale di potenza in una segnalazione deltipo:

    x(t) =

    +1

    X

    n=1

    a

    n

    f(t nT

    s

    )

    a

    n

    =

    (

    +A con probabilita` 12

    A con probabilita` 12

    (57)

    La segnalazione e` un NRZ antipodale con i simboli equiprobabili, quindi f(t) e`quella rappresentata in figura 6.

    f(t)

    1

    s-T /2s +T /2t

    FIGURA 6

    E` logico troncare la funzione x(t) usando multipli di Ts

    , centrando nellorigine(figura 7), dunque e`:

    T = (2N + 1)T

    s

    NN 1

    FIGURA 7

  • 2. DENSITA` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 50

    La Trasformata di Fourier del segnale troncato xT

    (t) e`

    X

    T

    (f) =

    +N

    X

    n=N

    F (f)a

    n

    e

    jn!T

    s

    =

    = F (f)

    +N

    X

    n=N

    a

    n

    e

    jn!T

    s

    Il calcolo della densita` di probabilita` e` immediato:

    P

    x

    (f) = lim

    T!+1

    jX

    T

    (f)j

    2

    T

    = lim

    T!+1

    2

    4

    jF (f)j

    2

    T

    +N

    X

    n=N

    a

    n

    e

    jn!T

    s

    2

    3

    5

    Lunica parte che ci interessa, cioe` lunica casuale, e` la sommatoria, di cuibisogna eseguire una media statistica:

    +N

    X

    n=N

    a

    n

    e

    jn!T

    s

    2

    =

    +N

    X

    n=N

    +N

    X

    m=N

    a

    n

    a

    m

    e

    j(nm)!T

    s

    =

    =

    +N

    X

    n=N

    +N

    X

    m=N

    a

    n

    a

    m

    e

    j(nm)!T

    s

    Ancora una volta isoliamo la parte che contiene le uniche variabili casuali2:

    a

    n

    a

    m

    = R(k) = a

    n

    a

    m

    | {z }

    a

    m

    2R

    =

    (

    a

    2

    n

    = 1 se n = ma

    n

    a

    m

    = 0 se n 6= m(58)

    In questo caso specifico an

    e` nullo (simboli equiprobabili e con segni opposti),dunque la sommatoria diviene

    +N

    X

    n=N

    +N

    X

    m=N

    a

    n

    a

    m

    e

    j(nm)!T

    s

    =

    +N

    X

    n=N

    +N

    X

    m=N

    2

    n;m

    e

    j(nm)!T

    s

    = 2N + 1

    Allora e`:

    P

    x

    (f) = lim

    T!+1

    jF (f)j

    2

    T

    (2N + 1) =

    = lim

    T!+1

    jF (f)j

    2

    T

    T

    T

    s

    =

    =

    jF (f)j

    2

    T

    s

    =

    = P

    f

    (f)

    Dunque la densita` spettrale dellintero segnale e` pari a quella del segnaleelementare.

    2Ipotizziamo sempre che due segnali distinti siano statisticamente indipendenti. In tal caso,appunto, a

    n

    a

    m

    = a

    n

    a

    m

    .

  • 3. GENERALIZZAZIONE A SIMBOLI NON EQUIPROBABILI 51

    3. Generalizzazione a simboli non equiprobabili

    Puo` essere interessante calcolare la densita` spettrale di potenza di un segnalerinunciando allipotesi (57): in tal caso

    P

    x

    (f) = lim

    T!+1

    "

    1

    T

    jF (f)j

    2

    +N

    X

    n=N

    a

    n

    e

    jn!T

    s

    2

    #

    =

    = lim

    N!+1

    P

    +N

    n=N

    P

    +N

    m=N

    a

    n

    a

    m

    e

    j(nm)!T

    s

    (2N + 1)T

    s

    jF (f)j

    2

    =

    =

    jF (f)j

    2

    T

    s

    lim

    N!+1

    P

    +N

    n=N

    P

    n+N

    k=nN

    a

    n

    a

    m

    e

    jk!T

    s

    2N + 1

    =

    =

    jF (f)j

    2

    T

    s

    lim

    N!+1

    +N

    X

    n=N

    P

    n+N

    k=nN

    a

    n

    a

    m

    e

    jk!T

    s

    2N + 1

    E` opportuno constatare che, seN tende ad infinito, la sommatoria in k divieneinsensibile al variare di n, quindi tutti i termini della sommatoria in n tendonoad essere uguali fra di loro ed, essendo 2N + 1, possono essere semplificati comesegue:

    P

    x

    (f) =

    jF (f)j

    2

    T

    s

    lim

    N!+1

    n+N

    X

    k=nN

    a

    n

    a

    m

    | {z }

    R(k)

    e

    jk!T

    s

    =

    =

    jF (f)j

    2

    T

    s

    +1

    X

    k=1

    R(k)e

    jk!T

    s

    =

    =

    jF (f)j

    2

    T

    s

    "

    R(0) +

    1

    X

    k=1

    R(k)e

    j!T

    s

    +

    +1

    X

    k=1

    R(k)e

    j!T

    s

    #

    =

    =

    jF (f)j

    2

    T

    s

    "

    R(0) + 2

    +1

    X

    k=1

    R(k) cos(k!T

    s

    )

    #

    (59)

    Essendo questo risultato piu` generale di quello trovato al paragrafo preceden-te, si puo` verificare la correttezza delle formule ricavate applicandole al caso in cuivalga la (57); ricorrendo alla (58) si ottiene:

    P

    x

    (f) =

    jF (f)j

    2

    T

    s

    "

    R(0) + 2

    +1

    X

    k=1

    R(k) cos(k!T

    s

    )

    #

    =

    =

    jF (f)j

    2

    T

    s

    [1 + 0] =

    =

    jF (f)j

    2

    T

    s

    =

    = P

    f

    (f)

    che e` esattamente quello che avevamo ottenuto.

  • 3. GENERALIZZAZIONE A SIMBOLI NON EQUIPROBABILI 52

    Un altro caso importante e` lNRZ unipolare:

    a

    n

    =

    (

    1 con probabilita` 12

    0 con probabilita` 12

    Per calcolare la funzione di autocorrelazione occorre distinguere: Se k = 0 le possibili coppie (a

    n

    ; a

    n+k

    ) sono (0; 0) e (1; 1), quindi R(0) =1

    2

    0 0 +

    1

    2

    1 1 =

    1

    2

    . Se k 6= 0 le possibili coppie sono invece (0; 0), (0; 1), (1; 0) e (1; 1), quindiR(0) =

    1

    4

    0 0 +

    1

    4

    0 1 +

    1

    4

    1 0 +

    1

    4

    1 1 =

    1

    4

    .Concludendo:

    R(k) =

    (

    1

    2

    se k = 01

    4

    se k 6= 0

    Si ottiene immediatamente, mediante la (32):

    P

    x

    (f) =

    jF (f)j

    2

    T

    s

    "

    1

    2

    + 2

    +1

    X

    k=1

    1

    4

    cos(2fnT

    s

    )

    #

    =

    =

    jF (f)j

    2

    T

    s

    "

    +1

    X

    k=1

    1

    4

    e

    j!kT

    s

    +

    1

    4

    #

    =

    = f

    0

    jF (f)j

    2

    4T

    s

    "

    +1

    X

    k=1

    (f kf

    s

    ) + 1

    #

    Che testimonia con la delta nellorigine la presenza di una componente continua.Siccome si ha spesso a che fare con variabili casuali scorrelate, si puo` cercare

    unequazione generale nel caso in cui

    R(k) =

    (

    a

    2

    n

    =

    2

    +

    2

    k = 0

    a

    n

    a

    k

    = a

    n

    a

    k

    =

    2

    k 6= 0

    In tal caso, sfruttando ancora una volta la (32)

    P

    x

    (f) =

    jF (f)j

    2

    T

    s

    lim

    N!+1

    n+N

    X

    k=nN

    R(k)e

    jk!T

    s

    =

    =

    jF (f)j

    2

    T

    s

    lim

    N!+1

    2

    +

    n+N

    X

    k=nN

    2

    e

    jk!T

    s

    =

    =

    jF (f)j

    2

    T

    s

    "

    2

    +

    2

    T

    s

    +1

    X

    n=1

    f

    n

    T

    s

    #

    (60)

  • CAPITOLO 8

    Segnalazioni in Banda Limitata

    1. Parametri caratteristici della trasmissione in bande

    Riconsideriamo lo schema trasmissivo di figura 1: il canale trasmissivo e` nor-malmente suddiviso in bande, per rendere possibile a piu` sorgenti di comunicareal rispettivo utente. Per banda si intende linsieme di frequenze occupate dalladensita` spettrale di potenza.

    Un primo problema e` il fatto che la Px

    (f) dipende da x(t), il quale a sua voltae` funzione dellinformazione trasportata e del segnale elementare; mentre que-stultimo puo` essere manipolato come piu` conviene, linformazione e` una variabilecasuale, su cui non si possono fare ipotesi.

    Un altro problema e` il fatto che un segnale limitato in banda deve essere, se-condo un noto teorema, illimitato nel dominio del tempo, cosa fisicamente irrea-lizzabile. In pratica e` necessario troncare il segnale al di la` di certi estremi, e, aseconda della regola utilizzata si distingue in:

    Banda null to null (o banda da zero a zero) che va dal primo zero a sinistraal primo zero a destra del punto in cui la P

    x

    (f) e` massima; Banda a 3 dB, in cui si considera lintervallo di frequenze in cui e` presente

    il massimo e gli estremi sono rappresentati dai punti in cui la Px

    (f) scendea 3 dB sotto di esso;

    Banda assoluta, in cui non si eseguono troncamenti, perche il segnale e`limitato di per se in banda (e` chiaramente una idealizzazione);

    Banda a 99%, in cui si considera un intervallo di frequenze dove e` presenteil 99% della potenza complessiva del segnale.

    Banda null to null

    Banda assoluta

    3 dB99 % P

    Banda 3 dBBanda 99%

    FIGURA 1

    Salvo sia diversamente specificato, ci riferiremo sempre alla banda null to null.

    53

  • 1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE 54

    Che banda occupa il segnale elementare NRZ? Si ha che:

    f(t) = u(t) u(t T

    s

    )

    F (f) = T

    s

    sin(fT

    s

    )

    fT

    s

    jF (f)j

    2

    = T

    2

    s

    sin

    2

    (fT

    s

    )

    (fT

    s

    )

    2

    In una segnalazione NRZ, la densita` spettrale di potenza e` proporzionale alquadrato del modulo del segnale elementare, quindi si puo` applicare quanto dettoa jF (s)j. Osservando la figura 2 si nota che tale grafico puo` essere diviso in lobi:

    1/T 2/Ts s-1/T-2/Ts s

    Lobo principale

    Lobi secondari

    FIGURA 2

    scegliere la banda null to null corrisponde a considerare il solo lobo principale.Leliminazione dei lobi secondari rende il segnale nel dominio del tempo non

    piu` uguale ad una porta, ma inserisce delle interferenze, generalmente trascurabilia causa della modesta entita` della potenza che e` stata esclusa.

    Si e` soliti introdurre alcuni parametri che misurano lefficienza della trasmis-sione, cioe` la velocita` di trasferimento dellinformazione in relazione alle dimen-sioni della banda occupata. In particolare si definisce R la velocita` di trasmissionedei simboli della sorgente, espressa in bit al secondo; D e` la velocita` di trasmissione deisimboli di canale, espressa in simboli al secondo; B e` la dimensione della banda (nelcaso specifico della banda null to null si usa il simbolo B

    00

    ); infine e` lefficienzaspettrale, ed e` pari al rapporto fra la velocita` di trasmissione e le dimensioni dellabanda considerando le sole frequenze positive (Banda unilatera):

    =

    R

    B

    00

    =2

    (61)

    Per codici di canale

    NRZ unipolari NRZ bipolari NRZ antipodali

    se non si adottano tecniche di trasmissione multilivello (che verranno trattate piu`avanti), ad ogni simbolo della sorgente corrisponde un simbolo di canale, quindi

  • 1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE 55

    D = R, e la durata di ciascun simbolo e` Ts

    , percio`

    R =

    1

    T

    s

    Osservando la figura 2 si ricava subito che

    B

    00

    =

    1

    T

    s

    = 1

    Per codici di canale

    RZ unipolari RZ bipolari RZ antipodali

    se si suppone che il segnale torni a zero a,Ts

    =2 il segnale elementare e` una portadi dimensione pari T

    s

    =2 soltanto (vd. fig. 3).

    Ts

    sT/2

    FIGURA 3

    Come conseguenza, anziche ottenere il grafico di figura 2 se ne ottiene uno cheha gli zeri distanziati di 2=T

    s

    invece di 1=Ts

    , il che, se non modifica R (e` sempreun bit per simbolo, e T

    s

    non cambia), modifica , poiche la banda si allarga:

    R =

    1

    T

    s

    B

    00

    =

    2

    T

    s

    =

    1

    2

    Per colmare questa lacuna dellRZ si puo` aumentare il numero di simboli pos-sibili, in modo da potere assegnare piu` bit a ciascuno di essi, ad esempio se i vari

  • 1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE 56

    simboli sono porte di ampiezza 0 V, 1 V, 2 V e 3 V si puo` porre

    00! 0 V01! 1 V10! 2 V11! 3 V

    A questo punto non e` piu` vero che ad ogni simbolo di canale corrisponde un sim-bolo della sorgente: ne corrispondono due (R = 2D), il che modifica R, ma nonB

    00

    , e si riottiene:

    R = 2

    1

    T

    s

    ) = 1

    Generalizzando, se ad un simbolo sono associati l bit, ovviamente sara`

    D =

    R

    l

    Per quanto riguarda lefficienza spettrale

    =

    (

    l NRZl

    2

    RZ(62)

    Chiaramente aumentare il numero di simboli di sorgente per un simbolo dicanale ha delle conseguenze in termini di energia media spesa per trasmettere unbit di informazione. Nel caso in cui la corrispondenza sia 1:1, cioe` la costellazionesia quella di figura 4, si ottiene:

    +V0-V

    d=2V

    FIGURA 4

    E =

    1

    2

    V

    2

    + (V )

    2

    = V

    2

    Se invece i simboli sono otto (fig. 5), si trova:

    -7V -5V -V +V +3V +5V +7V-3V 0

    FIGURA 5

    E =

    1

    8

    V

    2

    [49 + 25 + 9 + 1 + 1 + 9 + 25 + 49] = 21V

    2

    Come si vede, E cresce di molto, ed i canali reali non possono trasportaresegnali eccessivamente energetici. Si puo` scegliere di comprimere la costellazio-ne, cioe` di dimensionare il valore di V in figura 5 affinche abbia la stessa energia

  • 2. INTERFERENZA INTERSIMBOLICA 57

    media di quella calcolata in figura 4; si ottiene:

    V

    2

    =

    V

    1

    p

    21

    Questo comporta una minore immunita` al rumore (d2

    0; 2d

    1

    ). Noto il rapportoS

    N

    e` possibile calcolare il massimo numero di simboli che si possono introdurre,infatti deve essere:

    N 6

    d

    2

    dove d e` la distanza fra i simboli:

    d =

    2V

    M 1

    =

    2V

    2

    l

    1

    Il numero di bit per simbolo e` indicato con l. Con un po di algebra si ricava che,per un NRZ:

    max

    = l = log

    2

    1 +

    S

    N

    (63)

    2. Interferenza Intersimbolica

    Abbiamo precedente affermato che leliminazione dei lobi secondari causadelle distorsioni, generalmente trascurabili: e` giunto il momento di trattare piu` ap-profonditamente questo argomento. Il segnale elementare dellNRZ e` una porta:matematicamente si ottiene che il lobo principale (lunico che attraversa il canale)ha una forma donda come quella di figura 6: il punto di campionamento ottimo,cioe` quello il cui e` piu` facile discriminare fra 1 e 0 e` quello indicato.

    Ts Ts

    t0

    FIGURA 6. Segnale elementare prima e dopo leliminazione deilobi secondari.

    Scegliere t0

    come punto di campionamento non garantisce pero` che il decisoreriesca sempre ad interpretare correttamente il segnale ricevuto, infatti il segnaleelementare cos` come giunge allaltro capo del canale non si esaurisce subito, maha una coda (enfatizzata in figura 7) rivolta verso linfinito positivo che rischia difare interpretare come 1 i simboli successivi, anche se sono 0.

    Questo genere di disturbo e` detto interferenza intersimbolica (ISI); se conduceallerrata ricezione di certe sequenze di simboli, si parla di errore sistematico,cioe` di un grave errore di progetto, che causa errori in ricezione anche in assenzadi rumore: la ricerca di un modo per eliminare questo pericolo e` lo scopo di questocapitolo.

  • 2. INTERFERENZA INTERSIMBOLICA 58

    FIGURA 7

    Un canale e` un sistema lineare ed invariante (almeno teoricamente), dunque e`possibile individuare una funzione di trasferimento H(f) (e la relativa h(t)) che locaratterizzi completamente. Se il segnale elementare e` una generica r(t)

    x(t) =

    +1

    X

    n=1

    a

    n

    r(t nT

    s

    )

    y(t) = x(t) h(t) =

    =

    "

    +1

    X

    n=1

    a

    n

    r(t nT

    s

    )

    #

    h(t) =

    =

    +1

    X

    n=1

    [a

    n

    r(t nT

    s

    ) h(t)]

    Se conosciamo s(t) , r(t) h(t), sara` anche

    r(t nT

    s

    ) h(t) = s(t nT

    s

    )

    a motivo dellinvarianza temporale.

    t t +T t +2T 0 0 0 ss

    t t +T t +2T 0 0 0 ss

    x(t)

    y(t)

    FIGURA 8

    Da cio` segue la semplice formula:

    y(t) =

    +1

    X

    n=1

    a

    n

    s(t nT

    s

    )

  • 2. INTERFERENZA INTERSIMBOLICA 59

    Se consideriamo un istante t0

    , i segnali ai due capi del canale saranno1:

    x(t

    0

    ) = a

    0

    r(t

    0

    )

    y(t

    0

    ) =

    +1

    X

    n=1

    a

    n

    s(t

    0

    nT

    s

    ) = a

    0

    s(t)

    | {z }

    S:utile

    +

    X

    n6=0

    s(t

    0

    nT

    s

    )

    | {z }

    Interferenti

    La situazione e` quella di figura 8. Una conseguenza rilevante dellinterferen-za su y(t) e` che i simboli si spostano sullasse s(t) con il tempo, come si nota infigura 9.

    s(t)

    s(t)

    r(t)Canale

    Campionamento

    FIGURA 9

    E` ovvio che la soglia va posta comunque nel punto medio della congiungentedei due simboli, ed e` altrettanto ovvio che la situazione che provoca errori siste-matici e` quella di figura 10, in cui i due segmenti si sovrappongono parzialmente.

    s

    s

    1

    0

    FIGURA 10

    Un parametro per misurare la pericolosita` dellinterferenza intersimbolica, e`la distorsione di picco, definita come il rapporto fra interferenti e segnale utileallistante t

    0

    , cioe`:

    D

    p

    =

    P

    n6=0

    ja

    n

    s(t

    0

    nT

    s

    )j

    ja

    0

    s(t

    0

    )j

    (64)

    Noi dovremo porre:

    D

    p

    6 1(65)

    1Qui useremo sommatorie con n 2 (1;+1) anche per gli interferenti, ma bisogna ricordareche solo i termini con n negativa generano interferenza intersimbolica, mentre gli altri sono, per ilprincipio di causalita`, necessariamente nulli.

  • 2. INTERFERENZA INTERSIMBOLICA 60

    perche questo ci garantisce che, nel caso peggiore, gli interferenti abbiano modulopari al segnale utile, ma segno opposto: in tale situazione il simbolo finisce percoincidere con la soglia, mentre in tutti gli altri casi il simbolo non puo` oltrepassarela soglia (vd. fig. 11).

    s1s0

    0A-A

    Segnale utile

    Interferenti

    FIGURA 11. Interferenza intersimbolica in una segnalazione NRZantipodale: le due frecce rappresentano la massima ampiezza (nelcaso peggiore) degli interferenti e lampiezza del segnale utile: ilrapporto fra le loro lunghezze e` pari aD

    p

    : se tale parametro e` paria uno, le due regioni si toccano, ma non si sovrappongono, il chemotiva la (65).

    Finora abbiamo parlato di un sistema NRZ antipodale: che cosa succede se ilsistema e` unipolare? Come e` ovvio, e` solo il simbolo 1 (associato ad una portadi ampiezza A) a provocare uninterferenza verso lalto, mentre il simbolo 0 (chenon e` associato ad alcuna forma donda) non ne provoca, ma la subisce, come sivede in figura 12.

    s1

    AA/2

    0

    s0

    Interferenti

    FIGURA 12. Interferenza intersimbolica in una segnalazione NRZunipolare: qui gli interferenti non possono causare problemi du-rante la ricezione di un 1, ma lo possono fare durante la ricezionedi un 0: in questo caso D

    p

    deve essere minore di 1=2.

    Si ottiene:

    D

    p

    =

    P

    n6=0

    ja

    n

    s(t

    0

    nT

    0

    )j

    a

    1

    s(t

    0

    )

    Dove a1

    = A. Nel caso peggiore sono stati trasmessi in precedenza solo degli1: affinche un eventuale 0 possa essere ricevuto correttamente, deve essere:

    D

    p

    =

    P

    n6=0

    s(t

    0

    nT

    0

    )

    s(t

    0

    )

    6

    1

    2

    (66)

  • 2. INTERFERENZA INTERSIMBOLICA 61

    Talvolta viene citata anche la distorsione efficace, che pero` qui non verra` maiusata:

    D

    2

    E

    =

    P

    n6=0

    [a

    n

    s(t

    0

    nT

    0

    )]

    2

    [a

    1

    s(t

    0

    )]

    2

    (67)

    Veniamo dunque al punto significativo: come deve essere costruito il ricevito-re affinche linterferenza intersimbolica sia trascurabile? La cosa piu` ovvia da faree` porre a monte del campionatore un filtro, detto filtro di ricezione o equalizzatoredi canale, dotato di unopportuna funzione di trasferimento. Se supponiamo chela sorgente generi un treno di delta, possiamo assegnare una funzione di trasferi-mento anche al trasmettitore, cioe` possiamo pensarlo come ad un filtro (detto filtroformatore) che trasformi una delta unitaria nel segnale elementare. Anche il cana-le, che filtra i lobi secondari, ha una funzione di trasferimento, quindi lo schemache si ottiene e` il seguente.

    x(t)

    !

    TX [H

    T

    (f)]

    x

    TX

    (t)

    !

    CH [H

    c

    (f)]

    x

    RX

    (t)

    !

    RX [H

    R

    (f)]

    y(t)

    !

    (68)

    Le equazioni sono:

    x(t) =

    +1

    X

    n=1

    a

    n

    (t nT

    s

    )

    x

    TX

    (t) =

    +1

    X

    n=1

    a

    n

    h

    T

    (t nT

    s

    )

    x

    RX

    (t) =

    +1

    X

    n=1

    a

    n

    [h

    T

    (t nT

    s

    ) h

    c

    (t)]

    y(t) =

    +1

    X

    n=1

    a

    n

    [h

    T

    (t nT

    s

    ) h

    c

    (t) h

    R

    (t)]

    Dunque noi vogliamo che

    s(t) , h

    T

    (t) h

    c

    (t) h

    R

    (t)

    sia priva di interferenza intersimbolica: una volta che sia stata scelta, si puo` calco-lare la funzione di trasferimento dellequalizzatore di canale mediante la formula

    H

    R

    (f) =

    S(f)

    H

    c

    (f)H

    T

    (f)

    e con il vincolo che tale funzione sia fisicamente realizzabile2.

    2Ce` anche un problema aggiuntivo: un canale reale non ha una funzione di trasferimento rigo-rosamente costante nel tempo, ma solo lentamente variabile: e` necessario che H

    R

    (f) si possa calibrareadattandosi alle condizioni del sistema. Una volta tale caratteristica era molto costosa (servomotori cheregolavano capacita` di condensatori variabili...): ora non e` piu` cos` grazie allimpiego di filtri numerici,che risolvono anche il problema della fisica realizzabilita`.

  • 2. INTERFERENZA INTERSIMBOLICA 62

    Una formalizzazione matematica della condizione di assenza di interferenzaintersimbolica e`:

    s(t

    0

    tT

    s

    ) =

    (

    C n = 0

    0 n 6= 0

    (69)

    Un esempio di funzione che soddisfi la (69) e` la funzione

    s(t) =

    sin(f

    s

    t)

    f

    s

    t

    (70)

    in cui la costanteC e` unitaria. Dallesame della figura 13 si osserva che la larghezzadi banda deve essere pari ad almeno fs

    2

    (detta frequenza di Nyquist). Per quantoriguarda lefficienza spettrale, si trova che:

    =

    R

    B

    00

    =2

    =

    =

    R

    f

    s

    =2

    =

    =

    R

    1=(2T

    s

    )

    =

    =

    R

    R=2

    =

    = 2

    Si noti che lefficienza spettrale trovata e` la massima raggiungibile mediante una

    Ts fs2

    FIGURA 13

    sgnalazione binaria.Il segnale (70) non e` fisicamente realizzabile, perche non e` causale (non ce`

    un istante prima del quale la funzione e` identicamente nulla). In pratica si troncaquando il segnale diventa confrontabile con il rumore, come si vede in figura 14.

    FIGURA 14

  • 3. IL PRIMO CRITERIO DI NYQUIST 63

    Questa funzione ha ancora un punto di campionamento ottimo nel massimocentrale3 e non presenta interferenza intersimbolica: il suo unico difetto e` chenon puo` essere trasmessa su banda limitata, perche, essendo a supporto com-patto, ammette una trasformata di Fourier che ha banda infinita: in pratica sitrasmette ugualmente usando una banda lievemente superiore a quella stimataprecedentemente, introducendo delle distorsioni in genere trascurabili.

    3. Il Primo Criterio di Nyquist

    Finora non e` stato considerato un aspetto tipico di un sistema di comunica-zione reale: la possibile mancanza di perfetta sincronizzazione fra ricevitore e tra-smettitore, che sposta il punto di campionamento in anticipo o in ritardo rispettoal punto di campionamento ottimo. Tale fenomeno viene detto jitter ed e` illustratoin figura 15.

    Ts

    FIGURA 15

    Leffetto del jitter sul massimo assoluto non da` grande fastidio, in quanto laderivata e` nulla in quel punto, per cui intervengono differenze del secondo ordine;cos` non si puo` dire per quanto riguarda gli zeri della funzione: l` la derivata non e`piu` nulla, percio` la mancata sincronizzazione puo` provocare dei problemi: come sivedra`, si puo` fare in modo che anche negli zeri la derivata di annulli, ma bisognera`ridurre lefficienza spettrale.

    Riconsideriamo ora lespressione (69), per ottenere una soluzione il piu` ge-nerale possibile e in modo da poter scegliere fra un ventaglio di possibili segnalielementari quello piu` adatto caso per caso.

    Il campionatore ideale, avendo allingresso il segnale elementare, fornisce al-luscita un treno di delta:

    s(t)

    !

    P

    +1

    k=1

    s(t

    0

    +kT

    s

    )(tt

    0

    kT

    s

    )

    !

    x

    ?

    ?

    P

    +1

    k=1

    (tt

    0

    kT

    s

    )

    3Si n