View
102
Download
6
Category
Preview:
DESCRIPTION
Algebra Lineare
Citation preview
ALGEBRA LINEAREAPPUNTI
Daniele Corradetti
2 novembre 2015
Indice
1 Spazi vettoriali 31.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Cambi di coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Spazi Euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Forme bilineari 92.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . . . . 92.2 Forme Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.3 Forme Bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Rappresentazione matriciale di una forma bilineare . . . . . . . . 112.3.2 Cambio di base di una forma bilineare . . . . . . . . . . . . . . . . 12
2.4 Forme Quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.4.1 Diagonalizzazione di una forma quadratica . . . . . . . . . . . . . 132.4.2 Riduzione di una forma quadratica tramite matrici triangolari . . 152.4.3 Il Determinante di Gramm . . . . . . . . . . . . . . . . . . . . . . 18
2.5 La legge di inerzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.6 Lo spazio Complesso n-dimensionale . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Cambio di base di una forma bilineare Hermitiana . . . . . . . . 212.7 Esercizio di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Trasformazioni lineari 243.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.2 Trasformazioni Lineari e operazioni elementari . . . . . . . . . . . . . . . 25
3.2.1 Cambio di base in una trasformazione lineare . . . . . . . . . . . 273.3 Sottospazi invarianti e Polinomio caratteristico . . . . . . . . . . . . . . . 273.4 Trasformazioni lineari e Forme Bilineari . . . . . . . . . . . . . . . . . . . 31
3.4.1 Proprietá dell’operazione aggiunta . . . . . . . . . . . . . . . . . . 323.5 Trasformazioni Hermitiane o Autoaggiunte . . . . . . . . . . . . . . . . . 323.6 Trasformazioni Unitarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.7 Trasformazioni Normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.8 Trasformazioni Lineari nello Spazio Euclideo Reale . . . . . . . . . . . . 33
4 La Forma di Jordan 344.1 Matrice e polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Metodo efficace per il calcolo di B(λ) . . . . . . . . . . . . . . . . 354.2 Autovalori e Autovettori di A . . . . . . . . . . . . . . . . . . . . . . . . . 364.3 Polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.1 Proprietá della matrice C(λ) . . . . . . . . . . . . . . . . . . . . . 37
1
INDICE 2
5 Decomposizioni e forme canoniche 385.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.2 Decomposizione A = UH . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Decomposizione di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.3.1 Potenze di matrici nella forma di Jordan . . . . . . . . . . . . . . . 395.4 Esercizio di Decomposizione in Forma di Jordan . . . . . . . . . . . . . . 40
6 Applicazioni fisiche 426.1 ODE radici complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426.2 Equazione Differenziale 2º Ordine . . . . . . . . . . . . . . . . . . . . . . 43
Capitolo 1
Spazi vettoriali
1.1 Schema generale del discorso
• Definire uno spazio vettoriale a partire da un campo scalare: é un gruppo com-mutativo rispetto a +, l’operazione é associativa, l’operazione é lineare rispetto acampo scalare ;
• Definire vettori linearmente indipendenti;
• Definire una base di uno spazio vettoriale di dimensione n;
• Definire le coordinate di un vettore dello spazio secondo una definita base;
• Teorema: dato un insieme di n vettori linearmente indipendenti in uno spaziovettoriale di dimensione n allora questi vettori formano una base dello spazioe qualsiasi vettore appartenente allo spazio ha una rappresentazione unica comecombinazione lineare di questi vettori e i coefficienti di questa rappresentazionesono chiamati coordinate del vettore rispetto alla base.
• Teorema: tutti gli spazi vettoriali di dimensione n sono isomorfi fra di loro.
• A questo punto possiamo definire i cambi di coordinate nello spazio vettoriale
• Successivamente per poter fare geometria su questo spazio dovremo definire unprodotto interno, dal quale potremo definire e derivare una norma e dunque lalunghezza di un vettore, la distanza e l’angolo fra due vettori.
• Una volta definito l’angolo fra due vettori possiamo finalmente parlare di BasiOrtogonali.
• Da qui possiamo poi definire un vettore ortogonale a un sottospazio e la proie-zione di questo vettore sul sottospazio assieme alla distanza minima del vettoredal sottospazio.
1.2 Spazi vettoriali
Definizione 1. Uno spazio vettoriale su un campo scalare R é un insieme V con vettoriv, w, z tali che soddisfa le seguenti caratteristiche:
(i) V é un gruppo rispetto all’operazione + quindi é chiuso rispetto all’operazione equesta ha un elemento neutro e ogni elemento ha l’inverso
3
CAPITOLO 1. SPAZI VETTORIALI 4
(ii) l’operazione commutativa: v + w = w + v(iii) l’operazione é associativa: (v + w) + z = v + (w + z)(iv) l’operazione é lineare sul campo scalare α(v + w) = αv + αw
Esempio 2. Esempi classici: Rn, le matrici di un certo ordine a partire da un camposcalare, i polinomi con ordine minore di n.
Definizione 3. Un insieme di vettori x, y, z, ..., v si dicono linearmente indipendenti sedati λ1, .., λn tali che
λ1x + λ2y + ... + λnv = 0
implica necessariamente che λ1 = .. = λn = 0.
Uno spazio vettoriale si dice di dimensione n se contiene n vettori linearmente in-dipendenti. In questo caso ogni insieme di n vettori e1, .., en linearmente indipendentié chiamato base dello spazio vettoriale V. Chiaramente essendo lo spazio vettoriale didimensione n, questo vuol dire che un qualsiasi altro vettore appartenente allo spazioé linearmente dipendente e quindi puó essere scritto come combinazione lineare deglielementi della base. Infatti dati λ1, .., λn+1 non tutti nulli tali che
λ1x + λ2e1 + ... + λn+1en = 0
posssiamo scrivere il vettore x come la combinazione:
x = −λ2
λ1e1 + ... +−λn+1
λ1en
Questa rappresentazione é anche unica dato che se non fosse unica allora sot-traendo la prima con la seconda potremmo derivare una combinazione lineare deivettori della base capace di dare il vettore nullo e quindi dedurne che i vettori sonolinearmente dipendenti.
Dunque data una base in uno spazio vettoriale n ovvero n vettori linearmenteindipendenti e1, .., en , ogni vettore x puó essere scritto come combinazione linearex = ξ1e1 + .. + ξnen e i coefficienti (ξ1, .., ξn) sono chiamati coordinate di x nella basee1, .., en .
Esempio 4. Dati i seguenti vettori
v1 = (1, 1, 1, ...1, 1)v2 = (0, 1, 1, ...1, 1)v3 = (0, 0, 1, ...1, 1)
...vn = (0, 0, 0, ...0, 1)
scrivere un vettore x di coordinate (ξ1, ...ξn) nella base e1, ..., en nelle nuove coordi-nate η1, ...ηn. Da adesso usiamo la convenzione di Einstein sulla somma sugli indiciripetuti e spostando gli indici delle coordinate in alto. Ricordiamoci che se vogliamopoi passare alla notazione matriciale, gli indici in alto indicano colonne e quindi deicoefficienti con indice in alto sono rappresentati da 1 riga, mentre gli indici in bassoindicano righe e dunque dei coefficienti con indici in basso sono rappresentati da 1colonna:
x = ξ iei = ηivi
CAPITOLO 1. SPAZI VETTORIALI 5
Tuttavia sappiamo anche che, dato che i vettori {vi} sono una base dello spazio:
ei = λjivj
e dunque abbiamo chex = ξ iλ
jivj = η jvj
Nel caso esplicito abbiamoe1 = v1 − v2e2 = v2 − v3e3 = v3 − v4
...en = vn
Ovvero
λji =
1 −1 0 · · · 00 1 −1 00 0 1 0... . . . −10 0 0 · · · 1
e abbiamo cosí
ξ iλji =
(ξ1 ξ2 · · · ξn)
1 −1 0 · · · 00 1 −1 00 0 1 0... . . . −10 0 0 · · · 1
=
ξ1
ξ2 − ξ1
ξ3 − ξ2
...ξn − ξn−
t
A questo punto possiamo definire quello che consideriamo essere isomorfismi fraspazi vettoriali e che sono omeomorfismi fra gruppi ma tali che oltre che alla sommastruttura di somma venga trasportata dall’applicazione anche la struttura di moltipli-cazione per campo scalare.
Con questo possiamo formulare il primo Teorema che dice che tutti gli spazi vetto-riali della stessa dimensione n sono isomorfi fra loro.
Esempio 5. Esempi di come l’isomorfismo viene realizzato possono essere:
• Spazio lineare dei polinomi:
x → p(t)ξ1
ξ2
...ξn
ξ1 + ξ2t + ... + ξntn−1
• Spazio delle Matrici:
V 3 x → A ∈ M22(R)
ξ1
ξ2
ξ3
ξ4
(ξ1 ξ2
ξ3 ξ4
)
CAPITOLO 1. SPAZI VETTORIALI 6
1.3 Cambi di coordinate
Nel paragrafo precedente abbiamo introdotto il concetto di base di uno spazio vetto-riale e di coordinata di un vettore secondo una determinata base. Adesso supponiamodi avere due basi distinte e di voler calcolare il cambio di coordinate da una base al-l’altra. Questo non é altro che una generalizzazione dell’esempio che abbiamo fatto inprecedenza.
Abbiamo infatti che se vogliamo passare da un sistema di coordinate nella baseB = {ei}a un sistema di coordinate nella base P = {vi}
x = ξ iei = η jvj
Dobbiamo in primo luogo scrivere i vettori {ei} come combinazione lineare dei {vi}
e1 = aj1vj = a1
1v1 + ... + an1 vn
e2 = aj2vj = a1
2v1 + ... + an2 vn
e3 = aj3vj = a1
3v1 + ... + an3 vn
...en = aj
nvj = a1nv1 + ... + an
nvn
Ovvero
A =
a1
1 a21 a3
1 · · · an1
a12 a2
2 an2
......
a1n · · · an
n
e abbiamo cosí
η1
η2
η3
...ηn
t
=
(ξ1 ξ2 · · · ξn)
a1
1 a21 a3
1 · · · an1
a12 a2
2 an2
......
a1n · · · an
n
=
ξ ia1
iξ ia2
iξ ia3
i...
ξ iani
t
Abbiamo dunque il seguente schema che é valido:
[.]B Rn
↗ ↑↓ CBPV ↑↓↘ ↑↓ CPB[.]P Rn
Per ottenere le due matrici che sono una l’inversa dell’altra é sufficiente scrivere ivettori della base di destinazione nei termini della base di partenza.
1.4 Spazi Euclidei
Per poter sviluppare una forma di Geometria Euclidea con angoli, misure e quant’altroabbiamo bisogno di un prodotto scalare.
CAPITOLO 1. SPAZI VETTORIALI 7
Definizione 6. Un prodotto interno é una applicazione <,>: V × V → R tale chesoddisfa le seguenti proprietá:
(i) simmetrica: < x, y >=< y, x >(ii) bilineare: < αx1 + βx2, y >= α < x1, y > +β < x2, y > rispetto a tutte e due le
entrate(iii) semidefinita positiva: < x, x >≥ 0 e con < x, x >= 0 solo se x = 0.
La proprietá della simmetria ci serve perché se vogliamo definire delle lunghezze apartire da questo prodotto interno vogliamo che la lunghezza da un punto a a un puntob sia la stessa della lunghezza da un punto b a un punto a. La bilinearitá per mantenerequalcosa di coerente nella struttura di spazio vettoriale e la definizione positiva peravere vettori di norma sempre positiva e mai negativa.
Esempio 7. Alcuni esempi classici di norme possono essere:- dati due vettori nello spazio tridimensionale ordinario il coseno dell’angolo fra i
due vettori soddisfa tutte le richieste.- dato uno spazio vettoriale possiamo definire dati due vettori x = ξ iei e y = ηiei:
< x, y >= ξ iηi
- in altro modo possiamo definire un prodotto interno dei due vettori x e y come:
ξ iajiηj =
(ξ1 ξ2 · · · ξn)
a11 a2
1 a31 · · · an
1a1
2 a22 an
2...
...a1
n · · · ann
η1
η2
...ηn
questa é un prodotto interno se la matrice A é simmetrica.- un’altra metrica classica puó essere quella definita sullo spazio delle funzioni
continue e con prodotto interno
< f (t), g(t) >=
ˆ a
bf (t)g(t)dt
Dato il prodotto interno definiamo:
• lunghezza di un vettore x: |x| =√< x, x >
• angolo θ fra due vettori x e y: θ = arcos(<x,y>|x|·|y| )
• distanza fra due vettori x e y : d = |x− y|
A questo punto possiamo definire una base di coordinate ortonormale come una baseche soddisfi la condizione
< ei, ej >= δij
E’ possibile dimostrare come Teorema che in ogni spazio vettoriale di dimensionen é possibile trovare una base di vettori ortonormali.
Esempio 8. Un esempio non classico é quello di trovare una base ortonormale per lospazio dei polinomi di grado minore uguale di 2. Supponiamo di avere come prodottointerno
< p(t), q(t) >=
ˆ 1
−1p(t)q(t)dt
CAPITOLO 1. SPAZI VETTORIALI 8
Sappiamo che una base per V é formata da{
1, t, t2} che sono vettori linearmenteindipendenti. Vediamo di fornire una base ortogonale a partire da questi:
- il primo elemento della base é semplicemente il primo elemento cioé 1- il secondo elemento della base poniamolo come il secondo meno il primo con un
opportuno coefficiente t− α · 1 e imponiamo la condizione di ortogonalitá
0 =< t− α, 1 >=
ˆ 1
−1(t− α)dt = −2α
che portano a richiedere l’annullamento di α = 0 e dunque abbiamo il secondoelemento che é t
- il terzo elemento della base lo poniamo come il terzo a cui sottriamo una combi-nazione lineare del primo e del secondo cioé t2− βt− γ e imponiamo la condizione diortogonalitá
0 =< t2 − βt− γ, 1 >=
ˆ 1
−1(t2 − βt− γ)dt =
[t3
3
]1
−1− 0− 2γ
che porta alla condizione per cui γ = 13 e il terzo elemento é t2− 1
3 . In generale unabase ortonormale nello spazio dei polinomi di grado minore di n é
1, t, t2 − 13
, t3 − 35
t...
Date queste nozioni possiamo definire cosa intendiamo per vettore ortogonale a unsottospazio vettoriale (ovvero semplicemente un vettore il cui prodotto interno con ivettori che formano una base del sottospazio é identicamente nullo) e soprattutto cosaintendiamo per proiezione ortogonale di un vettore su un sottospazio come pure cosaintendiamo per distanza minima di un vettore da un sottospazio.
Procediamo con l’ultima: Dato un sottospazio H ⊂ V e un vettore f che non ap-partiene al sottospazio. In questo caso vogliamo dunque trovare un vettore f0 tale cheh = | f − fo| sia ortogonale al sottospazio in questione e allora calcolando la norma dih abbiamo la distanza del punto indicato da f dal sottospazio H.
< f − fo, ek >= 0 ∀k = 1..m
< f0, ek >=< f , ek > ∀k = 1..m
Dato chef0 = ciei i = 1..m
Allora abbiamo che la condizione precedente si trasforma in
c1 < e1, ek > +... + cm < em, ek >=< f , ek > ∀k = 1..m
Se la base é ortonormale, la soluzione é triviale perché < ei, ek >= δik . Nel casogenerale questo sistema di m equazioni in m incognite ha soluzione se e solo se il de-terminante dei coeffienti é diverso da zero ovvero se é diverso da zero quello che sichiama determinante di Gramm:
det
< e1, e1 > < e2, e1 > · · · < em, e1 >< e1, e2 > < e2, e2 > · · · < em, e2 >
...... . . . ...
< e1, em > < e2, em > · · · < em, em >
6= 0
Capitolo 2
Forme bilineari
2.1 Schema generale del discorso
• Si introducono le forme lineari come funzioni lineari e si mostra che formanouno spazio vettoriale.
• Si analizza definisce poi una forma bilineare e si vede che per via della suabilinearitá é possibile rappresentarla sotto forma matriciale in una data base
• Si analizza il cambio di coordinate di una forma bilineare dato da A′ = CT AC
• Dopo aver definito le forme bilineari si definiscono le forme quadratiche A(x, x)e si vede come sono esattamente equivalenti alle forme bilineari simmetriche. Sidefiisce quindi la forma polare di una forma quadratica.
• Forme quadratiche definite positive sono equivalenti a definire prodotto inter-no. Uno spazio Euclideo é dunque uno spazio con associato una forma quadra-tica da cui possiamo definire un prodotto interno.
• A questo punto si puó definire una Forma canonica di una forma quadratica incui la matrice associata é quella diagonale. Tale forma canonica é definita se iminori principalid ella amtrice associati alla forma bilineare sono diversi da zero,allora abbiamo
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i
• Basandoci sul risultato ottenuto della forma canonica possiamo stabilire una equi-valenza essenziale fra Forme quadratiche definite positive e determinanti prin-cipali maggiori di zero. In particolare questo ci dice che avere i determinantiprincipali maggiori di zero non dipende dalla scelta della base.
40 > 0,41 > 0, ...4n > 0
• Considerando che Forme quadratiche definite positive sono equivalenti a de-finire un prodotto interno possiamo tradurre i risultati trovati nel linguaggiodi un prodotto interno su uno spazio Euclideo e ricavare cosí a partire da del-le condizioni sul Determinante di Gramm alcuni risultati come la disuguaglianza diSchwarz.
9
CAPITOLO 2. FORME BILINEARI 10
• Da notare che in uno spazio euclideo il determinante di Gramm di k vettori é ilVolume al quadrato di un parallelepipedo avente i vettori come spigoli per cuiVol2(e1, .., ek) =
√4k
• A questo punto possiamo ricavare la legge di inerzia ovvero il fatto che indi-pendentemente dalla base il numero di autovalori λi diversi da zero é costante.Questo permette di definire il Rango di una forma bilineare e il Kernel di unaforma bilineare come indipendenti dalla scelta della base.
• A questo punto si estendono i risultati cambiando il campo dai Reali ai Comples-si. Con la piccola modifica della coniugazione complessa al posto della simmetrianel prodotto interno, si possono estendere tutti i primi risultati elementari vali-di negli spazi Euclidei Reali al caso degli Spazi Euclidei complessi introducendonorma, distanza, ortogonalitá, base ortonormale e dunque l’isomorfismo fra tuttigli spazi Unitari.
• Viceversa per introdurre le forme bilineari dobbiamo introdurre prima le formelineari di I e di II specie e poi le forme bilineari
• A questo punto si introducono le forme bilineari hermitiane A(x, y) = A(y, x)che faranno la funzione delel forme bilineari simmetriche
• Se A é la matrice della forma bilineare hermitiana A(x, y) relativa a una base{ei} e B é la matrice della stessa forma bilineare A(x, y) ma nella base { fi} conf j = ci
jei allora abbiamoB = C∗AC
dove C∗ é la trasposta e congiugata di C. In pratica c∗ij = cji
2.2 Forme Lineari
Definizione 9. Una forma lineare o funzione lineare f é definita su uno spazio vettoriale V seper ogni vettore x é associata una f (x) tale che:
(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)Se prendiamo un vettore x di coordinate ξ i nella base ei allora
f (x) = f (∑ ξ iei) = ∑ ξ i f (ei) = ξ iαi =
(ξ1 ξ2 · · · ξn)
α1α2...
αn
Supponiamo adesso di cambiare base per x e quindi avere per lo stesso vettore
coordinate ηi nella base vi. E supponiamo
f (x) = ηifii
Proviamo a cambiare base da ei → vi allora dobbiamo esprimere i vettori ei comecombinazione lineare della nuova base
CAPITOLO 2. FORME BILINEARI 11
e1 = aj1vj = a1
1v1 + ... + an1 vn
e2 = aj2vj = a1
2v1 + ... + an2 vn
e3 = aj3vj = a1
3v1 + ... + an3 vn
...en = aj
nvj = a1nv1 + ... + an
nvn
A questo punto possiamo esprimere
f (x) = ξ i f (ei) = ξ iaji f (vj) = ξ iaj
i β j
quindi abbiamo f (ei) = aji f (vj)
2.3 Forme Bilineari
Definizione 10. Una funzione Bilineare é una funzione A(x, y) tale che é:(i) una funzione lineare in x per ogni y fisso(ii) una funzione lineare in y per ogni x fissato
2.3.1 Rappresentazione matriciale di una forma bilineare
Un modo di rappresentare una forma bilineare A(x, y) é tramite una matrice A. Perfarlo si fa cosí:
In primo luogo si considera una base ei e le coordinate dei vettori x, y su questabase:
x = ξ ieiy = ηiei
Essendo dunque lineare sia in x che in y abbiamo che
A(x, y) = A(ξ iei, η jej) = ∑ A(ei, ej)ξiη j = aijξ
iη j
definendo quindiA(ei, ej) = aij
abbiamo una rappresentazione della forma bilineare secondo una data base:
xt Ay =
(ξ1 ξ2 · · · ξn)
a11 a12 · · · a1na12 a22 a2n... . . . ...
a1n a2n ann
η1
η2
...ηn
= aijξiη j = ∑ aijξ
iη j
Una forma bilineare é chiamata simmetrica se A(x, y) = A(y, x) un esempio diforma bilineare é il prodotto interno nello spazio Euclideo.
CAPITOLO 2. FORME BILINEARI 12
2.3.2 Cambio di base di una forma bilineare
Abbiamo detto che una forma bilineare puó essere rappresentata in forma matricialesecondo l’identificazione
A(ei, ej) = aij
Se adesso vogliamo cambiare la base e usare la base fi allora dobbiamo trovare icoefficienti:
A(fi, fj) = a′ijQuindi come prima cosa dobbiamo scrivere la nuova base nei termini della vecchia
f1 = c11e1 + .. + cn
1 en = cp1 ep
f2 = c12e1 + .. + cn
2 en = cpnep
...fn = c1
ne1 + .. + cnnen = cp
nep
A questo punto applicare
a′ij = A( fi, f j) = A(cpi ep, cq
j eq) = A(ep, eq)cpi cq
j = apqcpi cq
j
che in forma matriciale altro non é che
A′ = CT AC
2.4 Forme Quadratiche
Data una forma bilineare si A(x, y) si ottiene una forma quadratica semplicementeconsiderando A(x, x). Una forma simmetrica bilineare A(x, y) puó essere ottenuta dauna forma quadratica A(x, x) tramite la semplice equivalenza:
A(x + y, x + y) = A(x, x) + A(y, x) + A(x, y) + A(y, y)
ma dato che che la forma é simmetrica e A(x, y) = A(y, x) abbiamo che
2A(x, y) = A(x, x) + A(y, y)− A(x + y, x + y)
Per cui da una forma quadratica possiamo estrarre la cosidetta forma polare per vettorinon identici.
Forma quadratica e forma bilineare simmetrica sono dunque due cose equivalenti.
Definizione 11. Una forma quadratica si dice definita positiva se A(x, x) > 0 per ognix 6= 0
Per la definizione che ne abbiamo dato nel paragrafo precedente un prodotto in-terno é una forma bilineare corrispondente a una forma quadratica definita positi-va. É anche vero il viceversa ovvero ogni forma quadratica definita positiva definisceun prodotto interno su uno spazio vettoriale per cui le due nozioni sono esattamenteequivalenti. Possiamo cosí dare una definizione alternativa di Spazio Euclideo:
Uno spazio vettoriale é chiamato Euclideo se é definita una forma quadratica po-sitiva A(x, x). In tale spazio il prodotto interno < x, y > di due vettori é preso comevalore A(x, y) dell’unica forma bilineare associata alla forma quadratica A(x, x)
CAPITOLO 2. FORME BILINEARI 13
2.4.1 Diagonalizzazione di una forma quadratica
Una qualsiasi forma bilineare simmetrica puó essere ricondotta a una forma quadraticae qualsiasi forma quadratica puó essere diagonalizzata ovvero puó essere trovata unabase ei tale che in questa base:
A(x, x) = λ11ξ1ξ1 + .. + λnnξnξn = λiiξiξ i
Per trovare una base effettiva si procede in questo modo:Prendiamo una forma quadratica che nella forma generale é scritta in questo modo:
A(x, x) = aijηiη j, x = ηi fi
e cerchiamo di trovare un cambio di base per cui aij = 0 se i 6= j. In primo luogo cisi riconduce alla situazione in cui a11 6= 0 .1 A questo punto si fa una trasformazioneadatta per liberare tutti i termini misti con il primo termine e quindi si isolano dallaforma bilineare i termini misti che contengono η1
A(x, x) = a11η1η1 + 2a12η1η2 + ... + 2a1nη1ηn + altri
Allora per realizzare un cambio di base adatto basta considerare che
1a11
(a11η1 + a12η2 + ... + a1nηn
)2= a11η1η1 + 2a12η1η2 + ... + 2a1nη1ηn − B
E quindi fare il cambio di base tale che
η1∗ = a11η1 + a12η2 + ... + a1nηn
η2∗ = η2
... ... ...ηn∗ = ηn
In pratica si deve sostituire al primo coefficiente la somma di tutti i termini mistidivisi per due di modo che una volta elevato il nuovo coefficiente al quadrato tutti itermini misti si eliminino.
Nelle nuove coordinate infatti abbiamo che
A(x, x) =1
a11η1∗η
1∗ + B + altri
Dove il termine altri non é in funzione di η1∗ ma solo delle altre coordinate. Possia-
mo dunque procedere nuovamente lasciando fissa la prima coordinata.
Esercizio 12. Procedere nella diagonalizzazione della forma
A(x, x) = −η1η1 + 2η1η2 + 4η2η3 − 8η3η3
1Se ció non é possibile con una permutazione dei vettori della base allora si prende una situazione incui a12η1η2 6= 0 e si fa un cambio di base del tipo
η1∗ = η1 + η2
η2∗ = η1 − η2
η3∗ = η3
ηn∗ = ηn
In questo modo il nuovo a11 6= 0.
CAPITOLO 2. FORME BILINEARI 14
ovvero
A =
−1 1 01 0 20 2 −8
Per primo cambio base si mette:
η1∗ = −η1 + η2
η2∗ = η2
η3∗ = η3
e la forma diventa
A(x, x) = −η1∗η
1∗ + η2
∗η2∗ + 4η2
∗η3∗ − 8η3
∗η3∗
A =
−1 0 00 1 20 2 −8
Come secodno cambio base si mette:
ξ1 = η1∗
ξ2 = η2∗ + 2η3
∗ξ3 = η3
∗
E nelle nuove coordinate abbiamo
A(x, x) = −ξ1 + ξ2 − 12ξ3
A =
−1 0 00 1 00 0 −12
Per trovare il cambio base basta
ξ1 = η1∗ = −η1 +η2
ξ2 = η2∗ + 2η3
∗ = +η2 +2η3
ξ3 = η3∗ = +η3
E quindi la matrice di passaggio per il cambio dei coefficienti é
C =
−1 1 00 1 +20 0 1
A questo punto bisogna trovare la matrice che permette la rotazione. Per farlo basta
invertire la matrice C
U = C−1 =
−1 1 −20 1 −20 0 1
Questa matrice U permette il passaggio dalla base fi alla base eiA questo punto abbiamo
CAPITOLO 2. FORME BILINEARI 15
−1 0 00 1 00 0 −12
= UT
−1 1 01 0 20 2 −8
U
−1 0 00 1 00 0 −12
=
−1 0 01 1 0−2 −2 1
−1 1 01 0 20 2 −8
−1 1 −20 1 −20 0 1
Si ottiene la matrice diagonalizzante:
U =
√
13 0 0
−√
43
√2 0
−√
112
√18
√128
2.4.2 Riduzione di una forma quadratica tramite matrici triangolari
Abbiamo una forma quadratica che possiamo scrivere nei termini di una base fi nellaseguente forma:
A(x, x) = aijξiξ j x = ξ ifi, A(fi, fj) = aij
Vogliamo a questo punto torvare una nuova base in cui questa forma quadraticaassume una struttura diagonale ovvero tale che A(ei, ek) = 0 se i 6= k.
Supponiamo inoltre che i minori principali della matrice A non abbiano mai deter-minante uguale a 0 ovvero che:
41 = det| a11 | 6= 0
42 = det∣∣∣∣ a11 a12
a21 a22
∣∣∣∣ 6= 0
...
4n = det
∣∣∣∣∣∣∣∣∣a11 a12 · · · a1na21 a22 · · · a2n...
... . . . ...an1 an2 · · · ann
∣∣∣∣∣∣∣∣∣ 6= 0
Il motivo é che nella nuova base abbiamo chea11 0 0 00 a22 0 0
0 0 . . . 00 0 0 ann
e i coefficienti sulla diagonale sono:
akk = A(ek, ek) =4k−1
4kk = 1..n, 40 = 1
CAPITOLO 2. FORME BILINEARI 16
Teorema 13. (Jacobi) Una qualsiasi forma quadratica tale che in una sua rappresentazionematriciale abbia tutti i minori principali diversi da zero, puó essere diagonalizzata ovvero puóessere trovata una base ei tale che in questa base su un vettore x di coordinate x = ξ iei assumeuna forma:
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i
Dimostrazione: La dimostrazione é abbastanza semplice: abbiamo una forma qua-dratica che possiamo scrivere nei termini di una base fi nella seguente forma:
A(x, x) = aijξiξ j x = ξ i fi, A( fi, f j) = aij
Vogliamo a questo punto torvare una nuova base in cui questa forma quadraticaassume una struttura diagonale ovvero tale che A(ei, ek) = 0 se i 6= k. Cerchiamo unanuova base della forma:
e1 = a11f1e2 = a12f1 +a22f2...
...en = a1nf1 +.. ..+ annfn
In questo tipo di base notiamo che
A(ek, ei) = 0 =⇒ A(ek, fi) = 0 i < k
Imponiamo inoltre A(ek, fk) = 1 e otteniamo sostituendo otteniamo:
A(ek, fi) = A(ak1f1 + .... + akkfk, fi) = 0 i < k
A(ak1f1 + .... + akkfk, fk) = 1
Questo diventa:
ak1A(f1, f1)+ ak2A(f2, f1) +... + ak1A(fk, f1) = 0ak2A(f1, f2)+ ak2A(f2, f2) +... + ak2A(fk, f2) = 0
......
...akk−1A(f1, fk−1)+ ak2A(f2,fk−1) +... + akk−1A(fk, fk−1) = 0
akk A(f1, fk)+ ak2A(f2, fk) +... + akk A(fk, fk) = 1
un sistema nelle incognite akk e la soluzione
A(ek, ek) = akk =4k−1
4k
Esempio 14. Un esempio puó essere la seguente forma bilineare simmetrica
2ξ1ξ1 + 3ξ1ξ2 + 4ξ1ξ3 + ξ2ξ2 + ξ3ξ3
questa é rappresentata dalla matrice 2 32 2
32 1 02 0 1
CAPITOLO 2. FORME BILINEARI 17
Abbiamo dunque che i minori principali sono 41 = 2, 42 = −14 , 43 = −17
4 .Abbiamo dunque che nella nuova base la matrice assume questa forma 1
2 0 00 −8 00 0 1
17
La matrice per il cambio di base in questione é
C =
12 0 06 −8 0817 −
1217
117
Infine possiamo considerare le forme quadratiche definite positive.In questo caso se la forma quadratica é definita positiva si puó dimostrare che au-
tomaticamente non solo ha tutti i minori principali diversi da 0 ma4k > 0 per ogni k.Per cui possiamo direttamente formulare il seguente teorema:
Teorema 15. (Jacobi-Forma Canonica) Una qualsiasi forma quadratica definita positiva, puóessere diagonalizzata nella FORMA CANONICA
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i
A cui possiamo aggiungere un criterio famoso per determinare a partire da unaforma bilineare simmetrica se la corrispondente forma quadratica é definita positiva.
Teorema 16. (Sylvester) La forma quadratica di una qualsiasi forma bilineare simmetrica édefinita positiva, se e solo se
40 > 0,41 > 0, ...4n > 0
Questo é un caso particolare del fatto che la segnatura di una forma quadrati-ca é indipendente rispetto alla base scelta. Allo stesso modo il rango di una formadifferenziale bilineare é sempre lo stesso indipendentemente dalla scelta della base.
Facciamo comunque una dimostrazione:⇐= Supponiamo che i minori siano tutti positivi
40 > 0,41 > 0, ...4n > 0
questo logicamente implica che:
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i > 0 ∀x 6= 0
=⇒Supponiamo la forma bilineare sia definita positiva. Il nostro primo passo édimostrare che tutti i miori sono diversi da zero. Questo in realtá é facile perché se
det
A(f1, f1) A(f2, f1) ... A(fk, f1)A(f1, f2) A(f2, f2) ... A(fk, f2)
......
...A(f1, fk−1) A(f2, fk−1) ... A(fk, fk−1)
A(f1, fk) A(f2, fk) ... A(fk, fk)
= 0
CAPITOLO 2. FORME BILINEARI 18
Allora per via una delle righe sarebbe combinazione lineare delle altre. Esplicitandoquesta combinazione lineare tramite dei coefficienti µk questo grazie alla bilinearitá diA vuol dire che una combinazione lineare degli fk darebbe come risultato
A(µ1f1 + ... + µkfk, µ1f1 + ... + µkfk) = 0
Il che contraria l’ipotesi che per cui A é definita positiva.Una volta dimostrato che i minori sono diversi da zero allora per il teorema prece-
dente la forma bilineare puó essere scritta in forma canonica e dato che
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i > 0 ∀x 6= 0
ne consegue che40 > 0,41 > 0, ...4n > 0
2.4.3 Il Determinante di Gramm
Abbiamo detto che una forma lineare definita positiva é equivalente a un prodottointerno tramite équivalenza
A(x, x) ≡< x, x >
E a quel punto possiamo definire
A(x, y) =< x, y >
La condizioni che avevamo sui minori che dovevano essere maggiori di zero per leforme quadratiche definite positive si traduce nella conseguenza che dati k vettori ei
det
∣∣∣∣∣∣∣∣∣< e1, e1 > < e2, e1 > ... < ek, e1 >< e1, e2 > < e2, e2 > ... < ek, e2 >
......
...< e1, ek > < e2, ek > ... < ek, ek >
∣∣∣∣∣∣∣∣∣ > 0⇐⇒ ei indipendenti
Corollario 17. (Disuguaglianza di Schwarz) < x, y >2≤< x, x >< y, y >
La dimostrazione é presto fatta dato che basta notare che il Determinante di Grammper i due vettori é un minore di ordine 2 della forma bilineare definita positiva alla basedel prodotto interno utilizzato:
42 =
∣∣∣∣ < x, x > < y, x >< x, y > < y, y >
∣∣∣∣ ≥ 0
Da notare che il determinante di Gramm di 3 vettori x, y, z altro non é che il qua-drato del volume di un parallelepipedo avente i 3 vettori come spigoli:
43 = V2 =
∣∣∣∣∣∣< x, x > < y, x > < z, x >< x, y > < y, y > < z, y >< x, z > < y, z > < z, z >
∣∣∣∣∣∣ ≥ 0
dove
V =
∣∣∣∣∣∣x1 x2 x3y1 y2 y3z1 z2 z3
∣∣∣∣∣∣ = √43 > 0
CAPITOLO 2. FORME BILINEARI 19
2.5 La legge di inerzia
Noi abbiamo trovato un modo per diagonalizzare la matrice, chiaramente questo modonon é unico. In realtá semplicemente operando un cambio di base possiamo semplice-mente fare in modo che sulla diagonale ci siano solo λi ∈ {−1, 0, 1}. Questo equivale,in uno spazio euclideo a definire una base tale che un volume formato da tre vettori siaun volume unitario. Ora la domanda da porsi é se il numero di λi > 0, λi < 0 e λi = 0rimanga costante oppure no. La legge di inerzia dice che:
Teorema 18. (Legge di Inerzia) In qualsiasi modo diagonalizziamo la matrice il numero dicoefficienti nulli é costante
Per dimostrare questo teorema bisogna prima dimostrare il Lemma:
Lemma 19. Dati due sottospazi H e H′ di dimensione p e q di uno spazio vettoriale didimensione n e tali che p + q > n allora esiste un vettore x ∈ H ∩H′.2
Adesso supponiamo di avere in una base {ei}
A(x, x) = ξ1ξ1 + .. + ξ pξ p − ξ p+1ξ p+1..− ξnξn
e in una base
A(x, x) = η1η1 + .. + ηp′ηp′ − ηηp′+1..− ηnηn
e supponiamo per esempio che p > p′ allora per via del Lemma dato che n −p′ + p > n un vettore x che appartiene al sottospaziospan(fp′+1, .., fn) e contempo-raneamente al sottospazio span(e1, .., ep), se calcoliamo la forma bilineare su x alloraabbiamo che
A(x, x) = ξ1ξ1 + .. + ξ pξ p > 0
e contemporaneamente
A(x, x) = −ηηp′+1..− ηnηn < 0
Che é assurdo.
Corollario 20. (Rango) Il Rango di una forma bilineare é invariante per scelta della base
Per contro possiamo definire il Kernel
Corollario 21. (Kernel) Il Kernel di una forma bilineare é un sottospazio dello spazio originaleed é invariante per scelta di base
2Questa dimostrazione si fa molto facilmente perché dato che il numero di vettori delle due basi deidue sottospazi supera la dimensione dello spazio vuol dire che esistono dei coefficienti tali che:
λ1e1 + .. + λpep + µ1f1 + .. + µqfq = 0
Questo semplicemente vuol dire che x =λ1e1 + .. + λpep = µ1f1 + .. + µqfq é il vettore cercato.
CAPITOLO 2. FORME BILINEARI 20
2.6 Lo spazio Complesso n-dimensionale
Indicativamente gran parte dei risultati trovati nel caso Reale valgono anche nel casoComplesso. Ci sono tuttavia dei problemi essenziali sulla proprietá di simmetria e conil prodotto per scalare richiesta per il prodotto interno.
Abbiamo infatti che la bilinearitá implicherebbe
< λx, λx >= λ2 < x, x >
ma nel caso del campo Complesso ponendo come λ = i avremmo
< ix, ix >= − < x, x >
Che violerebbe la richiesta di avere una forma bilineare definita positiva ovvero >0 per qualsiasi x.
Per risolvere il problema si corregge la definizione del prodotto interno con l’usodel complesso coniugato:
Definizione 22. Un prodotto interno Complesso é una applicazione <,>: V ×V → C
tale che soddisfa le seguenti proprietá:(i) simmetrica: < x, y >= < y, x >(ii) bilineare: < αx1 + βx2, y >= α < x1, y > +β < x2, y >(iii) semidefinita positiva: < x, x >≥ 0 e con < x, x >= 0 solo se x = 0.Nota: le precedenti definizioni implicano che < x, λy >= λ < x, y >
Uno spazio Euclideo Complesso con queste caratteristiche si dice Spazio Unitario.
Esempio 23. Esempio di Spazio Unitario. Possiamo ad esempio definire su C3 il pro-dotto interno per cui dati 2 vettori z = (z1, z2, z3) e w = (w1, w2, w3) il prodotto internoé definito come < z, w >= z1w1 + z2w2 + z3w3
Un altro esempio puó essere dato dallo spazio delle funzioni integrabili su unintervallo [a,b] a valori Complessi e con prodotto interno definito come
< f (z), g(z) >=
bˆ
a
f (z)g(z)dz
Da questa definizione di prodotto interno si puó definire come logica conseguenza:
• norma di un vettore z ∈ Cn‖z‖ =√< z, z >
• distanza fra due vettori z, w ∈ Cnd(z, w) = ‖z−w‖
• due vettori ortogonali z, w ∈ Cnquando< z, w >= 0
Dopo aver definito i vettori ortogonali si definisce una base ortonormale e si troval’isomorfismo fra tutti gli spazi Unitari. Pertanto i risultati visti nel capitolo precedentesono facilmente estendibili agli Spazi Unitari.
Nel caso complesso dunque lo stesso problema si riscontra nella definizione difunzione lineare che ovviamente puó essere di due tipi
CAPITOLO 2. FORME BILINEARI 21
Definizione 24. Una forma lineare o funzione lineare f é definita su uno spazio vettorialecomplesso V :
del I tipo: se per ogni vettore x é associata una f (x) tale che:(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)del II tipo: se per ogni vettore x é associata una f (x) tale che:(i) f (x + y) = f (x) + f (y)(ii) f (λx) = λ f (x)
E da questa definizione definiamo una forma bilineare su uno spazio complesso
Definizione 25. Una funzione Bilineare é una funzione A(x, y) tale che é:(i) una funzione lineare del primo tipo in x per ogni y fisso A(λx1 +µx2, y) = λA(x1, y)+
µA(x2, y)(ii) una funzione lineare del secondo tipo in y per ogni x fissato A(x, λy1 + µy2) =
λA(x, y1) + µA(x, y2)
Un esempio generale di forma bilineare complessa é:
A(x, y) = aijξiη j = A(ei, ej)ξ
iη j
x = ¸ieiy = ηiei
Teorema 26. Una forma bilineare complessa é unicamente determinata dalla sua forma qua-dratica
Definizione 27. Una forma bilineare si chiama Hermitiana se A(x, y) = A(y, x)
Teorema 28. Perché una forma si Hermitiana e necessario e sufficiente che la sua formaquadratica A(x, x) abbia valori reali per ogni vettore x.
2.6.1 Cambio di base di una forma bilineare Hermitiana
Se A é la matrice della forma bilineare hermitiana A(x, y) relativa a una base {ei} e Bé la matrice della stessa forma bilineare A(x, y) ma nella base {fi} con fj = ci
jei alloraabbiamo
B = C∗AC
dove C∗ é la trasposta e congiugata di C. In pratica c∗ij = cji con la matrice percambio di base
c11 c1
2 · · · c1n
c21 c2
2 · · · c2n
...... . . . ...
cn1 cn
2 · · · cnn
Teorema 29. (Jacobi) Una qualsiasi forma Hermitiana quadratica su uno spazio vettorialecomplesso ha una base ei tale che in questa base su un vettore x di coordinate x = ξ iei assumeuna forma:
A(x, x) =40
41ξ1ξ1 + .. +
4n−1
4nξnξn = λiiξ
iξ i
dove i determinanti4k sono numeri Reali.
CAPITOLO 2. FORME BILINEARI 22
2.7 Esercizio di diagonalizzazione
Supponiamo di avere la seguente forma bilineare:
A(x, x) = au1u1 + 2du1u2 + 2eu1u3 + bu2u2 + 2 f u2u3 + cu3u3
dove chiaramente x = uiei. Riscrivendo la forma bilineare in notazione matricialeabbiamo dunque che nella base {ei} la forma assume:
A =
a d ed b fe f c
Adesso procediamo nel nostro cambio di coordinate x = uiei = vifi. Facciamo in
modo di scegliere la nuova base di modo tale che :
v1 = au1 + du2 + eu3
v2 = u2
v3 = u3
Con questo cambio di base adesso dobbiamo esplicitare il termine au1u1 e lo faccia-mo calcolando:
v1v1 = a2u1u1 + 2adu1u2 + 2aeu1u3 + d2u2u2 + 2deu2u3 + e2u3u3
da cui si ottiene:
1a
v1v1 = au1u1 + 2du1u2 + 2aeuu3 +d2
au2u2 + 2
dea
u2u3 +ea
2u3u3
e dunque
1a
v1v1 − 2dv1v2 − 2aev1v3 − d2
av2v2 − 2
dea
v2v3 − ea
2v3v3 = au1u1
Da cui nelle nuove coordinate
A(x, x) =1a
v1v1 +ab− d2
av2v2 + 2(
f a− dea
)v2v3 +ca− e2
av3v3
A questo punto siamo pronti per l’ultimo cambio di coordinate x = uiei = vifi =wigi in cui scegliamo la nuova base di modo che
w1 = v1
w2 = pv2 +qv3
w3 = v3dove p = ab−d2
aq = f a−de
a
Con questo cambio di coordinate abbiamo
1p
w2w2 = pv2v2 + 2qv2v3 +qp
2v3v3
ovvero1p
w2w2 − 2qw2w3 − qp
2w3w3 = pv2v2
CAPITOLO 2. FORME BILINEARI 23
e dunque nelle nuove coordinate abbiamo la diagonalizzazione
A(x, x) =1a
w1w1 +1p
w2w2 + (ca− e2
a− q2
p)w3w3
ovvero
A(x, x) =1a
w1w1 +a
ab− d2 w2w2 + ((ca− e2)(ab− d2)− ( f a− de)2
a2(ab− d2))w3w3
cioé:
A =
1a 0 00 a
ab−d2 0
0 0 (ca−e2)(ab−d2)−( f a−de)2
a2(ab−d2)
A questo punto se siamo interessati al cambio di base dobbiamo notare che
w1 = v1 = au1 +du2 +eu3
w2 = pv2 +qv3 = + ab−d2
a u2 + f a−dea u3
w3 = v3 = u3
Da qui abbiamo dunque
C =
a d e0 ab−d2
af a−de
a0 0 1
Calcolando dunque l’inversa per operare il cambio di base sulla forma bilineare
otteniamo:
U = C−1 =
1a
−dab−d2
be−d fab−d2
0 aab−d2
de−a fab−d2
0 0 1
Per cui abbiamo
1a 0 00 a
ab−d2 0
0 0 (ca−e2)(ab−d2)−( f a−de)2
a2(ab−d2)
= UT
a d ed b fe f c
U
Capitolo 3
Trasformazioni lineari
3.1 Senso del discorso
• Sono funzioni lineari da uno spazio vettoriale a uno spazio vettoriale e posso-no essere rappresentate sotto forma matriciale. Si dimostra che data una basee un’insieme di n vettori, esiste un’unica trasformazione lineare che manda ivettori della base nei vettori prescelti. Si trova la formula per il cambio di base:B = C−1AC dove C é la matrice per il passaggio di base fk = Cek.
• Si definiscono sottospazi invarianti, autovettori e autovalori. Si definisce comefare a trovare un autovettore.
• Si introduce il polinomio caratteristico. Si fa vedere che il polinomio carateristicoé indipendente dalla scelta della base.
• Si fa vedere che n autovettori con autovalori distinti sono linearmente indipendenti.Come corollario se ne deduce che ogni matrice con polinomio caratteristico conn radici distinti é diagonalizzabile.
• Si dimostra che P(λ) = λn + tr(A)λn−1 + ... + tr(Λn−1A)λ + detA dove Λk Asono i minori principali di ordine k. Nel caso in cui A sia diagonale invece ilpolinomio é molto piú facile essendo P(λ) = (a1
1− λ) · . . . · (ann− λ) e che se P(λ)
é il polinomio caratteristico della matrice A allora P(A) = 0.
• A questo punto si introduce la relazione fra trasformazioni lineari e forme bili-neari.1 A(x, y) = (Ax, y) = (x, A∗y)
Trasformazioni Autoaggiunte
• Dopo aver introdotto la trasformazione aggiunta si tratta delle trasformazionilineari autoaggiunte A∗ = A e di come ogni trasformazione lineare possa esseredecomposta in somma di due trasformazioni autoaggiunte A = A1 + iA2.
• Il prodotto di due autoaggiunte AB é autoaggiunto⇔ A e B commutano.
• Si fa vedere che se é autoaggiunta, A ha tutti autovalori reali. Il sottospazio or-togonale all’autovettore corrispondente forma un sottospazio invariante rispettoalla trasformazione A.
1dove con le parentesi ( , ) si indica il prodotto interno canonico e con le parentesi < , > il prodottointerno derivato dalla forma bilineare
24
CAPITOLO 3. TRASFORMAZIONI LINEARI 25
• Teorema: Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. Affin-ché A sia autoaggiunta é necessario e sufficiente che esista una base ortogonale relativa acui la matrice A sia diagonale (con autovalori reali?).
• in trasformazioni Autoaggiunte Autovettori corrispondenti a diversi autovalorisono ortogonali fra loro.
Trasformazioni Unitarie
• Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelletrasformazioni che lasciano invariate le lunghezze dei vettori e l’ortogonalitá deivettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assolutouguali a 1.
• Una trasformazione unitaria ha una base rispetto alla quale la trasformazioneassume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. DataA autoaggiunta U−1AU é autoaggiunta.
• Data A una matrice Hermitiana, A puó essere rappresentata come A = U−1DU
Trasformazioni Commutative e Normali
• Se AB = BA allora gli autovettori di A formano uno spazio invariante rispet-to a B. Ogni due trasformazioni lineari che commutano AB = BA hanno unautovettore comune.
• A e B commutano⇔ sono diagonalizzabile rispetto a una stessa base.
• Una trasformazione é normale A∗A = A∗A⇔é diagonalizzabile
3.2 Trasformazioni Lineari e operazioni elementari
Fino ad adesso abbiamo parlato di funzioni lineari a valori in un campo scalare, adessovogliamo trattare di funzioni da uno spazio vettoriale a uno spazio vettoriale.
Definizione 30. Se ad ogni vettore x ∈ V é univocamente definito un vettore y ∈V al-lora la mappa y = A(x)é chiamata trasformazione. Se poi é tale da soddisfare le seguenticondizioni:
(i) A(x1 + x2) = A(x1) + A(x2)(ii) A(λx) = λA(x) allora si dice trasformazione lineare.Se abbiamo il vettore x = ξ iei e y =A(x) con y = ηiei possiamo rappresentare la
trasformazione in forma matriciale dato che:
y = ηiei = aijξ
jei ovvero ηi = aijξ
j
η1
η2
...ηn
=
a1
1 a12 ... a1
na2
1 a22 ... a2
n...
... . . . ...an
1 an2 . . . an
n
ξ1
ξ2
...ξn
Esempio 31. Esempi di trasformazioni lineari possono essere:
CAPITOLO 3. TRASFORMAZIONI LINEARI 26
• Rotazioni in uno spazio Euclideo
• Cambio di base in uno spazio vettoriale
• Proiezioni su un piano
• Nello spazio dei polinomi la derivazione
L :V = R3[t] → W = R2[t]
p(t) = t3 + a2t2 + a1t + a0 → ddt p(t)
• Nello spazio delle funzioni continue e integrabili l’integrazione lungo un inter-vallo definito
Dati n vettori arbitrari g1, .., gn esiste un’unica trasformazione lineare A tale che
A(e1) = g1 ... A(en) = gn
Si trova che esiste una corrispondenza univoca fra Trasformazioni lineari in uno spazioEuclideo e matrici che rappresentano la trasformazione lineare.
Esempio 32. Rappresentiamo sotto forma matriciale la trasformazione lineare L = ddt :
R3[t]→ R2[t]. Abbiamo il seguente schema:
L : R3[t] → R2[t]p(t) → d
dt p(t)↓ ↓
A : V = R4 → W = R3
Troviamo come base di R3[t] la base B ={
1, t, t2, t3} e invece come base di R2[t] labase D =
{1, t, t2}. Per trovare la matrice che rappresenta la trasformazione lineare é
sufficiente calcolare il valore che la funzion assume sulla base e scrivere questi valoriin termini della base di arrivo:
L(e1) = L(1) = 0 = 0L(e2) = L(t) = 1 = e1L(e3) = L(t2) = 2t = 2e2L(e4) = L(t3) = 3t2 = 3e3
da cui otteniamo la seguente rappresentazione matriciale A che é relativa alla baseB di aprtenza e manda nella base D di arrivo:
[L]BD = A =
0 1 0 00 0 2 00 0 0 3
Successivamente si definisce il prodotto di trasformazioni lineari come prodotto
matriciale per cui
Cx = cikξk = ABx = (ai
jbjk)ξ
k prodotto di trasformazioni lineari
Cx = cijξ
j = (A + B)x = (aij + bi
j)ξj somma di trasformazioni lineari
Poi definiamo:
• un polinomio di matrici P(A) = a0 I + a1A + ... + an An
• la trasformazione lineare inversa A−1A = AA−1 = I
CAPITOLO 3. TRASFORMAZIONI LINEARI 27
3.2.1 Cambio di base in una trasformazione lineare
Supponiamo di avere due basi su uno stesso spazio vettoriale E = {ei} e F = {fi} e diavere una matrice di passaggio
fk = cjkej per cui
fk = CEFek dove C =
c1
1 c12 · · · c1
nc2
1 c22 c2
n...
...cn
1 cn2 · · · cn
n
chiaramente C−1fk=ek
A questo punto supponiamo di voler operare un cambio di base alla trasformazionelineare L : V → V , la stessa trasformazione puó essere scritta in due modi secondodue basi diverse. Chiamiamo [L]EE la rappresentazione della matrice data come basedi partenza la base E e come base di arrivo la base F
[L]EE ← Lx→[L]FF
e ovviamente abbiamo che:
[L]FF = CFE [L]EE CEF = C−1EF [L]EE CEF
Ha una rappresentazione matriciale A nella base {ei} e una rappresentazione ma-triciale B nella base {fi} .
Per ogni vettore x = ξ iei = η jfj abbiamo che Lx puó essere scritto nella base {ei} onella base {fi}.
Lek = Aei = aikei mentre nell’altra base Lfk = Bfi = bi
kfi
Abbiamo dunque che per specificare la base in cui é scritto un certo vettore
[A[x]E]E = Lx
Vuol dire che abbiamo un vettore scritto nella base {ei} e la cui trasformazione életta nella base {ei} viceversa vgliamo trovare la matrice che manda vettori letti nellabase {fi}e in cui il vettore di destinazione é letto nella base {fi}
[B[x]F]F = Lx
[CA[x]E]F = Lx
[CA[C−1x]F]F = Lx =[B[x]F]F
Da cui deriva C−1AC = B.
3.3 Sottospazi invarianti e Polinomio caratteristico
Definizione 33. Un spazio H ⊂ V si dice invariante rispetto alla trasformazione lineareA se ∀x ∈ H abbiamo che Ax ∈ H.
CAPITOLO 3. TRASFORMAZIONI LINEARI 28
Esempio 34. Supponiamo di avere una trasformazione lineare A tale che la rappresen-tazione matriciale é
a11 · · · a1
k a1k+1 a1
n...
......
...
ak1 · · · ak
k...
...
0 0 0...
...
0 0 0...
...0 0 0 an
k+1 ann
In questo caso il span(e1, .., ek) = H é un sottospazio invariante per la trasforma-
zione A.
Definizione 35. Un vettore x si dice autovettore se soddisfa la relazione Ax = λx . Nelcaso λ si chiama autovalore.
Esempio 36. Un esempio di spazio invariante, di autovettore e autovalore puó esseredato dal seguente:
A =
1 1 00 1 00 0 3
Abbiamo due autovettori con autovalore 1 e 3 rispettivamente
Ae1 = e1 e Ae3 = 3e3
E uno sottospazio invariante che é dato da span(e1, e2)Un altro esempio puó essere se consideriamo la derivazione come trasformazione
lineare sullo spazio delle funzioni C∞(C)
L : C∞(C) → C∞(C)f (t) → d
dt f (t)
In questo caso abbiamo che
L(e3t) = 3e3t é un autovettore con autovalore 3
L(cost + isint) = i(cost + isint) autovettore con autovalore i
Definizione 37. Una matrice A si dice diagonalizzabile se puó essere rappresentata inuna base di autovettori.
Se A é diagonalizzabile e riesco a trovare una base di autovettori {bi} con rispettiviautovalori λi allora ho che con un cambio di base:
A = C−1EB
λ1 0 · · · 00 λ2 0...
...0 0 . . . λn
CEB = C−1EB DCEB
con la matrice di passaggio dalla base E alla base B che é data semplicemente dallecoordinate degli autovettori
CEB = (−→b 1, · · · ,
−→b n)
Quindi se riusciamo a trovare gli autovettori e gli autovalori di una matrice possia-mo facilmente diagonalizzarla se essa é diagonalizzabile.
CAPITOLO 3. TRASFORMAZIONI LINEARI 29
Osservazione 38. Da notare che se riusciamo ad avere la matrice in forma diagonaleautomaticamente abbiamo che le potenze della matrice dato che
A2 = C−1EB DCEBC−1
EB DCEB = C−1EB D2CEB e in generale
An = C−1EB DnCEB
Questo ci riporta a considerare piú da vicino l’equazione Ax = λx .L’equazione Ax = λx é equivalente a richiedere
(A− λI)x = 0 per un qualche vettore non nullo
e questo é equivalente a richiedere che
det(A− λI) = 0
I λ = λi o soluzioni del polinomio caratteristico per cui il determinante si annullasono dunque gli autovalori per cui esiste un autovettore x della trasformazione.
Un modo esplicitato per vedere questo stesso discorso é questo:
a11ξ1+ · · · +a1
nξn = λξ1
......
...a1
1ξ1+ · · · +a1nξn = λξn
ovvero
(a1
1 − λ)
ξ1+ · · · +a1nξn = 0
......
...a1
1ξ1+ · · · +(a1
n − λ)
ξn = 0
che ha sempre una soluzione se
det
a1
1 − λ · · · a1n
......
......
ann · · · an
n − λ
6= 0
Questo é un polinomio di grado n in funzione di λchiamato polinomio caratteristico.
Esempio 39. Supponiamo di avere la seguente matrice:
det
a11 − λ a1
2 a13
a21 a2
2 − λ a23
a31 · · · a3
3 − λ
Il determinante della matrice o polinomio caratteristico della trasformazione lienare
é
λ3(−1) + λ2(a33 + a2
2 + a11) + λ(a1
2a21 − a2
2a11 + a1
3a31 + a2
3a32 − a3
3a11 − a3
3a22) + detA
Si dimostra che P(λ) = λn + tr(A)λn−1 + ... + tr(Λn−1A)λ + detA dove Λk A sonoi minori principali di ordine k. Nel caso in cui A sia diagonale invece il polinomio émolto piú facile essendo P(λ) = (a1
1 − λ) · . . . · (ann − λ) e che se P(λ) é il polinomio
caratteristico della matrice A allora P(A) = 0.
CAPITOLO 3. TRASFORMAZIONI LINEARI 30
Teorema 40. Se e1, .., ek sono autovalori di una trasformazione A e i corrispondenti autovalori˘1, .., ˘k sono distinti, allora e1, .., ek sono linearmente indipendenti.
si prova per induzione.
Corollary 41. Se il polinomio caratteristico di una matrice contiene n radici distinte allora lamatrice é diagonalizzabile.
Esercizio 42. Diagonalizzare la matrice
A =
1 −3 33 −5 36 −6 4
Abbiamo che il polinomio caratteristico P(λ) = λ3− 0λ2− 12λ− 16 = (λ+ 2)2(λ−
4) per cui gli autovalori sono λi = {−2, 4}. A questo punto é necessario calcolare gliautovettori della matrice e dunque sostituiamo gli autovalori per risolvere il seguentesistema 1− λ −3 3
3 −5− λ 36 −6 4− λ
xyz
=
000
Caso λ = −2 abbiamo 3 −3 3
3 −3 36 −6 6
xyz
=
000
da cui dividendo tutte le righe per un opportuno coefficiente otteniamo
1 −1 11 −1 11 −1 1
xyz
=
000
cioé
1 −1 10 0 00 0 0
xyz
=
000
ovvero
x− y + z = 0y = yz = z
=⇒
x = a− b = 0y = az = b
ovvero
av1 + bv2 =
a− bab
= a
110
+ b
−101
Otteniamo cosí gli autovettori v1v2 associati all’autovalore λ = −2. A questo punto
passiamo a λ = 4 e abbiamo −3 −3 33 −9 36 −6 0
xyz
=
000
ovvero
−1 −1 11 −3 11 −1 0
xyz
=
000
CAPITOLO 3. TRASFORMAZIONI LINEARI 31
che con qualche operazione si riduce a 1 1 −10 2 −10 0 0
xyz
=
000
ovvero
x + y− z = 02y− z = 0z = z
=⇒
x = − a
2 + ay = a
2z = a
ovvero
v3 =a2
112
Da cui abbiamo finalmente i 3 autovettori
v1, v2, v3 =
1
10
,
−101
,
112
La matrice per il cambio di base é dunque
CEB =
1 −1 11 0 10 1 2
e C−1EB = CBE =
12
−1 3 −1−2 2 01 −1 1
Da cui infine abbiamo la finale diagonalizzazione −2 0 0
0 −2 00 0 4
=12
−1 3 −1−2 2 01 −1 1
1 −3 33 −5 36 −6 4
1 −1 11 0 10 1 2
3.4 Trasformazioni lineari e Forme Bilineari
A questo punto si introduce la relazione fra trasformazioni lineari e forme bilineari.Le forme bilineari e le trasformazioni lineari sono entrambe rappresentabili con unamatrice, ma non possiamo farle corrispondere nel modo canonico in quanto esso sa-rebbe privo di senso dato che con il cambio di base le trasformazioni lineari cambianocon C−1AC mentre le forme bilineari cambiano come CT AC.
Possiamo peró far corrispondere alla forma bilineare A(x, y) = (Ax, y) ovvero ilprodotto scalare usuale dove peró i vettori x sono stati trasformati con la trasforma-zione lienare A. Con le parentesi ( , ) si indica il prodotto interno canonico e con leparentesi < , > il prodotto interno derivato dalla forma bilineare A(x, y) = (Ax, y) =(x, A∗y) ≡< x, y >A.
La corrispondenza A(x, y) = (Ax, y) é una corrispondenza univoca fra forme bili-neari e trasformazioni lineari.
CAPITOLO 3. TRASFORMAZIONI LINEARI 32
3.4.1 Proprietá dell’operazione aggiunta
• (AB)∗ = B∗A∗
• (A∗)∗ = A
• (A + B)∗ = A∗ + B∗
• (λA)∗ = λA∗
• (I)∗ = I
Definizione 43. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =A∗ se la forma bilineare corrispondente A(x, y) = (Ax, y) é Hermitiana ovvero seA(x, y) = A(y, x). In pratica la sua rappresentazione matriciale é tale che AT + A = 0.
In particolare per una trasformazione lineare Hermitiana abbiamo che (Ax, y) =(x, Ay).
Teorema 44. Ogni trasformazione lineare A puó essere decomposta in A = A1 + iA2 doveA1 e A2 sono autoaggiuntePer dimostrare il teorema basta porre:
A1 =A + A∗
2e A2 =
A− A∗
2Teorema 45. Date A e B autoaggiunte, il prodotto AB é autoaggiunto se e solo se A e BcommutanoDefinizione 46. Una trasformazione si dice Unitaria se U∗U = I ovvero U−1 = U∗
3.5 Trasformazioni Hermitiane o Autoaggiunte
Definizione 47. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =A∗ se la forma bilineare corrispondente A(x, y) = (Ax, y) é Hermitiana ovvero seA(x, y) = A(y, x). In pratica la sua rappresentazione matriciale é tale che AT + A = 0.
Lemma 48. Ogni autovalore di una trasformazione autoaggiunta é realeLa dimostrazione é semplice: dato che A = A∗ prendiamo un autovettore Ax = ˘x
e se calcoliamo su questo vettore la forma bilineare otteniamo:
(Ax, x) = (λx, x) = λ(x, x) = (x, Ax) = (x, λx) = λ(x, x)
da cui λ = λ
Lemma 49. Dato e autovettore di A lo spazio dei vettori ortogonali a e é un sottospazioinvariante rispetto a A
Se (x, e) = 0 ovvero x é ortogonale a e allora anche (Ax, e) = (x, Ae) = λ(x, e) = 0ovvero anche Ax é ortogonale a e.
Teorema 50. Se A é una trasformazione autoaggiunta, allora esistono n autovettori ortogonali.I corrispondenti autovalori di A sono tutti reali.
piú in generale vale il seguente teorema
Teorema 51. Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. AffinchéA sia autoaggiunta é necessario e sufficiente che esista una base ortogonale relativa a cui lamatrice A sia diagonale.
A questo punto notiamo anche che in una trasformazione autoaggiunta gli autovet-tori corrispondenti a differenti autovalori sono tutti ortogonali.
CAPITOLO 3. TRASFORMAZIONI LINEARI 33
3.6 Trasformazioni Unitarie
Le trasformazioni unitarie sono definite da U∗U = I il che vuol dire che (UU∗x, y) =(Ux, Uy) = (x, y) ovvero preservano le lunghezze e gli angoli.
Questo avviene seai
jaji = 1 e ∑ ai
jajk = 0
Questa condizione si traduce in
(Uei, Uek) = δik
• Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelletrasformazioni che lasciano invariate le lunghezze dei vettori e l’ortogonalitá deivettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assolutouguali a 1.
• Una trasformazione unitaria ha una base rispetto alla quale la trasformazioneassume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. DataA autoaggiunta U−1AU é autoaggiunta.
• Data A una matrice Hermitiana, A puó essere rappresentata come A = U−1DU
3.7 Trasformazioni Normali
Teorema 52. Se AB = BA allora gli autovettori di A formano uno spazio invariante rispettoa B.
Se Ax = λx allora ABx =BAx = Bλx
• Ogni due trasformazioni lineari che commutano AB = BA hanno un autovettorecomune.
• A e B commutano⇔ sono diagonalizzabile rispetto a una stessa base.
Teorema 53. Una trasformazione é normale A∗A = A∗A⇔é diagonalizzabile
Trasformazioni hermitiane e unitarie in particolare sono trasformazioni normali.Una trasformazione normale puó essere decomposta in una trasformazione hermi-
tiana o autoaggiunta moltiplicato una trasformazione unitaria.
3.8 Trasformazioni Lineari nello Spazio Euclideo Reale
Per tradurre i risultati che abbiamo ottenuto nel caso Complesso al caso Reale dobbia-mo usare la seguente tabella di conversione.
Cn Rn
(x, y) = ξ iηi → (x, y) = ξ iηi‖x‖ =
√(x, x) → ‖x‖ =
√(x, x)
A∗ = (aji) → At = (aji)(Hermitiana) A∗ = A → At = A (Simmetrica)(Unitaria) UU∗ = I → QQt = I (Ortogonale)
(Diagonalizzazione) A = A∗ = UDU∗ → A = At = QDQt (Diagonalizzazione)
Capitolo 4
La Forma di Jordan
Definizione 54. Definiamo un matrice di polinomi
A(λ) = A0λm + A1λm−1 + ... + Am, con Ai = (ajk)i matrice di ordine n
• chiamiamo m il grado del polinomio con A0 6= 0
• se le matrici sono di ordine n allora né anche l’ordine del polinomio
• il polinomio si dice regolare se det(A0) ≡ |A0| 6= 0
Dati due polinomi A(λ) e B(λ) con B(λ) regolare possiamo definire due polinomiQ(λ) e R(λ) chiamati rispettivamente quoziente destro e resto destro della divisione diA(λ) per B(λ) secondo la seguente formula:
A(λ) = Q(λ)B(λ) + R(λ), con deg(R(λ)) < deg(B(λ))
Teorema 55. (BEZOUT GENERALIZZATO) Se F(λ) é una matrice di polinomi il resto destrodella divisione per (λI − A) é F(A).
Dim. data la matrice di polinomi F(λ) = F0λm + F1λm−1 + ...+ Fm posso riscriverlacome:
F(λ) = F0λm−1(λI − A) + (F0A + F1)λm−1 + F2λm−2 + ... + Fm
risommando e sottraendo otteniamo
(F0λm−1 + (F0A + F1)λm−1)(λI − A) + (F0A2 + F1A + F2)λ
m−2 + ... + Fm
Finché alla fine non abbiamo
(F0λm−1 + (F0A + F1)λm−1...)(λI − A) + (F0Am + F1Am−1 + ... + Fm)
che era quello che si voleva dimostrare.
Corollario 56. Una matrice polinomiale é divisibile per (λI − A)⇐⇒ F(A) = 0
4.1 Matrice e polinomio caratteristico
Sia A una matrice nxn si chiama allora (λI − A) matrice caratteristica e il polinomioscalare4(λ) = det(λI − A) é chiamato polinomio caratteristico.
A =
a1
1 a12 ... a1
na2
1 a22 ... a2
n...
... . . . ...an
1 an2 . . . an
n
34
CAPITOLO 4. LA FORMA DI JORDAN 35
Definizione 57. Sia B(λ) = (bij) la matrice dei cofattori di (λI − A) ovvero:
bik = (−1)i+kdet(M(A)ki) minore eliminando la k riga e i colonna
Allora per la definizione di determiannte abbiamo che fissata una qualsiasi i:
4(λ) = ∑k(λδik − A)bki(λ) per ogni ifissata
Da questa definizione deriva che
(λI − A)B(λ) = ∆(λ)I e
B(λ)(λI − A) = ∆(λ)I
Theorem 58. (HAMILTON CAYLEY) Chiamando ∆(λ) il polinomio caratteristico della ma-trice A, allora4(A) = 0
Dalla relazioneB(λ)(λI − A) = ∆(λ)I
deduciamo che∆(λ) é divisibile per (λI − A) e quindi per il Teorema di Bezout Gener-alizzato il resto4(A) = 0.
4.1.1 Metodo efficace per il calcolo di B(λ)
Definition 59. Dato il polinomio, 4(λ) = λn − p1λn−1 − ... − pn definiamo il poli-nomio
δ(λ, µ) =4(λ)− ∆(µ)
λ− µ
ovvero in altri termini
δ(λ, µ) = λn−1 + (µ− p1)λn−2 + (µ2 − p1µ− p2)λ
n−3 + ...
A questo punto se calcoliamo il polinomio δ(λI, A) otteniamo
δ(λI, A)(λI − A) = 4(λ)
Da cui dato la B(λ)(λI − A) = ∆(λ)I otteniamo che
B(λ) = δ(λI, A) = Iλn−1 + B1λn−2 + B2λn−3 + ... + Bn−1
doveB1 = A− p1 IB2 = A2 − p1A− p2 I
......
Bk = Ak − p1Ak−1 − ...− pk I
oppure possiamo indicare la formula per ricorrenza:{B0 = IBk = ABk−1 − pk I
CAPITOLO 4. LA FORMA DI JORDAN 36
Che in particolare per Bn−1 otteniamo una nuova dimostrazione del Teorema diHamilton Cayley. Abbiamo otteniamo la formula per la matrice inversa di A dato che
Bn = 0 = ABn−1 − pn I = ABn−1 − det(A)I
Da questo otteniamo infatti
1det(A)
Bn−1 = A−1
4.2 Autovalori e Autovettori di A
Supponiamo che λ0 sia un autovalore della matrice A e dunque che ∆(λ0)
B(λ0)(λ0 I − A) = ∆(λ0)I = 0
Questo vuol dire che se la matrice B é formata dai vettori:
B = (−→b 1..−→b n)
Abbiamo allora che questi vettori sono gli autovettori della matrice A dato che
(λ0 I − A)bi = 0 ovvero
Abi = λ0bi
Dunque ogni colonna non identicamente nulla della matrice B(λ0) é un autovettoredella matrice A corrispondente all’autovalore λ0.
4.3 Polinomio minimo
Definition 60. Chiamiamo ψ(λ) il polinomio minimo il polinomio monico del gradominimo tale che ψ(A) = 0.
Teorema 61. ogni polinomio annichilatore f (λ) ovvero tale che f (A) = 0 é divisibile per ilpolinomio minimo ovvero f (λ) = ψ(λ)q(λ)
La dimostrazione seque semplicemente dal fatto che se dividiamo f (λ) per ψ(λ)abbiamo
f (λ) = ψ(λ)q(λ) + r(λ)
che in particolare implica:
r(A) = 0 dato che
0 = f (A) = ψ(A)q(A) + r(A) = r(A)
Cosa che é assurda perché dovrebbe essere deg(r(λ)) < deg(ψ(λ)) contraddicendol’ipotesi sul polinomio minimo di essere il polinomio annichilatore con grado minorepossibile.
CAPITOLO 4. LA FORMA DI JORDAN 37
Definizione 62. Chiamiamo D(λ) il massimo comune divisore di tutti i minori di or-dine n− 1della matrice caratteristica λI − A ovvero il massimo comune divisore deglielementi della matrice B(λ). Abbiamo allora che
B(λ) = D(λ)C(λ)
dove C(λ) é una matrice di polinomi chiamata matrice aggiunta ridotta di λI − A.
Ne segue che4(λ) = (λI − A)C(λ)D(λ)
e dunque D(λ)|4(λ) e quindi possiamo definire:
ψ(λ) =4(λ)
D(λ)
Teorema 63. ψ(λ) = (λI − A)C(λ) é il polinomio minimo di A
Dim. Sostituendo questa definizione nella formula precedente otteniamo la seguen-te e fondamentale formula.
ψ(λ)I = (λI − A)C(λ)
Siccome (λI− A)|ψ(λ) per il teorema generalizzato di Bezout abbiamo che ψ(A) =0. Inoltre il grado di ψ(λ) é il minore possibile altrimenti il polinomio D(λ) non sarebbeil massimo divisore comune degli elementi di B(λ).
4.3.1 Proprietá della matrice C(λ)
Abbiamo la formula
C(λ) = Ψ(λI, A) con Ψ(λI, A) = ψ(λ)−ψ(µ)λ−µ
Inoltre dalla relazioneψ(λ)I = (λI − A)C(λ)
possiamo ricavare che
det(ψ(λ)I) = ψ(λ)n = det(λI − A)det(C(λ))
Da cuiψ(λ)n = 4(λ)det(C(λ))
Deduciamo che il polinomio minimo divide il polinomio caratteristico. Abbiamoinoltre:
ψ(λ0)I = 0 = (λ0 I − A)C(λ0)
Da cui deduciamo che gli autovettori di A relativi all’autovalore λ0 sono formatidalle colonne non nulle della matriceC(λ0) dato che per ogni colonna ci non nullaabbiamo
0 = (λ0 I − A)ci
Nella pratica abbiamo
4(λ) = (λ− λ1)n1 . . . (λ− λs)
ns con λi 6= λj
ψ(λ) = (λ− λ1)m1 . . . (λ− λs)
ms con mk ≤ nk
Capitolo 5
Decomposizioni e forme canoniche
5.1 Senso del discorso
• Decomposizione in A = UH con U matrice unitaria (UU∗ = I) e H matrice her-mitiana o autoaggiunta H = H∗. Questa decomposizione fa il pari concettual-mente con un numero complesso z = eiθρ puó essere decomposto in un prodottofra una rotazione eiθe un numero che stavolta é autoconiugato ovvero reale ρ.
5.2 Decomposizione A = UH
Decomposizione in A = UH con U matrice unitaria (UU∗ = I) e H matrice hermi-tiana o autoaggiunta H = H∗. Questa decomposizione fa il pari concettualmente conla decomposizione di un numero reale in un numero positivo e un numero di normaunitaria, similmente un numero complesso z = eiθρ puó essere decomposto in un pro-dotto fra una rotazione eiθe un numero che stavolta é autoconiugato ovvero reale ρ. Lostesso principio si puó estendere alle matrici che possono essere decomposte nel pro-dotto fra una «rotazione» ovvero una matrice Unitaria U e una matrice autoaggiunta oHermitiana H
Teorema 64. Ogni matrice non singolare A puó essere decomposta nella forma
A = UH
dove Hé una matrice non singolare definita positiva e U una matrice unitaria.
Per dimostarre questo teorema si dimostra che se B é una matrice definita positivaé sempre possibile trovare una H tale che H2 = B. Chiamiamo in questo caso H =
√B
. Per fare questo basta posizionarsi nella base in cui B é diagonale e fare la radice degliautovalori. Dato questo lemma definiamo
H =√
AA∗
e poi definiamo U = AH−1.Abbiamo che
U∗U = H−1∗A∗AH−1 = H−1H2H−1 = I
38
CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 39
5.3 Decomposizione di Jordan
Teorema 65. Supponiamo di avere una trasformazione lineare arbitraria e un numero k diautovettori linearmente indipendenti {e1, f1, .., h1} corrispondenti agli autovalori {λ1, .., λk}e di avere k < n. Allora é possibile completare l’insieme dei vettori precedenti peer ottenere unabase in cui la matrice assume la forma:
A =
λ0 10 λ0 1
0 0 . . . 10 0 0 λ0
0
. . .
0
λk 10 λk 1
0 0 . . . 10 0 0 λk
Intanto procediamo con alcune definizioni
Definizione 66. Autovettore generalizzato di ordine n é un vettore x tale che(A− λI)n x =0
poi abbiamo le seguenti
Definizione 67. Molteplicitá geometrica di un autovalore é il numero di blocchi di Jordancorrispondenti a un autovalore λi. La Molteplicitá algebrica di un autovalore é data dallasomma dell’ordine di tuti i blocchi di Jordan relativi ad un autovalore λi.
La molteplicitá algebrica corrisponde all’esponente nella fattorizzazione del polino-mio caratteristico. Quando molteplicitá algebrica e molteplicitá geometrica non coin-cidono vuol dire che non é possibile trovare sufficienti autovettori per diagonalizzarela matrice.
5.3.1 Potenze di matrici nella forma di Jordan
La forma di Jordan di una matrice é costituita da una matrice diagonale e una matricenilpotente J = D + N. In particolare ogni blocco di Jordan é formato da un multiplodella matrice identica e una matrice nilpotente Ji = λI + N.
Ji − λI =
0 1 0 0 00 0 1 0 0
0 0 . . . . . . 00 0 0 0 10 0 0 0 0
Il che vuol dire che se l’ordine della matrice é m allora
(Ji − λI)m =
0 1 0 0 00 0 1 0 0
0 0 . . . . . . 00 0 0 0 10 0 0 0 0
m
= 0
CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 40
Ora dato che una matrice a blocchi J ha potenze facilmente calcolabili dalle potenzedei blocchi:
Jm =
Jm1
Jm2
0
0. . .
Jmk
Abbiamo anche che dato un polinomio p(x)
p(J) =
p(J1)
p(J2)0
0. . .
p(Jk)
Questo vuol dire che se p(λ) é il polinomio caratteristico p(J) = 0 abbiamo dunque
il Teorema seguente.
Teorema 68. (Hamilton-Cayley) Se p(λ) = det(A− λI) allora p(A) = 0.
Piú nel dettaglio possiamo trovare un polinomio minimo dato semplicemente daimonomi con i singoli autovalori elevati all’ordine massimo dei vari blocchi di Jordancorrispondenti a quell’autovalore.
m(λ) = ∏i
(λ− λi)qi
A questo punto possiamo analizzare cosa succede quando calcoliamo l’esponenzia-le della matrice:
eA = CeJC−1
eJ =
eJ1
eJ20
0. . .
eJk
e per ogni blocco
eJi = eλi I+N = eλi(I + N + ... +N
(q− 1)!
q−1)
Da questo possiamo ricostruire l’esponenziale matriciale a una forma finita.
5.4 Esercizio di Decomposizione in Forma di Jordan
A =
2 0 0 00 2 0 00 0 2 11 0 0 2
CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE 41
In primo luogo calcoliamo il polinomio minimo di A
det(λI − A) = det
λ− 2 0 0 0
0 λ− 2 0 00 0 λ− 2 11 0 0 λ− 2
= (λ− 2)4
L’autovalore 2 dunque ha molteplicitá algebrica 4, vediamo quali sono gli autovet-tori:
0 0 0 00 0 0 00 0 0 11 0 0 0
xywz
=
0000
da cui otteniamo
{z = 0x = 0
Gli autovettori sono dunque:
v1 =
0100
e v2 =
0010
La molteplicitá geometrica é dunque 2, mentre la molteplicitá algebrica é 4. Questo
vuol dire che la forma di Jordan della matrice A é formata da due blocchi di ordine 2.
A =
2 1 0 00 2 0 00 0 2 10 0 0 2
Capitolo 6
Applicazioni fisiche
6.1 ODE radici complesse
Supponiamo di dover risolvere il seguente sistema die quazioni differenziali del pimoordine: {
x = −3x− 2yy = +5x− y
La rappresentazione matriciale del sistema lineare(xy
)′=
(−3 −2+5 −1
)(xy
)Per prima cosa dobbiamo trovare gli autovettori e per fare questo procediamo tro-
vando gli autovalori come radici complesse del polinomio caratteristico. Il polinomiocaratteristico
det(−3− λ −2+5 −1− λ
)= λ2 + 4λ + 13
ha come radici
λ± =−4±
√16− 52
2= −2± i3
Prendiamo un autovalore e troviamo l’autovettore corrispondente inserendolo nelsistema (A− λI)a = 0(
−3 + 2− 3i −2+5 −1 + 2− 3i
)(a0a1
)=
(00
)Da cui deriviamo l’equazione
(−1− 3i)a0 = 2a1
che in particolare é realizzata per{a0 = 2a1 = −1− 3i
A questo punto la soluzione del sistema di equazioni differenziali é data da
x =
(xy
)= C0eλt =
(2
−1− 3i
)e(−2+3i)t =
42
CAPITOLO 6. APPLICAZIONI FISICHE 43
=
(2
−1− 3i
)e−2t(cos3t+ isin3t) = e−2t
((2cos3t
−cos3t + 3sint
)+ i(
2sin3t−sin3t− 3cos3t
))Un altro modo di procedere nel problema é considerando
dudt
= Au(t)
In questo caso se posso diagonalizzare A = QDQ−1 posso cambiare le coordinatee mettere u =Qv da cui posso ottenere
dvdt
= Dv(t)
da cui posso ottenere la soluzione
Qv = eDtQv(0)
da cuiu = Q−1eDtQu(t) = eAtu(t)
6.2 Equazione Differenziale 2º Ordine
Supponiamo di avere l’equazione differenziale:{y = λyy(0) = y0, y(0) = y1
Le soluzioni singole sono:
• Soluzione 1:
f1(t) =
cos(ωt) , λ < 01 , λ = 0cosh(kt) , λ > 0
• Soluzione 2:
f2(t) =
sin(ωt)
ω , λ < 01 , λ = 0sinh(kt)
k , λ > 0
Da cui deriviamo la soluzione generale:
y(t) = y(0) f1(t) + y(0) f2(t)
Recommended