49
APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebra lineare svolge un ruolo cruciale in tutti i campi della matematica e, piu’ in generale, delle discipline scientifiche. Sia nelle scienze pure che applicate molti problemi si traducono in problemi di algebra lineare. Nella prima parte del corso ci occuperemo dello studio dei sistemi lineari. Tale studio ci condurra’ in modo naturale allo studio delle matrici e degli spazi vettoriali. Vedremo che risolvere un sistema lineare significa determinare le soluzioni co- muni a una o piu’ equazioni di primo grado. Per prima cosa osserviamo che quando si richiede di risolvere un’equazione e’ indispensabile conoscere l’insieme dove si ricercano le soluzioni. In molti casi risolvere un’equazione significa individuare un sottoinsieme di R o di R n . Nella pratica molti problemi per i quali occorre studiare delle equazioni trattano insiemi diversi da R. Per avere un’idea del tipo di situazioni che si possono incontrare, cominciamo con l’esaminare un caso semplicissimo. Consideriamo il caso di un’equazione di primo grado in una sola incognita con coefficienti a e b R : ax = b Possiamo dare a tale equazione un significato in termini di teoria degli insiemi. Determinare le soluzioni reali dell’equazione ax = b significa determinare l’insieme f 1 ({b}) dove f : R R e’ definita da f (x)= ax. Se a =0, l’equazione ammette un’unica soluzione reale (potrebbe invece non avere soluzioni intere!) x = b/a; se a =0, ma b =0, l’equazione non ha soluzioni; se a =0e b =0, l’equazione ha infinite soluzioni, in quanto qualunque x R soddisfa l’equazione. Dunque in questo caso le soluzioni o non esistono o sono infinite oppure ce n’e’ una sola; in nessun caso sono in numero finito maggiore di uno. Vedremo se questo accade per ogni sistema lineare indipendentemente dal numero delle equazioni e dal numero delle incognite. Consideriamo ora il caso di un’equazione di primo grado in due incognite. 1 Con tali appunti si vuole fornire un sussidio didattico per lo studente. Essi raccolgono gli argomenti principali affrontati, non contengono le dimostrazioni e molti degli esempi ed esercizi svolti a lezione. 1

APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

  • Upload
    hatruc

  • View
    221

  • Download
    0

Embed Size (px)

Citation preview

Page 1: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

APPUNTI DEL CORSO DI ALGEBRA LINEAREper il corso di Laurea in Matematica 1

L’algebra lineare svolge un ruolo cruciale in tutti i campi della matematica e,piu’ in generale, delle discipline scientifiche. Sia nelle scienze pure che applicatemolti problemi si traducono in problemi di algebra lineare.Nella prima parte del corso ci occuperemo dello studio dei sistemi lineari. Tale studioci condurra’ in modo naturale allo studio delle matrici e degli spazi vettoriali.

Vedremo che risolvere un sistema lineare significa determinare le soluzioni co-muni a una o piu’ equazioni di primo grado. Per prima cosa osserviamo che quandosi richiede di risolvere un’equazione e’ indispensabile conoscere l’insieme dove siricercano le soluzioni. In molti casi risolvere un’equazione significa individuare unsottoinsieme di R o di Rn. Nella pratica molti problemi per i quali occorre studiaredelle equazioni trattano insiemi diversi da R.

Per avere un’idea del tipo di situazioni che si possono incontrare, cominciamocon l’esaminare un caso semplicissimo.

Consideriamo il caso di un’equazione di primo grado in una sola incognita concoefficienti a e b ∈ R :

ax = b

Possiamo dare a tale equazione un significato in termini di teoria degli insiemi.Determinare le soluzioni reali dell’equazione ax = b significa determinare l’insiemef−1({b}) dove f : R → R e’ definita da f(x) = ax.

Se a �= 0, l’equazione ammette un’unica soluzione reale (potrebbe invece non averesoluzioni intere!) x = b/a; se a = 0, ma b �= 0, l’equazione non ha soluzioni; sea = 0 e b = 0, l’equazione ha infinite soluzioni, in quanto qualunque x ∈ R soddisfal’equazione.Dunque in questo caso le soluzioni o non esistono o sono infinite oppure ce n’e’ unasola; in nessun caso sono in numero finito maggiore di uno. Vedremo se questoaccade per ogni sistema lineare indipendentemente dal numero delle equazioni e dalnumero delle incognite.

Consideriamo ora il caso di un’equazione di primo grado in due incognite.

1 Con tali appunti si vuole fornire un sussidio didattico per lo studente. Essiraccolgono gli argomenti principali affrontati, non contengono le dimostrazioni emolti degli esempi ed esercizi svolti a lezione.

1

Page 2: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Esempio. Determinare le soluzioni reali dell’equazione

2x − 2y = 1

o equivalentemente studiare l’insieme f−1({1}) dove f : R2 → R e’ definita daf(x, y) = 2x − 2y.

Graficamente significa individuare i punti della retta del piano 2x − 2y = 1. Lesoluzioni sono quindi infinite e possono anche essere descritte come l’insieme

{(x, x − 12) ∈ R2 : x ∈ R}.

Osserviamo invece che l’equazione 2x− 2y = 1 non ha soluzioni intere (basta osser-vare che 1 non e’ pari).

Analogamente un’equazione del tipo ax + by = c con a, b, c ∈ R ha sempreinfinite soluzioni reali (eccetto il caso a = b = 0 e c �= 0) ed e’ possibile determinarecondizioni su a, b, c ∈ Z affinche’ l’equazione ammetta soluzioni intere (la rispostala potrete dedurre dall’algoritmo euclideo che vedrete nel corso di algebra).

Vediamo di esaminare altri esempi a voi gia’ noti al fine di evidenziare alcunifatti che affronteremo nel seguito.

Esempio. Determinare le soluzioni reali dei seguenti sistemi di equazioni:

a){

2x + y = 1x − y = 2 b)

{x + 2y = −1x − y = 2 c)

{x − y = 12x − 2y = 2 d)

{x − y = 12x − 2y = 1

Osserviamo che il problema di determinare le soluzioni dei precedenti sistemi sipuo’ tradurre in un problema di geometria piana in quanto le equazioni in ques-tione rappresentano rette del piano (x, y). Graficamente possiamo osservare che a)e b) ammettono una unica soluzione rappresentata dal punto di intersezione delledue rette non parellele, d) non ammette soluzioni in quanto il sistema rappresental’intersezione di due rette parallele non coincidenti, c) ammette infinite soluzioniessendo le rette coincidenti. In particolare il sistema a) ha come unica soluzione(1,−1) ed e’ equivalente a b) (hanno le stesse soluzioni) in quanto la prima equazionein b) e’ ottenuta sottraendo le due equazioni del sistema a). Come prima detto, c)ammette infinite soluzioni e precisamente tutti i punti della retta x − y = 1, ossia{(x, x − 1) ∈ R2 : x ∈ R}.

Chiaramente l’interpretazione geometrica non sara’ piu’ cosi’ chiara in presenzadi piu’ incognite e piu’ equazioni. Nello studio dei sistemi lineari risultera’ inveceutile scrivere la ”tabella” dei coefficienti delle incognite del sistema e dei termininoti. Riferendoci all’esempio precedente questo significa considerare

2

Page 3: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

a)(

2 1 |11 −1 |2

)b)

(1 2 | − 11 −1 | 2

)c)

(1 −1 |12 −2 |2

)d)

(1 −1 |12 −2 |1

)

Osserviamo che in a) e b), sia nella tabella dei coefficienti delle incognite, che inquella completa con i termini noti, le righe non sono una multipla dell’altra (altromodo di dire che le rette non sono parallele). In c) le righe della matrice sono unamultipla dell’altra (le rette sono coincidenti), in d) le righe della matrice completanon sono proporzionali, mentre nella tabella dei coefficienti continua a sussistere laproporzionalita’ (le rette sono parallele non coincidenti).

Vedremo che tale decodifica trovera’ esauriente spiegazione nella teoria che svolger-emo. A questo scopo sara’ utile introdurre il calcolo matriciale.

1. Operazioni tra matrici

Nel seguito quando scriveremo k intenderemo l’insieme dei numeri razionali o deinumeri reali o dei complessi. Dato che le proprieta’ algebriche che useremo in questiinsiemi numerici saranno solo quelle che riguardano la loro struttura di campo, lateoria che svolgeremo continuera’ a valere in un campo k qualsiasi.

Siano m, n interi positivi. Una matrice A di formato m×n e’ una collezione dimn elementi disposti in forma di tabella tra parentesi tonde:

A =

a11 a12 . . . a1n

a21 a22 . . . a2n

. . .am1 am2 . . . amn

Per esempio,(

2 −1 31 0 4

)e’ una matrice 2 x 3.

Gli elementi aij dove i, j sono indici (interi) con 1 ≤ i ≤ m e 1 ≤ j ≤ n sonochiamati entrate della matrice . Gli indici i e j sono chiamati, rispettivamente,indice riga e indice colonna. Cosi’ aij e’ l’elemento che compare nella i−esima rigae j−esima colonna. Nell’esempio precedente a12 = −1, a23 = 4.

L’insieme di tutte le matrici m × n a entrate in k si indica con Mm,n(k).Denoteremo di solito una matrice con A oppure (aij).

• Una matrice con una sola riga, cioe’ una matrice 1 x n, viene detta matrice riga.Una matrice con una sola colonna, cioe’ una matrice m x 1, viene detta matricecolonna.

3

Page 4: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

• Indicheremo conRi = (ai1, . . . , ain)

la i−esima riga di una matrice. Analogamente indicheremo la j−esima colonna conCj .

Cj =

a1j

a2j

. . .amj

• Se nella matrice A si ha m ≤ n, allora gli elementi a11, a22, . . . , amm vengono dettielementi della diagonale principale.

• Una matrice n xn e’ detta quadrata di ordine n. Ad esempio 2 3 0

−1 0 −61 2 3

• Se in una matrice quadrata sono nulli tutti gli elementi aij con i > j, allora sidice che la matrice e’ triangolare superiore. Ad esempio

2 10 −10 1 00 0 3

• Se in una matrice quadrata sono nulli tutti gli elementi aij con i < j, allora sidice che la matrice e’ triangolare inferiore. Ad esempio

2 0 01 1 01 5 3

• Se una matrice quadrata A risulta sia triangolare superiore che inferiore, ossia seaij = 0 per i �= j, allora A si dice diagonale.

• Se in una matrice si cancellano righe o colonne, allora la matrice che si ottiene e’detta sottomatrice.

Definiamo ora le piu’ importanti operazioni tra matrici:

1.1. Somma di matrici

Date A = (aij) e B = (bij) ∈ Mm,n(k) si definisce ancora in Mm,n(k) unamatrice detta matrice somma e denotata con A + B nel seguente modo:

4

Page 5: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

A + B =

a11 + b11 a12 + b12 . . . a1n + b1n

a21 + b21 a22 + b22 . . . a2n + b2n

. . .am1 + bm1 am2 + bm2 . . . amn + bmn

La somma di matrici gode delle seguenti proprieta’:

1. Associativita’. Se A, B, C ∈ Mm,n(k), allora (A + B) + C = A + (B + C).2. Commutativita’. Se A, B ∈ Mm,n(k), allora A + B = B + A.

3. Esistenza dell’elemento neutro. Se A ∈ Mm,n(k), allora A + 0 = A dove 0denota la matrice con tutte le entrate nulle.4. Esistenza dell’opposto. Sia A ∈ Mm,n(k) e denotiamo con −A la matrice(−aij), allora A + (−A) = 0.

Vedrete che Mmn(k) con l’operazione di somma e’ un gruppo commutativo.

1.2. Prodotto di una matrice per uno scalare

Dati A = (aij) ∈ Mm,n(k) e uno scalare λ ∈ k, si definisce una matrice λA ∈Mm,n(k) nel modo seguente:

λA =

λa11 λa12 . . . λa1n

λa21 λa22 . . . λa2n

. . .λam1 λam2 . . . λamn

Ricordiamo alcune proprieta’ di tale operazione:

1. Associativita’. Se A ∈ Mm,n(k) e λ, µ ∈ k, allora (λµ)A = λ(µA).2. Distributivita.’ Se A, B ∈ Mm,n(k) e λ ∈ k, allora λ(A + B) = λA + λB.

Inoltre se µ ∈ k, allora (λ + µ)A = λA + µA.

3. Legge di annullamento del prodotto. Se λA = 0, allora A = 0 oppureλ = 0.

1.3. Prodotto di matrici

Il prodotto tra matrici e’ piu’ complesso e a prima vista poco naturale coinvol-gendo matrici non sempre dello stesso formato. Tale prodotto e’ anche detto ”righeper colonne” in quanto e’ definito iterativamente a partire dal caso particolare del

5

Page 6: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

prodotto di una matrice riga per una matrice colonna. In tal caso il prodotto e’definto se le matrici hanno lo stesso numero di entrate. Si ha

(a11 . . . a1n)

b11

b21

. . .bn1

:= (a11b11 + a12b21 + . . . + a1nbn1)

Una possibile applicazione si ha se consideriamo un dolce contenente n ingre-dienti. Denotiamo con a1i i grammi dell’ingrediente i−esimo e con bj1 il costo algrammo dell’ingrediente j−esimo. Allora il prodotto AB fornisce il costo del dolce.Si dovra’ ricorrere al caso di matrici con piu’ righe o colonne se si considerasseropiu’ oggetti, in questo caso piu’ dolci, o si dovesse considerare la variazione del costoin diversi anni.

Il caso che affronteremo ora e’ particolarmente significativo. Dato il sistemalineare

a11x1 + a12x2 + . . . + a1nxn = b1

a21x1 + a22x2 + . . . + a2nxn = b2

. . .am1x1 + am2x2 + . . . + amnxn = bm

e’ definito, estendendo in modo naturale il prodotto ”matrice riga per matrice

colonna”, un prodotto tra A = (aij) ∈ Mm,n(k) e X =

x1

x2

. . .xn

∈ Mn,1(k) in

modo che il sistema precedente possa essere presentato con la notazione matricialenelle forma familiare

AX = B

con B =

b1

b2

. . .bm

.

Moltiplicando le singole righe della matrice A per la matrice colonna X, si ha infatti

AX =

a11 a12 . . . a1n

a21 a22 . . . a2n

. . .am1 am2 . . . amn

x1

x2

. . .xn

=

a11x1 + a12x2 + . . . + a1nxn

a21x1 + a22x2 + . . . + a2nxn

. . .am1x1 + am2x2 + . . . + amnxn

6

Page 7: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Diremo che A e’ la matrice dei coefficienti, B e’ la matrice dei termini noti e

M = (A|B) =

a11 a12 . . . a1n b1

a21 a22 . . . a2n b2

. . .am1 am2 . . . amn bm

e’ la matrice completa.

Ad esempio il sistema{

2x + y = 1x − y = 2 puo’ essere riscritto come AX = B dove

A =(

2 11 −1

), X =

(xy

), B =

(12

)

Estendendo ancora il caso precedente, introduciamo ora il prodotto tra matriciin forma generale.

Date le matrici A = (aij) ∈ Mm,n(k) e B = (bij) ∈ Mn,p(k), si definisce la matriceprodotto AB ∈ Mmp(k) come descriveremo.

Chiamiando C = (crs) la matrice AB, l’elemento crs ottenuto moltiplicando lar−esima riga di A per la s−esima colonna di B sara’

crs = ar1b1s + ar2b2s + . . . + arnbns =n∑

k=1

arkbks

Tale definizione e’ ottenuta in modo naturale dal caso precedente pensando la ma-trice B costituita da p matrici colonna B1, . . . , Bp e quindi

AB = (AB1| AB2| . . . |ABp )

Ricordiamo ancora che per poter moltiplicare due matrici A e B occorre cheil numero delle colonne di A coincida con il numero delle righe di B.

Esercizio 1.3.1. Calcolare AB dove A =

1 0

2 −1−2 0

e B =

(1 2 0 3−1 0 −4 −1

)

Il prodotto di matrici gode delle seguenti proprieta’:

1. Associativita’. Siano A ∈ Mm,n(k), B ∈ Mn,p(k), C ∈ Mp,q(k) allora(AB)C = A(BC).

7

Page 8: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

2. Distributivita’. Siano A ∈ Mm,n(k) e B, C ∈ Mn,p(k), si ha A(B + C) =AB + AC .

Inoltre se A, B ∈ Mm,n(k) e C ∈ Mn,p(k), allora (A + B)C = AC + BC.

Osservazione 1.3.2. E’ importante osservare che in generale la commutativita’(ovviamente quando ha senso parlare sia di AB che di BA) e la legge di annul-lamento del prodotto sono false.

Ad esempio siano A =(

2 41 2

)e B =

(1 −2−1 2

). Allora AB =

(−2 4−1 2

),

mentre BA =(

0 00 0

). In questo caso AB �= BA. Inoltre BA = 0 senza che

A = 0 oppure B = 0. Ci sono anche matrici A �= 0 tali che A2 = 0. Ad esempio

A =(

0 10 0

).

Questi esempi ci fanno capire che il prodotto righe per colonne che abbiamo definitonon gode delle buone proprieta’ alle quali eravamo abituati con gli insiemi numerici.

1.4. Matrici invertibili

Per ogni intero positivo n, esiste una matrice In ∈ Mn,n(k) tale che, per ogniA ∈ Mn,n(k), sono verificate le seguenti uguaglianze

InA = AIn = A.

Tale matrice, detta matrice identica, e’ una matrice diagonale tale aii = 1 per ogni1 ≤ i ≤ n. Quindi

In =

1 0 . . . 00 1 . . . 0

. . .0 0 . . . 1

Se non ci sara’ ambiguita’ scriveremo I invece di In.

Nel seguito considereremo matrici quadrate che denoteremo semplicemente conMn(k). In tale insieme sono definite le operazioni di somma e prodotto e, comeabbiamo visto, la matrice identica e’ l’elemento neutro rispetto al prodotto. Hasenso chiederci quindi quando una matrice e’ invertibile.

Vedrete nel corso di algebra che Mn(k) con le operazioni introdotte e’ un anello noncommutativo.

Definizione 1.4.1. Una matrice quadrata A si dice invertibile quando esiste una

8

Page 9: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

matrice B taleAB = BA = I.

Se A e’ invertibile, B si dice inversa di A ed e’ unica. Inoltre se A e’ invertibile,indicheremo la matrice inversa con A−1.

Osserviamo inoltre che se A−1 e’ l’inversa di A, allora A−1 e’ invertibile e (A−1)−1 =A.

Esercizio 1.4.2. Verificare che l’inversa di A =(

3 −1−5 2

)e’

(2 15 3

).

E’ facile trovare esempi di matrici invertibili e di non invertibili. Osserviamo che lamatrice nulla non e’ invertibile, ma ci sono matrici non nulle e non invertibili, ad

esempio A =(

0 10 0

).

Il sottoinsieme di Mn(k) delle matrici invertibili con l’operazione di prodotto (ab-biamo visto che il prodotto di matrici invertibili e’ invertibile) e’ un gruppo, dettogruppo lineare e denotato con Gln(k). Nel seguito caratterizzeremo gli elementi diGln(k).

Puo’ chiaramente sorgere il dubbio che, data una matrice quadrata A, possaesistere B tale che AB = I (B e’ detta inversa destra), ma BA �= I. La domandaanaloga si puo’ porre per l’inversa sinistra ( BA = I). Per le matrici quadrateproveremo che A e’ invertibile se esiste B tale che AB = I oppure BA = I. Siccomenon vale la legge commutativa tale proprieta’ non e’ ovvia.

Per il momento possiamo provare il seguente fatto:

Proposizione 1.4.3. Se A ha un’inversa destra B e un’inversa sinistra C, alloraB = C.

Proposizione 1.4.4. Siano A e B matrici invertibili, allora AB e’ invertibile el’inversa e’ B−1A−1.

Le matrici invertibili piu’ semplici sono le matrici elementari che, come ve-dremo, troveranno una interessante applicazione nella teoria dei sistemi lineari.

Fissato un intero positivo n, oltre alla matrice identica, esistono tre tipi di matricielementari:

9

Page 10: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

1) Siano i, j interi tali 1 ≤ i, j ≤ n, i �= j. Definiamo la matrice Eij ottenuta da I

scambiando Ri con Rj .

Ad esempio se n = 4,

E23 =

1 0 0 00 0 1 00 1 0 00 0 0 1

Osserviamo inoltre che E2ij = I, quindi E−1

ij = Eij .

2) Siano i un intero, 1 ≤ i ≤ n e λ ∈ k∗. Definiamo la matrice Ei(λ) ottenuta da I

sostituendo Ri con λRi.

Ad esempio se n = 4,

E2(−3) =

1 0 0 00 −3 0 00 0 1 00 0 0 1

Osserviamo che Ei(λ)−1 = Ei(1/λ).

3) Siano i, j interi tali 1 ≤ i, j ≤ n, i �= j e sia λ ∈ k. Definiamo la matrice Eij(λ)ottenuta da da I sostituendo Ri con Ri + λRj (la matrice identica con aij = λ).

Ad esempio se n = 4,

E21(−3) =

1 0 0 0−3 1 0 00 0 1 00 0 0 1

Osserviamo che Eij(λ)−1 = Eij(−λ).

In particolare quindi abbiamo visto che le matrici elementari sono invertibili eche le loro inverse sono ancora matrici elementari.

Data A ∈ Mm,n(k), non e’ difficile verificare che:

1) EijA e’ la matrice ottenuta da A scambiando Ri con Rj .

2) Ei(λ)A e’ la matrice ottenuta da A moltiplicando ogni elemento di Ri per λ.

10

Page 11: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

3) Eij(λ)A e’ la matrice ottenuta da A sostituendo a Ri la riga Ri + λRj .

Con il seguente esempio vediamo come operando sulle righe di una matrice A

o, equivalentemente, moltiplicando A per matrici elementari, e’ possibile ottenerematrici con piu’ entrate nulle.

Esempio 1.4.5. Data la matrice

A =

1 2 3 −1−3 1 0 00 −1 1 21 2 −1 1

moltiplicando opportunamente per matrici elementari, otteniamo una matrice tri-angolare superiore.

(R2 → R2 + 3R1) →

1 2 3 −10 7 9 −30 −1 1 21 2 −1 1

(R4 → R4 −R1)

1 2 3 −10 7 9 −30 −1 1 20 0 −4 2

(R3 → 7R3) →

1 2 3 −10 7 9 −30 −7 7 140 0 −4 2

(R3 → R3 + R2) →

1 2 3 −10 7 9 −30 0 16 110 0 −4 2

(R4 → 4R4) →

1 2 3 −10 7 9 −30 0 16 110 0 −16 8

(R4 → R4 + R3) →

1 2 3 −10 7 9 −30 0 16 110 0 0 19

= A′

Osserviamo che A′ = E43(1)E4(4)E32(1)E3(7)E41(−1)E21(3)A.

Il procedimento dell’esempio precedente e’ chiamato riduzione per righe oppureeliminazione di Gauss.

2. Eliminazione di Gauss per la risoluzione di sistemi lineari

Cerchiamo di capire come l’eliminazione di Gauss puo’ essere applicata allostudio dei sistemi lineari. Ad esempio consideriamo il sistema

x1 + 2x2 + 3x3 = −1−3x1 + x2 = 0−x2 + x3 = 2x1 + 2x2 − x3 = 1

11

Page 12: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Osserviamo che la matrice completa del sistema e’ la matrice dell’esempio 1.4.5..La matrice A′ ottenuta corrisponde alla matrice completa del seguente sistema:

x1 + 2x2 + 3x3 = −1+7x2 + 9x3 = −3

16x3 = 110 = 19

I due sistemi hanno una parentela? Osserviamo che le operazioni elementarioperate sulla matrice A per ottenere A′ corrispondono ad ”operazioni lecite” sulleequazioni del sistema. Questo concetto verra’ presto precisato per provare che i duesistemi hanno le stesse soluzioni. Guardando la nuova riformulazione del sistema, e’facile vedere che non esistono soluzioni. Vediamo di formalizzare il procedimento.

Data A ∈ Mm,n(k), si consideri il sistema lineare

AX = B

Siano M = (A|B) la matrice completa m × (n + 1) associata al sistema e E unamatrice elementare o prodotto di matrici elementari m × m.

Poniamo M ′ = EM, A′ = EA, B′ = EB.

Osserviamo cheM ′ = EM = (EA|EB) = (A′|B′).

Proviamo che

Proposizione 2.1. Le soluzioni del sistema A′X = B′ sono le stesse del sistemaAX = B.

Sia A una matrice non nulla, e’ facile vedere che, con successive moltiplicazioniper matrici elementari, ogni matrice puo’ essere ridotta ad una matrice ”a scalini”della forma

A =

0 . . . 0 a1 ∗ . . . ∗ . . . ∗ ∗ . . . ∗ . . .0 . . . 0 0 . . . 0 a2 ∗ . . . ∗ ∗ . . . ∗ . . .0 . . . 0 . . . 0 . . . . . . 0 a3 ∗ . . . ∗ . . .0 . . . . . . . . . . . . . . . 0 a4 . . .0 . . . . . . . . . . . . . . . . . . . . . . . .

dove gli ai sono non nulli, ∗ denota un numero qualsiasi e lo spazio vuoto e’ costituitoda zeri.

12

Page 13: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

La matrice precedente e’ detta matrice ridotta per righe o matrice a scala e hala proprieta’ che:

Il primo elemento non nullo della (i + 1)−esima riga si trova alla destra rispetto alprimo elemento non nullo della i−esima riga.

Esercizio 2.2. Risolvere il seguente sistema lineare:

x1 + 2x3 + x4 = 5x1 + x2 + 5x3 + 2x4 = 7x1 + 2x2 + 8x3 + 4x4 = 12

In virtu’ della Proposizione 2.1., si consiglia di determinare le soluzioni del sistemadopo aver ridotto per righe la matrice completa.

Per la maggior parte di questa trattazione, avremmo potuto considerare lecolonne invece delle righe. Abbiamo scelto di lavorare soprattutto sulle righe perapplicare i risultati ai sistemi lineari.L’operazione che scambia tra loro le righe e le colonne e’ la trasposizione di matrici.

La trasposta di una matrice A ∈ Mmn(k) e’ la matrice tA = (bij) ∈ Mnm

dove bij = aji.

Possiamo verificare che:i) t(A + B) =t A +t B

ii) t(λA) = λ tA

iii) t(AB) =t B tA

iv) t(tA) = A

Diciamo che una matrice e’ ridotta per colonne se tA e’ ridotta per righe.

Operando ancora con matrici elementari, possiamo verificare che ogni matricenon nulla puo’ essere ridotta per righe ad una matrice della forma:

A =

0 . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗ 0 ∗ . . . ∗ 0 . . .0 . . . 0 . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗ 0 . . .0 . . . 0 . . . . . . . . . 0 1 ∗ . . . ∗ 0 . . .0 . . . . . . . . . . . . . . . 0 1 . . .0 . . . . . . . . . . . . . . . . . . . . . . . .

dove ∗ denota un numero qualsiasi e lo spazio vuoto e’ costituito da zeri.

13

Page 14: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

La matrice A cosi’ ottenuta si dice matrice totalmente ridotta per righe. Una matricetotalmente ridotta per righe si puo’ definire come segue:

a) Il primo elemento non nullo di ogni riga e’ 1. Tale elemento e’ chiamatopivot.

b) Il pivot della (i + 1)−esima riga si trova alla destra rispetto al pivot dellai−esima riga.

c) Gli elementi al di sopra di un pivot sono nulli.

Si puo’ dimostrare che la matrice totalmente ridotta per righe ottenuta a partireda una matrice assegnata A, e’ unica, ossia non dipende dalla particolare sequenzadi operazioni eseguita.

Esercizio 2.3. Data

A =

0 1 −1 −1 1 01 −1 2 3 0 11 0 1 2 1 01 1 0 1 −3 2

determinare la matrice totalmente ridotta per righe.

Diciamo che una matrice e’ totalmente ridotta per colonne se tA e’ totalmente ri-dotta per righe. Analogamente alla riduzione per righe, data una qualunque matriceA, possiamo ottenere la matrice totalmente ridotta per colonne tramite operazionielementari sulle colonne o, equivalentemente, moltiplicando a destra la matrice A

per matrici elementari.

Useremo la riduzione per righe per caratterizzare i sistemi lineari che ammet-tono soluzione anche se poi nel seguito ritorneremo sul problema affrontandolo daun altro punto di vista.

Proposizione 2.4. Sia M ′ = (A′|B′) una matrice totalmente ridotta per righe.Allora il sistema di equazioni A′X = B′ ammette soluzioni se e soltanto se l’ultimacolonna non contiene pivot.

Chiaramente un sistema omogeneo AX = 0 ammette almeno la soluzione ba-nale X = 0. Considerando la matrice totalmente ridotta, possiamo facilmente de-durre che se il sistema omogeneo ha m equazioni e n incognite con m < n, ammette

14

Page 15: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

infinite soluzioni. Basta infatti attribuire un valore arbitrario all’incognita xi se lacolonna i−esima non contiene pivot.

Esercizio 2.5. Determinare le soluzioni del seguente sistema:

x1 − x2 + 2x3 − x4 = 02x1 + x2 + x4 = 0

x1 + x3 + 2x4 = 0

Utilizzeremo ora la riduzione per righe per caratterizzare le matrici quadrateinvertibili.

Proposizione 2.6. Sia A una matrice quadrata. Le seguenti condizioni sonoequivalenti:

a) A puo’ essere ridotta alla matrice identica tramite una successione di oper-azioni elementari sulle righe.

b) A e’ prodotto di matrici elementari.

c) A e’ invertibile.

d) Il sistema lineare AX = 0 ammette solo la soluzione nulla.

Osservazione 2.7. Nella prova della Proposizione 1.5.6. abbiamo messo in lucei seguenti fatti:1. se M e’ una matrice quadrata totalmente ridotta per righe, allora o M e’ lamatrice identica, oppure la sua ultima riga e’ nulla.2. La riduzione per righe fornisce un metodo per calcolare l’inversa di una matrice.Possiamo facilmente osservare che se E1, . . . , Ek sono matrici elementari tali

E1 · · ·EkA = I

allora A e’ invertibile e moltiplicando i due membri dell’eguaglianza per A−1 siottiene

E1 · · ·EkI = A−1.

Sia A una matrice invertibile. Per calcolare la sua inversa A−1, basta quindieffettuare operazioni elementari sulle righe riducendola all’identita’. La stessa suc-cessione di operazioni, applicata a I, fornisce A−1.

Esercizio 2.8. Determinare l’inversa di

A =

0 1 −1

1 3 21 −4 1

15

Page 16: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Terminiamo questa parte con un risultato che avevamo gia’ citato e che orapuo’ essere provato facilmente con i metodi introdotti.

Proposizione 2.9. Sia A una matrice quadrata dotata di un’inversa sinistra B

(BA = I), oppure di un’inversa destra ( AB = I). Allora A e’ invertibile e B e’ lasua inversa.

16

Page 17: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

3. Determinanti e sistemi lineari.

Siano n un intero positivo e In := {1, 2, . . . , n}. Indichiamo con Sn l’insiemedelle applicazioni iniettive di In in In. Osserviamo che essendo In un insieme finito,una applicazione f : In → In e’ iniettiva se e solo se e’ surgettiva, se e solo se e’bigettiva. Gli elementi di Sn sono dette permutazioni e un elemento σ : In → In

si potra’ rappresentare con una tabella del tipo

σ =(

1 2 . . . nσ(1) σ(2) . . . σ(n)

).

Ad esempio la permutazione σ : S4 → S4 definita da σ(1) = 2, σ(2) = 3, σ(3) = 1,σ(4) = 4 si indichera’ con

σ =(

1 2 3 42 3 1 4

).

E’ facile vedere che gli elemnti di Sn sono n!, ossia n(n − 1)(n − 2) · · · 2.

Nell’insieme Sn abbiamo una operazione di composizione dovuta al fatto chela composta di due applicazioni bigettive e’ bigettiva. Tale operazione non e’ com-mutativa, ma e’ associativa; inoltre Sn possiede un elemento neutro rispetto a taleoperazione: tale elemento e’ la permutazione identica. Inoltre ogni permutazione σ

e’ invertibile e σ−1 ∈ Sn. E’ anche chiaro che se σ, τ ∈ Sn allora

(στ)−1 = τ−1σ−1.

Tale operazione rende Sn un gruppo non commutativo che si chiama il gruppodelle permutazioni di In. Spesso parleremo di moltiplicazione in Sn invece chedi composizione.

Un elemento σ ∈ Sn si dira’ una trasposizione o uno scambio o un 2−ciclose per qualche i, j ∈ In risulta σ(i) = j, σ(j) = i e σ(k) = k,∀k �= i, j. Denoteremouna tale permutazione semplicemente con (i, j). Analogamente diremo che unapermutazione σ e’ un k ciclo se esistono i1, . . . , ik ∈ In tali che

σ(i1) = i2, σ(i2) = i3, . . . , σ(ik−1) = ik, σ(ik) = i1, σ(j) = j,∀j �= i1, . . . , ik.

Una tale permutazione la indicheremo semplicemente con (i1, . . . , ik).

Nell’analisi che stiamo per condurre, possiamo supporre che σ �= id, ossia che lapermutazione non sia quella identica.

Teorema 3.1. Ogni permutazione e’ prodotto di cicli disgiunti.

Ad esempio se

σ =(

1 2 3 4 5 6 7 86 8 4 3 1 5 2 7

).

17

Page 18: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

si haσ = (1, 6, 5)(2, 8, 7)(3, 4).

Teorema 3.2. Ogni ciclo e’ prodotto di 2-cicli.

Infatti si ha la formula

(i1, i2, . . . , id) = (i1, id)(i1, id−1) · · · (i1, i2).

Si conclude quindi che ogni permutazione e’ prodotto di 2-cicli.

Una permutazione σ ∈ Sn si dice di classe pari (risp. dispari) se si fattorizzanel prodotto di un numero pari (risp. dispari) di 2-cicli. La fattorizzazione di unapermutazione nel prodotto di 2-cicli non e’ unica, ma si prova che se σ = T1 · · ·Th

e σ = T ′1 · · ·T ′

s con Ti e T ′i 2-cicli, allora h = s mod2, ossia si preserva la parita’

(risp. disparita’).

Se σ ∈ Sn e’ una permutazione si definisce la segnatura di σ ponendo

sgn(σ) =∏i<j

σ(j) − σ(i)j − i

.

Proposizione 3.3. Se σ, τ ∈ Sn si ha:

sgn(τσ) = sgn(τ)sgn(σ).

Essendo sgn((ij)) = −1, risulta che per ogni σ ∈ Sn

sgn(σ) = ±1,

in particolare sgn(σ) = 1 se σ e’ di classe pari e sgn(σ) = −1 se di classe dispari.

Poiche’ sgn(id) = 1, si deduce in particolare che

sgn(σ) = sgn(σ−1).

Da questa analisi si puo’ provare anche che

sgn(σ) = (−1) numero di inversioni di σ

ove per calcolare il numero di inversioni di σ, si calcola il numero delle coppie (i, j)con i < j e σ(i) > σ(j).

18

Page 19: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Sia ora A = (aij) una matrice quadrata ad elementi in k.Diremo determinante di A l’elemento di k cosi definito:

det(A) :=∑

σ∈Sn

sgn(σ)a1σ(1)a2σ(2) . . . anσ(n).

Il determinante di A si puo’ indicare anche con |A|. Le seguenti proprieta’ deldeterminante sono di facile verifica:

1. det(A) :=∑

τ∈Snsgn(τ)aτ(1)1aτ(2)2 . . . aτ(n)n.

2. det(A) = det(tA).

3. Se si scambiano in A due righe ( o due colonne) il determinante cambia di segno.

4. Se A ha due righe (o due colonne) eguali , det(A) = 0.

5. Se

A =

a11 . . . a1n...

......

ai1 + bi1 . . . ain + bin...

......

an1 . . . ann

allora

det(A) = det

a11 . . . a1n...

......

a1i . . . ain...

......

an1 . . . ann

+ det

a11 . . . a1n...

......

bi1 . . . bin...

......

an1 . . . ann

6. Se una riga ( o una colonna) di A e’ nulla , allora det(A) = 0.

7. Se si sostiuisce ad una riga ( o una colonna) di A la riga stessa moltiplicata peruna costante λ ∈ k, allora si ottiene una matrice il cui determinante e’ λ det(A).

8. Se due righe ( o due colonne) di A sono proporzionali, allora det(A) = 0.

9. Se si aggiunge ad una riga ( o colonna) di A un’altra riga ( o colonna) moltiplicataper λ ∈ k, il determinante non cambia.

10. Se si ha:

A =

a11 . . . . . . a1n

0 a22 . . . a2n...

... . . .0 . . . 0 ann

19

Page 20: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

allora det(A) = a11 · · · ann.

11. Se si aggiunge ad una riga ( o colonna) di A una combinazione lineare delle rima-nenti righe (ossia a Ri si sostituisce Ri +

∑nj=1 λjRj con λj ∈ k e j �= i)(ugualmente

per le colonne), il determinante non cambia.

12. Se le righe ( o le colonne) di A sono linearmente dipendenti (ossia esistonoλ1, . . . , λn ∈ k non tutti nulli tali che

∑nj=1 λjRj = 0 ), allora det(A) = 0.

Osservazione 3.4. Da 3., 7. e 9. si verifica facilmente che

det(EijA) = −det(A)

det(Ei(λ)A) = λdet(A)

det(Eij(λ)A) = det(A)

Poiche’ ogni matrice quadrata si puo’ trasformare in una matrice triangolare su-periore moltiplicando per matrici elementari del tipo Eij e Eij(λ), la riduzione diGauss da’ un metodo effettivo per il calcolo del determinante.

Possiamo quindi concludere che, data una matrice A, esistono sempre una ma-trice triangolare superiore B e una matrice invertibile E tali che:

A = EB e det A = detB.

Esercizio 3.5. Calcolare

det

0 1 2 4−1 1 2 03 1 0 40 1 1 1

con il metodo di riduzione di Gauss.

Dall’osservazione precedente e dalla caratterizzazione data delle matrici invert-ibili, e’ facile dedurre il seguente importante risultato.

Teorema 3.6. Una matrice quadrata A e’ invertibile se e solo se det(A) �= 0.

Infatti det(A) �= 0 se e solo se det(A′) �= 0 dove A′ denota la matrice totalmenteridotta ottenuta da A. Segue che det(A′) �= 0 se e solo se A′ = I se e solo se A e’invertibile.

Osserviamo ora che

det(Eij) = −1, det(Ei(λ)) = λ, det(Eij(λ)) = 1.

20

Page 21: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Sia E una matrice elementare o prodotto di matrici elementari, da quanto dettosopra e dalle proprieta’ del determinante segue che

det(EA) = det(E)det(A).

Usando questo fatto si prova facilmente

Teorema di Binet. Se A e B sono due matrici quadrate n × n, si ha

det(AB) = det(A)det(B).

Se A e’ una matrice quadrata ad entrate in k, diciamo complemento alge-brico dell’elemento aij , l’elemento Aij definito come (−1)i+j per il determinantedella matrice che si ottiene da A eliminando la riga i − ma e la colonna j − ma.

Primo Teorema di Laplace. Per ogni matrice quadrata A = (aij) e per ognir = 1, . . . , n si ha

det(A) =n∑

j=1

arjArj .

Questo modo di esprimere il determinante di A si chiama lo sviluppo deldeterminante secondo la riga r −ma. Analogamente abbiamo una formula per losviluppo del determinante secondo la colonna s − ma. Precisamente si ha

det(A) =n∑

j=1

ajsAjs.

Se A e’ una matrice quadrata diciamo aggiunta di A e la denotiamo con A�

la matriceA� =t ((Aij))

e cioe’ la matrice che al posto ij ha il complemento algebrico dell’elemento di postoji.

Secondo Teorema di Laplace. Per ogni matrice quadrata A si ha se r e s sonodue interi distinti

0 =n∑

j=1

ajsAjr.

Usando questo teorema e’ facile provare che

AA� = det(A)I.

21

Page 22: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Se A e’ invertibile, allora det(A) �= 0 e si ha quindi

A−1 =A�

det(A).

Se A e’ una matrice m×n e t e’ un intero 1 ≤ t ≤ min{n, m}, diciamo minoredi ordine t di A il determinante di una qualunque sottomatrice quadrata di A chesi ottiene fissando t righe e t colonne. In particolare i minori di ordine 1 × 1 sonogli elementi di A e se A e’ una matrice quadrata n×n c’e’ un solo minore di ordinen di A ed e’ il det(A).

Sia A ∈ Mmn(k), diciamo caratteristica di A e la denotiamo con ρ(A), l’ordinemassimo di un minore non nullo di A.

Si ha quindiρ(A) ≤ min{m, n}.

In particolare se A ∈ Mn(k) si ha ρ(A) = n se e solo se det(A) �= 0.

Osserviamo che se A e’ una matrice ridotta per righe, ρ(A) coincide con il numerodi righe non nulle di A.

Consideriamo infatti la sottomatrice p × p costituita dalle p righe non nulle e dallep colonne contenenti i pivot: abbiamo una matrice triangolare superiore con glielementi sulla diagonale non nulli, per cui il suo determinante e’ non nullo. Inoltre,dato che A ha solamente p righe non nulle, tutti i minori di ordine p + 1 sono nulli.

Dato che ogni matrice si puo’ trasformare con operazioni elementari sulle righe(risp. colonne) in una matrice ridotta per righe (risp. colonne), e’ naturale chiedersise la caratteristica di una matrice puo’ variare per operazioni elementari.

Ricordando il comportamento del determinante rispetto ad operazioni elementari,e’ facile provare il seguente fatto

Proposizione 3.7. Sia A una matrice m×n e sia E una matrice elementare m×m,

alloraρ(A) = ρ(EA)

Analogamente se E una matrice elementare n × n, allora

ρ(A) = ρ(AE)

Possiamo concludere quindi che la caratteristica di una matrice coincide con il nu-mero di righe non nulle di una (qualunque) matrice ridotta per righe ottenuta da A

22

Page 23: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

oppure con il numero di colonne non nulle di una (qualunque) matrice ridotta percolonne ottenuta da A.

Esercizio 3.8. Sia A ∈ Mn(k). Allora detA = 0 se e solo se esistono λ1, . . . , λn ∈ k

non tutti nulli tali che∑n

i=1 λiRi = 0 ( indichiamo con 0 la riga nulla).

Dalla precedente proposizione possiamo dedurre il seguente importante fatto:

Corollario 3.9. Siano A ∈ Mmn(k), B ∈ Glm(k) e C ∈ GLm(k). Allora

ρ(A) = ρ(BAC)

Diremo che due matrici A1 e A2 sono equivalenti se esistono B e C invertibili tali

A1 = BA2C

L’equivalenza tra matrici e’ una relazione di equivalenza in Mmn(k).

Osserviamo che per una matrice m×n, le sottomatrici p×p sono(mn

)·(mp

), quindi

anche al fine di calcolare la caratteristica di una matrice, il metodo di riduzionesembra ancora una volta una procedura estremamente utile. Vediamo ora un criterioche in molti casi semplifichera’ ancora il calcolo della caratteristica.

Teorema di Kronecker. Sia A una matrice m×n. Se esiste un minore di ordinet di A che e’ non nullo ma che orlato in tutti i modi possibili con l’aggiunta di unariga e una colonna di A e’ nullo, allora si ha :

ρ(A) = t

Esempio 3.10. Si consideri la seguente matrice:

A =

1 2 0 −10 1 1 −11 1 −1 01 0 −2 1

Osserviamo che det

(1 20 1

)�= 0. Il teorema di Kronecker afferma che per provare

che ρ(A) = 2, non occorre controllare tutti i 16 minori di ordine 3 di A, ma bastacontrollare solo i quattro minori di ordine 4 che contengono il minore non nullo diordine 2 che abbiamo selezionato.

La teoria introdotta ci permette ora di provare ulteriori condizioni di com-patibilita’ di un sistema lineare. Sia dato il sistema lineare di m equazioni ed n

23

Page 24: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

incognite:

a11x1 + a12x2 + . . . + a1nxn = b1

a21x1 + a22x2 + . . . + a2nxn = b2...

am1x1 + am2x2 + . . . + amnxn = bm

Abbiamo visto che se indichiamo con A la matrice A = (aij), e con

X =

x1

x2...

xn

B =

b1

b2...

bm

il sistema si puo’ riscrivere come una equazione matriciale

AX = B.

Teorema di Cramer. Se m = n e A e’ invertibile allora il sistema dato ha una euna sola soluzione:

X = A−1B =1

det(A)A�B.

Notiamo che A�B e’ una matrice n × 1 che al posto i ha come elemento

A�i1b1 + A�

i2b2 + . . . + A�inbn = A1ib1 + A2ib2 + . . . + Anibn

Questo e’ il determinante della matrice che si ottiene da A sostituendo la colonnai − ma con la colonna dei termini noti. Dunque si ha la seguente formula per lasoluzione del sistema :

∀i = 1, . . . , n xi =

det

a11 a12 . . . b1 . . . a1n

a21 a22 . . . b2 . . . a2n...

......

...an1 an2 . . . bn . . . ann

det(A)

Dato il sistema AX = B indichiamo con M = (A|B) la matrice completadel sistema ossia la matrice che si ottiene da A aggiungendo come ultima colonnala colonna dei termini noti. E’ chiaro che M e’ una matrice m × (n + 1). Si provail seguente risultato

Teorema di Rouche’-Cappelli. Il sistema AX = B ha soluzione se e solo se

ρ(A) = ρ(M).

24

Page 25: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Ora se il sistema AX = B e’ risolubile, in accordo con il precedente teorema,sia t = ρ(A) = ρ(M). Allora si consideri un minore t × t non nullo di A. Si puo’provare che il sistema dato e’ equivalente al sistema che si ottiene trascurando leequazioni che non formano il minore scelto. Per risolvere il sistema si puo’ alloraportare a termine noto le incognite che non formano il minore scelto, ottenendocosi’ un sistema t × t la cui matrice dei coefficienti ha per determinante il minorenon nullo scelto. Otteniamo dunque un sistema di Cramer che sappiamo risolvere.In tal modo si esprimeranno t delle incognite in funzione delle rimanenti n − t. Sidira’ allora che il sistema ha ∞n−t soluzioni , nel senso che le soluzioni del sistemasi ottengono attribuendo ad arbitrio valori alle incognite ”libere” che sono appunton − t.

Se in particolare si deve studiare il sistema omogeneo

AX = 0

allora chiaramente ρ(A) = ρ(M), il che corrisponde al fatto che un tale sistema hasempre la soluzione banale ossia la soluzione

x1 = 0, x2 = 0, . . . , xn = 0.

4. Spazi Vettoriali.

Un gruppo commutativo (abeliano) e’ un insieme G con una operazione binariadenotata usualmente con +, che gode delle seguenti proprieta’:a) Proprieta’ associativa.b) Proprieta’ commutativa.c) Esiste un elemento g ∈ G tale che a + g = g + a = a per ogni a ∈ G.

d) Per ogni elemento a ∈ G esiste un elemento b ∈ G tale che a + b = b + a = g.

Un elemento come in c) si chiamera’ un elemento neutro. Un elemento come in d)si dira’ un opposto di a.

Si hanno le seguenti proprieta’:a) Unicita’ dell’elemento neutro.

25

Page 26: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

b) Unicita’ dell’opposto.c) Legge di cancellazione, ossia

a + b = a + c ⇒ b = c.

Dopo aver verificato quanto sopra indicheremo con 0 l’unico elemento neutro delgruppo abeliano G e con −g l’unico opposto dell’elemento g ∈ G. E’ chiaro allorache la scrittura g − h significa g + (−h).

Nel seguito k indichera’ un campo, ma per il momento ci limiteremo all’insiemedei numeri razionali, o l’insieme dei numeri reali, o l’insieme dei numeri complessi.

Uno spazio vettoriale su k e’ un gruppo abeliano V con una operazione esternache ad ogni elemento (a, v) di k × V associa un elemento av di V verificante leseguenti proprieta’:

a) a(v1 + v2) = av1 + av2, per ogni a ∈ V e per ogni v1, v2 ∈ V.

b) (a + b)v = av + bv, per ogni a, b ∈ k e per ogni v ∈ V.

c) a(bv) = b(av) = (ab)v per ogni a, b ∈ k e per ogni v ∈ V.

d) 1v = v per ogni v ∈ V.

Gli elementi di uno spazio vettoriale V saranno detti vettori mentre gli ele-menti di k saranno detti scalari .

Un tipico spazio vettoriale su k e’ lo spazio kn cosi’ definito:

I vettori sono le n-uple ordinate di elementi di k e le operazioni sono cosi’ definite:

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

e per ogni a ∈ k si ha

a(x1, . . . , xn) = (ax1, . . . , axn).

Osserviamo che kn e’ in corrispondenza biunivoca con l’insieme Mn1(k) delle ma-trici colonna oppure delle matrici riga M1n(k) e le operazioni prima definite in kn

concordano con le operazioni di somma e moltiplicazione per un elemento di k cheabbiamo gia’ visto nel calcolo matriciale.

Si verificano le seguenti proprieta’ aritmetiche negli spazi vettoriali:

26

Page 27: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

a) 0v = 0, per ogni v ∈ V.

b) a0 = 0 per ogni a ∈ k.

c)(−1)v = −v per ogni v ∈ V.

Un sottoinsieme W dello spazio vettoriale V si dira’ un sottospazio vettorialedi V se W e’ uno spazio vettoriale rispetto alla restrizione a W delle operazioni diV .

Si puo’ dedurre facilmente che un sottoinsieme non vuoto W dello spazio vettorialeV e’ un sottospazio vettoriale di V se e solo se W e’ chiuso rispetto alle operazionidi V, ossia se per ogni a ∈ k, w1, w2 ∈ W,

w1 + w2 ∈ W e aw1 ∈ W.

Cio’ e’ equivalente alla condizione

∀a, b ∈ k,∀w1, w2 ∈ W aw1 + bw2 ∈ W.

Si verifica facilmente che {0V } e V sono sottospazi vettoriali di V.

Se W e Z sono due sottospazi di V, allora W ∩Z e’ ancora un sottospazio di V . Lostesso vale per una famiglia anche non finita di sottospazi di V.

Esempi 4.1. i) Tutti e soli i sottospazi vettoriali di R2 come R−spazio vettoriale

sono: {(0, 0)}, le rette passanti per l’origine e R2 stesso.

ii) Sia A ∈ Mmn(k), l’insieme delle soluzioni del sistema lineare omogeneo AX = 0e’ un sottospazio vettoriale di kn.

Siano V un k−spazio vettoriale e v ∈ V, allora

< v >:= {av / a ∈ k}

e’ un sottospazio vettoriale di V detto sottospazio generato da v ed e’ il piu’ piccolo(rispetto all’inclusione insiemistica) sottospazio di V contenente v.

Piu’ in generale se S e’ un sottoinsieme (non necessariamente finito) dello spaziovettoriale V, definiamo < S > come l’insieme dei vettori di V che si possono scriverecome somme finite

a1v1 + a2v2 + . . . + anvn

27

Page 28: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

ove n e’ un intero positivo, ai ∈ k e vi ∈ S.

E’ facile vedere che < S > e’ un sottospazio di V e anzi e’ il piu’ piccolosottospazio di V che contiene S. Diremo che < S > e’ il sottospazio generato daS.

Osserviamo ora che l’unione di due sottospazi di V non sempre e’ un sottospaziodi V . Ad esempio se consideriamo in R

2 i sottospazi W =< v1 > e Z =< v2 > dovev1 = (1, 2) e v2 = (2, 2), allora v1 + v2 deve appartenere a un qualunque sottospaziovettoriale contenente W ∪ Z, ma v1 + v2 �∈ W ∪ Z.

Dati i sottospazi W e Z dello spazio vettoriale V , indicheremo con W + Z lospazio < W ∪ Z > . Tale notazione e’ giustificata dal fatto che risulta

W + Z = {w + z|w ∈ W, z ∈ Z}.

Tale sottospazio sara’ detto la somma di W e di Z. Se W ∩Z = {0} diremo che lasomma W + Z e’ diretta e scriveremo W ⊕ Z.

Se W1, . . . , Wn e’ un insieme finito di sottospazi di V possiamo definire indut-tivamente W1 + . . . + Wn; si ha che W1 + . . . + Wn e’ l’insieme dei vettori che sipossono scrivere w1 + . . . + wn con wi ∈ Wi per ogni i = 1, . . . , n.

Se S e’ un insieme finito, sia

S = {v1, v2, . . . , vn}

scriveremo < v1, v2, . . . , vn > invece di < {v1, v2, . . . , vn} > .

Lo spazio < v1, . . . , vn > sara’ detto sottospazio generato da v1, . . . , vn. Lospazio < v1, . . . , vn > e’ anche denotato L(v1, . . . , vn).Gli elementi di tale sottospazio sono i vettori del tipo

a1v1 + . . . + anvn

ove a1, . . . , an ∈ k. Un tale vettore sara’ detto una combinazione lineare div1, . . . , vn e gli scalari a1, . . . , an sono detti i coefficienti della combinazione lineare.

Se i vettori v1, . . . , vn ∈ V sono tali che

< v1, . . . , vn >= V

diremo che v1, . . . , vn ∈ V sono un sistema di generatori per V. Cio’ significache ogni vettore v ∈ V si puo’ scrivere come una combinazione lineare di v1, . . . , vn.

28

Page 29: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Osserviamo che, ad esempio, R2 =< (1, 0), (0, 1) > in quanto ogni vettore

(a, b) ∈ R2 si scrive come a(1, 0) + b(0, 1), ma e’ anche vero che R

2 =< (1, 0), (0, 1),(1, 1) > in quanto ogni vettore (a, b) ∈ R

2 si scrive anche come (a + 1)(1, 0) + (b +1)(0, 1) − (1, 1).

Diciamo che i vettori v1, . . . , vn ∈ V sono linearmente indipendenti se

a1v1 + . . . + anvn = 0 ⇒ a1 = a2 = . . . = an = 0.

Cio’ significa che una combinazione lineare di v1, . . . , vn e’ nulla solo quando tuttii coefficienti della combinazione lineare sono nulli.

Osserviamo che nell’esempio precedente i vettori (1, 0), (0, 1) sono linearmente in-dipendenti, mentre (1, 0), (0, 1), (1, 1) sono linearmente dipendenti.

Osservazione 4.2. Se v1, . . . , vn sono vettori linearmente indipendenti e v ∈ <

v1, . . . , vn >, allora v si scrive in modo unico come combinazione lineare di v1, . . . , vn.

Una base per lo spazio vettoriale V e’ un insieme di vettori v1, . . . , vn ∈ V tali che

a) v1, . . . , vn sono linearmente indipendenti

b) < v1, . . . , vn >= V , ossia v1, . . . , vn sono generatori per V.

Ad esempio una base per lo spazio vettoriale kn e’ la cosi’ detta base canonicadi kn che e’ l’insieme degli n vettori

e1 := (1, . . . , 0), e2 := (0, 1, . . . , 0), . . . , en := (0, . . . , 1).

Usando il seguente Lemma di scambio si puo’ dimostrare che tutte le basidi uno spazio vettoriale che ha un sistema finito di generatori sono equipotenti.

Lemma di scambio. Se v1, . . . , vn sono una base di V, w ∈ V e w �∈< v2, . . . , vn >,

allora w, v2, . . . , vn sono una base di V.

Teorema di equipotenza delle basi. Due basi di uno spazio vettoriale V sonoformate dallo stesso numero di vettori.

Se V e’ uno spazio che ha una base, allora si e’ visto che tutte le basi hanno lostesso numero di vettori. Tale numero intero si dira’ la dimensione di V .

29

Page 30: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Ad esempio si ha

dim(kn) = n.

Ci chiediamo ora quando uno spazio vettoriale ha una base.

Lemma di estrazione-completamento. Se V =< v1, . . . , vn > e v1, . . . , vk

sono linearmente indipendenti, allora si puo’estrarre da {v1, . . . , vn} una base checontiene v1, . . . , vk.

La strategia e’ la seguente: si guarda se vk+1 ∈< v1, . . . , vk > . Se si, lo si cancella,se no, si mantiene e v1, . . . , vk, vk+1 sono linearmente indipendenti. Procedendo intale modo si arriva alla conclusione.

Come conseguenza si prova che :

Teorema 4.3. Ogni spazio vettoriale non nullo e finitamente generato ha una base.

Come ulteriore applicazione del precedente teorema, si prova il

Teorema di completamento di una base. Se v1, . . . , vk sono vettorilinearmente indipendenti nello spazio vettoriale V finitamente generato, allora sipossono trovare vettori vk+1, . . . , vn ∈ V tali che v1, . . . , vn sia una base di V .

Alcune considerazioni dai fatti precedenti:

• Se dim(V ) = n e s > n, allora s vettori in V sono sempre linearmente dipendenti.

• Dato il sistema lineare omogeneo

a11x1 + a12x2 + . . . + a1nxn = 0a21x1 + a22x2 + . . . + a2nxn = 0

...am1x1 + am2x2 + . . . + amnxn = 0

usando il punto precedente, si puo’ ottenere il risultato gia’ noto che se il numeron di incognite e’ maggiore del numero m di equazioni, allora il sistema ha unasoluzione

(s1, . . . , sn) �= (0, . . . , 0).

Basta infatti osservare che le colonne della matrice A dei coefficienti individuanovettori di km che sono linearmente dipendenti (n > m).

30

Page 31: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

• Se dim(V ) = n, ogni n−upla di vettori v1, . . . , vn linearmente indipendenti in V,

forma una base di V.

• m vettori di kn sono linearmente indipendenti se e solo se la caratteristica dellamatrice che ha per colonne (o per righe) le coordinate dei vettori, ha caratteristicam.

E’ naturale chiedere la relazione che intercorre tra la dimensione di uno spaziovettoriale e quella di un suo sottospazio.

Teorema 4.4. Ogni sottospazio W di uno spazio finitamente generato V e’ finita-mente generato e quindi ammette una base. Inoltre si ha

dim(W ) ≤ dim(V )

e vale l’uguale se e solo se W = V.

Se W e Z sono sottospazi dello spazio vettoriale V si prova la formula diGrassmann:

dim(W + Z) = dim(W ) + dim(Z) − dim(W ∩ Z).

In particolaredim(W ⊕ Z) = dim(W ) + dim(Z).

Teorema di esistenza di un complemento diretto. Se V e’ finitamente gener-ato, per ogni sottospazio W di V esiste un sottospazio T di V tale che V = W ⊕ T.

E’ facile vedere che per ogni sottospazio vettoriale W di V ci sono diversisottospazi che sono complemento diretto di W in V. Cio’ dipende dal fatto che unsistema di vettori linearmente indipendenti si possono completare ad una base inmodi diversi.

5. Applicazioni lineari.

D’ora in poi supporremo che tutti gli spazi vettoriali considerati siano finita-mente generati.

Se V e W sono spazi vettoriali su k diciamo che una applicazione

f : V → W

31

Page 32: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

e’ lineare o che e’ un omomorfismo di k-spazi vettoriali se sono verificate leseguenti proprieta’.

a) f(v1 + v2) = f(v1) + f(v2), ∀v1, v2 ∈ V.

b) f(av) = af(v), ∀a ∈ k,∀v ∈ V.

Si vede facilmente che se f e’ una applicazione lineare si ha:

a) f(0) = 0

b) f(−v) = −f(v),∀v ∈ V.

Ad esempio l’applicazione nulla e’ sicuramente lineare e se W = V l’applicazioneidentica e’ sicuramente lineare.

Sef : V → W

e’ lineare definiamo ker(f) e lo diciamo il nucleo di f , l’insieme di vettori cosi’caratterizzati:

ker(f) := {v ∈ V |f(v) = 0}.

E’ chiaro che 0 ∈ ker(f) e che ker(f) e’ un sottospazio vettoriale di V. Si prova che

Teorema 5.1. L’applicazione lineare

f : V → W

e’ iniettiva se e solo se ker(f) = {0}.

Se f : V → W e’ lineare definiamo Im(f) e lo diciamo Immagine di f , l’insiemedi vettori cosi’ caratterizzati:

Im(f) := {w ∈ W |∃v ∈ V, f(v) = w}.

Si prova che Im(f) e’ un sottospazio di W e che f e’ surgettiva se e solo se Im(f) =W (se e solo se dim Im(f) =dim W ).

Osserviamo che se {v1, . . . , vn} e’ un sistema di generatori di V , per ogni v ∈ V

possiamo scrivere v =∑n

i=1 λivi, e quindi

f(v) =n∑

i=1

λif(vi),

32

Page 33: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

in particolare Im(f) =< f(v1), . . . , f(vn) > .

Una applicazione lineare f : V → W si dice un isomorfismo di spazi vettorialise e’ contemporaneamente iniettiva e surgettiva.

Due spazi vettoriali V e W tra cui esista un isomorfismo si diranno isomorfi.

Teorema 5.2. Se V e’ spazio vettoriale su k di dimensione n e {v1, . . . , vn} e’ unasua base, allora l’applicazione

f : kn → W

definita con la formula

f(a1, . . . , an) = a1v1 + . . . + anvn

e’ un isomorfismo di spazi vettoriali.

In particolare, dal teorema precedente, deduciamo che due spazi vettoriali di ugualedimensione sono isomorfi.

Osserviamo inoltre che il Teorema 5.2. afferma che ogni spazio vettoriale V di di-mensione n ”puo’ essere pensato” come Kn identificando, in modo univoco, ognivettore di V con la n−upla dei coefficienti che esprimono il vettore tramite unabase dello spazio vettoriale. Alla luce di questo fatto, si prova la seguente caratter-izzazione:

Proposizione 5.3. Sia {v1, . . . , vn} una base di V e siano w1, . . . , wm ∈ V. Sianoaij ∈ k, 1 ≤ i ≤ n, 1 ≤ j ≤ m tali che wj =

∑ni=1 aijvi e poniamo A = (aij). Allora

dim < w1, . . . , wm >= t ⇐⇒ ρ(A) = t.

A tale scopo basta provare che w1, . . . , wt sono linearmente dipendenti se e solo sei corrispondenti vettori colonna C1 = (a11, . . . , an1), . . . , Ct = (a1t, . . . , ant) deter-minati dai coefficienti della combinazione lineare, sono linearmente dipendenti.In particolare si prova che λ1w1+. . .+λtwt = 0V se e solo se λ1C1+. . .+λtCt = 0kn .

Un importante risultato che lega il nucleo e l’immagine di una applicazionelineare e’ il seguente teorema.

Teorema di nullita’ Se f : V → W e’ lineare allora vale:

dim(V ) = dim(ker(f)) + dim(Im(f)).

33

Page 34: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Come immediato Corollario abbiamo

Corollario 5.3. Se f : V → V e’ lineare, alloraf e’ iniettiva ⇐⇒ f e’ surgettiva ⇐⇒ f e’ bigettiva.

Matrici e omomorfismi.

Siano V e W due spazi vettoriali su k, dim(V ) = n e dim(W ) = m. Sia poif : V → W una applicazione lineare. Fissiamo una base E = {v1, . . . , vn} di V euna base F = {w1, . . . , wm} di W .

Allora per ogni i = 1, . . . , n il vettore f(vi) e’ un vettore di W e quindi si potra’scrivere

f(vi) =m∑

j=1

ajiwj .

In tal modo resta determinata la matrice (aij) di tipo m × n ad elementi in k chechiameremo la matrice associata a f mediante le basi E e F e che indicheremocon MEF (f).

Sappiamo che se f : V → W e’ una applicazione lineare e {v1, . . . , vn} unsistema di generatori di V , per ogni v ∈ V possiamo scrivere v =

∑ni=1 λivi, e

quindi

f(v) =n∑

i=1

λif(vi).

Quindi l’applicazione f e’ nota quando si conoscano i trasformati di un sistema digeneratori di V e Imf =< f(v1), . . . , f(vn) > .

Ci si puo’ allora chiedere se dati n vettori w1, . . . , wn di W esista sempre unaapplicazione lineare f : V → W tale che f(vi) = wi, ∀i = 1, . . . , n. La risposta e’negativa. Se pero’ {v1, . . . , vn} e’ una base di V allora tale f esiste ed e’ unica.Infatti per ogni v ∈ V potremo scrivere in modo unico v =

∑ni=1 λivi e quindi

definire la f nel modo seguente:

f(v) :=n∑

i=1

λiwi.

Per le considerazioni gia’ fatte si prova facilmente che

34

Page 35: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Proposizione 5.4. Dati gli spazi vettoriali V e W su k e una applicazione linearef : V → W, allora

dim Im(f) = ρ(MEF (f))

comunque si fissino E = {v1, . . . , vn} base di V e F = {w1, . . . , wm} base di W .

Dati gli spazi vettoriali V e W su k, indichiamo con Hom(V, W ) l’insieme delleapplicazioni lineari di V in W. Se f, g ∈ Hom(V, W ) e α ∈ k definiamo

(f + g) : V → W (αf) : V → W

ponendo(f + g)(v) := f(v) + g(v) (αf)(v) := αf(v)

per ogni v ∈ V.

E’ facile dimostrare che f + g e αf sono lineari e che, con tali operazioni,Hom(V, W ) e’ un k-spazio vettoriale.

Fissate le basi E = {v1, . . . , vn} di V e F = {w1, . . . , wm} di W, definiamoallora una applicazione

ϕ : Hom(V, W ) → Mmn(k)

ponendoϕ(f) := MEF (f).

E’ facile provare, usando le considerazioni fatte precedentemente, che ϕ e’ lineare eche e’ un isomorfismo di spazi vettoriali.

In particolare cio’ significa che valgono le seguenti relazioni:

MEF (f + g) = MEF (f) + MEF (g) MEF (αf) = αMEF (f).

Siano dati ora tre spazi vettoriali V , W e Z su k e due applicazioni lineari

f : V → W, g : W → Z.

Se E, F e G sono basi di V , W e Z ci possiamo chiedere come siano legate MEG(g◦f)e MFG(g), MEF (f).

Supponiamo si abbia E = {v1, . . . , vn}, F = {w1, . . . , wm} e Z = {z1, . . . , zp}.Se poniamo MFG(g) = (aij) e MEF (f) = (bij) risulta

(g ◦ f)(vj) = g[f(vj)] = g(m∑

k=1

bkjwk) =m∑

k=1

bkjg(wk) =

35

Page 36: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

=m∑

k=1

bkj(p∑

i=1

aikzi) =p∑

i=1

(m∑

k=1

aikbkj)zi.

Questa formula ci dice che la matrice MEG(g ◦ f) ha come elemento di postoij l’elemento

∑mk=1 aikbkj e quindi che

MEG(g ◦ f) = MFG(g)MEF (f).

Usando tale considerazione, si prova facilmente che:

• Date A ∈ Mmn e B ∈ Mnp, allora

ρ(AB) ≤ min(ρ(A), ρ(B)).

Supponiamo ora di avere una applicazione lineare f : V → V . Osserviamo chese f e’ un isomorfismo allora e’ iniettiva e surgettiva; quindi esiste una applicazioneg : V → V tale che f ◦g = g ◦f = id. E’ facile provare che tale g e’ una applicazionelineare. Si prova che

Teorema 5.5. Sia V uno spazio vettoriale di dimensione n su k e siano E e F

due basi di V. Se f : V → V e’ una applicazione lineare e A = MEF (f), sono fattiequivalenti:

1. f e’ iniettiva.

2. f e’ surgettiva.

3. f e’ un isomorfismo.

4. A e’ invertibile.

5. Esiste una matrice B ∈ Mn(k) tale che AB = I.

6. Esiste una matrice C ∈ Mn(k) tale che CA = I.

7. ρ(A) = n.

8. det(A) �= 0.

36

Page 37: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Sia ora V uno spazio vettoriale e E e F due basi di V . Allora la matriceMEF (id) associata mediante le basi E e F alla applicazione identica id : V → V sidice matrice di passaggio dalla base F alla base E. Infatti se MEF (id) = (aij)con E = {v1, . . . , vn} e F = {w1, . . . , wn}, si ha per ogni i = 1, . . . , n

vi = id(vi) =n∑

k=1

akiwk

e quindi tale matrice permette di scrivere i vettori della base E mediante i vettoridella base F.

E’ chiaro che si ha

MEF (i)MFE(i) = MFF (i) = I

e quindi(MEF (i))−1 = MFE(i).

Dunque MEF (i) e MFE(i) sono invertibili e anzi sono una l’inversa dell’altra.Inoltre ogni matrice n × n invertibile puo’ essere pensata come una matrice dipassaggio tra due basi qualunque di uno spazio vettoriale V di dimensione n.

Sia oraf : V → V

una applicazione lineare e E e F due basi di V . Allora risulta

MFF (f) = MEF (i)MEE(f)MFE(i) = MFE(i)−1MEE(f)MFE(i).

In generale due matrici quadrate A e B in Mn(k) si diranno simili se si ha

B = P−1AP

per qualche matrice P ∈ Gln(k).

Con questa definizione possiamo reinterpretare la formula precedente dicendoche matrici che rappresentano la stessa applicazione lineare f : V → V rispetto abasi diverse sono simili.

Anche il viceversa di tale risultato e’ vero. Ossia si prova che se A e B sono matricisimili in Mn(k) e V e’ un k-spazio vettoriale di dimensione n, allora esistono duebasi E e F di V e una applicazione lineare f : V → V tale che

MEE(f) = A, MFF (f) = B.

37

Page 38: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

La relazione di similitudine e’ una relazione di equivalenza . Cio’ significa cheindicando con A ∼ B il fatto che A e’ simile a B risulta:

a) A ∼ A, ∀A ∈ Mn(k).

b) A ∼ B ⇒ B ∼ A, ∀A, B ∈ Mn(k).

c)A ∼ B, B ∼ C ⇒ A ∼ C, ∀A, B, C ∈ Mn(k).

38

Page 39: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

6. Omomorfismi diagonalizzabili.

In questa parte intraprendiamo lo studio degli endomorfismi di uno spaziovettoriale di dimensione finita. La nostra analisi consiste nel ricercare, per undato endomorfismo, un riferimento (una base speciale dello spazio vettoriale) percui la matrice associata sia la piu’ semplice possibile. Abbiamo visto che matriciassociate allo stesso endomorfismo tramite basi diverse sono simili, cerchiamo quindiun buon rappresentante della classe di equivalenza individuata da una qualsiasimatrice associata all’endomorfismo.

Sia V uno spazio vettoriale e f : V → V una applicazione lineare. Diciamo che f

e’ diagonalizzabile se esiste una base E di V tale che la matrice associata a f ,MEE(f), sia diagonale.

Cio’ significa che esiste una base E = {v1, . . . , vn} di V e scalari λ1, . . . , λn ∈ k taliche

f(vi) = λivi ∀i = 1, . . . , n

equivalentemente

ME(f) =

λ1 0 0 . . . 00 λ2 0 . . . 00 0 . . . 0 00 0 0 . . . 00 0 0 0 λn

Diremo pertanto che λ ∈ k e’ un autovalore per f se esiste un vettore non nullov ∈ V tale che

f(v) = λv.

Sia λ ∈ k un autovalore per f . L’insieme

Vλ := {v ∈ V |f(v) = λv}

e’ un sottospazio di V : infatti e’ il nucleo dell’omomorfismo

λid − f : V → V.

Tale sottospazio si dice l’autospazio associato a λ e i suoi vettori sono detti gliautovettori di λ. E’ chiaro che per definizione di autovalore risulta dim(Vλ) > 0.

Osserviamo che f(Vλ) ⊆ Vλ. Piu’ in generale diciamo che un sottospazio vettorialeW di V e’ f−invariante se f(W ) ⊆ W. Poiche’ una base di W puo’ essere completataa una base F di V, il fatto che W e’ f−invariante si puo’ leggere direttamente dallamatrice associata a f che sara’ della forma:

MF (f) =(

A B0 C

).

39

Page 40: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Supponiamo che V = W1 ⊕ W2 sia somma diretta di due sottospazi f−invarianti,allora esiste una base B di V (unione delle basi dei Wi) tale che la matrice associataa f mediante B sara’ della forma:

MB(f) =(

A1 00 A2

).

Osserviamo che se λ un autovalore di f, in particolare Vλ e’ invariante.

Parlando di autovettore per una matrice n × n A, si intende un vettore che e’autovettore rispetto alla moltiplicazione a sinistra per A, ossia un vettore colonnaX non nullo tale che

AX = λX

per qualche λ ∈ k.

Dal fatto che matrici simili rappresentano la stessa applicazione lineare, segue:

Proposizione 6.1. Matrici simili hanno gli stessi autovalori.

Vediamo ora come determinare gli autovalori di un endomorfismo.

Sia f : V → V un omomorfismo e λ un elemento di k. Se A e’ la matrice associata adf rispetto ad una base E di V , allora la matrice λI −A e’ associata all’applicazionelineare λid − f.

Ne segue che un elemento λ ∈ k e’ un autovalore di f se e solo se ker(λi − f) �= 0se e solo se det(λI −A) = 0. Dunque gli autovalori di f sono gli elementi di k

che sono radici del polinomio det(XI − A).E’ facile provare che se A e B sono matrici simili allora det(XI −A) = det(XI −B)(avevamo gia’ osservato che hanno gli stessi autovalori). Tale polinomio non dipendequindi dalla base scelta ma soltanto dall’applicazione lineare f . Diremo che

pf (X) := det(XI − A)

e’ il polinomio caratteristico di f.

E’ chiaro che pf (X) e’ un polinomio monico di grado n, se n = dim(V ). Inoltre, sescriviamo

pf (X) = Xn + c1Xn−1 + . . . + cn,

allora si ha cn = (−1)ndet(A) e c1 = −Tr(A), ove Tr(A) e’ la traccia di A ossiala somma degli elementi di A che sono sulla diagonale principale.

40

Page 41: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Cio’ prova in particolare che matrici simili hanno lo stesso determinante e la stessatraccia. Tuttavia le due matrici

(1 00 1

) (1 10 1

)

hanno lo stesso polinomio caratteristico, ma non sono simili.

Le considerazioni precedenti rendono importante studiare come trovare le radici diun polinomio a coefficienti razionali, reali o complessi. Ora se f(X) e’ un polinomio acoefficienti complessi di grado n, il teorema fondamentale dell’algebra ci assicura chef(X) ha esattamente n radici complesse se si contano con la dovuta molteplicita’.

Se invece f(X) ha coefficienti reali sappiamo che puo’ non avere alcuna radicereale. Ma se per esempio ha grado dispari, usando il fatto che il coniugato dellasomma di due numeri complessi e’ la somma dei coniugati e il coniugato del prodottoe’ il prodotto dei coniugati, si prova facilmente che tale polinomio ha sempre unaradice reale.Esistono endomorfismi di k−spazi vettoriali di dimensione n > 1 o matrici n × n

con n > 1, privi di autovalori e autovettori. Ad esempio(

0 1−1 0

)∈ M2(R).

Se p(X) = a0 + a1X + . . . + amXm e’ un qualunque polinomio a coefficienti in k eA ∈ Mn(k), possiamo considerare

p(A) := a0In + a1A + . . . + amAm ∈ Mn(k).

Si puo’ dimostrare facilmente che, data una matrice A ∈ Mn(k), esistono polinominon nulli p(X) ∈ k[X] tali che p(A) = 0. Basta osservare che Mn(k) come k−spaziovettoriale ha dimensione n2 e quindi i vettori In, A, A2, . . . , Am sono linearmentedipendenti se m ≥ n2.

C’e’ un risultato piu’ profondo (Teorema di Cayley-Hamilton ) che non tratteremoin questo corso il quale afferma che se A = ME(f), allora

pf (A) = 0.

Ritorniamo alla ricerca di un criterio che caratterizzi gli endomorfismi diago-nalizzabili.

Lemma 6.2. Se λ1, . . . , λr sono autovalori distinti di f e se v1, . . . , vr sono cor-rispondenti autovettori non nulli, allora v1, . . . , vr sono linearmente indipendenti.

In particolare si prova facilmente che se λ1, . . . , λr ∈ k autovalori distinti di f, allora

41

Page 42: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Vλ1 + . . . + Vλr = Vλ1 ⊕ . . . ⊕ Vλr .

Quindi possiamo provare che f : V → V e’ diagonalizzabile se e solo se esiste unabase di V costituita da autovettori se solo se esistono λ1, . . . , λr ∈ k auotvalori taliche V = Vλ1 ⊕ . . . ⊕ Vλr .

Dal lemma precedente segue immediatamente un primo criterio di diagonalizz-abilita’ per un omomorfismo.

Teorema 6.3. Se V ha dimensione n e f ha n autovalori distinti, allora f e’diagonalizzabile.

Il viceversa di questo risultato non vale: infatti l’applicazione identica di V inV e’ diagonalizzabile ma ha il solo autovalore 1.

Osserviamo che se λ e’ autovalore per f , allora

0 < dimVλ ≤ m(λ)

dove m(λ) denota la molteplicita’ di λ in pf (X).Infatti se E = {v1, . . . vr} e’ una base di Vλ, completando E a base di V, seguefacilmente che (X − λ)r divide pf (X) e quindi r ≤ m(λ).

Teorema 6.4. Se f : V → V e’ un omomorfismo, λ1, . . . , λr sono le radici distintedel polinomio caratteristico di f , e m1, . . . , mr le corrispondenti molteplicita’. Alloraf e’ diagonalizzabile se e solo se per ogni i = 1, . . . , r, λi ∈ k e dim(Vλi) = mi.

Sia A una matrice quadrata ad elementi in k. Diremo che A e’diagonalizzabile seA e’ simile ad una matrice diagonale. Allora:

Teorema 6.5. Sia A ∈ Mn(k) una matrice quadrata e sia V un k-spazio vettorialedi dimensione n. Se E e’ una base di V ed f : V → V l’omomorfismo tale cheMEE(f) = A, allora si ha che f e’ diagonalizzabile se e solo se A e’ diagonalizzabile.

In particolare sia A una matrice quadrata n × n e f : kn → kn l’omomorfismotale che MEE(f) = A, essendo E la base canonica di kn. Se A (e quindi f) e’diagonalizzabile, sia F = {v1, . . . , vn} la base di kn formata da autovettori di f.

Se U e’ la matrice che ha come colonne i vettori v1, . . . , vn rispettivamente, allorarisulta

U−1AU =

λ1 0 . . . 00 λ2 . . . 0...

......

...0 0 . . . λn

.

42

Page 43: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

7. Prodotto scalare e matrici ortogonali

Vediamo come in R2 matrici associate ad endomorfismi possono rappresentare

rotazioni intorno all’origine. Ad esempio, una rotazione antioraria del piano di unangolo θ, e’ rappresentata dalla matrice

A =(

cosθ senθ−senθ cosθ

).

Per verificare che tale matrice rappresenta una rotazione, sia X =(

rcosαrsenα

)un

vettore di R2 in coordinate polari. Le formule di addizione per il seno e coseno

provano che

AX =(

rcos(α − θ)rsen(α − θ)

),

dunque AX rappresenta un vettore di R2 ottenuto da X mediante la rotazione di

θ.

Osserviamo che la matrice A ha determinante 1 e che tA = A−1.

Una matrice n×n si dice ortogonale se tA = A−1, o equivalentemente se tAA = I.

Si prova facilmente che il determinante di una matrice ortogonale e’ ±1, infattidet(tA)A = dettA det A = 1.

Si puo’ provare che

On = {A ∈ Gln(R) / tAA = I}

e’ un gruppo ed e’ detto gruppo ortogonale. Le matrici ortogonali aventi determi-nante +1 formano un sottogruppo chiamto gruppo ortogonale speciale. Si prova cheuna matrice A rappresenta una rotazione di R

2 che lascia fissa l’origine se e solo seA ∈ O2.

Il significato geometrico della moltiplicazione di un vettore di Rn per una matrice

ortogonale puo’ essere illustrato mediante i movimenti rigidi. Un movimento rigidoo isometria di R

n e’ una applicazione m : Rn → R

n che conserva le distanze, ossiae’ una applicazione che soddisfa la seguente condizione: se X e Y sono punti di R

n,

la distanza da X a Y e’ uguale alla distanza da m(X) a m(Y ).Un movimento rigido porta un triangolo in un triangolo congruente e pertantoconserva gli angoli. Si noti che la composizione di movimenti rigidi e’ un movimentorigido e che ogni movimento rigido e’ invertibile e l’inverso e’ ancora un movimentorigido.

43

Page 44: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Per comprendere la relazione tra matrici ortogonali e movimenti rigidi abbiamobisogno di introdurre il prodotto scalare di vettori.

In Rn consideriamo i vettori v = (x1, . . . , xn) e w = (y1, . . . , yn), diremo prodotto

scalare di v e w il numero reale

v · w := x1y1 + . . . + xnyn

ottenuto eseguendo il prodotto righe per colonne del ”vettore riga” v per il ”vettorecolonna” w.

Se v, v1, v2, v3 sono vettori di Rn, e λ ∈ R, valgono le seguenti proprieta’.

1. v1 · v2 = v2 · v1 per ogni v1, v2 ∈ V (commutativita’)

2. (v1 + v2) · v3 = v1 · v3 + v2 · v3 λ(v · w) = (λv) · w (linearita’)

3. v · v ≥ 0 e v · v = 0 se e solo se v = 0.

Come immediata conseguenza delle definizioni si ha :

a) λ(v1 · v2) = (λv1) · v2 = v1 · (λv2)

b) 0 · v = v · 0 = 0

Piu’ in generale diremo che uno spazio vettoriale V e’ uno spazio euclideo see’ definito in V un prodotto scalare ossia una operazione che ad ogni coppia dielementi v, w ∈ V associa un numero reale

v · w ∈ R

che verifica le proprieta’1., 2., 3.

Sia V uno spazio euclideo. Per ogni vettore v ∈ V definiamo la norma omodulo di v come il numero reale

‖v‖ :=√

v · v.

In Rn si ha

‖v‖ =√

x21 + . . . + x2

n.

Si verifica che

44

Page 45: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

1.‖v‖ ≥ 0 e ‖v‖ = 0 se e solo se v = 0.

2. Disuguaglianza di Cauchy-Schwartz: v · w ≤ ‖v‖‖w‖.

3. Disuguaglianza triangolare: ‖v + w‖ ≤ ‖v‖ + ‖w‖.

Se v, w ∈ V diciamo che v e w sono ortogonali e scriviamo v ⊥ w se

v · w = 0.

Se S e’ un sottoinsieme di V diciamo ortogonale di S l’insieme

S⊥ := {v ∈ V |v · w = 0, ∀w ∈ S}.

E’ facile dimostrare che anche se S non e’ un sottospazio di V , S⊥ lo e’.

Se in particolare W =< v1, . . . , vn >, risulta v ∈ W⊥ se e solo se v ⊥ vi per ognii = 1, . . . , n.

E’ chiaro che

W ∩ W⊥ =< 0 > e (W⊥)⊥ = W.

Un sottoinsieme S di V non contenente il vettore nullo si dice ortogonale see’ costituito da un solo vettore oppure se i suoi vettori sono a due a due ortogonali(vi · vj = 0 per ogni i �= j.)S si dice ortonormale se e’ ortogonale e inoltre i suoi vettori sono di norma 1.

Si verifica che se A e’ una matrice quadrata

A e’ ortogonale ⇐⇒ l’insieme dei vettori riga (o colonna) di A e’ ortogonale

Enunciamo la seguente proposizione che da’ una motivazione geometrica allo studiodelle matrici ortogonali:

Proposizione 7.1. Sia m : Rn → R

n una applicazione lineare. Le seguenticondizioni sono equivalenti:

1. m e’ un movimento rigido che lascia fissa l’origine.

2. m conserva il prodotto scalare, ossia, per ogni X e Y in Rn si ha : X · Y =

m(X) · m(Y ).

45

Page 46: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

3. Esiste una matrice ortogonale A tale m(X) = AX per ogni X in Rn.

Vediamo quindi come determinare matrici ortogonali.

Proposizione 7.2. Ogni insieme ortogonale e’ costituito da vettori linearmenteindipendenti.

Infatti se S = {v1, . . . , vr} e a1v1 + . . . + arvr = 0, moltiplicando scalarmente pervi, i = 1, . . . , r, si ottiene

aivi · vi = 0

da cui segue ai = 0.

Quindi un insieme ortogonale non puo’ contenere piu’ di n = dimV vettori. Unsottoinsieme S ortogonale costituito da n vettori e’ base di V e si dice base or-togonale di V. Esso si dice base ortonormale se i suoi vettori sono di normauno.

Facciamo ora vedere come da una base qualsiasi di V si possa costruire unabase ortonormale. Tale procedimento e’ noto come metodo di ortonormalizzazionedi Gram-Schmidt.

Sia B = {v1, . . . , vn} una base di V contenente il sottoinsieme S = {v1, . . . , vt}ortonormale. Possiamo supporre t < n e consideriamo il vettore

wt+1 := vt+1 −t∑

i=1

(vt+1 · vi)vi.

Chiaramente wt+1 ∈ V ed e’ ortogonale a ciascun vettore di S. Segue che

S ∪ {wt+1/‖wt+1‖}

e’ ortonormale e quindi la base ortonormale di V si ottiene ripetendo il procedi-mento.

Sia W un sottospazio dello spazio euclideo V e {v1, . . . , vn} una base ortogonaledi W. Per ogni v ∈ V il vettore v −

∑ni=1(v · vi)vi e’ ortogonale a tutti i vettori di

W , ossia

v −n∑

i=1

(v · vi)vi ∈ W⊥.

Poiche’∑n

i=1(v · vi)vi ∈ W e W ∩ W⊥ = {0}, si ha

V = W ⊕ W⊥.

46

Page 47: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Le matrici ortogonali e i fatti precedenti giocano un ruolo essenziale nella diagonal-izzazione di matrici simmetriche reali. Vedremo che ogni matrice simmetrica realeA e’ simile ad una matrice diagonale tramite una matrice P ortogonale, ossia esisteP ortogonale e una matrice ∆ diagonale tali che tale che

∆ =t PAP

Si prova in particolare che Rn ammette una base B ortonormale formata da au-

tovettori per A.

Teorema 7.3. Se A ∈ Mn(R) e’ una matrice simmetrica reale, ogni radice delsuo polinomio caratteristico |XI − A| e’ un numero reale.

Data una matrice simmetrica reale A, siano f : V → V una applicazione lineare e E

una base di V tale che A = MEE(f). Usando il teorema precedente si prova allorache tutte le radici del polinomio caratteristico di f sono numeri reali. In particolaref ha sicuramente un autovettore non nullo. Questa osservazione sara’ fondamentalenella prova del seguente risultato:

Teorema 7.4. Siano f : Rn → R

n un omomorfismo e E una base di Rn tale che

A = MEE(f) e’ simmetrica, allora Rn possiede una base ortonormale di autovettori.

Come corollario immediato si ottiene:

Teorema 7.5. Se A e’ una matrice simmetrica reale, allora esiste una matriceinvertibile U tale che U−1AU e’ diagonale e inoltre U−1 =t U.

Basta infatti considerare la matrice U che ha per colonne la base ortonormale di V

costituita da autovettori.

8. Accenno alle forme quadratiche

Sia A una matrice quadrata reale e siano x1, . . . , xn indeterminate. Se indichi-amo con X la matrice (x1 . . . xn), la matrice XA tX e’ un polinomio omogeneo disecondo grado in x1, . . . , xn che si dice forma quadratica associata alla matriceA.

E’ facile vedere che matrici diverse possono individuare la stessa forma quadratica.

47

Page 48: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Ad esempio se

A =(

1 −1−3 5

)B =

(1 −2−2 5

)

alloraXA tX = XB tX = x2

1 − 4x1x2 + 5x22.

Se viceversa Q(x1, . . . , xn) e’ una forma quadratica reale, ossia un polinomio omo-geneo di secondo grado in x1, . . . , xn, e’ chiaro che ci possono essere tante matriciA tali che Q(x1, . . . , xn) = XA tX, ma una sola di esse e’ simmetrica. Infatti se

Q(x1, . . . , xn) =∑

1≤i≤j≤n

bijxixj

e’ chiaro che la matrice A = (aij) ove

aij =

bij

2 , se i minore di jbji

2 , se j minore di ibii, se i=j .

e’ l’unica matrice simmetrica tale che Q(x1, . . . , xn) = XA tX.

Data la forma quadratica Q(x) := Q(x1, . . . , xn) = XA tX con A matricesimmetrica reale , sia U la matrice unitaria che diagonalizza A, ossia tale che U−1 =t

U e

tUAU = ∆ =

λ1 0 . . . 00 λ2 . . . 0...

......

...0 0 . . . λn

Allora si haA = U∆tU

e se si considera la ”trasformazione”

Y = XU

si ottienetY =t U tX

e quindi:

Q(x) = XA tX = X(U∆tU) tX = Y ∆tY =n∑

i=1

λiy2i .

Diremo che la trasformazione Y = XU riduce la forma quadratica alla forma diag-onale.

Esempio. Ridurre a forma diagonale la forma quadratica Q(x1, x2, x3) = 2x1x2−x2

3.

48

Page 49: APPUNTI DEL CORSO DI ALGEBRA LINEARExoomer.virgilio.it/matweb/dispense 2/Agebra linerare.pdf · APPUNTI DEL CORSO DI ALGEBRA LINEARE per il corso di Laurea in Matematica 1 L’algebralinearesvolgeunruolocrucialeintuttiicampidellamatematicae,

Si ha Q = XAtX ove

A =

0 1 0

1 0 00 0 −1

.

Calcoliamo il polinomio caratteristico di A. Si ha

|XI − A| = det

X −1 0

−1 X 00 0 X + 1

= (X + 1)(X2 − 1) = (X + 1)2(X − 1).

Quindi gli autovalori di A sono 1 con molteplicita’ 1 e −1 con molteplicita’ 2.

L’autospazio V1 e’ costituito dai vettori soluzione del sistema

{x1 − x2 = 02x3 = 0

e quindi una sua base e’ (1, 1, 0).

L’autospazio V−1 e’ costituito dai vettori soluzione del sistema

−x1 − x2 = 0

e quindi una sua base e’ (1,−1, 0), (0, 0, 1). La base di V1 si ortonormalizza imme-diatamente ottenendo (

√2/2,

√2/2, 0).

Una base ortonormale di V−1 e’ data dai vettori (√

2/2,−√

2/2, 0), (0, 0, 1).

Sia allora

U :=

√22

√2/2 0√

2/2 −√

2/2 00 0 1

Se consideriamo la trasformazione

Y = XU

ossia la trasformazione

y1 =√

2/2x1 +√

2/2x2

y2 =√

2/2x1 −√

2/2x2

y3 = x3.

si ottieneQ(x1, x2, x3) = y2

1 − y22 − y2

3 .

E infatti e’ facile verificare che

(√

2/2x1 +√

2/2x2)2 − (√

2/2x1 −√

2/2x2)2 − x23 = 2x1x2 − x2

3.

49