Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
MATRICI
Si chiama matrice di m righe ed n colonne una tabella costituita da
m ·n numeri (detti elementi), disposti in m righe orizzontali ed in n colonne
verticali, racchiusi tra due parentesi tonde.
(1)
a11 a12 ... a1n
a21 a22 ... a2n
... ... ... ...
am1 am2 ... amn
Gli elementi di una matrice si indicano con una stessa lettera del’alfabeto
munita di due indici ad esempio aij , il primo dei quali indica la riga, il
secondo la colonna a cui l’elemento appartiene. Ad esempio, l’elemento a32
si trova all’incrocio della terza riga con la seconda colonna.
Se m 6= n la matrice si dice rettangolare di dimensione m×n ; se m = n
la matrice si dice quadrata di ordine n.
In matrici quadrate, gli elementi a11, a22, ..., ann costituiscono la diago-
nale principale, mentre gli elementi an1, a(n−1)2, ..., a1n costituiscono la
diagonale secondaria.
Una matrice quadrata si dice simmetrica se la tabella e simmetrica rispet-
to alla diagonale principale; si dice diagonale se tutti i suoi elementi sono
nulli, ad eccezione al piu di quelli appartenenti alla diagonale principale.
Ogni matrice diagonale e simmetrica.
Ad esempio, la matrice
1
B =
1 0 1
0 2 3
1 3 0
e quadrata di ordine 3, gli elementi 1,2,0 costituiscono la diagonale princi-
pale, gli elementi 1,2,1 costituiscono la diagonale secondaria; la matrice B e
simmetrica, ma non diagonale.
Assegnata una matrice quadrata A, si chiama trasposta di A, la matrice
AT ottenuta scambiando in A, le righe con le colonne, cosı, ad esempio,
posto
A =
1 −1 3
0 1 2
0 3 0
risulta AT =
1 0 0
−1 1 3
3 2 0
Ovviamente ogni matrice simmetrica coincide con la propria trasposta.
Una matrice 1× n ha la forma
(a11 a12 ... a1n
)
e prende il nome di vettore riga. Una matrice m× 1 ha la forma
a11
a21
...
am1
e prende il nome di vettore colonna.
Nel seguito indicheremo brevemente con (aij) la matrice (1), il cui
elemento di posto i, j e (aij).
2
Operazioni con le matrici.
Addizione.
Assegnate due matrici A = (aij) e B = (bij), entrambe della stessa
dimensione m×n si definisce somma di A e B e si indica con C = A+B,
la matrice m×n il cui elemento cij , di posto i, j, e dato da cij = aij +bij
(cioe l’operazione di addizione e eseguita elemento per elemento).
Alcune proprieta dell’ addizione.
• Proprieta commutativa: (aij) + (bij) = (bij) + (aij)
• Proprieta associativa: ((aij) + (bij)) + (cij) = (aij) + ((bij) + (cij))
• Esistenza dell’ elemento neutro 0 dell’addizione (matrice nulla, i cui
elementi sono tutti nulli) tale che (aij) + 0 = (aij), per ogni matrice
(aij).
• Esistenza dell’elemento opposto: ogni matrice (aij) ammette una
matrice opposta che si indica con (−aij) tale che (aij) + (−aij) = 0.
Ad esempio, la matrice
A =
1 0 1
0 2 3
1 3 0
e la matrice −A =
−1 0 −1
0 −2 −3
−1 −3 0
sono una l’opposta dell’altra.
Moltiplicazione di una matrice per uno scalare.
Se A = (aij) e una matrice m × n , e λ ∈ IR il prodotto di λ per
A, indicato con λA, e la matrice m × n il cui elemento di posto i, j e
λ · aij .
Esempio:
A =
1 0 1
0 2 3
1 3 −1
λ = 3 λA =
3 0 3
0 6 9
3 9 −3
Moltiplicazione righe per colonne tra matrici.
Assegnata una matrice A = (aij) di dimensione m× n e una matrice
B = (bij), di dimensione n× p si definisce prodotto di A e B e si indica
3
con C = A · B, la matrice m × p il cui elemento cij , di posto i, j, e
ottenuto addizionando i prodotti degli elementi della i-esima riga di A per
gli elemeti della j-esima colonna di B.
Si osservi che per poter moltiplicare righe per colonne la matrice A per
la matrice B, occorre che il numero di colonne della matrice A coincida
con il numero di righe della matrice B. Il risultato e una matrice C che
ha lo stesso numero di righe della prima e lo stesso numero di colonne della
seconda.
Esempio:
4 1 3
2 2 1
·
1 5
2 4
0 1
=
6 27
6 19
in quanto
c11 = 4 · 1 + 1 · 2 + 3 · 0 = 6
c12 = 4 · 5 + 1 · 4 + 3 · 1 = 27
c21 = 2 · 1 + 2 · 2 + 1 · 0 = 6
c22 = 2 · 5 + 2 · 4 + 1 · 1 = 19
Sistemi lineari ed equazioni matriciali.
Particolare rilievo ha la moltiplicazione di una matrice per un vettore colon-
na, in quanto permette di ridurre un sistema lineare ad una equazione in
forma matriciale.
Un sistema lineare di tipo generale costituito da m equazioni in n incognite
e della forma
a11x1 + a12x2 + ... + a1nxn = b1
a21x1 + a22x2 + ... + a2nxn = b2
.......... ... ........... ... ... ... ........... ... ...
am1x1 + am2x2 + ... + amnxn = bm
Il sistema si dice lineare, poiche ciascuna equazione e di primo grado (ogni
suo termine ha grado ≤ 1). I numeri reali aij si chiamano coefficienti del
4
sistema, mentre i numeri reali b1, b2, ..., bm sono detti termini noti.
Un sistema lineare si dice omogeneo se i termini noti sono tutti nulli. In un
sistema lineare omogeneo ogni termine di ogni equazione e di primo grado.
Assegnato il sistema lineare di m equazioni in n incognite sopra descritto e
posto
A =
a11 a12 ... a1n
a21 a22 ... a2n
... ... ... ...
am1 am2 ... amn
, X =
x1
x2
...
xn
, B =
b1
b2
...
bm
utilizzando il prodotto matriciale righe per colonne e immediato verificare
che tale sistema e equivalente all’equazione matriciale A ·X = B .
Alcune proprieta della moltiplicazione.
• Proprieta associativa: ((aij) · (bij)) · (cij) = (aij) · ((bij) · (cij))
• Proprieta distributive della moltiplicazione rispetto all’addizione:
(aij) · ((bij) + (cij)) = (aij) · (bij) + (aij) · (cij)
λ · ((bij) + (cij)) = λ · (bij) + λ · (cij)
• La matrice nulla 0 e l’elemento annullatore della moltiplicazione:
0 · (aij) = 0, λ · 0 = 0
• Elemento neutro della moltiplicazione: per ogni n ∈ IN, n > 1 la
matrice diagonale di ordine n i cui elementi non nulli sono uguali ad
uno si chiama matrice identica I ed e tale che (aij) · I = (aij),
per ogni matrice (aij) di dimensione m× n.
I =
1 0 ... 0
0 1 ... 0
... ... ... ...
0 0 ... 1
5
• Si osservi che non sussiste la nota legge di annullamento del prodot-
to, infatti esistono matrici non nulle il cui prodotto e nullo.
Posto
A =
1 0
0 0
B =
0 0
0 1
si verifica facilmente che A ·B = 0.
• L’equazione matriciale A · X = B, A 6= 0 puo non avere alcuna
soluzione.
E noto infatti che l’equazione A ·X = B con
A =
1 2
2 4
B =
1
1
equivalente al sistema x + 2y = 1
2x + 4y = 1
e impossibile.
Da quanto osservato e evidente che le operazioni di addizione e moltipli-
cazione (in particolare quest’ultima) conferiscono una struttura algebrica
poco operativa, in ogni caso ben lontana dalla struttura algebrica dei numeri
reali.
E pero sufficiente limitarsi a considerare un opportuno sottoinsieme di tutte
le matrici per ottenere una struttura in cui siano valide le regole dell’algebra
elementare (ad eccezione della proprieta commutativa).
Al fine di individuare tale sottoinsieme e necessario introdurre il concetto di
determinante di una matrice.
6
DETERMINANTE DI UNA MATRICE QUADRATA
Fissata una matrice quadrata A = (a11) di ordine 1, si definisce determi-
nante di A il valore a11 e si scrive
detA = a11.
Se
A =
a11 a12
a21 a22
e una matrice quadrata di ordine 2, si definisce determinante di A il
numero
detA = a11 · a22 − a12 · a21
Il determinante della matrice A si indica anche con il simbolo
∣∣∣∣∣∣ a11 a12
a21 a22
∣∣∣∣∣∣Esempio A =
1 2
2 3
detA = 1 · 3− 2 · 2 = −1.
Assegnata una matrice quadrata A = (aij) di ordine n, n ≥ 2 e fissati due
indici i, j, si indichi con Aij la sottomatrice ottenuta da A eliminando la
riga i-esima e la colonna j-esima.
Si definisce
• minore complementare dell’elemento aij il determinante detAij
• complemento algebrico dell’elemento aij il numero mij =
(−1)i+jdetAij
• determinante di A la somma dei prodotti degli elementi di una
sua riga (o colonna) per i rispettivi complementi algebrici (regola
7
di Laplace).
Quando si usa la regola di Laplace per il calcolo di un determinante si suol
dire che il determinante si sviluppa secondo gli elementi di una riga o colon-
na.
Ad esempio, considerata la matrice del terzo ordine A =
1 2 0
0 2 3
1 −4 2
sviluppando il determinante secondo gli elementi della prima riga si ha
m11 = (−1)1+1
∣∣∣∣∣∣ 2 3
−4 2
∣∣∣∣∣∣ = 4 + 12 = 16
m12 = (−1)1+2
∣∣∣∣∣∣ 0 3
1 2
∣∣∣∣∣∣ = −(0− 3) = 3
m13 = (−1)1+3
∣∣∣∣∣∣ 0 2
1 −4
∣∣∣∣∣∣ = 0− 2 = −2
detA = a11 ·m11 + a12 ·m12 + a13 ·m13 = 1 · 16 + 2 · 3 + 0 · (−2) = 22
Si dimostra che il valore del determinante non dipende dalla riga o dalla
colonna scelta per lo sviluppo.
Si osservi che il teorema di Laplace riconduce il calcolo di un determinante
di ordine n al calcolo di n determinanti di ordine n − 1 e ognuno di questi
al calcolo di (n-1) determinanti di ordine n − 2 e cosı via; in conclusione,
applicando ripetutamente la regola di Laplace, il calcolo di un determinante
di ordine n e ricondotto al calcolo di determinanti di ordine due anche se
numerosi. I principali CAS (Computer Algebra Systems) contengono pro-
grammi che permettono un veloce calcolo matriciale.
8
Il determinante di una matrice quadrata di ordine tre puo essere calcolato
applicando la seguente regola di Sarrus:
si formi la tabella
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
che si ottiene aggiungendo alla matrice le prime due colonne.
La differenza tra la somma dei prodotti dei tre elementi della diagonale
principale e delle sue parallele e la somma dei prodotti dei tre elementi della
diagonale secondaria e delle sue parallele da il determinante considerato.
Esempio
Il determinante secondo la regola di Sarrus della matrice
A =
1 2 0
0 2 3
1 −4 2
si ottiene scrivendo la tabella
1 2 0 1 2
0 2 3 0 2
1 −4 2 1 −4
ed e dato da
detA = 4 + 6 + 12 = 22.
9
Principali proprieta dei determinanti.
• Se detA = 0, la matrice A si dice singolare.
• La matrice identica ha determinante unitario, mentre la matrice nulla
ha determinante nullo.
• Se in un determinante tutti gli elementi di una riga o colonna sono
nulli, il determinante ha valore nullo.
• Il valore di un determinante non si altera se si scambiano le righe con
le colonne (detA = detAT ).
• Il valore di un determinante si muta nell’opposto scambiando tra loro
due righe o due colonne.
• Il valore di un determinante e zero se contiene due righe o colonne
uguali.
• Se tutti gli elementi di una riga o colonna sono moltiplicati per uno
scalare k, anche detA e moltiplicato per lo scalare k.
• Il valore di un determinante e zero se contiene due righe o colonne
proporzionali.
• Se A e una matrice di ordine n, allora det(k ·A) = kn · detA
• Se gli elementi di una riga (o colonna) sono combinazione lineare degli
elementi delle rimanenti righe o colonne, il determinante ha valore nul-
lo.
10
• Il determinante di un prodotto e uguale al prodotto dei determinanti
det(A ·B) = detA · detB
cioe il prodotto di due matrici e singolare se e solo se almeno uno dei
due fattori e singolare.
• Il determinante di una matrice quadrata e un numero reale associato
alla matrice che dipende non solo dal valore degli elementi costituenti
la matrice, ma anche dalla loro posizione. Ad esempio le matrici
A =
1 0
0 1
, B =
1 0
1 0
hanno gli stessi elementi ma detA = 1 e detB = 0.
• Notiamo infine che a tutt’oggi non e risultato significativo associare
un determinante ad una matrice rettangolare.
Le matrici quadrate di ordine n non singolari.
Matrice inversa.
Ogni matrice non singolare A di ordine n ammette una ed una sola matrice
non singolare A−1 di ordine n, detta matrice inversa di A, tale che
A ·A−1 = A−1 ·A = I
.
La matrice inversa e cosı definita:
A−1 =1
detAMT
ove M e la matrice formata dai complementi algebrici degli elementi di A.
Per le proprieta del determinante si ha
detA · detA−1 = det(A ·A−1) = det I = 1
11
quindi
detA−1 =1
detA.
Esempio
Assegnata
A =
1 −2
3 1
si ha detA = 1 + 6 = 7 6= 0,
M =
1 −3
2 1
, MT =
1 2
−3 1
e quindi
A−1 =
1/7 −3/7
2/7 1/7
Si verifichi che A ·A−1 = A−1 ·A = I e che detA−1 = 1
detA .
L’algebra elementare delle matrici.
Da quanto sopra, segue che le operazioni di addizione e moltiplicazione con-
feriscono all’insieme delle matrici quadrate non singolari con l’aggiunta della
matrice nulla la stessa struttura algebrica dei numeri reali (ad eccezione del-
la proprieta commutativa della moltiplicazione). Sussistono cosı tutte le
proprieta fondamentali dell’algebra elementare. In particolare valgono:
• Legge di annullamento del prodotto: det(A·B) = 0 se e solo se almeno
uno dei due fattori A o B e singolare.
12
• L’equazione matriciale A · X = B con A matrice quadrata non
singolare ammette una ed una sola soluzione:
A ·X = B ⇔ A−1 ·A ·X = A−1 ·B ⇔ I ·X = A−1 ·B ⇔ X = A−1 ·B.
Rango di una matrice.
Abbiamo gia osservato che non si definisce il determinante di matrici ret-
tangolari m× n con m 6= n. Si introduce pero un operatore piu generale,
chiamato rango della matrice, che ad ogni matrice, quadrata o rettango-
lare, associa un numero intero non negativo strettamente legato alla natura
della matrice stessa.
Da ogni matrice A si possono estrarre sottomatrici quadrate; se A e quadra-
ta la sottomatrice quadrata di ordine massimo che si puo estrarre coincide
con A stessa.
I determinanti delle sottomatrici quadrate si chiamano minori estratti
dalla matrice. Si chiama ordine del minore l’ordine della relativa sot-
tomatrice quadrata.
Si chiama rango (o caratteristica) della matrice A, rg A, l’ordine mas-
simo dei minori non nulli che si possono estrarre da A.
Precisamente, assegnata una matrice A di dimensione m× n, si dice che
rg A = k, con k ≤ min{m,n} se
• dalla matrice A si puo estrarre almeno un minore non nullo di ordine
k,
• tutti i minori di ordine maggiore di k che si possono estrarre dalla
matrice A sono nulli.
Esempio
13
Ogni matrice quadrata A puo avere al massimo rango pari al suo ordine.
Sia A di ordine n. Si ha:
rgA = n⇔ detA 6= 0.
La matrice
A =
1 2 0 −1
0 2 3 3
1 6 6 5
puo avere al massimo rango 3 pari alla sua dimensione minore. Poiche la
terza riga si ottiene sommando alla prima riga la seconda moltiplicata per
2, applicando le proprieta dei determinanti, e facile verificare che i minori
di ordine 3 sono tutti nulli e percio rgA ≤ 2. Poiche tra i minori di ordine
2 ve ne sono alcuni non nulli (ne basta uno!!!), quale ad esempio
∣∣∣∣∣∣ 1 2
0 2
∣∣∣∣∣∣ = 2
segue che rgA = 2.
Vettori linearmente indipendenti.
Assegnati n vettori v1, v2, ..., vn, si chiama combinazione lineare di
v1, v2, ..., vn ogni vettore della forma
a1v1 + a2v2 + ...+ anvn
ove a1, a2, ..., an sono numeri reali, detti coefficienti della combinazione.
I vettori v1, v2, ..., vn, si dicono linearmente indipendenti se l’unica loro
combinazione lineare uguale al vettore nullo e quella a coefficienti tutti nulli,
cioe
a1v1 + a2v2 + ...+ anvn = 0⇔ a1 = a2 = ... = an = 0.
Vettori che non sono linearmente indipendenti si dicono lineramente dipen-
denti.
14
Si provano le seguenti caratterizzazioni sulla dipendenza lineare di n vettori:
I vettori v1, v2, ..., vn, sono linearmente dipendenti se e solo se uno al-
meno di essi e combinazione lineare dei rimanenti.
Siano v1, v2, ..., vn, n vettori colonna di dimensione n × 1. Essi sono lin-
earmente dipendenti se e solo se la matrice di ordine n che li ammette
come vettori colonna ha determinante uguale a zero.
Il rango di una matrice e una misura del numero di vettori riga (o colonna)
che sono linearmente indipendenti. Si prova infatti:
Il rango di una matrice A e uguale al massimo numero di vettori riga (o
colonna) di A che siano linearmente indipendenti.
In particolare, gli n vettori colonna [gli m vettori riga] di una matrice A
di dimensione m × n, sono linearmente indipendenti se e solo se rgA =
n [rgA = m].
15
Sistemi lineari.
Assegnato un sistema lineare di m equazioni in n incognite
a11x1 + a12x2 + ... + a1nxn = b1
a21x1 + a22x2 + ... + a2nxn = b2
.......... ... ........... ... ... ... ........... ... ...
am1x1 + am2x2 + ... + amnxn = bm
in questo capitolo affrontiamo il problema della sua risoluzione. Iniziamo
con delle notazioni: la matrice
A =
a11 a12 ... a1n
a21 a22 ... a2n
... ... ... ...
am1 am2 ... amn
,
e detta matrice dei coefficienti o anche matrice incompleta per distinguerla
dalla matrice completa C di dimensione m×(n+1) ottenuta dalla matrice A
aggiungendo come (n+1)-esima colonna il vettore colonna dei termini noti:
C =
a11 a12 ... a1n b1
a21 a22 ... a2n b2
... ... ... ... ...
am1 am2 ... amn bm
.
Posto
X =
x1
x2
...
xn
, B =
b1
b2
...
bm
il sistema assegnato e equivalente all’equazione matriciale A ·X = B.
Iniziamo con il considerare sistemi lineari con numero di equazioni uguale
al numero delle incognite (m = n). La matrice A e una matrice quadrata:
se A e non singolare (detA 6= 0) A ammette la matrice inversa e l’equazione
16
matriciale A ·X = B ammette una e una sola soluzione:
A ·X = B ⇔ A−1 ·A ·X = A−1 ·B ⇔ I ·X = A−1 ·B ⇔ X = A−1 ·B.
Un altro metodo di risoluzione dei sistemi lineari di n equazioni in n incog-
nite (m = n) e proposto dal seguente
Teorema di Cramer Se detA 6= 0 il sistema lineare ammette una ed una
sola soluzione data da
x1 =detB1
detA, x2 =
detB2
detA, ..., xn =
detBn
detA
dove
B1 =
b1 a12 ... a1n
b2 a22 ... a2n
... ... ... ...
bn an2 ... ann
, ..., Bn =
a11 a12 ... b1
a21 a22 ... b2
... ... ... ...
am1 am2 ... bn
cioe Bi, i = 1, ..., n si ottiene dalla matrice A sostituendo la i-esima colonna
con il vettore colonna dei termini noti.
Il Teorema di Cramer per la risoluzione di un sistema lineare di n equazioni
in n incognite e significativo da un punto di vista teorico in quanto fornisce
una condizione sufficiente (detA 6= 0) affinche il sistema ammetta una e una
sola soluzione, ma e poco operativo quando il numero delle equazioni (e delle
incognite) e grande.
Un altro metodo di frequente uso e il metodo di eliminazione di Gauss che
consiste nel trasformare il sistema assegnato in un altro di forma triangolare
ad esso equivalente, cioe avente le stesse soluzioni.
Al momento sappiamo risolvere solo equazioni matriciali in cui A e quadrata
non singolare.
17
Esempio
Risolvere il sistema lineare2x + + z = 0
−2y + = −2
2x + y + = 3
equivalente all’equazione lineare non omogenea A ·X = B ove
A =
2 0 1
0 −2 0
2 1 0
B =
0
−2
3
Sviluppiamo il detA secondo gli elementi della seconda riga:
detA = −2 · (−1)2+2
∣∣∣∣∣∣ 2 1
2 0
∣∣∣∣∣∣ = −2 · (−2) = 4
Calcoliamo A−1 :
m11 = (−1)1+1
∣∣∣∣∣∣ −2 0
1 0
∣∣∣∣∣∣ = 0
m12 = (−1)1+2
∣∣∣∣∣∣ 0 0
2 0
∣∣∣∣∣∣ = 0
m13 = (−1)1+3
∣∣∣∣∣∣ 0 −2
2 1
∣∣∣∣∣∣ = +4
m21 = (−1)2+1
∣∣∣∣∣∣ 0 1
1 0
∣∣∣∣∣∣ = −(−1) = 1
m22 = (−1)2+2
∣∣∣∣∣∣ 2 1
2 0
∣∣∣∣∣∣ = −2
18
m23 = (−1)2+3
∣∣∣∣∣∣ 2 0
2 1
∣∣∣∣∣∣ = −2
m31 = (−1)3+1
∣∣∣∣∣∣ 0 1
−2 0
∣∣∣∣∣∣ = 2
m32 = (−1)3+2
∣∣∣∣∣∣ 2 1
0 0
∣∣∣∣∣∣ = 0
m33 = (−1)3+3
∣∣∣∣∣∣ 2 0
0 −2
∣∣∣∣∣∣ = −4
M =
0 0 4
1 −2 −2
2 0 −4
MT =
0 1 2
0 −2 0
4 −2 −4
A−1 = MT /4 =
0 1/4 1/2
0 −1/2 0
1 −1/2 −1
Verificare che A ·A−1 = I.
Le soluzioni del sistema sono date da A−1 ·B:
0 1/4 1/2
0 −1/2 0
1 −1/2 −1
·
0
−2
3
=
−1/2 + 3/2
1
1− 3
=
1
1
−2
Risolviamo lo stesso sistema applicando il Teorema di Cramer:
19
detB1 = det
0 0 1
−2 −2 0
3 1 0
= 1 · (−1)1+3
∣∣∣∣∣∣ −2 −2
3 1
∣∣∣∣∣∣ = −2 + 6 = 4
detB2 = det
2 0 1
0 −2 0
2 3 0
= 1 · (−1)1+3
∣∣∣∣∣∣ 0 −2
2 3
∣∣∣∣∣∣ = 4
detB3 = det
2 0 0
0 −2 −2
2 1 3
= 2 · (−1)1+1
∣∣∣∣∣∣ −2 −2
1 3
∣∣∣∣∣∣ = 2(−6 + 2) = −8
quindi:
x =detB1
detA= 4/4 = 1, y =
detB2
detA= 4/4 = 1, z =
detB3
detA= −8/4 = −2
Riprendiamo ora in considerazione un sistema lineare di tipo generale di m
equazioni in n incognite. Il seguente teorema caratterizza i sistemi lineari
che ammettono soluzioni:
Teorema di Rouche - Capelli Condizione necessaria e sufficiente affinche
un sistema lineare di m equazioni in n incognite abbia soluzioni e che le ma-
trici completa ed incompleta del sistema abbiano lo stesso rango.
Se il sistema ha soluzioni, sia k il rango delle due matrici. Se k = n il sis-
tema ammette una e una sola soluzione che si determina con il Teorema di
Cramer.
Se k < n il sistema ammette ∞n−k soluzioni, cioe l’insieme delle soluzioni e
in corrispondenza biunivoca con IRn−k.
Sistemi lineari omogenei Un sistema lineare si dice omogeneo se e solo
se il vettore colonna B dei termini noti e il vettore nullo (tutti gli elementi
sono nulli). In questo caso le matrici completa e incompleta hanno sempre lo
stesso rango (differiscono per una colonna di zero!)e quindi i sistemi lineari
omogenei hanno sempre soluzione. In particolare essi hanno sempre la
soluzione identicamente nulla.
20
Nel loro studio e sufficiente considerare solo la matrice incompleta A.
Se rgA = numero delle incognite, il sistema ammette una e una sola
soluzione: la soluzione identicamente nulla (soluzione banale).
Se k = rgA < numero delle incognite = n, il sistema ammette ∞n−k
soluzioni, che naturalmente comprendono la soluzione identicamente nulla.
21
Trasformazioni geometriche Una trasformazione geometrica T (X), X
vettore colonna, e una corrispondenza biunivoca che associa ad ogni pun-
to X dello spazio un punto T (X) dello spazio stesso conservando qualche
proprieta geometrica. Le posizioni dei punti sono modificate in quanto essi
subiscono un movimento, mentre il sistema di riferimento resta fisso.
X e detto punto unito o punto fisso della trasformazione T se T (X) = X
ovvero se esso e invariante rispetto alla trasformazione.
Tra le principali trasformazioni geometriche consideriamo le affinita
T (X) = A ·X +X0
ove X,X0 sono vettori colonna, A e una matrice quadrata non singolare
(detA 6= 0) e A · X indica il prodotto riga per colonna. Si puo dimostrare
che un’affinita gode delle seguenti proprieta:
• trasforma rette in rette;
• a rette parallele corrispondono rette parallele;
• a rette incidenti corrispondono rette incidenti;
• conserva il rapporto fra segmenti paralleli (in particolare al punto
medio di un segmento corrisponde il punto medio del segmento omol-
ogo);
In generale un’affinita non conserva la forma delle figure. L’immagine di un
rettangolo e in generale un parallelogramma, cosı come l’immagine di una
circonferenza puo essere un’ellisse.
Una affinita che lascia fissa l’origine (cioe ammette l’origine come punto
fisso) si chiama applicazione lineare ed e caratterizzata da X0 = 0. Quin-
di T e un’applicazione lineare se T (X) = A ·X.
Proprieta di un’applicazione lineare:
T (X1 +X2) = T (X1) + T (X2)
T (kX) = kT (X).
Dal punto di vista geometrico si dice che un’applicazione lineare soddisfa
il principio di sovrapposizione nel senso che il risultato corrispondente alla
somma di due dati e la somma dei due risultati che si sarebbero ottenuti
22
separatamente.
Affinita di particolare importanza sono le isometrie. Le isometrie
sono affinita che conservano le distanze tra punti, la forma e la grandezza
delle figure. Indicato con X1, X2, due punti dello spazio (vettori colonna)
e con d(X1, X2) la distanza tra X1 e X2, l’affinita T e una isometria se
d(T (X1), T (X2)) = d(X1, X2).
Le isometrie si possono classificare in: traslazioni, simmetrie assiali, sim-
metrie centrali, rotazioni.
Traslazioni Un’isometria e una traslazione quando A = I, matrice iden-
tica. Quindi una traslazione e
T (X) = X +X0.
Una traslazione e quindi una trasformazione affine dello spazio che sposta
tutti i punti di una distanza fissa nella stessa direzione. La si puo anche in-
terpretare come addizione di un vettore costante X0 ad ogni punto, o come
spostamento dell’origine del sistema di coordinate.
Nel piano si puo rappresentare come
x′ = x + x0
y′ = y + y0
ove X =
x
y
, X0 =
x0
y0
, T (X) =
x′
y′
.
Ovviamente, una traslazione non e un’applicazione lineare.
Simmetrie assiali Nel piano due punti X e X ′ si dicono simmetrici
rispetto a una retta r (cui non appartengono) quando r e l’asse del segmento
[X,X ′]. Il punto X ′ e il simmetrico di X rispetto ad r e viceversa. La
trasformazione che associa ad ogni punto X che non appartiene ad r il
punto X ′ suo simmetrico, ed ammette tutti i punti di r come punti fissi, e
detta simmetria assiale di asse r nel piano.
Se la retta r passa per l’origine, la simmetria assiale e un’applicazione lineare.
In particolare, se r e l ’asse x, si ha
T (X) = A ·X,
x′ = x
y′ = −yA =
1 0
0 −1
23
Se r e l ’asse y, si ha
T (X) = A ·X,
x′ = −x
y′ = yA =
−1 0
0 1
Simmetrie centrali Nel piano due punti X e X ′ si dicono simmetrici
rispetto a un punto C (cui non appartengono) quando C e il punto medio
(o centro) del segmento [X,X ′]. X ′ si dice il simmetrico di X rispetto ad
C e viceversa. La trasformazione che associa ad ogni punto X il punto X ′
suo simmetrico, e viceversa, si dice simmetria centrale di centro C. L’unico
punto fisso di tale isometria e il centro C di simmetria. Una simmetria cen-
trale e quindi un’ applicazione lineare solo se il centro di simmetria coincide
con l’origine, C ≡ O. In questo caso si ha
T (X) = A ·X,
x′ = −x
y′ = −yA =
−1 0
0 −1
Rotazioni Una rotazione e una trasformazione del piano o dello spazio
che sposta gli oggetti in modo rigido e che lascia fisso almeno un punto (l’o-
rigine dello spazio). I punti che restano fissi nella trasformazione formano
un sottospazio: quando questo insieme e un punto (l’origine) o una retta, si
chiamano rispettivamente il centro e l’asse della rotazione. Una rotazione di
centro l’origine e determinata dal verso di rotazione e dall’angolo θ, ampiez-
za della rotazione.
La rotazione antioraria di centro l’origine e di angolo θ e l’applicazione
lineare
T (X) = A ·X,
x′ = x cos θ − y sin θ
y′ = x sin θ + y cos θA =
cos θ − sin θ
sin θ cos θ
24
mentre la rotazione oraria di centro l’origine e di angolo θ e l’applicazione
lineare
T (X) = A ·X,
x′ = x cos θ + y sin θ
y′ = −x sin θ + y cos θA =
cos θ sin θ
− sin θ cos θ
Autovalori ed autovettori di una matrice
Sia A = (aij) una matrice quadrata di ordine n e sia
v =
x1
x2
...
xn
un vettore colonna. L’applicazione lineare
Av = w
trasforma il vettore v in un nuovo vettore w. Nelle applicazioni geometriche,
ma anche in molte altre applicazioni, sorge spesso il problema di determinare
se esiste un vettore v non nullo v 6= 0 che dalla trasformazione Av = w
sia trasformato in se stesso o in un multiplo di se stesso (un multiplo di v e
kv, k numero reale). Si tratta cioe di studiare l’equazione
Av = kv.
Indicata con I la matrice identica di ordine n, si ha
Av = kv ⇔ Av − kv = 0⇔ Av − kIv = 0⇔ (A− kI)v = 0
L’equazione matriciale Av = kv e equivalente all’equazione
(A − kI)v = 0 e quindi ad un sistema lineare omogeneo con parametro k,
matrice dei coefficienti (A− kI), incognita v. Soluzioni non nulle v 6= 0 del
sistema esisteranno se
det(A− kI) = 0.
25
Si chiama autovalore di A ogni soluzione k dell’equazione det(A−kI) = 0.
In generale il determinante a primo membro dell’equazione e un polinomio
di grado n in k, detto polinomio caratteristico della matrice A.
Se la matrice A e simmetrica, il polinomio caretteristico ammette radici
reali.
Se k ∈ IR e un autovalore della matrice A, il sistema omogeneo (A−kI)v = 0
ha almeno una soluzione v 6= 0 in base al Teorema di Rouche - Capelli. Una
tale soluzione v si chiama autovettore di A corrispondente all’autovalore
k. E facile verificare che se v e un autovettore di A allora anche ogni suo
multiplo av, a ∈ IR \ {0} e autovettore di A
(A− kI)av = a(A− kI)v = a · 0 = 0
Vale il seguente
Teorema Se A e una matrice simmetrica, k1, k2 ∈ IR sono due autovalori
di A e v1, v2 due corrispondenti autovettori, allora
k1 6= k2 =⇒ v1, v2 sono fra loro perpendicolari.
Esempi
Determinare gli autovalori e gli autovettori della matrice
A =
3 −2
2 −2
.
Trovare gli autovettori di A significa determinare, se esistono, soluzioni
non nulle del sistema lineare omogeneo con parametro k
(A− kI)v = 0 ⇐⇒
3− k −2
2 −2− k
·
x1
x2
=
0
0
⇐⇒
(3− k)x1 −2x2 = 0
2x1 (−2− k)x2 = 0
26
Soluzioni non nulle del sistema esistono se e solo se
det
3− k −2
2 −2− k
= (3− k)(−2− k) + 4 = k2 − k − 2 = 0
k2 − k − 2 = 0 e l’equazione caratteristica della matrice A. Le sue
soluzioni sono k1 = −1, k2 = 2, autovalori della matrice A.
Per k = −1 nel sistema omogeneo si ha 4x1 −2x2 = 0
2x1 −x2 = 0
Soluzioni del sistema sono tutti i vettori {(x1, 2x1) : x1 ∈ IR}, autovet-
tori della matrice A corrispondenti all’autovalore k = −1.
Analogamente, per k = 2 nel sistema omogeneo si ha x1 −2x2 = 0
2x1 −4x2 = 0
Soluzioni del sistema sono tutti i vettori {(2x2, x2) : x2 ∈ IR}, autovet-
tori della matrice A corrispondenti all’autovalore k = 2.
Applicazioni
Consideriamo due popolazioni p1(t), p2(t) che coabitano nello stesso habi-
tat. L’evoluzione del numero degli individui puo dipendere, oltre che dal
naturale sviluppo di ognuna delle popolazioni, anche dall’interazione con
l’altra popolazione.
Il piu semplice modello matematico che studia l’interazione tra popolazioni
e p′1 = ap1 + bp2
p′2 = cp1 + dp2
Si tratta di un sistema di equazioni differenziali lineare omogeneo del
primo ordine a coefficienti costanti. Una soluzione del sistema e una coppia
di funzioni p1(t), p2(t) derivabili che soddisfa le due equazioni. La matrice
27
a b
c d
e la matrice dei coefficienti.
Ricordando il modello di Malthus e naturale ricercare le soluzioni del
sistema nella forma p1(t) = Aekt, p2(t) = Bekt ove k,A,B sono da deter-
minare.
Tali funzioni sono soluzioni se e solo se soddisfano il sistema di equazioni
differenziali Akekt = aAekt + bBekt
Bkekt = cAekt + dBekt
cioe
(a− k)A + bB = 0
cA + (d− k)B = 0
Quest’ultimo e un sistema lineare omogeneo nella variabile (A,B) con
parametro k.
Si tratta di un tipico problema di autovalori. Poiche si cercano soluzioni
(A,B) non nulle, il determinante dei coefficienti deve annullarsi, cioe
(a− k)(d− k)− bc = 0.
k2 − (a+ d)k + (ad− bc) = 0 e l’equazione caratteristica della matrice
a b
c d
e le sue radici k1, k2 sono gli autovalori della matrice (ci limitiamo a consid-
erare il caso ∆ > 0, e quindi k1, k2 numeri reali). Qualunque coppia (A,B)
appropriata e un autovettore.
Le funzioni
p1(t) = Aek1t, p2(t) = Bek1t
con (A,B) autovettore relativo all’autovalore k1 e
p1(t) = Cek2t, p2(t) = Dek2t
28