29
MATRICI Si chiama matrice di m righe ed n colonne una tabella costituita da m · n numeri (detti elementi), disposti in m righe orizzontali ed in n colonne verticali, racchiusi tra due parentesi tonde. (1) a 11 a 12 ... a 1n a 21 a 22 ... a 2n ... ... ... ... a m1 a m2 ... a mn Gli elementi di una matrice si indicano con una stessa lettera del’alfabeto munita di due indici ad esempio a ij , il primo dei quali indica la riga, il secondo la colonna a cui l’elemento appartiene. Ad esempio, l’elemento a 32 si trova all’incrocio della terza riga con la seconda colonna. Se m 6= n la matrice si dice rettangolare di dimensione m × n ; se m = n la matrice si dice quadrata di ordine n. In matrici quadrate, gli elementi a 11 ,a 22 , ..., a nn costituiscono la diago- nale principale, mentre gli elementi a n1 ,a (n-1)2 , ..., a 1n costituiscono la diagonale secondaria. Una matrice quadrata si dice simmetrica se la tabella ` e simmetrica rispet- to alla diagonale principale; si dice diagonale se tutti i suoi elementi sono nulli, ad eccezione al pi` u di quelli appartenenti alla diagonale principale. Ogni matrice diagonale ` e simmetrica. Ad esempio, la matrice 1

MATRICI Matematica...Si osservi che nonsussiste la nota legge di annullamento del prodot-to, infatti esistono matrici non nulle il cui prodotto e nullo. Posto A= 0 @ 1 0 0 0 1 A B=

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

MATRICI

Si chiama matrice di m righe ed n colonne una tabella costituita da

m ·n numeri (detti elementi), disposti in m righe orizzontali ed in n colonne

verticali, racchiusi tra due parentesi tonde.

(1)

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

am1 am2 ... amn

Gli elementi di una matrice si indicano con una stessa lettera del’alfabeto

munita di due indici ad esempio aij , il primo dei quali indica la riga, il

secondo la colonna a cui l’elemento appartiene. Ad esempio, l’elemento a32

si trova all’incrocio della terza riga con la seconda colonna.

Se m 6= n la matrice si dice rettangolare di dimensione m×n ; se m = n

la matrice si dice quadrata di ordine n.

In matrici quadrate, gli elementi a11, a22, ..., ann costituiscono la diago-

nale principale, mentre gli elementi an1, a(n−1)2, ..., a1n costituiscono la

diagonale secondaria.

Una matrice quadrata si dice simmetrica se la tabella e simmetrica rispet-

to alla diagonale principale; si dice diagonale se tutti i suoi elementi sono

nulli, ad eccezione al piu di quelli appartenenti alla diagonale principale.

Ogni matrice diagonale e simmetrica.

Ad esempio, la matrice

1

B =

1 0 1

0 2 3

1 3 0

e quadrata di ordine 3, gli elementi 1,2,0 costituiscono la diagonale princi-

pale, gli elementi 1,2,1 costituiscono la diagonale secondaria; la matrice B e

simmetrica, ma non diagonale.

Assegnata una matrice quadrata A, si chiama trasposta di A, la matrice

AT ottenuta scambiando in A, le righe con le colonne, cosı, ad esempio,

posto

A =

1 −1 3

0 1 2

0 3 0

risulta AT =

1 0 0

−1 1 3

3 2 0

Ovviamente ogni matrice simmetrica coincide con la propria trasposta.

Una matrice 1× n ha la forma

(a11 a12 ... a1n

)

e prende il nome di vettore riga. Una matrice m× 1 ha la forma

a11

a21

...

am1

e prende il nome di vettore colonna.

Nel seguito indicheremo brevemente con (aij) la matrice (1), il cui

elemento di posto i, j e (aij).

2

Operazioni con le matrici.

Addizione.

Assegnate due matrici A = (aij) e B = (bij), entrambe della stessa

dimensione m×n si definisce somma di A e B e si indica con C = A+B,

la matrice m×n il cui elemento cij , di posto i, j, e dato da cij = aij +bij

(cioe l’operazione di addizione e eseguita elemento per elemento).

Alcune proprieta dell’ addizione.

• Proprieta commutativa: (aij) + (bij) = (bij) + (aij)

• Proprieta associativa: ((aij) + (bij)) + (cij) = (aij) + ((bij) + (cij))

• Esistenza dell’ elemento neutro 0 dell’addizione (matrice nulla, i cui

elementi sono tutti nulli) tale che (aij) + 0 = (aij), per ogni matrice

(aij).

• Esistenza dell’elemento opposto: ogni matrice (aij) ammette una

matrice opposta che si indica con (−aij) tale che (aij) + (−aij) = 0.

Ad esempio, la matrice

A =

1 0 1

0 2 3

1 3 0

e la matrice −A =

−1 0 −1

0 −2 −3

−1 −3 0

sono una l’opposta dell’altra.

Moltiplicazione di una matrice per uno scalare.

Se A = (aij) e una matrice m × n , e λ ∈ IR il prodotto di λ per

A, indicato con λA, e la matrice m × n il cui elemento di posto i, j e

λ · aij .

Esempio:

A =

1 0 1

0 2 3

1 3 −1

λ = 3 λA =

3 0 3

0 6 9

3 9 −3

Moltiplicazione righe per colonne tra matrici.

Assegnata una matrice A = (aij) di dimensione m× n e una matrice

B = (bij), di dimensione n× p si definisce prodotto di A e B e si indica

3

con C = A · B, la matrice m × p il cui elemento cij , di posto i, j, e

ottenuto addizionando i prodotti degli elementi della i-esima riga di A per

gli elemeti della j-esima colonna di B.

Si osservi che per poter moltiplicare righe per colonne la matrice A per

la matrice B, occorre che il numero di colonne della matrice A coincida

con il numero di righe della matrice B. Il risultato e una matrice C che

ha lo stesso numero di righe della prima e lo stesso numero di colonne della

seconda.

Esempio:

4 1 3

2 2 1

·

1 5

2 4

0 1

=

6 27

6 19

in quanto

c11 = 4 · 1 + 1 · 2 + 3 · 0 = 6

c12 = 4 · 5 + 1 · 4 + 3 · 1 = 27

c21 = 2 · 1 + 2 · 2 + 1 · 0 = 6

c22 = 2 · 5 + 2 · 4 + 1 · 1 = 19

Sistemi lineari ed equazioni matriciali.

Particolare rilievo ha la moltiplicazione di una matrice per un vettore colon-

na, in quanto permette di ridurre un sistema lineare ad una equazione in

forma matriciale.

Un sistema lineare di tipo generale costituito da m equazioni in n incognite

e della forma

a11x1 + a12x2 + ... + a1nxn = b1

a21x1 + a22x2 + ... + a2nxn = b2

.......... ... ........... ... ... ... ........... ... ...

am1x1 + am2x2 + ... + amnxn = bm

Il sistema si dice lineare, poiche ciascuna equazione e di primo grado (ogni

suo termine ha grado ≤ 1). I numeri reali aij si chiamano coefficienti del

4

sistema, mentre i numeri reali b1, b2, ..., bm sono detti termini noti.

Un sistema lineare si dice omogeneo se i termini noti sono tutti nulli. In un

sistema lineare omogeneo ogni termine di ogni equazione e di primo grado.

Assegnato il sistema lineare di m equazioni in n incognite sopra descritto e

posto

A =

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

am1 am2 ... amn

, X =

x1

x2

...

xn

, B =

b1

b2

...

bm

utilizzando il prodotto matriciale righe per colonne e immediato verificare

che tale sistema e equivalente all’equazione matriciale A ·X = B .

Alcune proprieta della moltiplicazione.

• Proprieta associativa: ((aij) · (bij)) · (cij) = (aij) · ((bij) · (cij))

• Proprieta distributive della moltiplicazione rispetto all’addizione:

(aij) · ((bij) + (cij)) = (aij) · (bij) + (aij) · (cij)

λ · ((bij) + (cij)) = λ · (bij) + λ · (cij)

• La matrice nulla 0 e l’elemento annullatore della moltiplicazione:

0 · (aij) = 0, λ · 0 = 0

• Elemento neutro della moltiplicazione: per ogni n ∈ IN, n > 1 la

matrice diagonale di ordine n i cui elementi non nulli sono uguali ad

uno si chiama matrice identica I ed e tale che (aij) · I = (aij),

per ogni matrice (aij) di dimensione m× n.

I =

1 0 ... 0

0 1 ... 0

... ... ... ...

0 0 ... 1

5

• Si osservi che non sussiste la nota legge di annullamento del prodot-

to, infatti esistono matrici non nulle il cui prodotto e nullo.

Posto

A =

1 0

0 0

B =

0 0

0 1

si verifica facilmente che A ·B = 0.

• L’equazione matriciale A · X = B, A 6= 0 puo non avere alcuna

soluzione.

E noto infatti che l’equazione A ·X = B con

A =

1 2

2 4

B =

1

1

equivalente al sistema x + 2y = 1

2x + 4y = 1

e impossibile.

Da quanto osservato e evidente che le operazioni di addizione e moltipli-

cazione (in particolare quest’ultima) conferiscono una struttura algebrica

poco operativa, in ogni caso ben lontana dalla struttura algebrica dei numeri

reali.

E pero sufficiente limitarsi a considerare un opportuno sottoinsieme di tutte

le matrici per ottenere una struttura in cui siano valide le regole dell’algebra

elementare (ad eccezione della proprieta commutativa).

Al fine di individuare tale sottoinsieme e necessario introdurre il concetto di

determinante di una matrice.

6

DETERMINANTE DI UNA MATRICE QUADRATA

Fissata una matrice quadrata A = (a11) di ordine 1, si definisce determi-

nante di A il valore a11 e si scrive

detA = a11.

Se

A =

a11 a12

a21 a22

e una matrice quadrata di ordine 2, si definisce determinante di A il

numero

detA = a11 · a22 − a12 · a21

Il determinante della matrice A si indica anche con il simbolo

∣∣∣∣∣∣ a11 a12

a21 a22

∣∣∣∣∣∣Esempio A =

1 2

2 3

detA = 1 · 3− 2 · 2 = −1.

Assegnata una matrice quadrata A = (aij) di ordine n, n ≥ 2 e fissati due

indici i, j, si indichi con Aij la sottomatrice ottenuta da A eliminando la

riga i-esima e la colonna j-esima.

Si definisce

• minore complementare dell’elemento aij il determinante detAij

• complemento algebrico dell’elemento aij il numero mij =

(−1)i+jdetAij

• determinante di A la somma dei prodotti degli elementi di una

sua riga (o colonna) per i rispettivi complementi algebrici (regola

7

di Laplace).

Quando si usa la regola di Laplace per il calcolo di un determinante si suol

dire che il determinante si sviluppa secondo gli elementi di una riga o colon-

na.

Ad esempio, considerata la matrice del terzo ordine A =

1 2 0

0 2 3

1 −4 2

sviluppando il determinante secondo gli elementi della prima riga si ha

m11 = (−1)1+1

∣∣∣∣∣∣ 2 3

−4 2

∣∣∣∣∣∣ = 4 + 12 = 16

m12 = (−1)1+2

∣∣∣∣∣∣ 0 3

1 2

∣∣∣∣∣∣ = −(0− 3) = 3

m13 = (−1)1+3

∣∣∣∣∣∣ 0 2

1 −4

∣∣∣∣∣∣ = 0− 2 = −2

detA = a11 ·m11 + a12 ·m12 + a13 ·m13 = 1 · 16 + 2 · 3 + 0 · (−2) = 22

Si dimostra che il valore del determinante non dipende dalla riga o dalla

colonna scelta per lo sviluppo.

Si osservi che il teorema di Laplace riconduce il calcolo di un determinante

di ordine n al calcolo di n determinanti di ordine n − 1 e ognuno di questi

al calcolo di (n-1) determinanti di ordine n − 2 e cosı via; in conclusione,

applicando ripetutamente la regola di Laplace, il calcolo di un determinante

di ordine n e ricondotto al calcolo di determinanti di ordine due anche se

numerosi. I principali CAS (Computer Algebra Systems) contengono pro-

grammi che permettono un veloce calcolo matriciale.

8

Il determinante di una matrice quadrata di ordine tre puo essere calcolato

applicando la seguente regola di Sarrus:

si formi la tabella

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

che si ottiene aggiungendo alla matrice le prime due colonne.

La differenza tra la somma dei prodotti dei tre elementi della diagonale

principale e delle sue parallele e la somma dei prodotti dei tre elementi della

diagonale secondaria e delle sue parallele da il determinante considerato.

Esempio

Il determinante secondo la regola di Sarrus della matrice

A =

1 2 0

0 2 3

1 −4 2

si ottiene scrivendo la tabella

1 2 0 1 2

0 2 3 0 2

1 −4 2 1 −4

ed e dato da

detA = 4 + 6 + 12 = 22.

9

Principali proprieta dei determinanti.

• Se detA = 0, la matrice A si dice singolare.

• La matrice identica ha determinante unitario, mentre la matrice nulla

ha determinante nullo.

• Se in un determinante tutti gli elementi di una riga o colonna sono

nulli, il determinante ha valore nullo.

• Il valore di un determinante non si altera se si scambiano le righe con

le colonne (detA = detAT ).

• Il valore di un determinante si muta nell’opposto scambiando tra loro

due righe o due colonne.

• Il valore di un determinante e zero se contiene due righe o colonne

uguali.

• Se tutti gli elementi di una riga o colonna sono moltiplicati per uno

scalare k, anche detA e moltiplicato per lo scalare k.

• Il valore di un determinante e zero se contiene due righe o colonne

proporzionali.

• Se A e una matrice di ordine n, allora det(k ·A) = kn · detA

• Se gli elementi di una riga (o colonna) sono combinazione lineare degli

elementi delle rimanenti righe o colonne, il determinante ha valore nul-

lo.

10

• Il determinante di un prodotto e uguale al prodotto dei determinanti

det(A ·B) = detA · detB

cioe il prodotto di due matrici e singolare se e solo se almeno uno dei

due fattori e singolare.

• Il determinante di una matrice quadrata e un numero reale associato

alla matrice che dipende non solo dal valore degli elementi costituenti

la matrice, ma anche dalla loro posizione. Ad esempio le matrici

A =

1 0

0 1

, B =

1 0

1 0

hanno gli stessi elementi ma detA = 1 e detB = 0.

• Notiamo infine che a tutt’oggi non e risultato significativo associare

un determinante ad una matrice rettangolare.

Le matrici quadrate di ordine n non singolari.

Matrice inversa.

Ogni matrice non singolare A di ordine n ammette una ed una sola matrice

non singolare A−1 di ordine n, detta matrice inversa di A, tale che

A ·A−1 = A−1 ·A = I

.

La matrice inversa e cosı definita:

A−1 =1

detAMT

ove M e la matrice formata dai complementi algebrici degli elementi di A.

Per le proprieta del determinante si ha

detA · detA−1 = det(A ·A−1) = det I = 1

11

quindi

detA−1 =1

detA.

Esempio

Assegnata

A =

1 −2

3 1

si ha detA = 1 + 6 = 7 6= 0,

M =

1 −3

2 1

, MT =

1 2

−3 1

e quindi

A−1 =

1/7 −3/7

2/7 1/7

Si verifichi che A ·A−1 = A−1 ·A = I e che detA−1 = 1

detA .

L’algebra elementare delle matrici.

Da quanto sopra, segue che le operazioni di addizione e moltiplicazione con-

feriscono all’insieme delle matrici quadrate non singolari con l’aggiunta della

matrice nulla la stessa struttura algebrica dei numeri reali (ad eccezione del-

la proprieta commutativa della moltiplicazione). Sussistono cosı tutte le

proprieta fondamentali dell’algebra elementare. In particolare valgono:

• Legge di annullamento del prodotto: det(A·B) = 0 se e solo se almeno

uno dei due fattori A o B e singolare.

12

• L’equazione matriciale A · X = B con A matrice quadrata non

singolare ammette una ed una sola soluzione:

A ·X = B ⇔ A−1 ·A ·X = A−1 ·B ⇔ I ·X = A−1 ·B ⇔ X = A−1 ·B.

Rango di una matrice.

Abbiamo gia osservato che non si definisce il determinante di matrici ret-

tangolari m× n con m 6= n. Si introduce pero un operatore piu generale,

chiamato rango della matrice, che ad ogni matrice, quadrata o rettango-

lare, associa un numero intero non negativo strettamente legato alla natura

della matrice stessa.

Da ogni matrice A si possono estrarre sottomatrici quadrate; se A e quadra-

ta la sottomatrice quadrata di ordine massimo che si puo estrarre coincide

con A stessa.

I determinanti delle sottomatrici quadrate si chiamano minori estratti

dalla matrice. Si chiama ordine del minore l’ordine della relativa sot-

tomatrice quadrata.

Si chiama rango (o caratteristica) della matrice A, rg A, l’ordine mas-

simo dei minori non nulli che si possono estrarre da A.

Precisamente, assegnata una matrice A di dimensione m× n, si dice che

rg A = k, con k ≤ min{m,n} se

• dalla matrice A si puo estrarre almeno un minore non nullo di ordine

k,

• tutti i minori di ordine maggiore di k che si possono estrarre dalla

matrice A sono nulli.

Esempio

13

Ogni matrice quadrata A puo avere al massimo rango pari al suo ordine.

Sia A di ordine n. Si ha:

rgA = n⇔ detA 6= 0.

La matrice

A =

1 2 0 −1

0 2 3 3

1 6 6 5

puo avere al massimo rango 3 pari alla sua dimensione minore. Poiche la

terza riga si ottiene sommando alla prima riga la seconda moltiplicata per

2, applicando le proprieta dei determinanti, e facile verificare che i minori

di ordine 3 sono tutti nulli e percio rgA ≤ 2. Poiche tra i minori di ordine

2 ve ne sono alcuni non nulli (ne basta uno!!!), quale ad esempio

∣∣∣∣∣∣ 1 2

0 2

∣∣∣∣∣∣ = 2

segue che rgA = 2.

Vettori linearmente indipendenti.

Assegnati n vettori v1, v2, ..., vn, si chiama combinazione lineare di

v1, v2, ..., vn ogni vettore della forma

a1v1 + a2v2 + ...+ anvn

ove a1, a2, ..., an sono numeri reali, detti coefficienti della combinazione.

I vettori v1, v2, ..., vn, si dicono linearmente indipendenti se l’unica loro

combinazione lineare uguale al vettore nullo e quella a coefficienti tutti nulli,

cioe

a1v1 + a2v2 + ...+ anvn = 0⇔ a1 = a2 = ... = an = 0.

Vettori che non sono linearmente indipendenti si dicono lineramente dipen-

denti.

14

Si provano le seguenti caratterizzazioni sulla dipendenza lineare di n vettori:

I vettori v1, v2, ..., vn, sono linearmente dipendenti se e solo se uno al-

meno di essi e combinazione lineare dei rimanenti.

Siano v1, v2, ..., vn, n vettori colonna di dimensione n × 1. Essi sono lin-

earmente dipendenti se e solo se la matrice di ordine n che li ammette

come vettori colonna ha determinante uguale a zero.

Il rango di una matrice e una misura del numero di vettori riga (o colonna)

che sono linearmente indipendenti. Si prova infatti:

Il rango di una matrice A e uguale al massimo numero di vettori riga (o

colonna) di A che siano linearmente indipendenti.

In particolare, gli n vettori colonna [gli m vettori riga] di una matrice A

di dimensione m × n, sono linearmente indipendenti se e solo se rgA =

n [rgA = m].

15

Sistemi lineari.

Assegnato un sistema lineare di m equazioni in n incognite

a11x1 + a12x2 + ... + a1nxn = b1

a21x1 + a22x2 + ... + a2nxn = b2

.......... ... ........... ... ... ... ........... ... ...

am1x1 + am2x2 + ... + amnxn = bm

in questo capitolo affrontiamo il problema della sua risoluzione. Iniziamo

con delle notazioni: la matrice

A =

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

am1 am2 ... amn

,

e detta matrice dei coefficienti o anche matrice incompleta per distinguerla

dalla matrice completa C di dimensione m×(n+1) ottenuta dalla matrice A

aggiungendo come (n+1)-esima colonna il vettore colonna dei termini noti:

C =

a11 a12 ... a1n b1

a21 a22 ... a2n b2

... ... ... ... ...

am1 am2 ... amn bm

.

Posto

X =

x1

x2

...

xn

, B =

b1

b2

...

bm

il sistema assegnato e equivalente all’equazione matriciale A ·X = B.

Iniziamo con il considerare sistemi lineari con numero di equazioni uguale

al numero delle incognite (m = n). La matrice A e una matrice quadrata:

se A e non singolare (detA 6= 0) A ammette la matrice inversa e l’equazione

16

matriciale A ·X = B ammette una e una sola soluzione:

A ·X = B ⇔ A−1 ·A ·X = A−1 ·B ⇔ I ·X = A−1 ·B ⇔ X = A−1 ·B.

Un altro metodo di risoluzione dei sistemi lineari di n equazioni in n incog-

nite (m = n) e proposto dal seguente

Teorema di Cramer Se detA 6= 0 il sistema lineare ammette una ed una

sola soluzione data da

x1 =detB1

detA, x2 =

detB2

detA, ..., xn =

detBn

detA

dove

B1 =

b1 a12 ... a1n

b2 a22 ... a2n

... ... ... ...

bn an2 ... ann

, ..., Bn =

a11 a12 ... b1

a21 a22 ... b2

... ... ... ...

am1 am2 ... bn

cioe Bi, i = 1, ..., n si ottiene dalla matrice A sostituendo la i-esima colonna

con il vettore colonna dei termini noti.

Il Teorema di Cramer per la risoluzione di un sistema lineare di n equazioni

in n incognite e significativo da un punto di vista teorico in quanto fornisce

una condizione sufficiente (detA 6= 0) affinche il sistema ammetta una e una

sola soluzione, ma e poco operativo quando il numero delle equazioni (e delle

incognite) e grande.

Un altro metodo di frequente uso e il metodo di eliminazione di Gauss che

consiste nel trasformare il sistema assegnato in un altro di forma triangolare

ad esso equivalente, cioe avente le stesse soluzioni.

Al momento sappiamo risolvere solo equazioni matriciali in cui A e quadrata

non singolare.

17

Esempio

Risolvere il sistema lineare2x + + z = 0

−2y + = −2

2x + y + = 3

equivalente all’equazione lineare non omogenea A ·X = B ove

A =

2 0 1

0 −2 0

2 1 0

B =

0

−2

3

Sviluppiamo il detA secondo gli elementi della seconda riga:

detA = −2 · (−1)2+2

∣∣∣∣∣∣ 2 1

2 0

∣∣∣∣∣∣ = −2 · (−2) = 4

Calcoliamo A−1 :

m11 = (−1)1+1

∣∣∣∣∣∣ −2 0

1 0

∣∣∣∣∣∣ = 0

m12 = (−1)1+2

∣∣∣∣∣∣ 0 0

2 0

∣∣∣∣∣∣ = 0

m13 = (−1)1+3

∣∣∣∣∣∣ 0 −2

2 1

∣∣∣∣∣∣ = +4

m21 = (−1)2+1

∣∣∣∣∣∣ 0 1

1 0

∣∣∣∣∣∣ = −(−1) = 1

m22 = (−1)2+2

∣∣∣∣∣∣ 2 1

2 0

∣∣∣∣∣∣ = −2

18

m23 = (−1)2+3

∣∣∣∣∣∣ 2 0

2 1

∣∣∣∣∣∣ = −2

m31 = (−1)3+1

∣∣∣∣∣∣ 0 1

−2 0

∣∣∣∣∣∣ = 2

m32 = (−1)3+2

∣∣∣∣∣∣ 2 1

0 0

∣∣∣∣∣∣ = 0

m33 = (−1)3+3

∣∣∣∣∣∣ 2 0

0 −2

∣∣∣∣∣∣ = −4

M =

0 0 4

1 −2 −2

2 0 −4

MT =

0 1 2

0 −2 0

4 −2 −4

A−1 = MT /4 =

0 1/4 1/2

0 −1/2 0

1 −1/2 −1

Verificare che A ·A−1 = I.

Le soluzioni del sistema sono date da A−1 ·B:

0 1/4 1/2

0 −1/2 0

1 −1/2 −1

·

0

−2

3

=

−1/2 + 3/2

1

1− 3

=

1

1

−2

Risolviamo lo stesso sistema applicando il Teorema di Cramer:

19

detB1 = det

0 0 1

−2 −2 0

3 1 0

= 1 · (−1)1+3

∣∣∣∣∣∣ −2 −2

3 1

∣∣∣∣∣∣ = −2 + 6 = 4

detB2 = det

2 0 1

0 −2 0

2 3 0

= 1 · (−1)1+3

∣∣∣∣∣∣ 0 −2

2 3

∣∣∣∣∣∣ = 4

detB3 = det

2 0 0

0 −2 −2

2 1 3

= 2 · (−1)1+1

∣∣∣∣∣∣ −2 −2

1 3

∣∣∣∣∣∣ = 2(−6 + 2) = −8

quindi:

x =detB1

detA= 4/4 = 1, y =

detB2

detA= 4/4 = 1, z =

detB3

detA= −8/4 = −2

Riprendiamo ora in considerazione un sistema lineare di tipo generale di m

equazioni in n incognite. Il seguente teorema caratterizza i sistemi lineari

che ammettono soluzioni:

Teorema di Rouche - Capelli Condizione necessaria e sufficiente affinche

un sistema lineare di m equazioni in n incognite abbia soluzioni e che le ma-

trici completa ed incompleta del sistema abbiano lo stesso rango.

Se il sistema ha soluzioni, sia k il rango delle due matrici. Se k = n il sis-

tema ammette una e una sola soluzione che si determina con il Teorema di

Cramer.

Se k < n il sistema ammette ∞n−k soluzioni, cioe l’insieme delle soluzioni e

in corrispondenza biunivoca con IRn−k.

Sistemi lineari omogenei Un sistema lineare si dice omogeneo se e solo

se il vettore colonna B dei termini noti e il vettore nullo (tutti gli elementi

sono nulli). In questo caso le matrici completa e incompleta hanno sempre lo

stesso rango (differiscono per una colonna di zero!)e quindi i sistemi lineari

omogenei hanno sempre soluzione. In particolare essi hanno sempre la

soluzione identicamente nulla.

20

Nel loro studio e sufficiente considerare solo la matrice incompleta A.

Se rgA = numero delle incognite, il sistema ammette una e una sola

soluzione: la soluzione identicamente nulla (soluzione banale).

Se k = rgA < numero delle incognite = n, il sistema ammette ∞n−k

soluzioni, che naturalmente comprendono la soluzione identicamente nulla.

21

Trasformazioni geometriche Una trasformazione geometrica T (X), X

vettore colonna, e una corrispondenza biunivoca che associa ad ogni pun-

to X dello spazio un punto T (X) dello spazio stesso conservando qualche

proprieta geometrica. Le posizioni dei punti sono modificate in quanto essi

subiscono un movimento, mentre il sistema di riferimento resta fisso.

X e detto punto unito o punto fisso della trasformazione T se T (X) = X

ovvero se esso e invariante rispetto alla trasformazione.

Tra le principali trasformazioni geometriche consideriamo le affinita

T (X) = A ·X +X0

ove X,X0 sono vettori colonna, A e una matrice quadrata non singolare

(detA 6= 0) e A · X indica il prodotto riga per colonna. Si puo dimostrare

che un’affinita gode delle seguenti proprieta:

• trasforma rette in rette;

• a rette parallele corrispondono rette parallele;

• a rette incidenti corrispondono rette incidenti;

• conserva il rapporto fra segmenti paralleli (in particolare al punto

medio di un segmento corrisponde il punto medio del segmento omol-

ogo);

In generale un’affinita non conserva la forma delle figure. L’immagine di un

rettangolo e in generale un parallelogramma, cosı come l’immagine di una

circonferenza puo essere un’ellisse.

Una affinita che lascia fissa l’origine (cioe ammette l’origine come punto

fisso) si chiama applicazione lineare ed e caratterizzata da X0 = 0. Quin-

di T e un’applicazione lineare se T (X) = A ·X.

Proprieta di un’applicazione lineare:

T (X1 +X2) = T (X1) + T (X2)

T (kX) = kT (X).

Dal punto di vista geometrico si dice che un’applicazione lineare soddisfa

il principio di sovrapposizione nel senso che il risultato corrispondente alla

somma di due dati e la somma dei due risultati che si sarebbero ottenuti

22

separatamente.

Affinita di particolare importanza sono le isometrie. Le isometrie

sono affinita che conservano le distanze tra punti, la forma e la grandezza

delle figure. Indicato con X1, X2, due punti dello spazio (vettori colonna)

e con d(X1, X2) la distanza tra X1 e X2, l’affinita T e una isometria se

d(T (X1), T (X2)) = d(X1, X2).

Le isometrie si possono classificare in: traslazioni, simmetrie assiali, sim-

metrie centrali, rotazioni.

Traslazioni Un’isometria e una traslazione quando A = I, matrice iden-

tica. Quindi una traslazione e

T (X) = X +X0.

Una traslazione e quindi una trasformazione affine dello spazio che sposta

tutti i punti di una distanza fissa nella stessa direzione. La si puo anche in-

terpretare come addizione di un vettore costante X0 ad ogni punto, o come

spostamento dell’origine del sistema di coordinate.

Nel piano si puo rappresentare come

x′ = x + x0

y′ = y + y0

ove X =

x

y

, X0 =

x0

y0

, T (X) =

x′

y′

.

Ovviamente, una traslazione non e un’applicazione lineare.

Simmetrie assiali Nel piano due punti X e X ′ si dicono simmetrici

rispetto a una retta r (cui non appartengono) quando r e l’asse del segmento

[X,X ′]. Il punto X ′ e il simmetrico di X rispetto ad r e viceversa. La

trasformazione che associa ad ogni punto X che non appartiene ad r il

punto X ′ suo simmetrico, ed ammette tutti i punti di r come punti fissi, e

detta simmetria assiale di asse r nel piano.

Se la retta r passa per l’origine, la simmetria assiale e un’applicazione lineare.

In particolare, se r e l ’asse x, si ha

T (X) = A ·X,

x′ = x

y′ = −yA =

1 0

0 −1

23

Se r e l ’asse y, si ha

T (X) = A ·X,

x′ = −x

y′ = yA =

−1 0

0 1

Simmetrie centrali Nel piano due punti X e X ′ si dicono simmetrici

rispetto a un punto C (cui non appartengono) quando C e il punto medio

(o centro) del segmento [X,X ′]. X ′ si dice il simmetrico di X rispetto ad

C e viceversa. La trasformazione che associa ad ogni punto X il punto X ′

suo simmetrico, e viceversa, si dice simmetria centrale di centro C. L’unico

punto fisso di tale isometria e il centro C di simmetria. Una simmetria cen-

trale e quindi un’ applicazione lineare solo se il centro di simmetria coincide

con l’origine, C ≡ O. In questo caso si ha

T (X) = A ·X,

x′ = −x

y′ = −yA =

−1 0

0 −1

Rotazioni Una rotazione e una trasformazione del piano o dello spazio

che sposta gli oggetti in modo rigido e che lascia fisso almeno un punto (l’o-

rigine dello spazio). I punti che restano fissi nella trasformazione formano

un sottospazio: quando questo insieme e un punto (l’origine) o una retta, si

chiamano rispettivamente il centro e l’asse della rotazione. Una rotazione di

centro l’origine e determinata dal verso di rotazione e dall’angolo θ, ampiez-

za della rotazione.

La rotazione antioraria di centro l’origine e di angolo θ e l’applicazione

lineare

T (X) = A ·X,

x′ = x cos θ − y sin θ

y′ = x sin θ + y cos θA =

cos θ − sin θ

sin θ cos θ

24

mentre la rotazione oraria di centro l’origine e di angolo θ e l’applicazione

lineare

T (X) = A ·X,

x′ = x cos θ + y sin θ

y′ = −x sin θ + y cos θA =

cos θ sin θ

− sin θ cos θ

Autovalori ed autovettori di una matrice

Sia A = (aij) una matrice quadrata di ordine n e sia

v =

x1

x2

...

xn

un vettore colonna. L’applicazione lineare

Av = w

trasforma il vettore v in un nuovo vettore w. Nelle applicazioni geometriche,

ma anche in molte altre applicazioni, sorge spesso il problema di determinare

se esiste un vettore v non nullo v 6= 0 che dalla trasformazione Av = w

sia trasformato in se stesso o in un multiplo di se stesso (un multiplo di v e

kv, k numero reale). Si tratta cioe di studiare l’equazione

Av = kv.

Indicata con I la matrice identica di ordine n, si ha

Av = kv ⇔ Av − kv = 0⇔ Av − kIv = 0⇔ (A− kI)v = 0

L’equazione matriciale Av = kv e equivalente all’equazione

(A − kI)v = 0 e quindi ad un sistema lineare omogeneo con parametro k,

matrice dei coefficienti (A− kI), incognita v. Soluzioni non nulle v 6= 0 del

sistema esisteranno se

det(A− kI) = 0.

25

Si chiama autovalore di A ogni soluzione k dell’equazione det(A−kI) = 0.

In generale il determinante a primo membro dell’equazione e un polinomio

di grado n in k, detto polinomio caratteristico della matrice A.

Se la matrice A e simmetrica, il polinomio caretteristico ammette radici

reali.

Se k ∈ IR e un autovalore della matrice A, il sistema omogeneo (A−kI)v = 0

ha almeno una soluzione v 6= 0 in base al Teorema di Rouche - Capelli. Una

tale soluzione v si chiama autovettore di A corrispondente all’autovalore

k. E facile verificare che se v e un autovettore di A allora anche ogni suo

multiplo av, a ∈ IR \ {0} e autovettore di A

(A− kI)av = a(A− kI)v = a · 0 = 0

Vale il seguente

Teorema Se A e una matrice simmetrica, k1, k2 ∈ IR sono due autovalori

di A e v1, v2 due corrispondenti autovettori, allora

k1 6= k2 =⇒ v1, v2 sono fra loro perpendicolari.

Esempi

Determinare gli autovalori e gli autovettori della matrice

A =

3 −2

2 −2

.

Trovare gli autovettori di A significa determinare, se esistono, soluzioni

non nulle del sistema lineare omogeneo con parametro k

(A− kI)v = 0 ⇐⇒

3− k −2

2 −2− k

·

x1

x2

=

0

0

⇐⇒

(3− k)x1 −2x2 = 0

2x1 (−2− k)x2 = 0

26

Soluzioni non nulle del sistema esistono se e solo se

det

3− k −2

2 −2− k

= (3− k)(−2− k) + 4 = k2 − k − 2 = 0

k2 − k − 2 = 0 e l’equazione caratteristica della matrice A. Le sue

soluzioni sono k1 = −1, k2 = 2, autovalori della matrice A.

Per k = −1 nel sistema omogeneo si ha 4x1 −2x2 = 0

2x1 −x2 = 0

Soluzioni del sistema sono tutti i vettori {(x1, 2x1) : x1 ∈ IR}, autovet-

tori della matrice A corrispondenti all’autovalore k = −1.

Analogamente, per k = 2 nel sistema omogeneo si ha x1 −2x2 = 0

2x1 −4x2 = 0

Soluzioni del sistema sono tutti i vettori {(2x2, x2) : x2 ∈ IR}, autovet-

tori della matrice A corrispondenti all’autovalore k = 2.

Applicazioni

Consideriamo due popolazioni p1(t), p2(t) che coabitano nello stesso habi-

tat. L’evoluzione del numero degli individui puo dipendere, oltre che dal

naturale sviluppo di ognuna delle popolazioni, anche dall’interazione con

l’altra popolazione.

Il piu semplice modello matematico che studia l’interazione tra popolazioni

e p′1 = ap1 + bp2

p′2 = cp1 + dp2

Si tratta di un sistema di equazioni differenziali lineare omogeneo del

primo ordine a coefficienti costanti. Una soluzione del sistema e una coppia

di funzioni p1(t), p2(t) derivabili che soddisfa le due equazioni. La matrice

27

a b

c d

e la matrice dei coefficienti.

Ricordando il modello di Malthus e naturale ricercare le soluzioni del

sistema nella forma p1(t) = Aekt, p2(t) = Bekt ove k,A,B sono da deter-

minare.

Tali funzioni sono soluzioni se e solo se soddisfano il sistema di equazioni

differenziali Akekt = aAekt + bBekt

Bkekt = cAekt + dBekt

cioe

(a− k)A + bB = 0

cA + (d− k)B = 0

Quest’ultimo e un sistema lineare omogeneo nella variabile (A,B) con

parametro k.

Si tratta di un tipico problema di autovalori. Poiche si cercano soluzioni

(A,B) non nulle, il determinante dei coefficienti deve annullarsi, cioe

(a− k)(d− k)− bc = 0.

k2 − (a+ d)k + (ad− bc) = 0 e l’equazione caratteristica della matrice

a b

c d

e le sue radici k1, k2 sono gli autovalori della matrice (ci limitiamo a consid-

erare il caso ∆ > 0, e quindi k1, k2 numeri reali). Qualunque coppia (A,B)

appropriata e un autovettore.

Le funzioni

p1(t) = Aek1t, p2(t) = Bek1t

con (A,B) autovettore relativo all’autovalore k1 e

p1(t) = Cek2t, p2(t) = Dek2t

28

con (C,D) autovettore relativo all’autovalore k2 sono soluzioni del sistema

di equazioni differenziali.

Si prova che tutte le soluzioni del sistema (∆ > 0) sono del tipo

p1(t) = c1ek1t + c2e

k2t, p2(t) = c3ek1t + c4e

k2t al variare dei parametri ci ∈

IR, i = 1, ..., 4.

29