66
UNIVERSIT ` A DELLA CALABRIA ALGEBRA LINEARE E GEOMETRIA Corso di Laurea in Ingegneria Elettronica Dott. Gentile Tommaso A.A. 2013/2014

Algebra Lineare

Embed Size (px)

DESCRIPTION

algebra lineare

Citation preview

UNIVERSITA DELLA CALABRIA

ALGEBRA LINEARE E GEOMETRIA

Corso di Laurea in Ingegneria Elettronica

Dott. Gentile Tommaso

A.A. 2013/2014

. . . e com cinco ou seis retas

e facil fazer um castelo

(Vinicius de Moraes)

Indice

1. Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1. Definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Il metodo di Gauss-Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2. Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1. Vettori geometrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2. Spazi vettoriali, definizioni e proprieta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3. Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.1. Definizioni e algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.2. Rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4. Prodotto scalare Euclideo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5. Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5.1. Definizione e principali proprieta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5.2. Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6. Diagonalizzazione di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.1. Problema di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.2. Caso delle matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

7. Spazi affini e spazi Euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

7.1. Geometria nel piano affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

7.2. Geometria nello spazio affine di dimensione 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

1

1. Sistemi di equazioni lineari

1.1. Definizioni e notazioni.

In questa prima parte studieremo sistemi di equazioni lineari. Sebbene abbiate gia familiarita con alcuni

argomenti di questa sezione, prestate particolare attenzione ai metodi ed alle strumentazioni adottate.

Questo stimolera l’intuito ed aiutera la comprensione degli argomenti piu astratti che seguiranno.

Fissiamo anzitutto alcune notazioni e convenzioni utilizzate nel resto della sezione. L’insieme numerico

su cui lavoriamo e l’insieme dei numeri reali R. Le prime lettere dell’alfabeto in minuscolo (a, b, c etc.)

denoteranno costanti mentre le ultime lettere dell’alfabeto (x, y, z etc.) saranno usate per rappresentare le

variabili. Quando il numero di incognite e arbitrariamente grande useremo un’unica lettera per designare

tutti i coefficienti ed un’unica lettera per tutte le incognite che distingueremo tra loro attraverso l’uso

di indici. Rappresenteremo inoltre le matrici con le lettere maiuscole, mentre i vettori saranno denotati

con lettere minuscole in grassetto.

Definizione 1.1. Una equazione lineare nelle n variabili x1, x2, . . . , xn e un’equazione del tipo

(1) a1x1 + a2x2 + · · ·+ anxn = b,

dove i coefficienti a1, a2, . . . , an ed il termine noto b sono numeri reali. Una soluzione dell’equazione

lineare (1) e una sequenza di n numeri reali (s1, s2, . . . , sn) tali che, sostituiti al posto delle rispettive va-

riabili nell’equazione (1) rendono verificata l’uguaglianza. Risolvere un’equazione equivale a determinarne

l’insieme di tutte le soluzioni.

Nelle equazioni lineari pertanto non compaiono radici o potenze, ne tantomeno funzioni trigonometriche,

esponenziali o logaritmiche, ne tantomeno prodotti tra variabili e potenze.

Esempio 1.2. Le seguenti equazioni sono lineari:

2x− y = 6;√

3x1 − πx2 + 23x4 = 1.

Le seguenti equazioni non sono lineari:

xz − 4y = 3; cosx1 − 3x2 + x3 − 2 log x4 = 0.

4

Per descrivere l’insieme delle soluzioni di un sistema lineare usualmente utilizziamo una rappresentazione

parametrica, come illustrato nell’esempio seguente.

Esempio 1.3. Risolviamo l’equazione: x1 + 2x2 = 4.

Per trovare l’insieme delle soluzioni la risolviamo in una delle variabili rispetto all’altra variabile. Ri-

solvendola per x1 in termini della x2 otteniamo x1 = 4 − 2x2. Ora la variabile x2 e “libera”, ovvero

puo assumere un qualsiasi valore reale. La variabile x1 non e libera in quanto il suo valore dipende dal

valore assegnato ad x2. Per rappresentare le infinite soluzioni dell’equazione e conveniente introdurre

una nuova variabile, che denoteremo con la lettera t per esempio, detta parametro. Ponendo x2 = t

possiamo rappresentare le soluzioni nella seguente forma:{x1 = 4− 2t

x2 = tdove t ∈ R.

2

Per ottenere una soluzione particolare assegniamo un valore al parametro t. Se per esempio t = −1 una

soluzione particolare sara data da x1 = 6 e x2 = −1.

4

Definizione 1.4. Un sistema di m equazioni lineari nelle n variabili x1, x2, . . . , xn (in breve un sistema

lineare) e un insieme di m equazioni, ciascuna delle quali e lineare nelle stesse n variabili.

(2)

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

· · · · · · · · ·am1x1 + am2x2 + · · ·+ amnxn = bm

dove i coefficienti aij ed i termini noti bi sono numeri reali. Una soluzione del sistema lineare (2) e una

sequenza di n numeri reali s1, s2, . . . , sn tali che, sostituiti al posto delle rispettive variabili in ciascuna

delle equazioni le uguaglianze sono verificate. Risolvere un sistema di equazioni equivale a determinarne

l’insieme di tutte le soluzioni.

Consideriamo adesso il ben noto problema di geometria analitica sul piano riguardo l’intersezione di due

rette.

Esempio 1.5. Disegniamo le seguenti coppie di rette:

(1) 2x− y = 0; 3x+ 2y = 2;

(2) 2x+ 3y = 0; 4x+ 6y = 0;

(3) x− y = 0; −x+ y = 1.

1 2

1

2

x

y

(1)

−1 1

−1

1

x

y

(2)

−1 1

−1

1

2

x

y

(3)

Come puo essere l’insieme delle soluzioni di un sistema lineare di due equazioni in due incognite? Il

sistema che fornisce l’intersezione delle prime due rette ha una sola soluzione, il secondo sistema ha

infinite soluzioni mentre il terzo non ha soluzioni.

4

L’esempio precedente illustra i tre possibili casi che possono presentarsi quando risolviamo un sistema di

equazioni lineari.

Definizione 1.6. Un sistema lineare e detto compatibile se ammette soluzioni mentre e incompatibile

o impossibile se non ammette soluzioni. Un sistema lineare compatibile e determinato se ammette

una sola soluzione ed e detto indeterminato se ammette infinite soluzioni.

3

1.2. Il metodo di Gauss-Jordan.

Consideriamo i seguenti sistemi lineari.

(3)2x1 − x2 + 4x3 − x4 = 7

3x1 + 2x2 + x3 + 3x4 = −1

−x1 − 5x2 − 3x3 − 2x4 = 3

2x1 − 3x2 + 2x3 − x4 = 2

8x2 + x3 + 2x4 = −1

3x4 = 1

Quale sistema e piu facile da risolvere algebricamente?

Il sistema a destra e chiaramente il piu facile. Questo sistema ha una forma particolare detta a scala.

Per risolverlo si adotta la procedura nota con il termine “risoluzione all’indietro” illustrata qui di seguito.

Esempio 1.7. Usiamo la risoluzione all’indietro per risolvere il seguente sistema:{2x − 3y = 2

5y = −1

Dall’ultima equazione otteniamo y = − 15 . Sostituendo questo valore nella prima equazione si ottiene:

2x− 3

(−1

5

)= −2, da cui x = −13

10.

Il sistema e quindi compatibile e determinato, con soluzione:x = − 13

10

y = − 15

.

Usiamo la risoluzione all’indietro per risolvere il seguente sistema:x1 + x2 + x3 − 3x4 + x5 = 2

− x3 + x4 + 2x5 = −1

2x4 − 4x5 = 2

Risolviamo l’ultima equazione rispetto alla variabile x4, ottenendo x4 = 2x5 + 1. Sostituiamo tale

espressione nelle precedenti due equazioni. Scriviamo pertanto il sistema nella seguente forma:x1 + x2 + x3 − 3(2x5 + 1) + x5 = 2

− x3 + (2x5 + 1) + 2x5 = −1

x4 = 2x5 + 1

Portiamo quindi il monomio la cui parte letterale e x5 unitamente alla costante a secondo membro sia

nella prima che nella seconda equazione. Il sistema diventa:x1 + x2 + x3 = 5x5 + 1

− x3 = −4x5 − 2

x4 = 2x5 + 1

Dalla seconda equazione risulta x3 = 4x5+2. Sostituiamo questa espressione ad x3 nella prima equazione.

Il sistema diventa: x1 + x2 + (4x5 + 2) = 5x5 + 1

x3 = 4x5 + 2

x4 = 2x5 + 1

Portiamo ancora l’espressione in x5 con le costanti a secondo membro ottenendo:x1 + x2 = x5 − 1

+ x3 = 4x5 + 2

x4 = 2x5 + 1

4

Portiamo x2 a secondo membro nella prima equazione.x1 = −x2 + x5 − 1

x3 = 4x5 + 2

x4 = 2x5 + 1

Poniamo quindi x2 e x5 uguali ad altrettanti parametri s e t.

Otteniamo pertanto le soluzioni del sistema lineare espresse in forma parametrica:

x1 = −s + t −1

x2 = s

x3 = 4t +2

x4 = 2t +1

x5 = t

dove s, t ∈ R.

Il sistema e quindi compatibile e indeterminato.

4

Due sistemi lineari sono detti equivalenti se hanno il medesimo insieme di soluzioni. In genere, quando

dobbiamo risolvere un sistema cerchiamo di trasformarlo in un altro equivalente, ma di forma piu semplice.

Ma quali operazioni elementari trasformano un sistema in un altro equivalente?

Per quanto concerne le equazioni lineari valgono i Principi di equivalenza per le equazioni lineari, elencati

qui di seguito.

Primo principio di equivalenza - Data un’equazione, aggiungendo ad entrambi i membri uno stesso

numero od una stessa espressione lineare contenente una o piu incognite si ottiene un’equazione equiva-

lente.

Secondo principio di equivalenza - Data un’equazione, moltiplicando ambo i membri per un numero

diverso da zero si ottiene un’equazione equivalente.

Per risolvere un’equazione lineare applichiamo opportunatamente tali operazioni in sequenza fino ad

ottenere la soluzione dell’equazione data. Essi costituiscono quindi i passi base di un procedimento

algoritmico.

Consideriamo ora il caso di un sistema di equazioni lineari. Anche in virtu dell’esempio precedente per

risolvere un sistema lineare lo trasformiamo in un altro ad esso equivalente in forma a scala utilizzando

le operazioni qui elencate:

(OE1) - trasporre due equazioni;

(OE2) - moltiplicare un’equazione per una costante diversa da zero;

(OE3) - sommare ad un’equazione un multiplo di un’altra equazione.

Il procedimento e noto come metodo di eliminazione di Gauss, in onore del grande matematico

tedesco Carl Friedrich Gauss (1777-1855).

Valgono i seguenti teoremi di cui omettiamo la dimostrazione.

Teorema 1.8. Applicando una operazione del tipo (OE1), (OE2) o (OE3) ad un sistema di equazioni

lineari si ottiene un sistema equivalente a quello dato.

Teorema 1.9. Ogni sistema di equazioni lineari e equivalente ad un sistema in forma a scala.

Illustriamo ora il metodo di eliminazione di Gauss attraverso un esempio.

5

Esempio 1.10. Risolviamo il seguente sistema:x1 − 3x2 + x3 = 1

2x1 − x2 − 2x3 = 2

x1 + 2x2 − 3x3 = −1

Sommiamo alla seconda equazione l’equazione ottenuta moltiplicando ambo i membri della prima equazione

per −2, ottenendo: x1 − 3x2 + x3 = 1

5x2 − 4x3 = 0

x1 + 2x2 − 3x3 = −1

Aggiungendo la prima equazione moltiplicata per −1 alla terza equazione otteniamo una nuova terza

equazione. Il sistema diventa: x1 − 3x2 + x3 = 1

5x2 − 4x3 = 0

5x2 − 4x3 = −2

Sottraiamo ora alla terza equazione la seconda equazione.x1 − 3x2 + x3 = 1

5x2 − 4x3 = 0

0 = −2

L’ultima equazione e chiaramente impossible. Il sistema e quindi incompatibile.

4

Per risolvere un sistema lineare mediante il procedimento di Gauss e conveniente focalizzare la nostra

attenzione sui coefficienti e sui termini noti. Dato un sistema lineare nella forma (2), introduciamo le

tabelle di numeri

(4) A :=

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...

am1 am2 · · · amn

e

(5) b :=

b1

b2...

bm

.

Una tabella del tipo (4) e detta matrice di tipo m × n dove m e n indicano rispettivamente il numero

di righe ed il numero di colonne in essa contenute. I numeri aij sono detti elementi o entrate della

matrice. Gli elementi ai1, ai2, . . . , ain costituiscono la i-esima riga della matrice A, mentre gli elementi

a1j , a2j , . . . , amj costituiscono la j-esima colonna della matrice A. Ad esempio la tabella (5) e una

matrice di tipo m× 1. Una tale matrice verra chiamata vettore colonna. La matrice A e detta matrice

dei coefficienti, mentre b e il vettore termine noto. Introduciamo inoltre la matrice completa (o

matrice orlata) associata al sistema lineare (2):

(6) AC :=

a11 a12 · · · a1n b1

a21 a22 · · · a2n b2...

.... . .

......

am1 am2 · · · amn bm

6

Esempio 1.11. Consideriamo i sistemi lineari (3).2x1 − x2 + 4x3 − x4 = 7

3x1 + 2x2 + x3 + 3x4 = −1

−x1 − 5x2 − 3x3 − 2x4 = 3

2x1 − 3x2 + 2x3 − x4 = 2

8x2 + x3 + 2x4 = −1

3x4 = 1

Scriviamo le due matrici complete loro associate: 2 −1 4 −1 7

3 2 1 3 −1

−1 −5 −3 −2 3

2 −3 2 −1 2

0 8 1 2 −1

0 0 0 3 1

4

Notiamo che la seconda matrice ha una particolare configurazione, detta anch’essa a scala. Formalizziamo

meglio tale nozione.

Definizione 1.12. Una matrice e detta in forma a scala se soddisfa le seguenti proprieta:

(1) ogni riga i cui elementi sono tutti nulli si trova nella parte piu bassa della matrice;

(2) per due successive righe i cui elementi non sono tutti nulli allora il primo termine non nullo

nella riga posta piu in alto e strettamente pia sinistra rispetto a quello della successiva riga.

I primi elementi non nulli di ciascuna riga (le cui entrate non siano tutte uguali a zero) vengono chiamati

pivots (o coefficienti leader). Notiamo che tutti gli elementi sottostanti un pivot sono uguali a zero.

Notiamo che un sistema lineare e in forma a scala se e soltanto se la matrice completa associata al sistema

e ancora a scala.

Nella risoluzione di un sistema di equazioni lineari spesso considereremo le matrici ad esso associate.

Quanto definito per i sistemi lineari ha un corrispettivo nel linguaggio delle matrici. In particolare il

metodo di eliminazione di Gauss permette di ridurre una matrice AC associata ad un sistema lineare ad

una matrice in forma a scala. Le operazioni elementari (OE1), (OE2) e (OE3) diventano:

(OE1′) - trasporre due righe;

(OE2′) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;

(OE3′) - sommare ad una riga un multiplo di un’altra riga (termine a termine).

Dunque per risolvere un sistema lineare noi procederemo come segue:

(1) scriviamo la matrice orlata AC associata al sistema;

(2) usiamo il metodo di eliminazione di Gauss per ridurre AC in una forma ridotta a scala;

(3) scriviamo il sistema corrispondente e lo risolviamo mediante la risoluzione all’indietro.

Esempio 1.13. Risolviamo il seguente sistema lineare:x2 + x3 − 2x4 = −3

x1 + 2x2 − x3 = 2

2x1 + 4x2 + x3 − 3x4 = −2

x1 − 4x2 − 7x3 + 12x4 = 20

La matrice completa associata al sistema e0 1 1 −2 −3

1 2 −1 0 2

2 4 1 −3 −2

1 −4 −7 12 20

7

Trasponiamo ora le prime due righe: 1 2 −1 0 2

0 1 1 −2 −3

2 4 1 −3 −2

1 −4 −7 12 20

Ora sommiamo alla terza riga la prima riga moltiplicata per −2. Si ottiene:

1 2 −1 0 2

0 1 1 −2 −3

0 0 3 −3 −6

1 −4 −7 12 20

Sottraiamo la prima riga alla quarta:

1 2 −1 0 2

0 1 1 −2 −3

0 0 3 −3 −6

0 −6 −6 12 18

Abbiamo il nostro primo pivot. Ora sommiamo alla quarta riga la seconda moltiplicata per 6. Otteniamo:

1 2 −1 0 2

0 1 1 −2 −3

0 0 3 −3 −6

0 0 0 0 0

Abbiamo praticamente finito. La nostra matrice orlata e ridotta in una forma a scala. Moltiplichiamo

comunque la terza riga per lo scalare 13 . Si ottiene cosı:

1 2 −1 0 2

0 1 1 −2 −3

0 0 1 −1 −2

0 0 0 0 0

Il sistema corrispondente e il seguente:

x1 + 2x2 − x3 = 2

x2 + x3 − 2x4 = −3

x3 − x4 = −2

dove omettiamo l’identita 0 = 0. Usando la risoluzione all’indietro troviamox1 + 2x2 − (x4 − 2) = 2

x2 + (x4 − 2) − 2x4 = −3

x3 = x4 − 2x1 + 2x2 = x4

x2 = x4 − 1

x3 = x4 − 2

Infine: x1 + 2(x4 − 1) = x4

x2 = x4 − 1

x3 = x4 − 2

Segue x1 + = −x4 + 2

x2 = x4 − 1

x3 = x4 − 2

8

Ponendo x4 = t si ottengono le soluzioni:x1 = −t+ 2

x2 = t− 1

x3 = t− 2

x4 = t

dove t ∈ R.

4

Dopo aver ridotto la matrice a scala, e possibile usare una versione dell’algoritmo di Gauss in senso

inverso, cioe dal basso verso l’alto, per ottenere una matrice che in ogni colonna contenente un pivot

abbia solo il pivot come numero non nullo: basta usare ogni riga, partendo dall’ultima, per eliminare tutte

le cifre diverse da zero che stanno sopra al pivot di questa riga usando in genere regole di tipo (OE2′) e

(OE3′). Infine, sempre tramite operazioni elementari (moltiplicando righe), possiamo ottenere che ogni

pivot abbia valore 1. La matrice risultante e detta in forma a scala ridotta. L’algoritmo completo di

ambo le parti e detto metodo di Gauss-Jordan.

Esempio 1.14. Ad esempio, consideriamo la matrice a scala dell’esempio precedente:1 2 −1 0 2

0 1 1 −2 −3

0 0 1 −1 −2

0 0 0 0 0

Anziche scrivere ora il sistema lineare associato proseguiamo finche la matrice completa non si presenta

in forma a scala ridotta. Applichiamo pertanto operazioni elementare in modo che gli elementi sopra

alcun pivot siano nulli. Sottraendo la terza riga alla seconda si ottiene:1 2 −1 0 2

0 1 0 −1 −1

0 0 1 −1 −2

0 0 0 0 0

Sommando ora la terza riga alla prima otteniamo:

1 2 0 −1 0

0 1 0 −1 −1

0 0 1 −1 −2

0 0 0 0 0

Sommiamo quindi alla prima riga la seconda moltiplicata per −2:

1 0 0 1 2

0 1 0 −1 −1

0 0 1 −1 −2

0 0 0 0 0

Il sistema associato a quest’ultima matrice e:

x1 + x4 = 2

x2 − x4 = −1

x3 − x4 = −2

con soluzioni date da: x1 = −t+ 2

x2 = t− 1

x3 = t− 2

x4 = t

dove t ∈ R.

9

4

Ora analizziamo un caso molto particolare di sistema lineare, il sistema lineare omogeneo.

Definizione 1.15. Un sistema di equazioni lineari e detto omogeneo se i termini noti sono tutti uguali

a zero.

Consideriamo un sistema lineare omogeneo:

(7)

a11x1 + a12x2 + · · ·+ a1nxn = 0

a21x1 + a22x2 + · · ·+ a2nxn = 0

· · · · · · · · ·am1x1 + am2x2 + · · ·+ amnxn = 0

Si verifica facilmente che al termine dell’algoritmo di Gauss-Jordan le incognite si separano in due gruppi:

(1) xi1 , xi2 , . . . , xir variabili associate alle colonne dove ci sono i pivots (variabili pivotali);

(2) xj1 , xj2 , . . . , xjn−r variabili associate alle colonne dove non ci sono i pivots (variabili libere).

Il sistema associato alla matrice a scala ridotta e del tipoxi1 = ci1,1xj1 + ci1,2xj2 + · · ·+ ci1,n−rxjn−r

xi2 = ci2,1xj1 + ci1,2xj2 + · · ·+ ci1,n−rxjn−r

· · · · · · · · ·xir = ci1,1xj1 + ci1,2xj2 + · · ·+ ci1,n−rxjn−r

dove i ci,j sono numeri reali. Ponendo le variabili xj1 , xj2 , . . . , xjn−rpari ad altrettante variabili libere

(dette altresı parametri) scriviamo le variabili pivotali in funzione delle variabili libere.

Poiche un sistema lineare omogeneo ha sempre la soluzione in cui ciascuna variabile e uguale a zero si

ha che ogni sistema lineare omogeneo e compatibile. Come conseguenza del metodo di Gauss-Jordan

abbiamo il seguente teorema di Steinitz.

Teorema 1.16. (di Steinitz) - Un sistema di equazioni lineari omogeneo dove il numero di incognite

e piu alto del numero di equazioni ha sempre una soluzione non banale, ovvero quella in cui tutte le

variabili sono nulle.

Proof. Osserviamo che la matrice a scala ridotta che risulta applicando Gauss-Jordan ha sempre colonne

non pivotali poiche ci sono piu incognite che equazioni. Poste le variabili libere uguali ad altrettanti

valori non tutti uguali a zero si ottiene una soluzione non banale del sistema. �

10

2. Spazi vettoriali

2.1. Vettori geometrici.

I vettori furono introdotti nel XVI secolo per rispondere all’esigenza di caratterizzare alcune grandezze

fisiche quali velocita, accelerazione, forza, per le quali non era sufficiente una quantita scalare.

In un corso di matematica o fisica elementare un vettore e definito come un segmento orientato. Un

segmento orientato (o vettore applicato) dello spazio ordinario e individuato da un punto iniziale A e da

un punto finale B. Denotiamo tale segmento orientato con−−→AB. Il punto iniziale A e detto anche punto

di applicazione del segmento orientato dato. Esso viene rappresentato con una freccia che congiunge i

punti A e B come in figura.

A

B

Un segmento orientato e quindi individuato da un punto di applicazione, una direzione ovvero la retta

su cui il vettore applicato giace, un verso ovvero il verso di percorrenza di tale retta da A a B e da un

modulo (detto altresı norma) ovvero la lunghezza del segmento AB misurato mediante una prefissata

unita di misura. Se B ≡ A il vettore applicato corrispondente avra modulo nullo, verso e direzione

indeterminati.

Due vettori applicati−−→AB e

−−→CD sono detti equipollenti se giacciono su rette parallele e se, muovendo una

delle due rette parallelamente a se stessa, e possibile sovrapporre i due segmenti in modo che coincidano

sia i punti iniziali che i punti finali. Se−−→AB e

−−→CD sono equipollenti scriveremo

−−→AB ∼

−−→CD.

A

B

C

D

Dato un vettore applicato−−→AB tale che A 6≡ B ed un punto A′ esiste uno ed un solo punto B′ tale che

−−→AB ∼

−−−→A′B′.

L’equipollenza e una relazione di equivalenza, cioe soddisfa alle proprieta riflessiva, simmetrica e tran-

sitiva. In virtu di questo noi considereremo “uguali” vettori tra loro equipollenti. Useremo il termine

vettore geometrico o brevemente vettore una classe di equipollenza di vettori applicati, ovvero tutti i

vettori equipollenti ad un dato vettore applicato. Il vettore nullo 0 e la classe dei vettori equipollenti

al vettore−→AA. Le nozioni di modulo, direzione e verso si estendono facilmente ai vettori geometrici. Il

vettore nullo ha quindi modulo nullo, verso e direzione indeterminati.

I vettori verranno denotati con lettere minuscole in grassetto (u,v,w etc.).

Definiamo ora due operazioni sull’insieme dei vettori, la somma e la moltiplicazione per uno scalare.

La somma e una operazione che associa ad una coppia di vettori, un terzo vettore. Per sommare due

vettori si possono usare la regola del parallelogramma o la regola della spezzata.

11

A

B

C

D

La figura qui in alto illustra la regola del parallelogramma. Dati due vettori u e v li consideriamo

applicati in un medesimo punto dello spazio ordinario A. Siano pertanto B e C due ulteriori punti tali

che u =−−→AB e v =

−→AC. Il vettore somma u+ v e il vettore

−−→AD dove D e il quarto vertice che forma con

A, B e C un parallelogramma, da cui il nome.

A

B

C

La precedente figura riguarda invece la regola della spezzata. Dati due vettori u e v siano B e C due

ulteriori punti tali che u =−−→AB e v =

−−→BC. Il vettore somma u + v e il vettore

−→AC. Il termine spezzata

segue dal fatto che i segmenti AB e BC costituiscono una spezzata.

Si osserva facilmente che per ogni terna di vettori u, v e w valgono le seguenti:

• u + v = v + u (proprieta commutativa);

• u + (v + w) = (u + v) + w (proprieta associativa).

Dalla seconda di queste proprieta segue che possiamo estendere la somma ad un numero finito arbitario

di vettori e che possiamo omettere le parentesi quando sommiamo tre o piu vettori.

Sia ora 0 il vettore nullo e sia v un vettore arbitrario. Denoteremo con −v il vettore avente lo stesso

modulo di v, la stessa direzione di v, ma verso opposto. Sono verificate le identita:

• v + 0 = v (0 elemento neutro della somma);

• v + (−v) = 0 (esistenza dell’inverso additivo, detto altresı opposto).

Definiamo ora il prodotto di un vettore v per un numero reale k. Il risultato di questa operazione e il

vettore kv che ha la stessa direzione di v, modulo pari a modulo di v moltiplicato |k| e verso concorde

o discorde con v a seconda che k sia positivo o negativo.

L’operazione di moltiplicazione di un vettore geometrico per uno scalare e compatibile con l’operazione

di somma di vettori e con le operazioni di addizione e moltiplicazione in R. Se k, h sono arbitrari scalari

e se u e v sono arbitrari vettori geometrici valgono le seguenti identita:

• (−1)v = −v• (kh)v = k(hv)

• k(u + v) = ku + kv (proprieta distributiva rispetto alla somma di vettori);

• (k + h)v = kv + hv (proprieta distributiva rispetto alla somma di scalari).

2.2. Spazi vettoriali, definizioni e proprieta.

Le proprieta che i vettori geometrici soddisfano costituiranno gli assiomi nella definizione di un spazio

vettoriale.

12

Definizione 2.1. Uno spazio vettoriale reale e un insieme V non vuoto (i cui elementi saranno

chiamati vettori e saranno denotati con lettere minuscole in grassetto) tale che:

(1) per ogni coppia di vettori v1,v2 ∈ V esiste un terzo vettore in V , detto somma dei vettori v1 e

v2 e denotato v1 + v2;

(2) per ogni vettore v ∈ V ed ogni scalare k ∈ R, esiste un nuovo vettore in V , detto prodotto del

vettore v per lo scalare k e denotato kv.

Queste operazioni devono soddisfare le seguenti proprieta:

(SV1) Proprieta commutativa della somma: per ogni coppia di vettori v1,v2 ∈ V , v1 + v2 = v2 + v1;

(SV2) Proprieta associativa della somma: per ogni terna di vettori v1,v2,v3 ∈ V , (v1 + v2) + v3 =

v1 + (v2 + v3);

(SV3) Esistenza dell’elemento neutro per la somma: esiste un vettore 0 ∈ V tale che per ogni altro

vettore v ∈ V , v + 0 = 0 + v = v (il vettore 0 e detto vettore nullo);

(SV4) Esistenza dell’opposto: per ogni vettore v ∈ V , esiste un vettore −v ∈ V tale che v + (−v) = 0;

(SV5) Proprieta distributiva della moltiplicazione per uno scalare rispetto alla somma di vettori: per

ogni scalare k ∈ R ed ogni coppia di vettori v1,v2 ∈ V , k(v1 + v2) = kv1 + kv2;

(SV6) Proprieta distributiva della moltiplicazione per uno scalare rispetto alla somma di scalari: per

ogni coppia di scalari k, h ∈ R ed ogni vettore v ∈ V , (k + h)v = kv + hv;

(SV7) per ogni coppia di scalari k, h ∈ R ed ogni vettore v ∈ V , (kh)v = k(hv);

(SV8) per ogni vettore v ∈ V , 1v = v.

Dalla proprieta associativa segue che sommando tre o piu vettori di uno spazio vettoriale possiamo

omettere le parentesi. Le seguenti ulteriori proprieta per uno spazio vettoriale possono essere ottenute

dalle proprieta (SV1), . . . , (SV8).

Proposizione 2.2. Sia V uno spazio vettoriale reale. Le seguenti valgono.

(i) Se k ∈ R, allora k0 = 0.

(ii) Sia k ∈ R \ {0}. Se kv = 0 allora v = 0.

(iii) Siano v,w ∈ V . Se v + w = 0 allora w = −v.

(iv) Se v ∈ V allora (−1)v = −v.

(v) Se v ∈ V allora 0v = 0.

Esempio 2.3. Le proprieta che abbiamo verificato all’inizio della lezione implicano che l’insieme dei

vettori geometrici del piano e dello spazio ordinario costituiscono altrettanti spazi vettoriali reali.

4

Esempio 2.4. Sia n ≥ 1 e sia V = Rn l’insieme delle n-uple ordinate di numeri reali. Definiamo la

somma di due n-uple (x1, . . . , xn), (y1, . . . , yn) ∈ V come

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

e per ogni k ∈ R, definiamo

k(x1, . . . , xn) = (kx1, . . . , kxn).

Se v = (x1, . . . , xn) ∈ V chiamiamo x1, . . . , xn componenti o coordinate di v. E immediato verificare

che con queste operazioni Rn soddisfa agli assiomi (SV1), . . . , (SV8). Notiamo che quando n = 1 le

usuali operazioni di addizione e sottrazione definiscono una struttura di spazio vettoriale su se stesso.

4

13

Esempio 2.5. Sia V = R[x] l’insieme dei polinomi a coefficienti in R nella variabile x. Le usuali

operazioni di somma di polinomi e moltiplicazione per uno scalare definiscono una struttura di spazio

vettoriale reale su R[x].

4

Esempio 2.6. Sia V l’insieme delle funzioni a valori reali definite su un intervallo [a, b] ⊂ R. Definiamo

in V la somma e moltiplicazione per uno scalare nel modo usuale. Si verifica facilmente che V e uno

spazio vettoriale reale.

4

Definizione 2.7. Un sottoinsieme W di uno spazio vettoriale V e detto sottospazio vettoriale di V

se esso soddisfa le due condizioni.

(SSV1) Per ogni coppia di vettori v1,v2 ∈W , v1 + v2 ∈W .

(SSV2) Per ogni vettore v ∈W ed ogni scalare k ∈ R, kv ∈W .

Esempio 2.8. Consideriamo un sistema lineare omogeneo in n incognite. Ricordiamo che una soluzione

di tale sistema e una n-upla di numeri reali soddisfacente tutte le equazioni del sistema. Essa e pertanto

un vettore di Rn. Inoltre si vede facilmente che la somma di due soluzioni del sistema ed il prodotto

di una soluzione per uno scalare (somma e moltiplicazione per uno scalare definite come nell’esempio

2.4) costituiscono altrettante soluzioni. Segue quindi che lo spazio delle soluzioni di un sistema lineare

omogeneo in n incognite e un sottospazio vettoriale di Rn.

4

Esempio 2.9. Nello spazio dei polinomi V = R[x], l’insieme dei polinomi aventi grado al piu n (per

ogni n fissato) e un sottospazio vettoriale di V .

4

Esempio 2.10. Sia V lo spazio vettoriale definito come nell’esempio 2.6 e sia W ⊂ V l’insieme delle

funzioni a valori reali definite e continue su un intervallo [a, b] ⊂ R. Allora W e un sottospazio vettoriale.

4

E ovvio dalla definizione precedente che se W ⊆ V e un sottospazio vettoriale di V , allora W e esso

stesso uno spazio vettoriale. La seguente proposizione e di verifica immediata.

Proposizione 2.11. Ogni spazio vettoriale V contiene due sottospazi vettoriali, V e l’insieme contenente

il solo vettore nullo 0. Quest’ultimo e detto sottospazio nullo ed e denotato con (0) o semplicemente con

{0}.

Definiamo ora la seguente importante operazione sui sottospazi, la somma.

Definizione 2.12. Sia V uno spazio vettoriale e siano W1, W2 due sottospazi vettoriali di V . Definiamo

il sottospazio somma di W1 e W2 come:

W1 +W2 := {v ∈ V |∃w1 ∈W1,w2 ∈W2 tale che v = w1 + w2}.

Se W1∩W2 = {0} allora scriveremo W1⊕W2 al posto di W1 +W2 e chiameremo tale sottospazio somma

diretta di W1 e W2.

Vale la seguente proposizione.

Proposizione 2.13. Sia V uno spazio vettoriale e siano W1, W2 due sottospazi vettoriali di V . Allora

W1 ∩W2 e W1 +W2 sono altrettanti spazi vettoriali di V .

14

Proof. Siano w,w′ ∈W1∩W2 e sia k ∈ R. Per definizione di intersezione w e w′ appartengono sia a W1

che a W2. Per definizione di sottospazio allora sia w + w′ che kw appartengono a W1 a W2 e pertanto

alla loro intersezione. Questo prova che W1 ∩W2 e un sottospazio vettoriale di V .

Siano ora w,w′ ∈ W1 + W2 e sia k ∈ R. Siano x1,y1 ∈ W1 e x2,y2 ∈ W2 tali che w = x1 + x2 e

w′ = y1 + y2. Allora:

w + w′ = x1 + x2 + y1 + y2 = (x1 + y1) + (x2 + y2) ∈W1 +W2.

e

kw = k(x1 + x2) = kx1 + kx2 ∈W1 +W2.

Segue quindi la tesi. �

Consideriamo inoltre il seguente ulteriore risultato

Proposizione 2.14. Sia V uno spazio vettoriale e siano W1,W2 due sottospazi vettoriali di V tali che

W1∩W2 = (0). Allora ogni vettore in W1⊕W2 ha una unica rappresentazione come somma di un vettore

in W1 ed un vettore in W2.

Proof. Sia w ∈W1 ⊕W2 e siano x1,y1 ∈W1 e x2,y2 ∈W2 tali che w = x1 + x2 = y1 + y2. Vogliamo

mostrare che x1 = y1 e x2 = y2. Abbiamo:

0 = v − v = x1 + x2 = y1 + y2 = (x1 − y1) + (x2 − y2).

Segue pertanto:

x1 − y1 = −(x2 − y2) ∈W1 ∩W2 = (0).

Dunque x1 − y1 = x2 − y2 = 0, da cui x1 = y1 e x2 = y2. �

Consideriamo ora l’importante definizione di combinazione lineare.

Definizione 2.15. Sia V uno spazio vettoriale e siano v1,v2, . . . ,vn vettori in V . Un vettore w e una

combinazione lineare dei precedenti n vettori se esistono scalari k1, k2, . . . , kn tali che

w = k1v1 + k2v2 + · · · knvn.

Lo spazio generato dai vettori v1,v2, . . . ,vn e l’insieme di tutte le combinazioni lineari degli n vettori,

e viene denotato con 〈v1,v2, . . . ,vn〉. Se V = 〈v1,v2, . . . ,vn〉 diremo che v1,v2, . . . ,vn generano V .

Esempio 2.16. Siano v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (−1, 0, 1) tre vettori di R3. Verifichiamo che il

vettore w = (1, 1, 1) ∈ R3 si puo scrivere come combinazione lineare dei vettori v1, v2 e v3. Cerchiamo

pertanto scalari a1, a2 e a3 tali che:

w = a1v1 + a2v2 + a3v3,

cioe

(1, 1, 1) = a1(1, 2, 3) + a2(0, 1, 2) + a3(−1, 0, 1).

Questa equazione “vettoriale” si traduce in un sistema di equazioni lineari nelle variabili a1, a2 e a3:a1 − a3 = 1

2a1 + a2 = 1

3a1 + 2a2 + a3 = 1

Questo sistema e compatibile e indeterminato con soluzioni:a1 = t+ 1

a2 = −2t− 1

a3 = t

dove t ∈ R.

15

Una particolare espressione di w come combinazione lineare di v1, v2 e v3 si trova ponendo per esempio

t = 1. Allora a1 = 2, a2 = −3 e a3 = 1 e

w = 2v1 +−3v2 + v3.

4

Si verifica facilmente che lo spazio generato da un insieme di vettori di V e un sottospazio vettoriale.

Definizione 2.17. Sia V uno spazio vettoriale. n vettori v1,v2, . . . ,vn ∈ V sono detti linearmente

dipendenti (in breve l.d.) se esiste una combinazione lineare di v1,v2, . . . ,vn uguale a 0 i cui coefficienti

non sono tutti nulli. Essi sono detti linearmente indipendenti (in breve l.i.) se non sono linearmente

dipendenti.

Esempio 2.18. Consideriamo i tre vettori v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (−1, 0, 1) in R3 dell’esempio

precedente. Per verificare se i tre vettori v1, v2 e v3 sono linearmente dipendenti o indipendenti cerchiamo

scalari a1, a2 e a3 tali che:

0 = a1v1 + a2v2 + a3v3,

cioe

(0, 0, 0) = a1(1, 2, 3) + a2(0, 1, 2) + a3(−1, 0, 1).

Come prima risolviamo il sistema di equazioni lineari omogeneo associato nelle variabili a1, a2 e a3:a1 − a3 = 0

2a1 + a2 = 0

3a1 + 2a2 + a3 = 0

Questo sistema e indeterminato con soluzioni:a1 = t

a2 = −2t

a3 = t

dove t ∈ R.

Posto t = 1 otteniamo la combinazione lineare non banale:

0 = v1 +−2v2 + v3

che esprime il vettore nullo come combinazione lineare di v1, v2 e v3. I tre vettori sono pertanto

linearmente dipendenti.

4

Vale quest’ultima utile riformulazione della definizione di dipendenza lineare.

Proposizione 2.19. n vettori v1,v2, . . . ,vn ∈ V sono detti linearmente dipendenti se e solo se uno

di loro e una combinazione lineare degli altri.

Proof. Supponiamo

vi = k1v1 + · · ·+ ki−1vi−1 + ki+1vi+1 + · · ·+ knvn.

In tal caso otteniamo k1v1 + · · · + ki−1vi−1 − vi + ki+1vi+1 + · · · + knvn = 0 e quindi v1,v2, . . . ,vn

sono linearmente dipendenti. Viceversa supponiamo che esista una combinazione lineare dei vettori

v1,v2, . . . ,vn con coefficienti non tutti nulli. Supponiamo quindi k1v1 +k2v2 + · · · knvn = 0 con ki 6= 0.

Segue facilmente che vi = (−ki)−1(k1v1 + · · ·+ ki−1vi−1 + ki+1vi+1 + · · ·+ knvn) e quindi la tesi. �

Consideriamo ora la definizione di base di uno spazio vettoriale.

Definizione 2.20. Sia V uno spazio vettoriale. Un sistema di vettori v1,v2, . . . ,vn ∈ V costituiscono

una base di V se generano V e se in aggiunta sono linearmente indipendenti.

16

Esempio 2.21. Consideriamo lo spazio vettoriale R3. I vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1)

sono linearmente indipendenti e generano tutto lo spazio. Essi pertanto costituiscono una base di R3,

detta base canonica (o base standard o ancora base euclidea). Tale definizione si estende facilmente

ad Rn. La base canonica di Rn e costituita dai vettori e1, e2, . . . , en, dove ei, per i = 1, 2, . . . , n, e il

vettore avente tutte le entrate uguali a 0 tranne la i-esima che vale 1.

4

Notiamo che non tutti gli spazi vettoriali possiedono una base fatta in questo modo. L’esistenza di un

numero finito di generatori e quindi di una base finita e propria degli spazi vettoriali finito dimensionali.

Uno spazio vettoriale che non e finito dimensionale e detto infinito dimensionale o equivalentemente

che ha dimensione infinita. D’ora in avanti, salvo avviso contrario quando parleremo di spazi vettoriali

intenderemo sempre spazi vettoriali finito dimensionali.

Teorema 2.22. Sia V uno spazio vettoriale. Siano v1,v2, . . . ,vn ∈ V linearmente indipendenti e siano

k1, k2, . . . , kn e h1, h2, . . . , hn scalari tali che

k1v1 + k2v2 + · · · knvn = h1v1 + h2v2 + · · ·hnvn.

Allora ki = hi per i = 1, . . . , n.

Proof. Sottraendo il membro a destra dal membro a sinistra, abbiamo

(k1 − h1)v1 + (k2 − h2)v2 + · · · (kn − hn)vn = 0.

Per definizione di dipendenza lineare abbiamo ki − hi = 0, per ogni i = 1, . . . , n. �

Corollario 2.23. Sia V uno spazio vettoriale e sia {v1,v2, . . . ,vn} una base di V . Allora ogni ele-

mento di V si scrive univocamente come combinazione lineare dei vettori v1,v2, . . . ,vn. I coefficienti

k1, k2, . . . , kn che esprimono un vettore v come combinazione lineare degli elementi della base sono dette

coordinate di v rispetto alla base {v1,v2, . . . ,vn}.

Teorema 2.24. Sia V uno spazio vettoriale e sia {v1, v2, . . . , vn} una base di V . Siano {w1, w2, . . . , wm}vettori di V e assumiamo m > n. Allora w1, w2, . . . , wm sono linearmente dipendenti.

Proof. Omessa. �

Corollario 2.25. (Teorema della dimensione per spazi vettoriali) Basi diverse di uno stesso

spazio vettoriale finito dimensionale hanno la stessa cardinalita.

Proof. Siano date due basi di uno spazio vettoriale V , una di cardinalita m, una di cardinalita n. In

virtu del teorema precedente applicato alle due basi otteniamo m ≤ n ed allo stesso tempo n ≤ m, da

cui l’uguaglianza. �

Teorema 2.26. Sia V uno spazio vettoriale di dimensione n e siano v1, v2, . . . , vn vettori linearmente

indipendenti in V . Allora {v1, v2, . . . , vn} e una base di V .

Proof. Sia v ∈ V un vettore. I vettori {v,v1, v2, . . . , vn} sono linearmente dipendenti per il Teorema

2.24. Esiste pertanto una combinazione lineare dei suddetti vettori a coefficienti non tutti nulli uguale

al vettore nullo 0. Esistono cioe scalari k1, k2, . . . , kn, h tali che:

k1v1 + k2v2 + · · · knvn + hv = 0.

Lo scalare h e diverso da zero altrimenti si avrebbe una combinazione lineare di v1, v2, . . . , vn a coeffici-

enti non tutti nulli uguale al vettore nullo. Questo e impossibile perche v1, v2, . . . , vn sono linearmente

indipendenti. Segue quindi:

v = − 1

h(k1v1 + k2v2 + · · · knvn + hv) ,

17

ovvero v e combinazione lineare di v1, v2, . . . , vn. Per l’arbitrarieta di scelta di v in V si ha che

v1, v2, . . . , vn generano V e quindi ne costituiscono una base. �

Esempio 2.27. Siano v1 = (1, 2,−1), v2 = (0,−1, 2) e v3 = (2, 0, 3) in R3. Mostriamo che essi sono

linearmente indipendenti, quindi costituiscono una base di R3. A tal proposito siano a1, a2, a3 ∈ R tale

che:

a1v1 + a2v2 + a3v3 = 0.

Questa equazione vettoriale si traduce nel seguente sistema lineare omogeneo:a1 + a3 = 0

2a1 − a2 = 0

−a1 + 2a2 + 3a3 = 0

Si verifica facilmente che questo sistema e compatibile e determinato. Esso ammette quindi la sola

soluzione banale a1 = a2 = a3 = 0. I tre vettori sono linearmente indipendenti, quindi in virtu del

Teorema 2.26 costituiscono una base di R3.

4

Corollario 2.28. Sia V uno spazio vettoriale e sia W un sottospazio. Se dim(W ) = dim(V ) allora

W = V .

Proof. Per il teorema precedente una base di W e anche base di V . �

Proposizione 2.29. Sia V uno spazio vettoriale di dimensione n e siano v1, v2, . . . , vr r vettori linear-

mente indipendenti di V , dove r < n. Allora esistono vettori vr+1, vr+2, . . . , vn tale che {v1, v2, . . . , vn}e una base di V .

Proof. Omessa. �

Chiudiamo questa prima parte sugli spazi vettoriali con la seguente importante proposizione che mette

in relazione le dimensioni degli spazi intersezione e somma di due sottospazi vettoriali di uno spazio

vettoriale fissato V .

Proposizione 2.30. (Grassmann) Siano V uno spazio vettoriale e siano U , W sottospazi vettoriali

di V . Vale la seguente formula, nota come Formula di Grassmann:

dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ).

Proof. Omessa. �

Esempio 2.31. Due sottospazi vettoriali 2-dimensionali V, W di R3 hanno intersezione non nulla. Infatti

vale V +W ⊂ R3 e quindi dim(V +W ) ≤ 3. Dalla formula di Grassmann segue:

dim(V ∩W ) = dim(V ) + dim(W )− dim(V +W ) ≥ 2 + 2− 3 = 1,

ovvero che dim(V ∩W ) 6= {0}.

4

18

3. Matrici

3.1. Definizioni e algebra delle matrici.

Come definito precedentemente chiamiamo matrice di tipo m×n una tabella di numeri reali organizzata

in m righe e n colonne.

(8) A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...

am1 am2 · · · amn

Indicheremo le matrici con lettere latine maiuscole (A, B, C etc.). Talvolta scriveremo una generica

matrice in forma contratta A = (aij) dove 1 ≤ i ≤ m e 1 ≤ j ≤ n sono detti rispettivamente indice riga

e indice colonna. L’elemento aij sara allora l’elemento che appartiene alla i-esima riga e alla j-esima

colonna. Se m = n la matrice e detta quadrata di ordine n. Una matrice di tipo 1 × n e detta vettore

riga mentre una matrice di tipo m× 1 e detta vettore colonna. Sia A la matrice (8), la i-esima riga di A

e il vettore riga

Ai =(ai1 ai2 · · · ain

)mentre la j-esima colonna e il vettore colonna

Aj =

a1j

a2j...

amj

.

Due matrici sono uguali quando sono dello stesso tipo e hanno entrate uguali nelle stesse posizioni, cioe

se A = (aij) e B = (bij) sono matrici dello stesso tipo, allora A = B se e solo se aij = bij per ogni i, j.

Se A = (aij) e una matrice di tipo m×n chiamiamo trasposta di A la matrice tA ottenuta scambiandone

le righe con le colonne, pertanto una matrice B = (bij) di tipo n ×m e la trasposta di A se per ogni

i, j, bij = aji. Ovviamente vale che t(tA) = A. Se A = tA allora A e detta simmetrica, mentre se

A = −tA (dove −A e la matrice ottenuta da A cambiando i segni di tutte le sue entrate) allora A e detta

antisimmetrica (o emisimmetrica). Una matrice simmetrica o antisimmetrica e necessariamente

quadrata.

Sia A = (aij) una matrice quadrata. Gli elementi aij con i = j sono detti elementi principali. Essi

costituiscono la diagonale principale. In una matrice antisimmetrica gli elementi della diagonale principale

sono tutti uguali a zero. La somma degli elementi della diagonale principale di una matrice quadrata

A = (aij) e detta traccia della matrice ed e denotata con tr(A).

Definiamo ora alcune importanti operazioni sulle matrici, la somma e la moltiplicazione per uno scalare.

Definiamo la somma di due matrici solo quando esse sono dello stesso tipo, ovvero solo se hanno lo stesso

numero di rige e di colonne. Siano quindi m,n interi positivi fissati e siano A = (aij), B = (bij) due

matrici di tipo m × n. Definiamo la matrice somma di A e B una matrice C = (cij) dello stesso tipo

ponendo cij = aij + bij . Scriveremo in tal caso C = A+B.

19

La somma di matrici gode delle seguenti proprieta. Siano A,B e C tre matrici dello stesso tipo.

• A+B = B +A (proprieta commutativa);

• A+ (B + C) = (A+B) + C (proprieta associativa).

La matrice le cui entrate sono tutte uguali a zero e detta matrice nulla. Denoteremo tale matrice con la

lettera O. Notiamo che comunque fissiamo due interi posivi m, n esiste una matrice nulla di tipo m×n.

Si verifica facilmente che tale matrice e l’elemento neutro rispetto alla somma, ovvero, per ogni matrice

A di tipo m× n,

A+O = O +A = A.

Notiamo infine che data una matrice A di tipo m×n, cambiando di egno a tutte le sue entrate otteniamo

una nuova matrice −A tale che

A+ (−A) = O.

Definiamo ora la moltiplicazione di una matrice per uno scalare. Sia A = (aij) una matrice e sia k ∈ R.

Definiamo il prodotto della matrice A per lo scalare k la matrice C = (cij) dello stesso tipo di A tale

che cij = kaij . Scriveremo in tal caso C = kA. Siano A, B matrici dello stesso tipo e siano k, h numeri

reali. Le seguenti si verificano facilmente.

• (−1)A = −A• (kh)A = k(hA)

• k(A+B) = kA+ kB (proprieta distributiva rispetto alla somma di matrici);

• (k + h)A = kA+ hA (proprieta distributiva rispetto alla somma di scalari).

Segue pertanto che, comunque noi fissiamo interi positivi m, n l’insieme delle matrici di tipo m × n

con le operazioni di somma e di moltiplicazione per uno scalare costituiscono uno spazio vettoriale, che

denoteremo con Mm×n.

Proposizione 3.1. (i) Se A, B sono arbitrarie matrici m× n allora:

t(A+B) = tA+ tB.

(ii) Se A e una matrice arbitraria e k ∈ R, allora

tkA = k(tA).

(iii) Sia A e una matrice quadrata arbitraria. Allora A+ tA e una matrice simmetrica.

(iv) Sia A e una matrice quadrata arbitraria. Allora A− tA e una matrice antisimmetrica.

(v) Ogni matrice quadrata e somma di una matrice simmetrica e di una matrice antisimmetrica.

Proof. Omessa. Lasciata per esercizio. �

Definiamo ora una seconda operazione tra matrici, meno intuitiva delle due precedenti. La moltipli-

cazione tra matrici. Definiamo prima la moltiplicazione tra un vettore riga ed un vettore colonna aventi

il medesimo numero di entrate, ovvero il prodotto tra una matrice A di tipo 1× n ed una matrice B di

tipo n× 1. Siano quindi

A =(a1 a2 · · · an

)e B =

b1

b2...

bn

.

20

La matrice prodotto C = AB e la matrice di tipo 1× 1 (avente quindi un’unica entrata)

C = (a1b1 + a2b2 + · · · anbn) =

(n∑i=1

aibi

).

Nel seguito identificheremo una matrice con una sola entrata con lo scalare corrispondente.

Estendiamo tale definizione al prodotto di due matrici A, B in cui il numero di colonne della prima

matrice A e uguale al numero di righe della seconda matrice B (se cio accade A e detta conformabile

con B). Sia pertanto A di tipo m× p e sia B di tipo p× n. La matrice prodotto di A e B e la matrice

C = (cij) di tipo m× n tale che cij = AiBj , dove ricordiamo che Ai e Bj sono rispettivamente l’i-esimo

vettore riga di A ed il j-esimo vettore colonna di B, che ovviamente hanno lo stesso numero p di elementi.

Esempio 3.2. Siano A e B le seguenti matrici:

A =

(1 −1

2 3

)B =

(1 0 3

−1 1 2

).

La matrice A, di tipo 2× 2 e conformabile con B, di tipo 2× 3. Possiamo eseguire il prodotto di A e B

ed il risultato e il seguente:

AB =

(1 + 1 0− 1 3− 2

2− 3 0 + 3 6 + 6

)=

(2 −1 1

−1 3 12

).

4

Notiamo che tale operazione non gode della proprieta commutativa.

Esempio 3.3. Siano A e B le matrici:

A =

(1 0

0 0

)B =

(1

0

).

In questo caso A e conformabile con B ma B non e conformabile con A. Il risultato del prodotto AB e

uguale alla matrice:

AB =

(1

0

),

mentre non e possibile fare BA.

4

Esempio 3.4. Siano A e B le matrici:

A =

(1

0

)B =

(1 1

).

In questo caso e possibile fare entrambi i prodotti AB e BA, ma essi non possono coincidere in quanto

le matrici risultanti non sono dello stesso tipo. Infatti si ha

AB =

(1 1

0 0

)BA =

(1).

mentre non e possibile fare BA.

4

Esempio 3.5. Siano A e B le matrici:

A =

(1 0

0 0

)B =

(0 0

1 0

).

21

In questo caso e possibile fare entrambi i prodotti AB e BA, queste matrici sono dello stesso tipo ma il

risultato e diverso. Infatti

AB =

(0 0

0 0

)BA =

(0 0

1 0

).

4

Sia In la matrice quadrata di ordine n in cui tutti gli elementi siti sulla diagonale principale sono uguali

a 1, mentre gli altri sono uguali a 0. Scriveremo semplicemente I quando non vogliamo porre l’attenzione

sull’ordine della matrice. Valgono le seguenti proprieta, elencate nella seguente proposizione.

Proposizione 3.6. (P1) Proprieta associativa: Per ogni terna di matrici A, B, C, dove A e con-

formabile con B e B e conformabile con C, si ha (AB)C = A(BC).

(P2) Proprieta distributiva della moltiplicazione rispetto alla somma: Per ogni terna di matrici

A, B, C, dove A e conformabile con B e C, e B, C sono dello stesso tipo, si ha A(B + C) =

AB +AC.

(P3) Per ogni coppia di matrici A, B dove A e conformabile con B ed ogni scalare k ∈ R, (kA)B =

k(AB).

(P4) Esistenza dell’elemento neutro: Per ogni matrice quadrata A, AI = IA = A.

(P5) Assorbenza della matrice nulla: Per ogni matrice quadrata A, AO = OA = O.

(P6) t(AB) = tBtA.

Proof. Omessa. �

Applicando la definizione di prodotto tra matrici si vede anche che, per esempio, il sistemaa11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

· · · · · · · · ·am1x1 + am2x2 + · · ·+ amnxn = bm

si puo scrivere nella forma, detta forma matriciale

Ax = b,

dove A e la matrice dei coefficienti, x = t(x1, x2, . . . , xn) e il vettore colonna le cui entrate sono le

variabili e b e il vettore termine noto.

Notiamo che matrici quadrate dello stesso ordine possono essere sempre moltiplicate tra loro. In parti-

colare una matrice quadrata puo essere moltiplicata per se stessa. Possiamo quindi definire la potenza

n-esima di una matrice quadrata nel modo seguente:

An =

AA · · · A︸ ︷︷ ︸ se n ≥ 1

n

I se n = 0.

Per la potenza di matrici valgono quasi tutte le usuali proprieta delle potenze

AmAn = Am+n; (Am)n = Amn;

ma in generale la non commutativita implica che

(AB)n 6= AnBn.

Una matrice quadrata A tale che A2 = A e detta idempotente, mentre se An = O per qualche n ≥ 1

A e detta nilpotente.

22

Esempio 3.7. La matrice:

A =

(1 0

0 0

)e idempotente. Infatti si verifica facilmente che A2 = A.

La matrice

B =

0 2 1

0 0 −1

0 0 0

e nilpotente. Infatti:

B2 =

0 2 1

0 0 −1

0 0 0

0 2 1

0 0 −1

0 0 0

=

0 0 −2

0 0 0

0 0 0

,

quindi

B3 = B2B =

0 0 −2

0 0 0

0 0 0

0 2 1

0 0 −1

0 0 0

=

0 0 0

0 0 0

0 0 0

4

Una matrice quadrata A e detta invertibile o non singolare se esiste una matrice B quadrata dello

stesso ordine tale che AB = BA = I. Una matrice e non invertibile o singolare se non e invertibile.

Se A e una matrice invertibile la matrice inversa e unicamente determinata da A. Supponiamo che B e

C siano matrici tali che AB = BA = AC = CA = I. Allora:

B = BI = B(AC) = (BA)C = IC = C.

L’inversa di una matrice A, se essa esiste, e denotata con A−1.

La seguente proposizione elenca alcune immediate proprieta della matrice inversa.

Proposizione 3.8. Siano A, B matrici invertibili del medesimo ordine, sia n un intero positivo e sia k

uno scalare non nullo. Valgono le seguenti:

(1) A−1 e invertibile con inversa (A−1)−1 = A;

(2) il prodotto AB e invertibile con inversa (AB)−1 = B−1A−1;

(3) la potenza An e invertibile con inversa (An)−1 = (A−1)n;

(4) kA e invertibile con inversa (kA)−1 = 1kA−1;

(5) tA e invertibile con inversa (tA)−1 = t(A−1).

Studiamo ora un modo per determinare se una data matrice e invertibile e ne calcoliamo l’inversa.

Data una matrice quadrata A = (aij) di ordine n, introduciamo una matrice quadrata X del medesimo

ordine le cui entrate sono incognite xij . Imponendo l’uguaglianza AX = I otteniamo equazioni lineari

nelle incognite xij aventi coefficienti tra le entrate della matrice A. In particolare tutto si traduce in n

sistemi lineari aventi tutti la stessa matrice dei coefficienti A con vettori dei termini noti ei, i = 1, . . . , n.

Possiamo risolvere simultaneamente tutti gli n sistemi applicando il procedimento di Gauss-Jordan alla

matrice:

(A|I) =

a11 a12 · · · a1n | 1 0 · · · 0

a21 a22 · · · a2n | 0 1 · · · 0...

.... . .

......

......

. . ....

an1 an2 · · · ann | 0 0 · · · 1

.

23

Quello che otteremo alla fine e che se la matrice A e invertibile tutti i sistemi saranno compatibili e

determinati, mentre se la matrice A e singolare almeno uno dei sistemi sara incompatibile. Nel primo

caso la matrice assumera la seguente forma finale:

(I|B) =

1 0 · · · 0 | b11 b12 · · · b1n

0 1 · · · 0 | b21 b22 · · · b2n...

.... . .

......

......

. . ....

0 0 · · · 1 | bn1 bn2 · · · bnn

.

Le entrate della matrice B costituiscono le soluzioni dei nostri sistemi, e quindi avremo B = A−1.

Esempio 3.9. Sia A la matrice: 1 0 2

−1 2 −1

2 1 −1

Applichiamo il procedimento di Gauss-Jordan alla matrice:

(A|I) =

1 0 2 | 1 0 0

−1 2 −1 | 0 1 0

2 1 −1 | 0 0 1

.

Otteniamo alla fine la matrice:

(I|B) =

1 0 0 | 111 − 2

11411

0 1 0 | 311

511

111

0 0 1 | 511

111 − 2

11

.

A e invertibile con inversa

B =

111 − 2

11411

311

511

111

511

111 − 2

11

.

4

3.2. Rango e determinante.

Consideriamo nuovamente il procedimento di Gauss. Osserviamo che le tre operazioni elementari sulle

righe di una matrice A:

(OE1′) - trasporre due righe;

(OE2′) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;

(OE3′) - sommare ad una riga un multiplo di un’altra riga (termine a termine).

corrispondono ad altrettante moltiplicazioni per particolari matrici, dette matrici elementari.

Definizione 3.10. Una matrice quadrata di ordine n e detta elementare se puo essere ottenuta dalla

matrice idendita In applicando una delle tre operazioni elementari (OE1′), (OE2′) e (OE3′).

Notiamo che le matrici elementari sono invertibili e matrici inverse di matrici elementari sono ancora

matrici elementari.

Una matrice B puo quindi essere ottenuta da una matrice A mediante operazioni elementari sulle righe se

e solo se esistono matrici elementari E1, E2, · · · , En tali che B = EnEn−1 · · · E1A. In tal caso diremo

24

che le matrici A, B sono equivalenti per righe. Osserviamo che tale relazione costituisce una relazione

di equivalenza tra matrici.

Data una matrice A di tipo m×n associamo ad A due sottospazi vettoriali di Rn e Rm rispettivamente,

lo spazio delle righe e lo spazio della colonne.

Definizione 3.11. Sia A una matrice di tipo m × n. con righe A1, A2 . . . , Am ∈ Rn e colonne

A1, A2 . . . , An ∈ Rm. Lo spazio delle righe di A e il sottospazio di Rn generato dalle righe della

matrice A. Lo spazio delle colonne di A e il sottospazio di Rm generato dalle colonne della matrice

A.

Vale il seguente teorema:

Teorema 3.12. Siano A, B due matrici sono ottenibili l’una dall’altra mediante operazioni elementari

sulle righe. Allora lo spazio delle righe di A e uguale allo spazio delle righe di B.

Proof. Il fatto che B si possa ottenere da A mediante operazioni elementari sulle righe equivale a dire

che le righe di B sono combinazioni lineari delle righe di A. Vale ovviamente anche il viceversa da cui

segue la tesi. �

Questo teorema, unitamente al fatto che ogni matrice puo essere ridotta in forma a scala segue che il

procedimento di Gauss ci permette di calcolare la dimensione dello spazio delle righe di una matrice.

Sussiste il seguente fondamentale teorema.

Teorema 3.13. Per ogni matrice A di tipo m × n la dimensione dello spazio delle righe di A e uguale

alla dimensione dello spazio delle colonne. Il valore comune, che denoteremo con rg(A) e detto rango

di A. Risultera quindi rg(A) < m e rg(A) < n.

Proof. Sia r la dimensione dello spazio delle righe e sia {v1, v2, . . . , vr} una base di Rm. Allora per

ogni i ∈ {1, . . . , m}, esistono coefficienti cik tali che

(9) Ai = ci1v1 + · · ·+ cirvr.

Se vk = (xk1 xk2 · · · xkn) allora le equazioni (9) sono equivalenti a

Aj = x1jw1 + x2jw2 + · · ·xrjwr,

dove wi = (c1i c2i · · · cmi). Segue quindi che i vettori colonna sono combinazioni lineari degli r vettori

w1, . . . , wr. Segue pertanto che la dimensione dello spazio delle colonne e minore di r. Considerando

la matrice trasposta tA otteniamo la diseguaglianza opposta. Segue la tesi. �

Il seguente corollario fornisce un metodo per il calcolo del rango di una matrice A.

Corollario 3.14. Il rango di una matrice A e il numero delle righe non completamente nulle di una

matrice a scala B, ottenuta da A mediante operazioni elementari sulle righe.

Esempio 3.15. Calcoliamo il rango della matrice

A =

2 0 1 −1

−1 1 0 3

−4 2 −1 7

.

25

Sommando alla prima riga il doppio della seconda e sostituendo il risultato alla seconda, ed allo stesso

tempo sostituire alla terza riga il risultato della somma della stessa con il doppio della prima otteniamo

la matrice: 2 0 1 −1

0 2 1 5

0 2 1 5

.

e quindi sostituendo alla terza riga la differenza della terza con la seconda abbiamo: 2 0 1 −1

0 2 1 5

0 0 0 0

.

La matrice A ha pertanto rango 2.

4

Inoltre attraverso un procedimento di Gauss possiamo calcolare la dimensione dello spazio generato da

un sistema di vettori in Rn, di estrarre da un sistema di generatori una base e di estendere un sistema

di vettori linearmente indipendenti ad una base di Rn.

Esempio 3.16. Siano v1 = (2, 0,−1, 3), v2 = (1, 1,−1, 2), v3 = (−1,−2, 3, 4) e v4 = (−3, 0, 3, 2) vettori

in R4. La dimensione del sottospazio di R4 generato dai vettori v1, v2, v3 e v4 equivale al rango della

matrice i cui vettori riga (o colonna) sono proprio i vettori considerati.

Il rango della matrice

A =

2 0 −1 3

1 1 −1 2

−1 −2 3 4

−3 0 3 2

.

Applicando il metodo di Gauss alla matrice A e possibile ridurla alla seguente forma a scala:2 0 −1 3

0 2 −1 1

0 0 3 13

0 0 0 0

.

Segue che V := 〈v1, v2, v3, v4〉 ha dimensione pari a 3. Inoltre una base dello stesso spazio V e costituita

dai vettori w1 = (2, 0,−1, 3), w2 = (0, 2,−1, 1) e w3 = (0, 0, 3, 13).

4

Esempio 3.17. Consideriamo gli stessi vettori dell’esempio percedente. Vogliamo una base dello spazio

V = 〈v1, v2, v3, v4〉 estratta dal sistema di generatori {v1, v2, v3, v4}. Per far questo occorre ridurre

con il processo algoritmico di Gauss la matrice le cui colonne coincidono con i vettori v1, v2, v3 e v4,

ovvero la matrice:

B =

2 1 −1 −3

0 1 −2 0

−1 −1 3 3

3 2 4 2

.

E possibile ottenere, da facili calcoli, la matrice ridotta a scala:2 1 −1 −3

0 1 −2 0

0 0 1 1

0 0 0 0

.

26

I pivot corrispondono alle prime tre colonne. Questo significa che i primi tre vettori v1, v2 e v3 sono

linearmente indipendenti. Essi pertanto costituiscono una base di V .

4

Esempio 3.18. Sia V = Rn, per qualche n. Consideriamo ora il problema di estendere un sistema di

vettori linearmente indipendenti di V a base. Siano v1 = (2, 3,−1,−2) e v2 = (−1,−3, 2, 1) in R4. I

vettori v1, v2, e1, e2, e3, e4 costutuiscono un sistema di generatori per V . Agendo come nell’esempio

precedente costruiamo la matrice le cui colonne sono proprio questi sei vettori.

C =

2 −1 1 0 0 0

3 6 0 1 0 0

−1 −2 0 0 1 0

−2 −4 0 0 0 1

.

Riducendo con Gauss si ottiene la matrice ridotta a scala:2 −1 1 0 0 0

0 −5 1 0 0 1

0 0 0 1 3 0

0 0 0 0 −2 1

.

I pivot si trovano in corrispondenza delle colonne relative ai vettori v1, v2, e2 e e3, che costituiscono

una base cercata.

4

Consideriamo ora il seguente fondamentale teorema che fornisce una condizione necessaria e sufficiente

affinche un sistema lineare sia compatibile.

Teorema 3.19. (di Rouche-Capelli) Un sistema lineare Ax = b e compatibile se e solo se il rango della

matrice A e uguale al rango della matrice completa AC .

Proof. Il sistema Ax = b si traduce nella seguente equazione vettoriale:

A1x1 +A2x2 + · · ·+Anxn = b,

da cui segue che il sistema e compatibile se e solo se il vettore termine noto e combinazione lineare

delle colonne della matrice dei coefficienti A Segue pertanto che lo spazio delle colonne della matrice dei

coefficienti A coincide con lo spazio delle colonne della matrice completa AC . Segue quindi la tesi. �

Passiamo ora alla definizione di determinante. Ricordiamo che con Mn denotiamo lo spazio delle matrici

quadrate di ordine n.

Definizione 3.20. Sia n un intero positivo arbitrario. Il determinante e una funzione definita su Mn a

valori reali che denotiamo con det(·) che gode delle seguenti proprieta che lo determinano unicamente:

(D1) det(I) = 1;

(D2) Se B e ottenuta da A mediante trasposizione di due righe, allora det(B) = − det(A);

(D3) Se B e ottenuta da A sostituendo ad una riga per una costante k, allora det(B) = k det(A);

(D4) Se B e ottenuta da A sommando ad una riga un multiplo di un’altra riga det(B) = det(A).

Dalla definizione seguono importanti proprieta del determinante. In particolare valgono i seguenti teo-

remi.

Teorema 3.21. Sia A una matrice quadrata. Allora det(A) = det(tA).

27

Teorema 3.22. (di Binet) Siano A, B due matrice quadrate dello stesso ordine. Allora det(AB) =

det(A) det(B).

Dal teorema di Binet segue il seguente corollario.

Corollario 3.23. Sia A una matrice quadrata invertibile con inversa A−1. Allora det(A−1) = 1det(A) .

Inoltre vale il seguente risultato.

Teorema 3.24. Una matrice A e invertibile se e solo se det(A) 6= 0.

Vediamo ora come calcolare il determinante di una matrice.

Il determinante di matrici 2×2 si calcola facendo il cosiddetto prodotto incrociato, ovvero si moltiplicano

le entrate sulla diagonale principale e si sottrae dal risultato il prodotto degli altri due termini.

det

(a b

c d

)= ad− bc.

Sia ora

A :=

a11 a12 a13

a21 a22 a23

a31 a32 a33

una matrice di tipo 3 × 3. Per tali matrici esiste un metodo, noto con il nome di metodo di Sarrus,

per il calcolo del determinante. Esso consiste nell’affiancare alla matrice A le prime due colonne. Poi

si procede moltiplicando le entrate nella diagonale principale e sommando a questo valore i risultati del

prodotto degli elementi delle “parallele” a questa. Infine sottraiamo al risultato ottenuto la somma dei

tre prodotti degli elementi dell’altra diagonale con le due “parallele”.

Questo procedimento non e generalizzabile a matrici di ordine superiore a 3. Descriviamo ora un metodo

piu generale, il metodo di Laplace. Prima di descrivere questo procedimento definiamo il cofattore o

complemento algebrico di un elemento di una matrice quadrata. A tal proposito sia A = (aij) una

matrice quadrata di ordine n e fissiamo i, j ∈ {1, . . . , n}. Il cofattore di aij e il determinante della

sottomatrice Mij (di ordine n− 1) che si ottiene da A cancellando la i-esima riga e la j-esima colonna,

con il proprio segno se i+ j e pari, col segno opposto se i+ j e dispari, cioe il numero

Aij = (−1)i+j det(Mij).

Il determinante di A e dato da

det(A) =

n∑k=1

aikAik =

n∑k=1

akjAkj ,

per ogni valore di i, j in {1, . . . , n}, cioe il determinante della matrice A e la somma dei prodotti degli

elementi di una linea di A (riga o colonna) per i rispettivi complementi algebrici. Il secondo membro e

detto sviluppo del determinante rispetto alla i-esima riga, mentre il membro a destra e lo sviluppo del

determinante rispetto alla j-esima colonna.

Data una matrice quadrata A, la matrice le cui entrate sono i cofattori degli elementi aij di A nella

medesima posizione e la matrice dei cofattori di A, mentre la sua trasposta e la matrice aggiunta di A,

che denotiamo con Adj(A). Vale il seguente teorema.

Teorema 3.25. Sia A una matrice quadrata. Allora A e invertibile se e solo se det(A) 6= 0 ed in tal

caso A−1 = 1det(A)Adj(A).

Proof. Omessa. �

28

Dal teorema precedente segue il seguente fondamentale teorema che ci permette di risolvere sistemi

quadrati.

Teorema 3.26. (di Cramer) Sia Ax = b un sistema lineare quadrato. Il sistema e compatibile e

determinato se e solo se det(A) 6= 0. In tal caso la soluzione del sistema e dato da

xi =det(Ai)

det(A),

dove la matrice Ai e la matrice ottenuta sostituendo alla i-esima colonna il vettore termine noto b.

Proof. Poiche A ha determinante diverso da zero, A e invertibile. Segue che il sistema e compatibile e

determinato con soluzione:

x = A−1b =1

det(A)Adj(A)b.

Segue che il valore di xi e dato da xi = 1det(A)

∑nk=1Akibk. Notiamo che questa somma e lo sviluppo di

Laplace del determinante di Ai rispetto alla i-esima colonna. Segue la tesi. �

Analizziamo ora piu approfonditamente il rapporto che sussiste tra rango e determinante. Abbiamo visto

che se A e una matrice quadrata, il rango di A e massimo (pari all’ordine della matrice se e solo se il

determinante di A e diverso da zero. Vogliamo trovare un risultato piu generale. A tal fine consideriamo

la seguente definizione.

Definizione 3.27. Un minore di ordine r di una matrice

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...

am1 am2 · · · amn

e il determinante di una matrice di ordine r ottenuta da A eliminando simultaneamente m − r righe e

n− r colonne. Qui chiaramente assumiamo r ≤ m e r ≤ n.

Per esempio i minori di ordine 1 corrispondono alle singole entrate della matrice mentre l’unico minore

di ordine n di una matrice quadrata n× n e il daterminante della matrice stessa.

Vale la seguente proposizione.

Proposizione 3.28. Il rango di una matrice A e il massimo ordine dei suoi minori non nulli.

Torniamo ora alla teoria degli spazi vettoriali. Abbiamo visto che le coordinate di un vettore dipendono

dalla base scelta. Esplicitiamo ora meglio questa dipendenza attraverso la teoria delle matrici.

Il teorema delle dimensioni per spazi vettoriali ci dice che basi diverse hanno comunque lo stesso numero

di elementi. Siano quindi B = {e1, e2, . . . , en} e B′ = {e′1, e′2, . . . , e′n} due basi di uno spazio vettoriale

finito dimensionale V . Per ogni i ∈ {1, 2, . . . , n} il vettore e′i si puo esprimere come combinazione lineare

dei vettori della base B (e viceversa). Esistono quindi scalari c1i, c2i, . . . , c1n tali che

e′i =

n∑k=1

ckiei.

Usando una notazione matriciale possiamo scrivere:

( e′1 e′2 · · · e′n ) = ( e1 e2 · · · en )C,

dove C = (cij). Poiche gli e′i cosı come gli ei costituiscono altrettante basi le matrici le cui colonne sono

proprio tali vettori hanno rango massimo, quindi sono invertibili. Pertanto anche C e invertibile.

29

Sia ora v un vettore di V e siano x1, x2, . . . , xn e x′1, x′2, . . . , x

′n le coordinate di v rispetto alle due

basi. Possiamo scrivere in tal caso:

v = ( e1 e2 · · · en )

x1

x2...

xn

= ( e′1 e′2 · · · e′n )

x′1x′2...

x′n

= ( e1 e2 · · · en )C

x′1x′2...

x′n

,

da cui x1

x2...

xn

= C

x′1x′2...

x′n

Moltiplicando ambo i membri di quest’ultima equazione per la matrice C−1 a sinistra otteniamo la

relazione inversa: x′1x′2...

x′n

= C−1

x1

x2...

xn

La matrice C prende il nome di matrice di cambiamento di base. Essa ha nelle sue colonne le componenti

dei vettori della seconda base rispetto alla prima base.

30

4. Prodotto scalare Euclideo

All’inizio della sezione sugli spazi vettoriali abbiamo analizzato vettori geometrici nel piano e nello spazio

ordinario. E possibile estendere questi concetti a spazi Rn. Consideriamo vettori in Rn come vettori

geometrici applicati all’origine delle coordinate. In questo modo un vettore geometrico nel piano e

identificato da una coppia di numeri reali. La direzione del vettore sara la retta che lo contiene mentre il

verso dello stesso vettore sara individuato in modo naturale dalla coppia di numeri reali ad esso associato.

La norma del vettore potra quindi essere calcolata mediante il teorema di Pitagora. Infatti se v = (x1, x2)

allora la norma di v sara ‖v‖ =√x21 + x22.

Sia ora v ∈ Rn. Definiamo la norma (o lunghezza) di v = (x1, x2, . . . , xn) la quantita:

‖v‖ =√x21 + x22 + · · ·+ x2n.

Notiamo che le seguenti valgono:

(1) Per ogni vettore v ∈ Rn, ‖v‖ ≥ 0 e ‖v‖ = 0 se e solo se v = 0.

(2) Per ogni vettore v ∈ Rn e scalare k ∈ R, ‖kv‖ = |k|‖v‖.(3) Per ogni coppia di vettori v,w ∈ Rn, ‖v + w‖ ≤ ‖kv‖+ ‖kw‖ (Diseguaglianza triangolare).

Due vettori non nulli v, w in Rn sono paralleli se hanno la medesima direzione, ovvero esiste uno scalare

non nullo k ∈ R tale che w = kv. Inoltre se k > 0 diremo che v e w hanno lo stesso verso, altrimenti

diremo che hanno verso opposto. Un versore e un vettore di norma pari ad 1. Dato un vettore v ∈ Rn

possiamo asso ciare a v un versore ad esso parallelo ed avente lo stesso verso ponendo v = v‖v‖ . Tale

processo e noto come normalizzazione di v e v e il normalizzato di v.

Definiamo ora una importante operazione tra vettori di Rn, il prodotto scalare euclideo. Dati due vettori

v = (x1, x2, . . . , xn), w = (y1, y2, . . . , yn) in Rn il prodotto scalare tra v e w e il numero

v ·w = x1y1 + x2y2 + · · ·+ xnyn.

Notiamo che ‖v‖2 = v · v.

Osserviamo che il prodotto scalare euclideo soddisfa alle proprieta, di verifica immediata, elencate nella

seguente proposizione:

Proposizione 4.1. Per ogni k ∈ R, u, v, w ∈ Rn vale:

(1) v · v ≥ 0 e v · v = 0 se e solo se v = 0;

(2) v ·w = w · v;

(3) u · v + w = u · v + u ·w;

(4) (kv) ·w = k(v ·w) = v · (kw).

Una funzione che ad ogni coppia di vettori in uno spazio vettoriale V associa uno scalare che soddisfa le

quattro proprieta elencate nella proposizione e detto prodotto scalare.

Vale inoltre (per ogni prodotto scalare, in particolare per il prodotto scalare euclideo):

Proposizione 4.2. (Disuguaglianza di Cauchy-Schwarz) - Se v, w sono vettori in Rn allora

|v ·w| ≤ ‖v‖‖w‖.

Proof. Supponiamo dapprima v = 0. In tal caso |v ·w| = 0, cosı come ‖v‖ = 0 e quindi anche il secondo

membro e uguale a zero. Pertanto in tal caso la diseguaglianza e verificata. Supponiamo ora v 6= 0. Sia

31

x una variabile reale. La disuguaglianza

(xv + w) · (xv + w) ≥ 0,

deve essere soddisfatta per ogni valore di x per la positivita del prodotto scalare. Segue

(v · v)x2 + 2(v ·w)x+ (w ·w) ≥ 0

deve essere soddisfatta per ogni valore di x. Questo si ha se e solo se il discriminante del polinomio a

primo membro e minore o uguale a zero, ovvero se e solo se:

4≤ 0 =⇒ (v ·w)2 − (v · v)(w ·w) ≤ 0.

Dunque

(v ·w)2 ≤ ‖v‖2‖w‖2.

Estraendo la radice quadrata si ottiene la tesi. �

Usando come modello R2 guardiamo al suo significato geometrico. Notiamo che la differenza di due vettori

in R2 e il vettore che collega i punti finali dei due vettori. Pertanto avremo che il vettore differenza dei

vettori v = (x1, x2) e w = (y1, y2) avra norma pari a ‖v −w‖ =√

(x1 − y1)2 + (x2 − y2)2. In virtu del

Teorema di Carnot (detto altresı del coseno) si ha che la stessa lunghezza e uguale a:

‖v −w‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w‖ cos(vw),

dove con vw denotiamo l’angolo compreso tra v e w. Eguagliando le due quantita otteniamo:

(x1 − y1)2 + (x2 − y2)2 = x21 + x22 + y21 + y22 − 2‖v‖‖w‖ cos(vw),

e quindi

cos(vw) =x1y1 + x2y2‖v‖‖w‖

=v ·w‖v‖‖w‖

.

Pertanto il prodotto scalare euclideo fornisce l’angolo minimo compreso tra i due vettori.

Due vettori R2 sono tra loro ortogonali se e solo se l’angolo tra loro compreso e pari a π2 radianti misurato

in senso orario o antiorario, e quindi in virtu dell’uguaglianza precedente se e solo se v ·w = 0. Questi

concetti possono essere generalizzati facilmente al caso di Rn, mantenendo le stesse notazioni. Se due

vettori v, w ∈ Rn sono ortogonali scriveremo v ⊥ w. Se v ∈ Rn e W e un sottospazio vettoriale di Rn

scriveremo ancora v ⊥ W se v e perpendicolare ad ogni vettore di W . Infine se U, W sono sottospazi

vettoriali di Rn, U e ortogonale a W se per ogni u ∈ U e per ogni w ∈W , u ⊥ w.

Sia ora W ⊂ Rn un sottospazio vettoriale. Poniamo

W⊥ := {v ∈ Rn : ∀w ∈Wv ⊥ w}.

W⊥ e detto complemento ortogonale di W . Il complemento ortogonale dello spazio nullo e l’intero

spazio Rn e viceversa. Conoscendo la base di un sottospazio vettoriale W di Rn e possibile trovare lo

spazio complementare. Infatti se BW = {w1, w2, . . . , wm} e una base di W , si considera un vettore

incognito x = (x1, x2, . . . , xn). Un tale x e in W⊥ se e solo se wi · x = 0, per i = 1, 2, . . . , m. Il

complemento ortogonale di W e quindi soluzione di un sistema lineare omogeneo di m equazioni in n

incognite. Notiamo che il rango della matrice dei coefficienti (e quindi quella completa) e uguale a m.

In questo caso necessitiamo di n−m parametri per descrivere lo spazio W⊥, ovvero dim(W⊥) = n−m.

Osserviamo inoltre che la proprieta (1) del prodotto scalare implica W ∩W⊥ = (0). Segue dalla formula

di Grassmann che W ⊕W⊥ = Rn. Una base B di un sottospazio vettoriale W ∈ Rn e detta ortogonale

se ogni coppia di vettori in B e mutuamente ortogonale. In particolare se B = {v1, v2, . . . , vm}, allora

vi · vj = 0 se i 6= j, i, j ∈ {1, 2, . . . , m}. Una base ortogonale e detta ortonormale se in aggiunta i

vettori vi sono versori, ovvero se vi · vj = δij se i, j ∈ {1, 2, . . . , m}.

32

Proposizione 4.3. Un sistema di vettori non nulli S ⊂ Rn a due a due ortogonali e linearmente

indipendente.

Proof. Sia S = {v1, v2, . . . , vm} un sistema di vettori non nulli a due a due ortogonali e siano k1, k2, . . . , km

scalari tali che k1v1+k2v2+ · · ·+kmvm = 0. Per ogni i = 1, 2, . . . , m, vi ·(k1v1+k2v2+ · · ·+kmvm) =

0·vi = 0. D’altra parte vi·(k1v1+k2v2+· · ·+kmvm) = ki(vi·vi). Segue quindi ki = 0 per i = 1, 2, . . . , m,

ovvero la tesi. �

Corollario 4.4. Un sistema di n vettori a due a due ortogonali in Rn costituisce una base dello spazio.

Proposizione 4.5. Se B = {v1, v2, . . . , vn} e una base ortonormale di Rn allora un vettore w ∈ Rn

ha la seguente rappresentazione come combinazione lineare dei vettori v1, v2, . . . , vn:

w = (w · v1)v1 + (w · v2)v2 + · · ·+ (w · vn)vn.

Questa proposizione ci mostra il vantaggio di avere una base ortonormale. Vediamo ora una procedura

che ci permette di costruire una base ortonormale da una base arbitraria di uno spazio vettoriale V dotato

di prodotto scalare. Tale procedimento e noto con il nome di procedimento di ortonormalizzazione

di Gram-Schmidt in onore di Jorgen Pederson Gram e Erhardt Schmidt. Esso consta di due parti:

• costruire una base ortogonale a partire dalla base data;

• normalizzare ciascun vettore della base costruita al punto precedente.

Prima di procedere fornendo i dettagli del processo, consideriamo l’importante concetto di proiezione.

Siano v e w due vettori di Rn, con w 6= 0. La proiezione di v nella direzione di w e il vettore

projw(v) =v ·ww ·w

w.

Si noti che (v − projw(v)) ⊥ w.

Torniamo al procedimento di Gram-Schmidt. Sia B = {v1, v2, . . . , vn} una base di Rn. Costruiamo

vettori w1, w2, . . . , wn ponendo

w1 := v1

w2 := v2 − projw1(v2)

...

wn := vn − projw1(vn)− projw2

(vn)− · · · − projwn−1(vn).

Si verifica facilmente che i vettori w1, w2, . . . , wn sono a due a due ortogonali. Essi sono pertanto

linearmente indipendenti e quindi costituiscono una base di Rn. Infine ponendo

u1 :=w1

‖w1‖= w1

u2 :=w2

‖w2‖= w2

...

un :=wn

‖wn‖= wn,

otteniamo una base ortonormale di Rn.

Notiamo che mettendo in colonna i vettori di una base ortogonale formiamo una matrice A tale che

AtA = I. Poiche ogni matrice commuta con l’inversa, abbiamo anche che AAt= I. Segue quindi che

anche le righe della matrice costituiscono una base ortonormale dello stesso spazio.

Consideriamo la seguente definizione:

33

Definizione 4.6. Una matrice e detta matrice ortogonale se AtA = AAt= I.

Le seguenti proprieta per matrici ortogonali sono di verifica immediata.

Proposizione 4.7. Siano A, B due matrici ortogonali. Le seguenti valgono:

(1) tA e ortogonale;

(2) det(A) = ±1;

(3) AB e ortogonale.

34

5. Applicazioni lineari

5.1. Definizione e principali proprieta.

Consideriamo ora funzioni tra spazi vettoriali. Particolarmente importanti per i nostri scopi e di stu-

diare applicazioni ‘compatibili ’ con le strutture di spazio vettoriale. Consideriamo quindi la seguente

definizione.

Definizione 5.1. Siano V, W due spazi vettoriali. Una funzione T : V −→ W e un’applicazione

lineare se ∀v1, v2 ∈ V e ∀kR,

(AL1) T (v1 + v2) = T (v1) + T (v2);

(AL2) T (kv1) = kT (v1).

V e il dominio, W e il codominio. T e detta iniettiva se per ogni coppia di vettori v1, v2 ∈ V con

v1 6= v2, si ha T (v1) 6= T (v2). T e suriettiva se ogni elemento del codominio ha una controimmagine,

ovvero se per ogni w ∈W esiste v ∈ V tale che T (v) = w. T e biiettiva se e sia iniettiva che suriettiva.

Esempio 5.2. Sia V uno spazio vettoriale n-dimensionale e sia B = {v1, v2, . . . , vn} una base di V .

L’applicazione T : V −→ Rn che associa ad ogni v ∈ V le sue coordinate rispetto alla base B scelta. Si

mostra facilmente che T e un’applicazione lineare, iniettiva e suriettiva, quindi biiettiva.

4

Esempio 5.3. Sia V lo spazio vettoriale delle funzioni infinitamente volte differenziabili, V = C∞ e

consideriamo l’operatore di derivazione D : V −→ V . D e chiaramente un’applicazione lineare. Essa non

e ne iniettiva ne suriettiva.

4

Definizione 5.4. Sia T : V −→W una applicazione lineare. Poniamo:

ker(T ) := {v ∈ V : T (v) = 0W }.

Ricordiamo che l’immagine di una applicazione T : V −→ W , e quindi in particolare anche di una

applicazione lineare, e definita ponendo

Im(T ) := {w ∈W : ∃v ∈ V tale che T (v) = w} = {T (v) : v ∈ V }.

Valgono le seguenti proposizioni:

Proposizione 5.5. Sia T : V −→W una applicazione lineare. Allora ker(T ) e un sottospazio vettoriale

di V e Im(T ) e un sottospazio vettoriale di W .

Proof. Proviamo che ker(T ) e un’applicazione lineare. Siano v1, v2 vettori appartenenti al nucleo e sia

k un numero reale. Consideriamo la somma v1 + v2. Si ha dalla definizione di ker(T ):

T (v1 + v2) = T (v1) + T (v2) = 0W + 0W = 0W ,

cioe v1 + v2 ∈ ker(T ). Inoltre anche kv1 ∈ ker(T ) in quanto:

T (kv1) = kT (v1) = k0W = 0W .

Segue quindi che ker(T ) e un sottospazio vettoriale di V .

35

Siano ora w1, w2 vettori appartenenti all’immagine di T e sia k un numero reale. Siano v1, v2 ∈ V tali

che T (v1) = w1 e T (v2) = w2. Allora:

w1 + w2 = T (v1) + T (v2) = T (v1 + v2)

e

kw1 = kT (v1) = T (kv1).

Segue che w1 +w2 e kw1 appartengono all’immagine di T e quindi che Im(T ) e un sottospazio vettoriale

di W . �

Proposizione 5.6. Un’applicazione lineare T : V −→W e iniettiva se e solo se ker(T ) = {0V }.

Proof. Supponiamo T iniettiva e sia v ∈ ker(T ). Poiche T (v) = T (0V = 0W per l’iniettivita di T segue

v = 0V .

Supponiamo ora che ker(T ) = {0V } e siano v1, v2 ∈ V con T (v1) = T (v2). Allora T (v1 − v2) =

T (v1) − T (v2) = 0W , cioe v1 − v2 ∈ ker(T ). Quindi v1 − v2 = 0V , da cui v1 = v2, ovvero T e

iniettiva. �

Dalla definizione di Im(T ) si ha ovviamente che T e suriettiva se e solo se Im(T ) = W .

Un’applicazione lineare e detta anche omomorfismo. Se essa e iniettiva allora e un monomorfismo, se

suriettiva e un epimorfismo e se biiettiva e un isomorfismo. Un’applicazione lineare di uno spazio in

se e detta endomorfismo mentre con il termine automorfismo si intende un isomorfismo di uno spazio

vettoriale in se stesso.

Date due applicazioni lineari T, T ′ : V −→W , definiamo la somma T + T ′ ponendo, per ogni v ∈ V :

(T + T ′)(v) := T (v) + T ′(v).

Si verifica facilmente che T + T ′ e una applicazione lineare. Inoltre se k ∈ R possiamo definire

un’applicazione lineare kT : V −→W , ponendo, per ogni v ∈ V :

(kT )(v) := k(T (v)).

Proposizione 5.7. Siano V, W due spazi vettoriali. L’insieme

Hom(V,W ) := {T : V −→W : T e un’applicazione lineare},

con le operazioni di somma e moltiplicazione per uno scalare definite precedentemente e vettore nullo

l’applicazione lineare che associa ad ogni vettore v il vettore nullo in W , e uno spazio vettoriale. Se

W = V scriveremo End(V ) al posto di Hom(V, V ).

Teorema 5.8. Siano V, W spazi vettoriali finito dimensionali e sia T : V −→W un’applicazione lineare.

Allora

dim(V ) = dim(ker(T )) + dim(Im(T )).

Proof. Se Im(T ) = {0W } allora V = ker(T ) e quindi in tal caso il risultato e ovvio. Sia s = dim(Im(T ))

e sia {w1, w2, . . . , ws} una base di Im(T ). Siano v1, v2, . . . , vs vettori di V tali che T (vi) = wi per

ogni i ∈ {1, 2, . . . , s}.

Sia ora q = dim(ker(T )) e {u1, u2, . . . , uq} una base di ker(T ).

Dimostriamo che {u1, u2, . . . , uq, v1, v2, . . . , vs} e una base di V . Dobbiamo quindi mostrare che:

(1) i vettori u1, u2, . . . , uq, v1, v2, . . . , vs sono linearmente indipendenti;

(2) i vettori u1, u2, . . . , uq, v1, v2, . . . , vs generano V .

36

Siano a1, a2, . . . , aq, b1, b2, . . . , bs scalari tali che:

(10) a1u1 + a2u2 + · · ·+ aquq + b1v1 + b2v2 + · · ·+ bsvs = 0V .

Poiche {u1, u2, . . . , uq} e una base di ker(T ) e T (vi) = wi per ogni i ∈ {1, 2, . . . , s} vale:

0W = T (0V ) = T (a1u1 + a2u2 + · · ·+ aquq + b1v1 + b2v2 + · · ·+ bsvs)

= a1T (u1) + a2T (u2) + · · ·+ aqT (uq) + b1T (v1) + b2T (v2) + · · ·+ bsT (vs)

= b1w1 + b2w2 + · · ·+ bsws.

Essendo i vettori w1, w2, . . . , ws linearmente indipendenti (essi formano una base di Im(T )) si ha che

b1 = b2 = · · · = bs = 0. Sostituendo tali valori in (10) otteniamo:

a1u1 + a2u2 + · · ·+ aquq = 0V .

I vettori u1, u2, . . . , uq sono linearmente indipendenti, da cui a1 = a2 = · · · = aq = 0 e quindi i vettori

u1, u2, . . . , uq, v1, v2, . . . , vs sono linearmente indipendenti.

Dimostriamo ora che gli stessi vettori costituiscono un sistema di generatori di V . Sia v ∈ V . Allora

T (v) ∈ Im(T ). Essendo {w1, w2, . . . , ws} una base di Im(T ) esistono coefficienti b1, b2, . . . , bs ∈ R tali

che T (v) = b1w1 + b2w2 + · · ·+ bsws. Ma per ogni i = 1, 2, . . . , s wi = T (vi). Pertanto:

T (v) = b1T (v1) + b2T (v2) + · · ·+ bsT (vs) = T (b1v1 + b2v2 + · · ·+ bsvs),

da cui

0W = T (v)− T (b1v1 + b2v2 + · · ·+ bsvs) = T (v − b1v1 − b2v2 − · · · − bsvs).

Quindi v − b1v1 − b2v2 − · · · − bsvs ∈ ker(T ) ed esistono pertanto scalari a1, a2, . . . , aq tali che:

v − b1v1 − b2v2 − · · · − bsvs = a1u1 + a2u2 + · · ·+ aquq.

Dunque v = a1u1 + a2u2 + · · ·+ aquq + b1v1 + b2v2 + · · ·+ bsvs. Questo prova la tesi. �

Corollario 5.9. Siano V, W spazi vettoriali finito dimensionali tali che dim(V ) = dim(W ) e sia T :

V −→W un’applicazione lineare. Allora T e iniettiva se e solo se e suriettiva.

Siano U, V, W spazi vettoriali reali e siano T : U −→ V , S : V −→ W due applicazioni lineari. La

composizione di S e T e l’applicazione S ◦T : U −→W definita ponendo, al variare di u ∈ U :

S ◦T (u) = S(T (u)).

L’applicazione S ◦T e ancora lineare.

Proposizione 5.10. Siano U, V, W spazi vettoriali reali,

T1, T2 : U −→ V and S1, S2 : V −→W

applicazioni lineari e k ∈ R. Allora:

• S ◦1 (T1 + T2) = S ◦

1 T1 + S ◦1 T2;

• (S1 + S2) ◦T1 = S ◦1 T1 + S ◦

2 T1;

• (kS1) ◦T1 = S ◦1 (kT1) + k(S ◦

1 T1).

Si noti che se S, T : V −→ V sono due endomorfismi allora esistono S ◦T e T ◦S ma in generale

S ◦T 6= T ◦S.

Inoltre se T e un endomorfismo allora T si puo comporre con se stesso. Possiamo quindi definire Tn

come il risultato della composizione di T con se stesso n volte:

Tn = T ◦ · · · ◦ T︸ ︷︷ ︸n

37

Proposizione 5.11. Sia T : V −→ W un’applicazione biettiva. Allora l’applicazione inversa S : V −→W e lineare.

5.2. Applicazioni lineari e matrici.

Cominciamo questa sezione con un esempio.

Esempio 5.12. Sia

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...

am1 am2 · · · amn

una matrice m× n. Possiamo associare ad A un’applicazione lineare TA : Rn −→ Rm ponendo:

TA(x1, x2, . . . , xn) := A

x1

x2...

xn

.

La linearita di TA segue dalle proprieta del prodotto di matrici.

4

Viceversa siano V, W spazi vettoriali con basi rispettivamente {v1, v2, . . . , vn} e {w1, w2, . . . , wm} e

sia T : V −→ W una applicazione lineare. Costruiamo la matrice MT associata all’applicazione lineare

T rispetto alle basi scelte nel seguente modo. Al variare di i in {1, 2, . . . , n} la i-esima colonna di MT

e costituita dalle coordinate del vettore vi ∈W rispetto alla base {w1, w2, . . . , wm}.

Per fissare le idee consideriamo il caso in cui V = Rn e W = Rm. Quanto verificheremo per tale

particolare esempio e generalizzabile al caso di generici spazi vettoriali finito dimensionali V e W .

Fissiamo su Rn e Rm le basi canoniche. Sia ora T : Rn −→ Rm un’applicazione lineare, v = (x1, x2, . . . , xn) ∈Rn e sia w = (y1, y2, . . . , ym) := T (v) ∈ Rm.

Dalle proprieta di linearita di T , segue:

y1

y2...

ym

= T (v) = x1T (e1) + x2T (e2) + · · ·+ xnT (en) = MT

x1

x2...

xn

,

dove MT e la matrice le cui colonne sono i vettori T (e1), T (e2), . . . , T (en).

Dall’uguaglianza T (v) = x1T (e1)+x2T (e2)+· · ·+xnT (en) notiamo che i vettori T (e1), T (e2), . . . , T (en)

costituiscono un sistema di generatori per Im(T ). Il nucleo di T e l’insieme dei vettori (x1, x2, . . . , xn) ∈Rn tali che:

38

MT

x1

x2...

xn

=

0

0...

0

,

con lo spazio delle soluzioni del sistema lineare omogeneo la cui matrice dei coefficienti e MT .

Sia T : V −→ W un’applicazione lineare. Siano {v1, v2, . . . , vn}, {v′1, v′2, . . . , v′n} basi di V e

{w1, w2, . . . , wm}, {w′1, w′2, . . . , w′m} basi di W , con matrici cambio di base C e D rispettivamente.

Siano ancora A, A′ le due matrici associate a T rispetto alle basi {v1, v2, . . . , vn}, {w1, w2, . . . , wm}e {v′1, v′2, . . . , v′n}, {w′1, w′2, . . . , w′m}.

Se v ∈ V ha coordinate (x1, x2, . . . , xn) rispetto alla base {v1, v2, . . . , vn} e (x′1, x′2, . . . , x

′n) rispetto

alla base {v′1, v′2, . . . , v′n} e T (v) ha coordinate (y1, y2, . . . , ym) rispetto alla base {w1, w2, . . . , wm}e (y′1, y

′2, . . . , y

′m) rispetto alla base {w′1, w′2, . . . , w′m} allora sussistono le seguenti relazioni:

y1

y2...

ym

= A

x1

x2...

xn

e

y′1y′2...

y′m

= A′

x′1x′2...

x′n

.

Inoltre poiche: x′1x′2...

x′n

= C−1

x1

x2...

xn

e

y′1y′2...

y′m

= D−1

y1

y2...

ym

,

segue

D−1

y1

y2...

ym

= A′C−1

x1

x2...

xn

,

da cui y1

y2...

ym

= DA′C−1

x1

x2...

xn

.

Pertanto A = DA′C−1 ed equivalentemente A′ = DAC−1.

Nel caso speciale in cui V e W coincidono, fissate le basi {v1, v2, . . . , vn}, {v′1, v′2, . . . , v′n} di V con

matrice di cambio di base C, allorain tal caso:

A′ = C−1AC.

Definizione 5.13. Due matrici quadrate di ordine n A e A′ sono simili se esiste una matrice invertibile

C tale che A′ = C−1AC.

Vale il seguente teorema:

Teorema 5.14. La similitudine e una relazione di equivalenza.

Dal teorema di Binet segue il seguente risultato:

Proposizione 5.15. Due matrici simili hanno lo stesso determinante.

39

6. Diagonalizzazione di matrici

6.1. Problema di diagonalizzazione.

Nello studio di un endomorfismo particolarmente interessante e analizzare gli spazi che sono invarianti

rispetto a tale applicazione. Tale analisi prende il nome di teoria spettrale. In questa sezione ne studieremo

alcuni aspetti basilari con particolare riferimento a spazi vettoriali reali di dimensione finita.

Definizione 6.1. Sia V uno spazio vettoriale reale finito dimensionale e sia T : V −→ V un’applicazione

vettoriale di V in se (endomorfismo). Un autovettore di T e un vettore non nullo v ∈ V \ {0} per cui

esiste uno scalare λ ∈ R tale che:

T (v) = λv.

In tal caso λ e detto autovalore di T relativo all’autovettore v o equivalentemente che v e un autovettore

di T con autovalore λ. L’insieme di tutti gli autovalori di T e detto spettro di T .

Osserviamo che se v e un autovettore di T , il suo autovalore e univocamente determinato: infatti se fosse

T (v) = λ1v = λ2v allora 0 = λ1v−λ2v = (λ1−λ2)v, da cui, poiche v 6= 0, λ1−λ2 = 0 e quindi λ1 = λ2.

Inoltre se v e un autovettore di un endomorfismo T con autovalore λ e k ∈ R uno scalare diverso da 0

allora kv e anch’esso un autovettore di T con autovalore λ.

Piu in generale vale la seguente:

Proposizione-Definizione 6.2. Sia T : V −→ V un endomorfismo e sia λ ∈ R un autovalore di T .

Poniamo:

Aλ := {v ∈ V : T (v) = λv}.

Allora Aλ e un sottospazio vettoriale di V , detto autospazio di T relativo all’autovalore λ.

Introduciamo anche il seguente risultato.

Proposizione 6.3. Sia T : V −→ V un endomorfismo, v1, v2, . . . , vr autovettori di T con distinti

autovalori λ1, λ2, . . . , λr. Allora i vettori v1, v2, . . . , vr sono linearmente indipendenti.

Proof. Omessa. �

Se V e uno spazio vettoriale n-dimensionale su R e {v1, v2, . . . , vn} e una base di V , allora esiste

una corrispondenza biunivoca tra endomorfismi di V e matrici ad entrate reali di tipo n × n ottenuta

associando ad ogni endomorfismo la sua matrice associata rispetto alla base {v1, v2, . . . , vn} e viceversa

ad ogni matrice A n× n l’applicazione v 7→ Av.

Se T : V −→ V e un endomorfismo di V , con matrice associata A rispetto ad una base fissata

{v1, v2, . . . , vn} di V allora uno scalare λ e un autovalore di T se e solo se esiste v ∈ V \ {0} tale

che, se (x1, x2, . . . , xn) sono le coordinate di v rispetto alla base scelta, allora:

A

x1

x2...

xn

= λ

x1

x2...

xn

.

40

In tal caso si ottiene

A

x1

x2...

xn

− λ

x1

x2...

xn

= 0,

da cui

A

x1

x2...

xn

− λI

x1

x2...

xn

= 0

e quindi

(A− λI)

x1

x2...

xn

= 0.

Pertanto λ e un autovalore di T se e solo se il sistema lineare omogeneo con matrice dei coefficienti A−λIe compatibile e indeterminato e questo si verifica se e solo se A−λI e singolare, ovvero det(A−λI) = 0.

Se λ e uno scalare generico, il determinante di A− λI e un polinomio in λ di grado n, detto polinomio

caratteristico di A. L’equazione che si ottiene eguagliando a 0 il determinante di A − λI e detta

equazione caratteristica di T (o di A). La molteplicita di λ come radice dell’equazione caratteristica e

la molteplicita algebrica di λ. La dimensione di Aλ come sottospazio vettoriale di V e la molteplicita

geometrica.

Questa definizione di polinomio caratteristico e quindi di equazione caratteristica e ben posta se matrici

associate al medesimo endomorfismo rispetto a basi differenti hanno lo stesso polinomio caratteristico.

Abbiamo visto alla fine della sezione precedente che due tali matrici sono simili. Siano A e A′ due matrici

simili e sia C una matrice invertibile tale che A′ = C−1AC. Allora:

det(A′ − λI) = det[C−1AC − λI] =

= det[C−1AC − C−1(λI)C] =

= det[C−1(A− λI)C] =

= det(A− λI),

ovvero matrici simili hanno lo stesso polinomio caratteristico.

Un minore di ordine k di una matrice quadrata A e detto principale se i termini principali della sottoma-

trice di A di cui esso e il determinante sono termini principali di A.

Proposizione 6.4. Sia A una matrice di ordine n. Il polinomio caratteristico di A e:

p(λ) = (−1)nλn + c1λn−1 + · · ·+ cn−1λ+ cn,

dove i coefficienti ck sono dati da:

ck = (−1)n−k∑

Mk,

dove la somma e estesa ai minori principali di A di ordine k. In particolare abbiamo c1 = (−1)n−1tr(A)

e cn = det(A).

Se una matrice A ha forma diagonale, ovvero gli unici elementi della matrice che possono essere diversi

da 0 sono i suoi elementi principali a11, a22, . . . , ann allora tali elementi sono gli autovalori della matrice.

Introduciamo ora il seguente problema noto con il termine: Problema di diagonalizzazione.

41

PROBLEMA DI DIAGONALIZZAZIONE - Data un endomorfismo T di uno spazio vettoriale

finito dimensionale V , esiste una base di V tale che la matrice associata a T rispetto a questa base e

diagonale? Se il problema ha risposta affermativa diremo T diagonalizzabile.

Dal punto di vista delle matrici la questione diventa: data una matrice quadrata A di ordine n, esiste una

matrice invertibile P dello stesso ordine tale che P−1AP e diagonale? Ancora diremo A diagonalizzabile

se la risposta alla precedente domanda e sı.

Il seguente fondamentale teorema fornisce una condizione necessaria e sufficiente affinche una matrice A

(e quindi un endomorfismo) sia diagonalizzabile.

Teorema 6.5. Una matrice quadrata di ordine n A e diagonalizzabile se e solo se esiste una base di Rn

formata da autovettori di A.

Proof. Assumiamo A diagonalizzabile. Allora dalla definizione esiste P matrice invertibile con D =

P−1AP diagonale. Siano p1, p2, . . . , pn le colonne di P e siano λ1, λ2, . . . , λn gli elementi sulla diago-

nale di D. Si noti che PD e AP sono le la matrici n×n le cui colonne sono rispettivamente i vettori λipi

e Api, i = 1, 2, . . . , n. Ma D = P−1AP implica PD = AP e quindi i vettori pi sono gli autovettori di A

con autovalori λi. Poiche P e invertibile allora il rango di P e massimo ovvero i vettori p1, p2, . . . , pn

sono linearmente indipendenti. Essi pertanto costituiscono una base Rn e la prima implicazione e provata.

Supponiamo ora che {p1, p2, . . . , pn} sia una base di Rn costituita da autovettori, con pi autovettore

di A con autovalore λi. Allora si vede facilmente che la matrice P le cui colonne sono proprio i vettori

p1, p2, . . . , pn e tale che P−1AP sia la matrice diagonale

D =

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...

0 0 · · · λn

.

Questo completa la dimostrazione. �

Vale inoltre anche il seguente importante risultato che comunque non dimostriamo.

Teorema 6.6. Sia A una matrice quadrata e λ un autovalore di A. Allora la molteplicita algebrica di λ

e sempre maggiore o uguale della molteplicit a geometrica dello stesso autovalore. Se vale l’uguaglianza

l’autovalore e detto regolare.

Corollario 6.7. Una matrice quadrata di ordine n A e diagonalizzabile (in R) se la somma delle

molteplicita algebriche dei suoi autovalori e n e se tutti i suoi autovalori sono sono regolari.

Proof. Scegliamo una base di ciascun autospazio. In virtu del Teorema 6.6 e della Proposizione 6.3

l’unione delle basi scelte per ogni autospazio costituisce una base di Rn. Il corollario segue pertanto dal

Teorema 6.5. �

Corollario 6.8. Ogni autovalore semplice, ovvero la cui molteplicita algebrica e pari ad 1, e regolare.

Proof. Infatti se A e una matrice quadrata e λ e un autovalore semplice di A allora, indicando con

m. a.(λ) e con m. g.(λ) rispettivamente le molteplicita algebrica e geometrica dell’autovalore λ, si ha:

1 ≤ m. g.(λ) ≤ m. a.(λ) = 1,

da cui m. g.(λ) = m. a.(λ) = 1. �

Corollario 6.9. Se una matrice quadrata di ordine n A ha n autovalori distinti allora A e diagonalizz-

abile.

42

Proof. Il risultato segue immediatamente dai due corollari precedenti. �

6.2. Caso delle matrici simmetriche.

Ricordiamo che una matrice quadrata e simmetrica se uguale alla sua trasposta, mentre e ortogonale se

la sua inversa e uguale alla sua trasposta. Per tali matrici valgono le seguenti proprieta:

Teorema 6.10. Ogni matrice simmetrica e diagonalizzabile.

Teorema 6.11. Sia A una matrice simmetrica. Se λ1 e λ2 sono distinti autovalori di A, allora autovet-

tori v1 e v2 di A relativi rispettivamente agli autovalori λ1 e λ2 sono ortogonali.

Corollario 6.12. Una matrice simmetrica e diagonalizzabile mediante una matrice ortogonale, ovvero

e ortogonalmente simile ad una matrice diagonale.

Data quindi una matrice A esiste una matrice ortogonale P tale che D = tPAP e diagonale.

Quest’ultimo enunciato si puo scrivere nella forma equivalente:

Corollario 6.13. Sia A una matrice simmetrica di ordine n. Allora esiste una base ortogonale di Rn

formata da autovettori di A.

Vale anche il viceversa del Corollario 6.12, ovvero:

Teorema 6.14. Una matrice ortogonalmente simile ad una matrice diagonale reale e simmetrica.

Proof. Sia A una matrice ortogonalmente diagonalizzabile. Siano pertanto D una matrice diagonale e P

una matrice ortogonale tale che:

D = tPAP.

Trasponendo ambo i termini dell’uguaglianza otteniamo:

D = tD = P tAtP = PAtP,

dove abbiamo utilizzato il fatto che sia A che D sono diagonali. Moltiplicando ora a sinistra per tP e a

destra per P otteniamo tA = A, cioe la tesi. �

43

7. Spazi affini e spazi Euclidei

Vogliamo ora applicare le nozioni acquisite di algebra lineare alla geometria euclidea. Introduciamo

pertanto un modello di spazio geometrico che generalizza che generalizza lo spazio reale. Approfondiremo

in seguito il caso dello spazio ordinario.

Definizione 7.1. Sia V uno spazio vettoriale reale. Uno spazio affine su V e un insieme non vuoto

S, i cui elementi si diranno punti, unitamente ad una applicazione

φ : S× S −→ V

che associa ad ogni coppia di punti (P,Q) ∈ S × S un vettore di φ((P,Q)) =−−→PQ = Q − P ∈ V , detto

vettore di punto inziale P e punto finale Q, che gode delle seguenti proprieta:

(SA1) per ogni punto P ∈ S e per ogni vettore v ∈ V esiste un unico punto Q ∈ S tale che−−→PQ = v;

(SA2) per ogni terna di punti P, Q, R ∈ S risulta

−→PR =

−−→PQ+

−−→QR.

Se (P,Q) ∈ S× S diremo anche che P e il punto di applicazione del vettore−−→PQ.

Dalla proprieta (SA1) segue che, fissato un punto O ∈ S si ottiene in modo naturale una corrispondenza

biunivoca tra S e V associando ad ogni punto P ∈ S il vettore−−→OP ∈ V . In conseguenza delle propriet‘a

(SA1) e (SA2) seguono la proposizione.

Proposizione 7.2. Sia V uno spazio vettoriale e sia S uno spazio affine su V . Allora, per ogni P, Q ∈ S

•−−→PQ = 0V se e solo se P = Q;

•−−→PQ = −

−−→QP .

Esempio 7.3. Sia V uno spazio vettoriale reale. Ponendo

−→vw := w − v

definiamo su V una struttura di spazio affine su se stesso. Denotiamo V con questa struttura di spazio

affine con Va.

4

Esempio 7.4. Un caso particolare dell’esempio precedente particolarmente interessante e quando V =

Rn per qualche n. Lo spazio affine An := (Rn)a e detto n-spazio affine reale.

4

Definizione 7.5. Sia V uno spazio vettoriale reale di dimensione n e sia S uno spazio affine su V . Un

sistema di riferimento affine e costituito da un punto O ∈ S, detto origine del sistema e da una base

B = {e1, . . . , en} di V ; esso si indica anche con Oe1 . . . en.

Sia P ∈ S. Le coordinate del vettore−−→OP rispetto alla base B sono le coordinate affini di P . Se P ha

coordinate a1, . . . , an scriveremo in breve P (a1, . . . , an). Notiamo che se P (a1, . . . , an), Q(b1, . . . , bn) ∈ S

il vettore−−→PQ ha (b1 − a1, . . . , bn − an) come n-upla di coordinate rispetto alla base B.

Definizione 7.6. Sia S uno spazio affine su uno spazio vettoriale V , con struttura fornita dall’applicazione

φ : S × S −→ V . Un sottoinsieme S′ di S e un sottospazio affine se esiste un sottospazio vettoriale

V ′ tale che la restrizione di φ a S′ × S′ induce su S′ la struttura di spazio affine su V ′. In tal caso lo

44

spazio vettoriale V ′ e detto spazio direttore o piu semplicemente direzione o ancora giacitura del

sottospazio affine S′.

Sia S uno spazio affine su uno spazio vettoriale V e sia S′ un sottospazio affine di S. Se dim(S′) = 0

allora S′ e costituito da un solo punto. Vale anche il viceversa ovvero ogni sottoinsieme di S costiutito

da un solo punto e un sottospazio affine di S 0-dimensionale. Se dim(S′) = 1 (dim(S′) = 2) allora S′ e

una retta di S (piano di S). Se dim(S′) = dim(S)− 1 allora S′ e detto iperpiano di S.

Nota 7.7. Dalla definizione di sottospazio affine notiamo che per dare un sottospazio affine S′ di un

sottospazio affine di S e sufficiente dare un suo punto P0 e la sua giacitura. Infatti i punti di S′ sono

esattamente i punti P di S tali che il vettore−−→P0P appartiene alla giacitura di S′.

Analizziamo ora la posizione reciproca tra due sottospazi affini di uno spazio affine S.

Definizione 7.8. Sia S uno spazio affine su uno spazio vettoriale V e siano S′, S′′ sottospazi affini di S.

• S′, S′′ sono incidenti se S′ ∩ S′′ 6= ∅.• S′, S′′ sono paralleli se gli spazi direttori sono uno contenuto nell’altro.

• S′, S′′ sono sghembi se non sono ne incidenti ne paralleli.

Studiamo ora i due principali modi di rappresentare algebricamente un sottospazio affine.

Sia S uno spazio affine su uno spazio vettoriale V e sia Oe1 . . . en un sistema di riferimento affine su S.

Sia S′ un sottospazio affine m-dimensionale di S con giacitura V ′ e sia P0 un punto arbitrario di S′. Lo

spazio S′ e il luogo dei punti P di S tali che

(11)−−→P0P ∈ V ′.

Fissiamo una base B′ = {e′1, . . . , e′m}. Da (11) si ottiene che per ogni P ∈ S′ esistono (e sono unicamente

determinati) scalari t1, . . . , tm tali che

−−→OP =

−−→OP0 + t1e

′1 + · · ·+ tme′m.

Esplicitando le singole coordinate otteniamo una rappresentazione parametrica del sottospazio affine.

Da tali equazioni, “eliminando” i parametri osserviamo che un punto P ∈ S e in S′ se e solo se le sue

coordinate soddisfano un sistema lineare di n−m equazioni in n incognite. Viceversa si vede facilmente

che lo spazio delle soluzioni di un sistema lineare costituisce un sottospazio affine di un dato (Rn)a. Questa

rappresentazione e nota come rappresentazione cartesiana. In particolare notiamo che un iperpiano di

(Rn)a e dato come soluzione di un’unica equazione lineare in n incognite x1, . . . , xn. In questa ottica

possiamo vedere un sottospazio affine come intersezione di piu iperpiani affini.

Quando lo spazio V e dotato di prodotto interno (·, ·) : V × V −→ R (come nel caso di Rn) lo spazio ad

esso associato Va e detto spazio euclideo. Attraverso il prodotto scalare si definisce quindi una metrica

in Va. Dati due punti P (a1, . . . , an) e Q(b1, . . . , bn) la distanza tra P e Q e data da:

d(P,Q) = (−−→PQ,

−−→PQ).

Inoltre attraverso il prodotto scalare e possibile definire l’ortogonalita tra due vettori (vettori geometrici)

e l’angolo tra due vettori.

45

7.1. Geometria nel piano affine.

Studiamo ora piu in dettaglio il piano euclideo A2 = (R2)a. Fissiamo quindi un punto O in R2 e sia

{e1, e2} la base canonica. Un generico vettore v =−−→OP si scrivera:

v =−−→OP = xe1 + ye2,

dove x, y sono le componenti del vettore−−→OP e simultaneamente le coordinate affini del punto P .

Il punto O e l’origine del sistema di riferimento, le rette per O di giaciture 〈e1〉 e 〈e2〉 sono gli assi

coordinati (dette altresı ascissa ed ordinata o piu semplicemente asse x e asse y).

Se P (x1, y1) e Q(x2, y2) sono punti nel piano affine, il vettore−−→PQ avra componenti

(x2 − x1, y2 − y1).

Consideriamo ora una retta nel piano. Per rappresentarlo possiamo utilizzare come usuale la rappresen-

tazione parametrica e la rappresentazione cartesiana.

Sia r una retta nel piano affine, sia v = (l,m) un vettore preso come base dello spazio direttore di r

(detto anche vettore direttore o vettore di direzione) e sia P0(x0, y0) un punto di r. Un generico punto

P (x, y) si puo scrivere in forma vettoriale:

r :−−→OP =

−−→OP0 + tv t ∈ R.

Esplicitando le coordinate si ottiene:

(12) r :

x = x0 + lt

t ∈ R.y = y0 +mt

Queste sono le equazioni parametriche della retta r passante per il punto P e avente vettore di

direzione v = (l,m). Al variare di t in R esse forniscono le coordinate di tutti i punti della retta.

Esempio 7.9. Consideriamo il problema di determinare l’equazione in forma parametrica della retta

r passante per due punti distinti P (x1, y1) e Q(x2, y2). Poiche i due punti appartengono alla retta il

vettore−−→PQ appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore

e diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il

vettore−−→PQ si trova facendo la differenza delle coordinate dei due punti, cioe

−−→PQ = Q− P = (x2 − x1, y2 − y1).

L’equazione in forma parametrica di r e quindi data da:

r :

x = x1 + (x2 − x1)t

t ∈ R.y = y1 + (y2 − y1)t

Per esempio se P (1, 2) e Q(−1, 4) allora la retta r per P e Q ha vettore direttore dato da v =−−→PQ =

Q− P = (−2, 2) e quindi la retta r ha equazione parametrica:

r :

x = 1− 2t

t ∈ R.y = 2 + 2t

4

46

Dalle equazioni (12), “eliminando” il parametro t si ottiene l’equazione lineare:

(13) m(x− x0) = l(y − y0).

Ponendo a := m, b := −l e c = −mx0 + ly0 l’equazione assume la forma nota:

r : ax+ by + c = 0,

dove a, b non sono entrambi nulli.

Essa viene detta equazione cartesiana (o affine) della retta r. Viceversa data un’equazione lineare del

tipo ax+ by+ c = 0, nella quale a e b non sono entrambi nulli, e facile verificare che le sue soluzioni sono

date da: x = x0 − bt

t ∈ R,y = y0 + at

dove (x0, y0) corrisponde ad una soluzione particolare dell’equazione. Possiamo quindi interpretare

l’equazione lineare ax + by + c = 0 come l’equazione in forma cartesiana della retta passante per un

punto le cui coordinate (x0, y0) sono una particolare soluzione dell’equazione ed avente come vettore di

direzione il vettore v = (−b, a).

Sussiste quindi una corrispondenza tra equazioni lineari in due variabili e rette nel piano affine (R2)a.

Vale cioe la:

Proposizione 7.10. In coordinate affini x e y una retta e rappresentata in forma cartesiana da un’equazione

lineare in x e y; viceversa un’equazione lineare rappresenta una retta.

Si noti che tale corrispondenza non e biunivoca. Infatti mentre un’equazione lineare individua una ben

determinata retta, ad una retta del piano possiamo associare piu equazioni lineari. Esse comunque devono

essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle soluzioni coincide con l’insieme

dei punti della retta).

Sia r : ax+ by + c = 0 l’equazione di una retta. Se b 6= 0 l’equazione di r puo scriversi nella forma:

y = mx+ q,

dove m = −ab e il coefficiente angolare della retta r. Tale nome e dovuto al fatto che essa fornisce

informazioni sulla misura dell’angolo α che la retta forma con il semiasse positivo delle ascisse. In

particolare vale m = tg(α).

Due rette r e s sono parallele se e solo se esse hanno lo stesso spazio direttore, e qundi se e solo se i loro

vettori di direzione sono tra loro proporzionali. Se le rette sono date attraverso le equazioni cartesiane

r : ax + by + c = 0 e s : a′x + b′y + c′ = 0 allora r ed s sono parallele se le coppie (a, b) e (a′, b′) sono

in proporzione ovvero se e solo se esiste k ∈ R \ {0} tale che a′ = ka e b′ = kb. Essendo il coefficiente

angolare di una retta dato dal rapporto tra i coefficienti di x e y (cambiato di segno) si osserva facilmente

che due rette parallele hanno lo stesso coefficiente angolare.

Esempio 7.11. Determiniamo le rette passanti per un punto P (0,−1) e parallele rispettivamente alle

rette di equazioni:

r :

x = 3 + t

t ∈ Ry = −7 + 5t

e

s : 2x− 3y + 1 = 0.

47

Il vettore di direzione della retta r e v = (1, 5). La retta r′ passante per P e parallela a r ha equazione

in forma parametrica data da

r′ :

x = t

t ∈ R.y = −1 + 5t

Un’equazione della retta r′ in forma cartesiana si ottiene facilmente sostituendo a t il monomio x nella

seconda equazione. Essa e pertanto:

r′ : 5x− y − 1 = 0.

La retta s′ passante per P e parallela a s ha equazione del tipo:

s′ : 2x− 3y + c′ = 0.

Imponendo che le coordinate di P siano soluzioni dell’equazione (tale condizione e nota come condizione

di passaggio di s′ per P o condizione di appartenenza di P ad s′) si ottiene c′ = 2. Quindi s′ ha equazione:

s′ : 2x− 3y + 2 = 0.

Possiamo scrivere immediatamente l’equazione in forma parametrica per s′ osservando che un vettore di

direzione di s e dato da v = (l,m) = (−b, a) = (3, 2). L’equazione di s′ in forma parametrica e quindi

data da:

s′ :

x = 3t

t ∈ R.y = −1 + 2t

4

Date due rette distinte nel piano r e r′ queste o sono incidenti, cioe si intersecano in un punto, o sono

parallele. Utilizzando il prodotto interno in R2 possiamo avere informazioni sull’angolo compreso tra le

due rette. Esso coincide con l’angolo che i due vettori di direzione formano tra loro se applicati in un

medesimo punto. Se i due vettori direttori sono rispettivamente (l,m) e (l′,m′) allora il coseno dell’angolo

compreso tra le due rette e dato da:

cos(rr′) = ± (l,m) · (l′,m′)‖(l,m)‖‖(l′,m′)‖

.

Se conosciamo l’equazione cartesiana delle due rette:

r : ax+ by + c = 0, r′ : a′x+ b′y + c′ = 0,

allora i due vettori direttori saranno rispettivamente (−b, a) e (−b′, a′). Il coseno dell’angolo tra loro

compreso e dato da:

cos(rr′) = ± (−b, a) · (−b′, a′)‖(−b, a)‖‖(−b′, a′)‖

= ± aa′ + bb′√a2 + b2

√a′2 + b′2

.

Due rette sono perpendicolari quando l’angolo tra loro compreso, misurato in senso orario o antiorario

misura 90◦

o meglio π2 radianti, ovvero quando cos(rr′) = 0. Quindi r e perpendicolare a r′ se i vettori

direttori sono ortogonali o equivalentemente, se r : ax + by + c = 0 e r′ : a′x + b′y + c′ = 0 sono le

equazioni affini delle due rette, la quantita aa′ + bb′ = 0. Se i coefficienti angolari m = −ab e m′ = −a′

b′

di entrambe le rette sono diversi da zero allora r e perpendicolare a r′ se e solo se:

m = − 1

m′,

o equivalentemente se un vettore direttore di r′ e dato da:

(l′,m′) = (a, b).

48

Esempio 7.12. Determiniamo le rette passanti per un punto P (2,−3) e perpendicolari rispettivamente

alle rette di equazioni:

r :

x = 1 + 2t

t ∈ Ry = −1 + t

e

s : x− 2y + 3 = 0.

L’equazione della retta r′ avra coefficienti a e b tali che il vettore direzione v = (2, 1) di r sia perpendi-

colare l vettore direttore di r′, v′ = (−b, a). Pertanto possiamo prendere a = 2 e b = 1. La retta r′ avra

equazione:

2x+ y + c = 0.

Imponendo la condizione di passaggio di r′ per P , si ottiene c = −1. L’equazione affine di r′ e quindi

data da:

2x+ y +−1 = 0.

L’equazione parametrica di r′ sara pertanto:

r′ :

x = 2− t

t ∈ R,y = −3 + 2t

avendo preso come vettore direttore il vettore (−b, a) = (−1, 2).

Il vettore direttore di s′ e invece il vettore (1,−2). Quindi un’equazione in forma parametrica di s′ e

data da:

s′ :

x = 2 + t

t ∈ R,y = −3− 2t

4

Dati due punti P (x1, y1) e Q(x2, y2) nel piano, la distanza tra i due punti coincide con il modulo del

vettore−−→PQ di punto iniziale P e punto finale Q. Essa vale quindi:

d(P ;Q) = ‖(x2 − x1, y2 − y1)‖ =√

(x2 − x1)2 + (y2 − y1)2.

Vogliamo ora calcolare la distanza di un punto da una retta. In generale la distanza tra due insiemi di

punti (entrambi contenuti in uno stesso spazio metrico) e il valore minimo delle distanze tra due punti

appartenenti rispettivamente ai due insiemi. Nel caso considerato ovvero della distanza di un punto

P (x0, y0) da una retta r di equazione ax+ by + c = 0 il valore minimo e ottenuto in corrispondenza del

punto di intersezione H di r con la perpendicolare condotta da P a r stessa.

Potremo trovare la retta s perpendicolare a r passante per P , trovare il punto H di intersezione di s e

r e quindi la distanza tra i due punti P e H. Questo procedimento e troppo lungo. Abbiamo strumenti

matematici adeguati per trovare la distanza cercata in modo piu rapido. Prendiamo un punto Q(x1, y1)

appartenente alla retta r e consideriamo il vettore−−→QP = P −Q. Abbiamo visto precedentemente che un

vettore perpendicolare al piano e il vettore n = (a, b). La distanza punto retta e proprio la norma del

vettore proiezione di−−→QP lungo la direzione individuata da n.

Essa pertanto vale:

(14) d(P ; r) =

∥∥∥∥∥−−→QP · n‖n‖2

n

∥∥∥∥∥ =

∣∣∣∣ (x0 − x1, y0 − y1) · (a, b)√a2 + b2

∣∣∣∣ =|ax0 + by0 − ax1 − by1|√

a2 + b2=|ax0 + by0 + c|√

a2 + b2,

49

essendo Q(x1, y1) un punto della retta r.

Torniamo per un attimo al semplice problema di determinare la retta per due punti P (x1, y1) e Q(x2, y2).

Ogni equazione lineare che ammette come soluzioni le coppie di numeri reali (x1, y1) e (x2, y2) e un’equazione

affine della retta per P e Q. E pertanto possibile scrivere l’equazione della retta r per P e Q in forma di

determinante, ovvero:

r : det

x y 1

x1 y1 1

x2 y2 1

= 0.

Infatti l’espressione a primo membro e proprio un’espressione lineare in x e y tale che, sostituendo alle

variabili (x1, y1) o (x2, y2) otteniamo il determinante di una matrice avente due righe uguali, cioe 0.

Determiniamo ora l’area di un triangolo in R2 di estremi P1(x1, y1), P2(x2, y2) e P3(x3, y3). Essa sara

uguale al semiprodotto della lunghezza di un lato per l’altezza ad esso relativa. Sia pertanto b =

d(P2;P3) =√

(x3 − x2)2 + (y3 − y2)2. La retta r per P2 e P3 ha equazione in forma di determinante

data da:

r : det

x y 1

x2 y2 1

x3 y3 1

= 0.

Notiamo che in tal caso il coefficiente di x e dato da (y2−y3) mentre il coefficiente di y e dato da (x2−x3).

L’altezza relativa al lato P2P3 corrisponde alla distanza di P1 dalla retta passante per P2 e P3. Usando

la formula (14), si ottiene:

h = d(P1; r) =1√

(y3 − y2)2 + (x3 − x2)2det

x1 y1 1

x2 y2 1

x3 y3 1

.

Segue quindi che l’area A del triangolo di estremi P1(x1, y1), P2(x2, y2) e P3(x3, y3) e data da:

A =1

2b h =

1

2det

x1 y1 1

x2 y2 1

x3 y3 1

.

7.2. Geometria nello spazio affine di dimensione 3.

In questa sezione studiamo lo spazio affine A3 = (R3)a. I suoi sottospazi affini, oltre a se stesso ed i

suoi punti, sono i piani e le rette. Fissiamo in (R3)a un sistema di riferimento affine Oe1e2e3 dove

{e1, e2, e3} e una base ortonormale di R3. Se P e un punto di (R3)a allora il vettore v =−−→OP si scrivera:

v =−−→OP = xe1 + ye2 + ze3,

dove x, y, z sono le componenti del vettore−−→OP e simultaneamente le coordinate affini del punto P .

Il punto O e l’origine del sistema di riferimento mentre gli assi coordinati coincidono con le direzioni dei

tre vettori e1, e2, e3 e sono detti rispettivamente asse x, asse y e asse z.

Il vettore−−→PQ individuato dai punti P (x1, y1, z1) e Q(x2, y2, z2) avra componenti

(x2 − x1, y2 − y1, z2 − z1).

50

Un piano π in A3 passante per un punto P0(x0, y0, z0) ha equazione vettoriale

π :−−→OP =

−−→OP0 + tv + t′v′ t, t′ ∈ R.

che si scrive anche in forma scalare come

(15) π :

x = x0 + lt+ l′t′

y = y0 +mt+m′t′ t, t′ ∈ R,z = z0 + nt+ n′t′

dove i due vettori v = (l,m, n) e v′ = (l′,m′, n′) costiutiscono una base della giacitura V ∈ R3 del piano

considerato. I punti P del piano si ottengono dall’equazione (15) al variare dei parametri t, t′ in R.

I piani individuati dall’origine O(0, 0, 0) e da due vettori presi in {e1, e2, e3} vengono chiamati piani

coordinati. Essi sono il piano xy, il piano yz ed il piano xz.

Esempio 7.13. Consideriamo il problema di determinare l’equazione in forma parametrica del piano π

passante per tre punti non allineati P1(x1, y1), P2(x2, y2) e P3(x3, y3). Poiche i tre punti appartengono

al piano ma non ad una stessa retta i vettori−−−→P1P2 e

−−−→P1P3 (piu in generale due vettori congiungenti

coppie distinte di punti presi tra P1, P2 e P3) costituiscono una base dello spazio direttore del piano π.

Pertanto, posto:

v :=−−−→P1P2 = P2 − P1 = (x2 − x1, y2 − y1)

e

v′ :=−−−→P1P3 = P3 − P1 = (x3 − x1, y3 − y1)

L’equazione in forma parametrica di π e quindi data da:

π :

x = x0 + (x2 − x1)t+ (x3 − x1)t′

y = y0 + (y2 − y1)t+ (y3 − y1)t′ t, t′ ∈ R.z = z0 + (z2 − z1)t+ (z3 − z1)t′

Per esempio se P1(−1, 0, 2), P2(3, 1, 0) e P3(1,−1, 4) allora il piano π per P1, P2 e P3 ha direzione

individuata dai vettori v =−−−→P1P2 = P2 − P1 = (4, 1,−2) e v′ =

−−−→P1P3 = P3 − P1 = (2,−1, 2). Il piano π

ha equazione parametrica:

π :

x = x0 + 4t+ 2t′

y = y0 + t− t′ t, t′ ∈ R.z = z0 − 2t+ 2t′

4

Scriviamo ora l’equazione, in forma affine, del piano π passante per un punto P (x0, y0, z0) avente giacitura

V = 〈v, v′〉 dove v = (l,m, n) e v′ = (l′,m′, n′). Sia P (x, y, z) un punto del piano π. I vettori−−→P0P = (x − x0, y − y0, z − z0), v e v′ appartengono tutti alla giacitura di π, che ha dimensione 2.

Pertanto essi sono linearmente dipendenti. Consideriamo la matrice:

A =

x− x0 y − y0 z − z0l m n

l′ m′ n′

.

I tre vettori riga di A corrispondono ai vettori−−→P0P , v e v′ e quindi A ha rango 2. Il determinante di A

deve pertanto essere uguale a 0. Otteniamo, sviluppando il determinante mediante il metodo do Laplace

rispetto alla prima riga:

(16) 0 = det(A) = (x− x0)(mn′ −m′n) + (y − y0)(−ln′ + l′n) + (z − z0)(lm′ − l′m).

Posto a := (mn′ −m′n), b := (−ln′ + l′n), c := (lm′ − l′m) e d := −x0(mn′ −m′n) − y0(−ln′ + l′n) −z0(lm′ − l′m) l’equazione 16 e della forma:

(17) ax+ by + cz + d = 0.

51

Viceversa data un’equazione del tipo (17), scritto il suo spazio delle soluzioni utilizzando i parametri,

otteniamo un’espressione del tipo (15).

Essa corrisponde quindi ad un piano affine in A3.

Come per il caso 2-dimensionale, sussiste quindi una corrispondenza tra equazioni lineari in tre variabili

e piani affini in A3. Vale cioe la:

Proposizione 7.14. In coordinate affini x, y e z, un piano in A3 e rappresentato in forma cartesiana

da un’equazione lineare in x, y e z; viceversa un’equazione lineare nelle stesse coordinate rappresenta un

determinato piano in A3.

Si noti che anche in questo caso tale corrispondenza non e biunivoca. Infatti mentre un’equazione lineare

individua un piano, ad un piano nello spazio affine 3-dimensionale possiamo associare piu equazioni

lineari. Esse comunque devono essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle

soluzioni coincide con l’insieme dei punti del piano).

Notiamo inoltre che dato un piano attraverso la sua equazione affine ne possiamo trovare una rappre-

sentazione paraetrica “risolvendo” l’equazione ovvero scrivendone lo spazio dele soluzione attraverso due

parametri. Viceversa data la rappresentazione parametrica di un piano, “eliminando” i parametri dal

sistema o attraverso una doppia sostituzione o un procedimento di Gauss otteniamo una rappresetazione

Cartesiana dello stesso piano.

Esempio 7.15. Sia ad esempio π : 3x+ 4z−3 = 0. Risolviamo l’equazione. Poniamo pertanto y uguale

ad un parametro t e z uguale alla quantita 3t′. Otteniamo pertanto, al variare di t e t′ in R lo spazio

delle soluzioni dell’equazione. L’equazione in forma parametrica di π e quindi data da

π :

x = −4t′ + 1

y = t t, t′ ∈ R.z = t′

Viceversa, dato il piano α attraverso un’equazione in forma parametrica, ad esempio

α :

x = 2t− t′ + 1

y = 2t′ − 5 t, t′ ∈ R.z = −3t+ 2t′ − 2

per determinarne un’equazione in forma cartesiana, ne riscriviamo l’equazione parametrica nella forma

α :

2t− t′ − x = −1

2t′ − y = 5

−3t+ 2t′ − z = 2

Abbiamo in un certo senso ‘promosso’ i parametri a variabili. La matrice completa associata al sistema

e la seguente 2 −1 −1 0 0 −1

0 2 0 −1 0 5

−3 2 0 0 −1 2

.

Attraverso l’algoritmo di Gauss e possibile ridurre tale matrice nella forma a scala: 2 −1 −1 0 0 −1

0 1 −3 0 −2 1

0 0 6 −1 4 3

.

L’equazione 6x− 3y + 4 = 3 e l’equazione del piano in forma affine.

4

52

Esempio 7.16. Consideriamo il problema di determinare l’equazione in forma Cartesiana (affine) del

piano π passante per tre punti non allineati P1(x1, y1), P2(x2, y2) e P3(x3, y3). Dall’esempio precedente

sappiamo che i vettori v :=−−−→P1P2 e v′ :=

−−−→P1P3 costituiscono una base della giacitura di π. L’equazione

in forma cartesiana del piano π si trova ponendo uguale a zero il determinante della matrice:

(18)

x− x1 y − y1 z − z1x2 − x1 y2 − y1 z2 − z1x3 − x1 y3 − y1 z3 − z1

,

dove x, y e z sono le coordinate di un generico punto del piano π.

Per esempio se P1(−1, 0, 2), P2(3, 1, 0) e P3(1,−1, 4), come nel precedente esempio, allora l’equazione

cartesiana del piano π per P1, P2 e P3 ha equazione:

π : det

x+ 1 y z − 2

4 1 −2

2 −1 2

= 0,

ovvero

π : 0(x+ 1)− 12y − 6(z − 2) = 0,

che si puo scrivere nella forma

π : 2y + z − 2 = 0.

4

Esempio 7.17. Consideriamo ancora la matrice (18) il cui determinante posto uguale a zero e l’equazione

in forma Cartesiana (affine) del piano π passante per tre punti non allineati P1(x1, y1), P2(x2, y2) e

P3(x3, y3). Da semplici calcoli si ottiene che questo determinante e uguale a 0 se e solo se e nullo il

determinante della matrice:

(19)

x y z

x1 y1 z1

x2 y2 z2

x3 y3 z3

.

Segue il seguente risultato:

Quattro punti P0(x0, y0), P1(x1, y1), P2(x2, y2) e P3(x3, y3) sono complanari (ovvero appartengono ad

uno stesso piano) se e solo se il determinante della matricex0 y0 z0

x1 y1 z1

x2 y2 z2

x3 y3 z3

e nullo.

4

Esempio 7.18. Osserviamo ora che l’equazione cartesiana di un piano puo assumere delle forme parti-

colari in relazione alla sua posizione rispetto al sistema di riferimento scelto.

Se ad esempio i piani passanti per l’origine O sono tutti e soli i piani di equazione:

ax+ by + cz = 0,

con a, b e c non tutti nulli.

I piani paralleli ad un asse coordinato sono caratterizzati dal fatto di avere equazione in forma affine

ax+ by + cz + d = 0,

53

dove a = 0 o b = 0 o c = 0, ma non vale a = b = c = 0. In particolare se a = 0 allora il piano e parallelo

all’asse x, se b = 0 e parallelo all’asse y, mentre se c = 0 allora il piano e parallelo all’asse z. In tal caso

rispettivamente i vettori e1, e2 o e3 appartengono alla giacitura del piano.

Se nell’equazione affine del piano “mancano” due variabili anziche una allora il piano e parallelo ad

uno dei piani coordinati. Tali piani hanno pertanto equazione in forma affine del tipo x = costante,

y = costante o z = costante a seconda che il piano sia parallelo rispettivamente al piano yz, xz o xy.

4

Studiamo ora la posizione reciproca tra due piani π : ax+ by + cz + d = 0, π′ : a′x+ b′y + c′z + d′ = 0

nello spazio affine A3. In particolare noi siamo interessati alle possibili intersezioni tra i due piani. A

tale scopo esaminiamo il sistema formato dalle equazioni cartesiane dei due piani:

(20)

{ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

La matrice dei coefficienti A ed il vettore termine noto b sono quindi:

A =

(a b c

a′ b′ c′

)b =

(−d−d′

).

Poiche i coefficienti a, b e c non sono tutti nulli (cosı come i coefficienti a′, b′ e c′) il rango della matrice A

e quello della matrice completa AC possono essere uguali a 1 o a 2. Se entrambi sono uguali ad 1, allora

il sistema e compatibile e indeterminato. Necessitiamo in tal caso di due parametri per rappresentarne

lo spazio delle soluzioni. Lo spazio delle soluzioni ha pertanto dimensione (affine) pari a due e quindi

coincidera con entrambi i piani π e π′. I due piani sono quindi coincidenti.

Se rg(A) = 1 e rg(AC) = 2, allora il sistema e incompatibile. In tal caso i due piani hanno la medesima

giacitura e sono paralleli ma non coincidenti. Notiamo che anche quando i due piani sono coincidenti

essi hanno (ovviamente) la medesima giacitura.

Se invece rg(A) = rg(AC) = 2, allora il sistema e compatibile e indeterminato con spazio delle soluzioni

avente dimensione affine pari ad 1. Esso coincide pertanto con una retta nello spazio A3. Notiamo

quindi che a differenza di quello che avviene nel piano affine, per rappresentare una retta occorrono due

equazioni lineari nelle coordinate affini x, y e z. L’equazione (o meglio il sistema di equazioni) (20) dove

il determinante della matrice dei coefficienti A e uguale a due e l’equazione affine di una retta nello

spazio. Notiamo ancora che tale rappresentazione non e univocamente determinata dalla retta stessa.

Ogni sistema lineare di due equazioni nelle coordinate x, y e z equivalente a (20) rappresenta la stessa

retta.

Torniamo al caso di rette tra loro parallele. In tal caso la matrice dei coefficienti A ha rango 1. In tal

caso, moltiplicando al piu per una costante non nulla una delle due equazioni (questo non ne modifica

ovviamente lo spazio delle soluzioni), se due piani sono paralleli i primi membri delle loro equazioni si

possono far differire al piu per il termine noto.

Esempio 7.19. In virtu di quanto osservato, i piani paralleli al piano π di equazione ax+by+cz+d = 0

sono tutti i piani del tipo:

(21) ax+ by + cz + d′ = 0,

al variare di d′ in R. Se ad esempio vogliamo determinare l’equazione del piano π′ parallelo al piano π

e passante per il punto P0(x0, y0, z0) si procede nel seguente modo. L’equazione di π′ e del tipo (21)

dove d′ e un opportuno valore reale. Per trovare il valore di d′ imponiamo che le coordinate di P0 sono

soluzioni di (21). Sostituendo x0, y0 e z0 alle coordinate affini nell’equazione di π′ si ottiene un’equazione

di primo grado in d′ che risolta ci fornisce il termine noto dell’equazione stessa.

54

Possiamo evitare qualche calcolo osservando che l’equazione:

a(x− x0) + b(y − y0) + c(z − z0) = 0

rappresenta proprio il piano affine parallelo a π e passante per P0.

Ad esempio il piano π′ parallelo al piano π : 2x− 3y+ 2z+ 1 = 0 e passante per il punto P0(1, 0,−2) ha

equazione:

π′ : 2(x− 1)− 3(y − 0) + 2(z + 2) = 0,

da cui, eseguendo i calcoli:

π′ : 2x− 3y + 2z + 2 = 0.

Sappiamo che due piani nello spazio sono paralleli se e solo se hanno la stessa giacitura. Pertanto se

l’equazione di un piano π e data in forma parametrica da:

π :

x = x0 + lt+ l′t′

y = y0 +mt+m′t′ t, t′ ∈ R,z = z0 + nt+ n′t′

il piano parallelo a π passante per un dato punto P (x1, y1, z1) ha equazione:

π :

x = x1 + lt+ l′t′

y = y1 +mt+m′t′ t, t′ ∈ R,z = z1 + nt+ n′t′

4

Abbiamo visto che una retta ha equazione data n forma cartesiana-affine da equazioni del tipo{ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

dove la matrice dei coefficienti del sistema ha rango 2. Scriviamone la generica forma parametrica di una

sua equazione. Ricordiamo che una retta e un sottospazio affine di dimensione 1. Consideriamo la retta

in A3 la cui giacitura e generata dal vettore v = (l,m, n) e sia P0(x0, y0, z0) un suo punto. L’equazione

di r in forma vettoriale e

r :−−→OP =

−−→OP0 + tv t ∈ R.

Esplicitando le coordinate si ottiene:

(22) r :

x = x0 + lt

y = y0 +mt t ∈ R.z = z0 + nt

Esempio 7.20. Consideriamo il problema di determinare l’equazione in forma parametrica della retta

r passante per due punti distinti P (x1, y1, z1) e Q(x2, y2, z2). Poiche i due punti appartengono alla retta

il vettore−−→PQ appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore

e diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il

vettore−−→PQ si trova facendo la differenza delle coordinate dei due punti, cioe

−−→PQ = Q− P = (x2 − x1, y2 − y1, z2 − z1).

L’equazione in forma parametrica di r e quindi data da:

r :

x = x1 + (x2 − x1)t

y = y1 + (y2 − y1)t t ∈ R.z = z1 + (z2 − z1)t

55

Per esempio se P (0,−1,−2) e Q(−1, 2, 3) allora la retta r per P e Q ha vettore direttore dato da

v =−−→PQ = Q− P = (−1, 3, 5) e quindi la retta r ha equazione parametrica:

r :

x = −ty = −1 + 3t t ∈ R.z = −2 + 5t

Siano ancora P (x1, y1, z1) e Q(x2, y2, z2) due punti distinti generici dello spazio. Notiamo che le tre

equazioni lineari:

(y2 − y1)(x− x1) = (x2 − x1)(y − y1), (z2 − z1)(x− x1) = (x2 − x1)(z − z1),

(z2 − z1)(y − y1) = (y2 − y1)(z − z1)

rappresentano altrettanti piani per P (x1, y1, z1) e Q(x2, y2, z2). Tali equazioni sono inoltre indipendenti

ed i piani corrispondenti hanno in comune la retta per P e Q. Pertanto il sistema lineare avente come

equazione due qualsiasi di queste tre equazioni e l’equazione della retta r per P e Q in forma affine.

Ad esempio la retta r per P (−1, 1, 2) e Q(−1,−2, 0) ha equazione in forma affine:

r :

{−3(x+ 1) = 0(y − 1)

−2(y − 1) = −3(z − 2)

cioe

r :

{x = −1

2y − 3z + 4 = 0

4

Due rette sono parallele quando queste hanno la medesima giacitura. Se pertanto un vettore direttore di

una retta r e il vettore v ed un vettore direttore di una retta s e il vettore w allora r e s sono paralleli

se e solo se v e w sono tra loro proporzionali.

Esempio 7.21. Sia r la retta di equazione

r :

x = 2t− 1

y = −t+ 2 t ∈ R.z = −2

Vogliamo determinare l’equazione della retta r′ parallela a r passante per il punto P (0, 2, 4). Il vettore di

direzione della retta r e il vettore v = (2,−1, 0). Esso puo essere preso come vettore di direzione anche

della retta r′, che pertanto ha equazione, in forma parametrica, data da

r′ :

x = 2t

y = −t+ 2 t ∈ R.z = 4

Supponiamo ora data la retta s data attraverso l’equazione in forma affine

s :

{2x+ y − z = 0

4x− 5z − 3 = 0

ed il punto P (−2, 1, 1). Siano α : 2x+ y − z = 0 e β : 4x− 5z − 3 = 0 i piani le cui equazioni formano

l’equazione di s. La retta s′ e contenuta nei piani α′ e β′ paralleli rispettivamente ad α e β e passanti

per P . Essa pertanto ha equazione:

s′ :

{2(x+ 2) + (y − 1)− (z − 1) = 0

4(x+ 2)− 5(z − 1) = 0

56

Svolgendo i calcoli si ottiene finalmente

s′ :

{2x+ y − z + 4 = 0

4x− 5z + 13 = 0

4

Studiamo ora piu in dettaglio la posizione reciproca tra due rette. Due rette r e s dello spazio possono

essere 1) Parallele; 2) Incidenti; 3) Sghembe. Esse sono parallele se hanno la medesima direzione, incidenti

se si intersecano in un punto e sghembe se esse non sono ne parallele ne incidenti. Se esse sono parallele

o incidenti esse sono complanari, ovvero esiste un piano che le contiene entrambe.

Per studiare in dettaglio la posizione reciproca tra le due rette occorre studiare l’intersezione delle stesse.

A tal proposito siano r e s di equazioni rispettive:

r :

{ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0s :

{a′′x+ b′′y + c′′z + d′′ = 0

a′′′x+ b′′′y + c′′′z + d′′′ = 0

Studiamo quindi le soluzioni del sistema:ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0

a′′′x+ b′′′y + c′′′z + d′′′ = 0

Siano A la matrice dei coefficienti, b il vettore termine noto e AC la matrice completa associati al sistema.

Si ha:

A =

a b c

a′ b′ c′

a′′ b′′ c′′

a′′′ b′′′ c′′′

b =

−d−d′

−d′′

−d′′′

.

e pertanto

AC =

a b c −da′ b′ c′ −d′

a′′ b′′ c′′ −d′′

a′′′ b′′′ c′′′ −d′′′

.

Il rango della matrice A e uguale a 2 o a 3, mentre il rango della matrice orlata AC e pari al rango di A

o a rg(A) + 1. Seguono quindi quattro possibilia:

1 - rg(A) = rg(AC) = 2 In tal caso, per il teorema di Rouche-Capelli, il sistema e compatibile con

“∞1” soluzioni. In tal caso le due rette sono coincidenti.

2 - rg(A) = 2, rg(AC) = 3 Il sistema e incompatibile. Le due rette hanno comunque la medesima

direzione, quindi sono parallele.

3 - rg(A) = rg(AC) = 3 Sistema compatibile e determinato, corrispondente al caso di rette incidenti.

4 - rg(A) = 3, rg(AC) = 4 Il sistema in questo caso e incompatibile e le due rette non sono parallele.

Esse sono sghembe.

Deduciamo che le due rette sono complanari se e solo se il rango della matrice completa AC e non

massimale, ovvero se e solo se il suo determinante e uguale a 0.

Studiamo ora la posizione reciproca tra una retta ed un piano in A3, focalizzando la nostra attenzione

alla condizione di parallelismo. Vogliamo studiare l’intersezione del piano π con la retta r, dati attraverso

57

le equazioni in forma affine:

π : ax+ by + cz + d = 0 r :

{a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0

Ci riconduciamo pertanto a studiare le soluzioni del sistema:ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

a′′x+ b′′y + c′′z + d′′ = 0

Come prima siano rispettivamente A e AC la matrice dei coefficienti e la matrice completa associata al

sistema. Si possono presentare i seguenti casi.

1 - rg(A) = rg(AC) = 2 In tal caso il sistema e compatibile e indeterminato. La retta r e contenuta

nel piano.

2 - rg(A) = 2, rg(AC) = 3 Il sistema e incompatibile. In tal caso diremo che la retta r e parallela al

piano e viceversa.

3 - rg(A) = rg(AC) = 3 Sistema compatibile e determinato, corrispondente al caso di retta e piano tra

loro incidenti.

Sia ora v = (l,m, n) il vettore direttore della retta e sia P (x1, y1, z1) un punto del piano π. In virtu della

definizione di spazio affine (proprieta (SA1)), esiste (ed e unico) un punto Q in π tale che v =−−→PQ =

(x2 − x1, y2 − y1, z2 − z1). Segue:

(23) al + bm+ cn = a(x2 − x1) + b(y2 − y1) + c(z2 − z1) = ax2 + by2 + cz2 − (ax1 + by1 + cz1) = 0.

Questa relazione esprime il parallelismo tra la retta r ed il piano π. Utilizzando la notazione del prodotto

scalare, ponendo n = (a, b, c), la retta r avente vettore direttore v e parallela al piano π : ax+by+cz+d =

0 se e solo se n · v = 0, ovvero i due vettori n e v sono ortogonali tra loro.

Notiamo che ogni vettore v = (l,m, n) appartenente alla giacitura del piano π : ax+ by + cz + d = 0 e

tale che n · v = 0, dove n = (a, b, c). Il vettore n e quindi perpendicolare al piano π. La sua direzione

e la direzione ortogonale al piano. Segue che una retta r e perpendicolare al piano π se e solo se il suo

vettore direzione e parallelo a (quindi multiplo di) n. Il vettore n e anche detto la normale al piano π.

Esempio 7.22. Consideriamo ora il problema di determinare il piano π perpendicolare ad una data

retta r e passante per un dato punto P . Supponiamo r data attraverso una sua equazione in forma

parametrica:

r :

x = x0 + lt

y = y0 +mt t ∈ R.z = z0 + nt

e sia P il punto di coordinate (x1, y1, z1). Affinche r sia perpendicolare a π il vettore normale al piano n

deve essere proporzionale al vettore direttore v = (l,m, n) di r. Quindi possiamo porre n = v e quindi

il piano π perpendicolare a r e passante per P ha equazione:

l(x− x1) +m(y − y1) + n(z − z1) = 0.

Siano ad esempio P (1,−1, 3) e

r :

x = 2 + 5t

y = −t t ∈ R.z = −1− t

Il vettore di direzione di r e il vettore v = (5,−1,−1). Pertanto possiamo porre che il vettore normale

al piano n = (a, b, c) sia proprio uguale a v, da cui a = 5, b = −1 e c = −1. Una rappresentazione affine

58

del piano π e quindi data da:

π : 5(x− 1)− (y + 1)− (z − 3) = 0,

cioe

π : 5x− y − z − 3 = 0.

Similmente la retta perperndicolare al piano π : ax + by + cz + d = 0 e passante per il dato punto

P (x1, y1, z1) ha come vettore di direzione il vettore v = n = (a, b, c) e quindi ha equazione, in forma

parametrica,

r :

x = x1 + at

y = y1 + bt t ∈ R.z = z1 + ct

Siano per esempio π : 2y + 7z − 11 = 0 e P (2, 1,−3) rispettivamente un piano ed un punto nello spazio

A3. La retta r perpendicolare a π e passante per P ha come vettore di direzione il vettore v = (0, 2, 7).

La sua equazione e pertanto:

r :

x = 2

y = 1 + 2t t ∈ R.z = −3 + 7t

4

Consideriamo ora due piani distinti π e π′ di equazione:

π : ax+ by + cz = 0. π′ : a′x+ b′y + c′z + d′ = 0.

Il fascio di piani F generato (o individuato) dai piani π e π′ e l’insieme dei piani aventi equazioni date

da:

(24) F : λ(ax+ by + cz + d) + µ(a′x+ b′y + c′z + d′) = 0, λ, µ ∈ R,

dove λ e µ sono scalari non entrambi nulli. Si osservi che i piani del fascio solo apparentemente dipendono

da due parametri. Coppie di scalari λ, µ e λ′, µ′ tra loro proporzionali danno luogo al medesimo piano.

Talvolta si pone k := µλ ed in tal caso l’equazione del fascio diventa:

F : ax+ by + cz + d+ k(a′x+ b′y + c′z + d′) = 0, k ∈ R.

In tal caso comunque si noti che la corrispondenza tra i valori di k ed i piani del fascio non e perfettamente

biunivoca. Il piano π′ : a′x+ b′y + c′z + d′ = 0 non puo essere ottenuto per nessun valore di k.

I due piani che determinano il fascio, essendo distinti, sono o incidenti in una retta o paralleli. Nel primo

caso notiamo che la retta r intersezione di π e π′, detta asse del fascio, e contenuta in ogni piano del

fascio. Nel secondo caso i piani del fascio sono tutti paralleli tra loro. Nel primo caso chiamiamo F

fascio di piani proprio di asse r (o fascio di piani proprio di centro r), mentre nel secondo fascio di piani

improprio.

Osserviamo che nel caso di un fascio di piani improprio, piani distinti del fascio hanno differenti giaciture

e quindi differenti direzioni ortogonali.

Supponiamo dato un fascio di equazione:

F : a(k)x+ b(k)y + c(k)z + d(k) = 0, k ∈ R.

F e un fascio proprio o improprio a seconda che la direzione del vettore n(k) =(a(k), b(k), c(k)

)vari con

k o no.

59

Esempio 7.23. Sia F il fascio di equazione:

F : (3k − 1)x+ (k − 2)y +−kz + k + 11 = 0, k ∈ R.

Il vettore ortogonale n(k) ha coordinate (3k − 1, k − 2,−k). La sua direzione varia con k. Il fascio di

rette F e quindi un fascio proprio. Per determinarne l’asse, occorre svolgere i prodotti nell’equazione del

fascio e raccogliere k a fattore comune parziale. In dettaglio:

F : 3kx− x+ ky − 2y +−kz + k + 11 = 0, k ∈ R,

da cui

F : −x− 2y + 11 + k(3x+ y − z + 1) = 0, k ∈ R.

L’asse del fascio e la retta r di equazione:

r :

{−x− 2y + 11 = 0

3x+ y − z + 1 = 0

4

Se π : ax+ by+ cz + d = 0 e un piano fissato nello spazio, il fascio di piani proprio F individuato da π e

l’insieme di tutti i piani paralleli a π. Esso ha equazione:

F : ax+ by + cz + k = 0, k ∈ R.

Un fascio improprio e invece individuato da una coppia di piani incidenti o dall’asse stesso. Noto l’asse

di un fascio e facile scriverne l’equazione. Se infatti r e data in forma cartesiana da:

r :

{ax+ by + cz + d = 0

a′x+ b′y + c′z + d′ = 0

il fascio di asse r ha equazione

ax+ by + cz + d+ k(a′x+ b′y + c′z + d′) = 0, k ∈ R.

Esempio 7.24. Consideriamo ora il problema di determinare i piani paralleli ad una data retta r passanti

per un dato punto P . Essi devono tutti contenere la retta r′ parallela a r e passante per P . Tali piani

costituiscono pertanto il fascio di piani proprio di asse r′.

Sia P (3,−5, 2) un punto ed r la retta di equazione:

r :

{−x+ y + 2z − 4 = 0

3x− z − 6 = 0

La retta r′ parallela a r e passante per P ha equazione:

r′ :

{−(x− 3) + (y + 5) + 2(z − 2) = 0

3(x− 3)− (z − 2) = 0

cioe

r′ :

{−x+ y + 2z + 4 = 0

3x− z − 7 = 0

Il fascio di piani paralleli a s per P ha quindi equazione:

−x+ y + 2z + 4 + k(3x− z − 7) = 0.

Illustriamo qui, mediante un esempio numerico, un metodo differente per determinare l’equazione del

fascio di piani paralleli ad una data retta e passanti per un dato punto. QUesto metodo si presta bene

60

nel caso in cui la retta e data in forma parametrica. A tal proposito sia P (1, 2,−2) e sia r la retta di

equazione:

r :

x = −2t+ 3

y = t+ 4 t ∈ R.z = 3t

Affinche un piano generico di equazione ax + by + cz + d = 0 appartenga al fascio esso deve contenere

il punto P ed il suo vettore normale n = (a, b, c) deve essere perpendicolare al vettore di direzione di r,

v = (l,m, n) = (−2, 1, 3). Pertanto si deve avere:

(a, b, c) · (l,m, n) = −2a+ b+ 3c = 0,

da cui

b = 2a− 3c.

L’equazione del fascio di piani per P paralleli a r ha pertanto equazione:

a(x− 1) + (2a− 3c)(y − 2) + c(z + 2) = 0 a, c ∈ R,

ovvero

a(x+ 2y − 5) + c(−3y + z + 8) = 0, a, c ∈ R.

Posto k = ca , l’equazione del fascio si puo scrivere usando un solo parametro essenziale:

x+ 2y − 5 + k(−3y + z + 8) = 0, k ∈ R.

4

Esempio 7.25. Consideriamo il problema di determinare i piani perpendicolari ad una dato piano π

e passanti per un dato punto P . Essi costituiscono il fascio di piani proprio avente per asse la retta r

passante per P e perpendicolare a π.

Siano π : 4x + y + z − 2 = 0 e P (1, 1,−2). La retta r perpendicolare a π per P ha vettore direttore

v = (4, 1, 1). Essa ha quindi equazione:

r :

x = 4t+ 1

y = t+ 1 t ∈ R.z = t− 2

Dalla terza equazione troviamo t = z + 2. Sostituendo questa quantita nella prima e nella seconda

equazione si ottiene:

r :

{x− 4z − 9 = 0

y − z − 3 = 0

Il fascio di piani per r ha equazione:

x− 4z − 9 + k(y − z − 3) = 0.

4

Nello spazio affine in tre dimensioni l’insieme delle rette parallele tra loro o tutte passanti per un punto

costituiscono una famiglia di rette nota con il termine stella di rette. Un fascio di rette e un sottoinsieme

di una stella di rette formato da quelle rette che giacciono su uno stesso piano. Un fascio di rette e detto

improprio se i suoi elementi sono paralleli tra loro, proprio se essi passano tutti per uno stesso punto.

Esempio 7.26. L’insieme delle rette parallele ad un piano fissato π e passanti per un punto P costituisce

un fascio di rette proprio F. Tutte tali rette sono contenute nel piano π′ parallelo a π e passante per P .

Esse possono essere viste come l’intersezione del fascio di piani perpendicolari a π con π′.

Siano dati π : x+ 2y − z − 1 = 0 e P (−1, 0, 1). Il piano π′ per P parallelo a π ha equazione:

π′ : (x+ 1) + 2y − (z − 1) = 0,

61

cioe

π′ : x+ 2y − z + 2 = 0.

I piani perpendicolari a π e passanti per P sono i piani i cui vettori normali sono perpendicolari al vettore

n = (1, 2,−1) ortogonale al piano π. Essi sono quindi i piani di equazione

a(x+ 1) + by + c(z − 1) = 0,

dove il vettore (a, b, c) e ortogonale al vettore n, cioe tale che:

a+ 2b− c = 0.

Dunque c = a+ 2b e l’equazione del fascio G dei piani per P e perpendicolari a π e:

G : a(x+ 1) + by + (a+ 2b)(z − 1) = 0, a, b ∈ R.

che si puo scrivere nella forma:

G : a(x+ z) + b(y + 2z − 2) = 0, a, b ∈ R.

L’equazione del fascio F e pertanto la seguente:

F :

{x+ 2y − z + 2 = 0

a(x+ z) + b(y + 2z − 2) = 0

Lo stesso fascio puo anche essere trovato, con rappresentazione parametrica stavolta, in un modo differ-

ente. Siano π e P come prima. Le rette r per P parallele al piano π hanno vettore direttore v = (l,m, n)

perpendicolare al vettore normale al piano π, cioe al vettore n = (1, 2,−1). Segue quindi:

0 = v · n = l + 2m− n,

da cui

n = l + 2m.

Il fascio F ha pertanto equazione, in forma parametrica, data da:

F :

x = −1 + lt

y = mt t ∈ R.z = 1 + (l + 2m)t

Al variare di l e m in R abbiamo tutte le rette del fascio.

4

Date due rette r e r′ nello spazio affine, siano v = (l,m, n) e v′ = (l′,m′, n′) i loro vettori direttori.

Definiamo l’angolo tra le due rette come l’angolo tra i due vettori direttori. Vale quindi:

cos(rr′)

:= cos(vv′)

= ± (l,m, n) · (l′,m′, n′)‖(l,m, n)‖‖(l′,m′, n′)‖

= ± ll′ +mm′ + nn′

‖(l,m, n)‖‖(l′,m′, n′)‖.

Due rette sono quindi ortogonali se e solo se il coseno dell’angolo e uguale a 0, cioe se e solo se ll′ +

mm′ + nn′ = 0.

Esempio 7.27. Le rette perpendicolari ad una data retta r e passanti per un punto dato P costituiscono

un fascio proprio. Tutte le rette del fascio appartengono al piano passante per P e perpendicolare a r.

Sia ad esempio P (4,−2,−1) un punto dello spazio ed r la retta di equazione:

r :

x = −t+ 2

y = 4t t ∈ R.z = −2

Il piano π passante per P e perpendicolare a r ha equazione:

π : −(x− 4) + 4(y + 2) = 0,

62

cioe

π : −x+ 4y + 12 = 0.

Le rette del fascio F delle rette per P e perpendicolari a r sono tutte e sole le rette ottenute come

intersezione di un piano per P e parallelo ad r con il piano π. Il fascio G dei piani paralleli a r per P e

un fascio proprio avente come asse la retta r′ parallela a r e passante per P . Tale retta ha equazione:

r′ :

x = −t+ 4

y = 4t− 2 t ∈ R.z = −1

Un’equazione affine di r′ pu‘o essere trovata trovando t nella prima “equazione” e sostituendo tale valore

nella seconda. Si ottiene:

r′ :

{4x− y − 18 = 0

z + 1 = 0

Il fascio G ha equazione:

G : 4x− y − 18 + k(z + 1) = 0.

Il fascio di rette cercato ha equazione:

F :

{−x+ 4y + 12 = 0

4x− y − 18 + k(z + 1) = 0

Determiniamo ora il fascio F in altro modo. Una retta appartiene ala fascio F se e solo se passa per

il punto P ed ha vettore direttore w = (l,m, n) perpendicolare al vettore direttore v = (−1, 4, 0) di r.

Pertanto vale:

0 = v ·w = (−1, 4, 0) · (l,m, n) = −l + 4m,

da cui

l = 4m.

L’equazione di F, in forma parametrica, e data da:

F :

x = 4 + 4mt

y = −2 +mt t ∈ R.z = −1 + nt

Al variare di m e n in R otteniamo tutte le rette del fascio.

4

Dati due punti P (x1, y1, z1) e Q(x2, y2, z2) nello spazio, la distanza tra i due punti coincide con il modulo

del vettore−−→PQ di punto iniziale P e punto finale Q. Essa vale quindi:

d(P ;Q) = ‖(x2 − x1, y2 − y1, z2 − z1)‖ =√

(x2 − x1)2 + (y2 − y1)2 + (z2 − z1)2.

Per calcolare la distanza tra il punto P (x0, y0, z0) ed il piano π : ax+ by+ cz+d = 0 si trova utilizzando

la formula:

(25) d(P ;π) =|ax0 + by0 + cz0 + d|√

a2 + b2 + c2.

Questa formula si ottiene, come nel caso della distanza punto-retta in A2 calcolando il modulo della

proiezione del vettore−−→PQ, dove Q e un punto arbitrario nel piano π, lungo la direzione normale al piano,

individuata dal vettore n = (a, b, c).

Esempio 7.28. Siano P (−1, 1, 4) e π : 2x − y − 2z − 3 = 0. La distanza di P dal piano π e quindi

uguale a:

d(P ;π) =|ax0 + by0 + cz0 + d|√

a2 + b2 + c2=|2(−1)− 1− 2(4)− 3|√

(2)2 + (−1)2 + (−2)2=| − 14|√

9=

14

3.

63

4

Per il calcolo della distanza di un punto P da una retta r occorre trovare il piano π perpendicolare a r e

passante per P , poi il punto H di intersezione di π e r e quindi la distanza tra i due punti P e H.

Esempio 7.29. Calcoliamo la distanza del punto P (0, 3,−2) dalla retta r di equazione:

r :

x = −1− ty = 2 + 3t t ∈ R.z = 6− 5t

Il vettore direttore di r e il vettore v = (−1, 3,−5). Il piano π passante per P e perpendicolare r ha

quindi equazione:

π : (−1)(x− 0) + 3(y − 3)− 5(z + 2) = 0,

cioe

π : −x+ 3y − 5z − 19 = 0

Il punto H, intersezione di r e π, si puo calcolare sostituendo le coordinate di un generico punto di

r (date attraverso il parametro t nell’equazione parametrica) all’equazione del piano. Otteniamo cosı

un’equazione di primo grado nella variabile t, che risolta ci permette di determinare le coordinate del

punto H. In dettaglio:

−(−1− t) + 3(2 + 3t)− 5(6− 5t)− 19 = 0,

da cui

35t− 42 = 0

e quindi t = 65 . Il punto H ha coordinate H(− 11

5 ,285 , 0). La distanza cercata e quindi uguale a:

d(P ; r) = d(P ;H) =

√(−11

5)2 + (

28

5− 3)2 + (2)2 =

√121 + 169 + 100

25=

√390

25=

√390

5.

4