39
APPUNTI DI ALGEBRA LINEARE ( di Lorenzo Giudice – 851032 ) Introduzione: Questi appunti sono relativi al corso di Algebra Lineare tenuto, dal professor Alberto Carraro, nell'anno 2014 / 2015 in sede Ca' Foscari di via Torino – Mestre (VE). Le pagine indicate, i teoremi, le definizioni, … , fanno riferimento al libro di testo “ALGEBRA E MATEMATICA DISCRETA” di Alberto Facchini.

APPUNTI DI ALGEBRA LINEARE - dsi.unive.itacarraro/Algebra-Lineare_Appunti_Lorenzo_Giudice.pdf · Questi appunti sono relativi al corso di Algebra Lineare tenuto, dal professor Alberto

Embed Size (px)

Citation preview

APPUNTI DI

ALGEBRA LINEARE

( di Lorenzo Giudice – 851032 )

Introduzione:

Questi appunti sono relativi al corso di Algebra Lineare tenuto, dal professor Alberto Carraro, nell'anno 2014 / 2015 in sede Ca' Foscari

di via Torino – Mestre (VE).Le pagine indicate, i teoremi, le definizioni, … , fanno riferimento

al libro di testo “ALGEBRA E MATEMATICA DISCRETA” di Alberto Facchini.

ALGEBRA LINEARE

SEMIGRUPPO

Un semigruppo è un insieme S, con un operazione binaria *.

( S , * ) in cui * : S x S → S

Proprietà associativa: (x∗ y)∗z=x∗( y∗z )

Note: S x S = { (x , y) | x , y∈S }

MONOIDE

Un monoide è un semigruppo nel quale troviamo un elemento neutro per l'operazione.

n∈S

tale che

n∗x= x=x∗n ∀ x∈S

Esempi:

( N , • , 1 ) dove N è l'insieme dei numeri naturali.( N , + , 0 ) dove N è l'insieme dei numeri naturali.

RELAZIONE

Una relazione è un sottoinsieme del prodotto cartesiano A x B

R⊆A x B

Se A = { a , b } e B = { 0 , 1 }

R1 = { ( a , 0 ) } ; R2 = { ( a , 0 ), ( b , 0 ) }

FUNZIONE

Una funzione ( elemento di BA ) è una relazione f ⊆A x B che associa elementi di un sistema

ad un altro sistema.

f : A→ B oppure BA={ f ∣ f : A→ B} dove B e A sono insiemi.

Tale che:

∀ x∈A ,∃ y∈B ∣ (x , y )∈ f legge di totalità

∀ x∈A ,∀ y , z∈B se (( x , y)∈ f e ( x , z )∈ f )→ y=z legge di determinazione

Esempi:

R R={ f ∣ f : R→ R} f : (x )=x2 ∀ x∈R ∀ f ∈R

R

f : (x )=1x

∀ x∈R 0 ∀ f ∉RR

Approfondimento su BA

• se A, B sono insiemi finiti, allora BA

è un insieme finito;

• se A è un insieme infinito e B è un insieme finito, allora BA

è un insieme infinito;

• se A è un insieme finito e B è un insieme infinito, allora BA

è un insieme infinito;

Approfondimento su A

• se A è un insieme indichiamo con p (A) l'insieme i cui elementi sono tutti e soli i sottoinsiemi di A :

p (A)={x∣x⊆A}

Esempio:

A={0,1} p (A)={∅ , {0}, {1}, A}

SEMIGRUPPO DELLE FUNZIONI

(BA,∘) ∘=composizione di funzioni

Siano f , g∈RR ; f ∘g∈R

R è l'operazione tale che

∀ x∈R ( f ∘g )(x )= f (g ( x))

∀ f , g , h∈BA ( f ∘g )∘h= f ∘(g ∘h) proprietà associativa

( f ∘(g ∘h))( x)= f ((g ∘h)(x ))= f (g (h( x)))

MONOIDE DELLE FUNZIONI SU A ( insieme )

(AA,∘ ,id A) id A : A→ A id A : x→ x

( f ∘id A)(x )= f (x ) e (id A∘ f )(x )= f (x )

STRUTTURE ALGEBRICHE DEFINITE DA ASSIOMI

Le istruzioni algebriche che andremo a studiare sono definite da assiomi.

• SOTTOSEMIGRUPPOUn sottosemigruppo è una struttura che vive sotto le condizioni di un semigruppo.(T ,♦) È un sottosemigruppo di (S ,♦ ) se ♦ è la stessa operazione e T⊆S tale che T

deve essere chiuso rispetto all'operazione ♦ ( cioè che per ogni a ,b∈T ,a♦ b∈T ).

Esempi:

- (Z {0 },•) è sottosemigruppo di (Z ,•) ;

- Sapendo che B⊆A allora ( p (B) ,U ) è sottosemigruppo di ( p (A) ,U )

Sapendo che p (B)⊆ p(A) . Dati x , y∈ p (B) e quindi x , y⊆B allora x∪ y⊆B

quindi x U y∈ p(B) .

- ( Interi pari ,•) è sottosemigruppo di (Z ,•) .

• SOTTOMONOIDE

Dato (T ,•) che è sottosemigruppo di (M , • ,1) dico che T è sottomonoide qualora l ' elemento neutro∈T .(M ,♦ ,1) è monoide e il suo più piccolo sottomonoide è ({1} ,♦ ,1) .

( p (B) ,∩ , B) è sottomonoide di ( p (A) ,∩ , A) ??? No. Solo se A = B.

Def.: Dato un monoide (M , • ,1) ( dove l'operazione è denotata come moltiplicazione ), posso definire a

n ( per ogni n∈N e a∈M )

{ a0=1

{ A(n+1)=a • a

n=an• a

Esempi:

Dato a ,b∈R , (a •b)n=an• b

n . Domanda: Se (M , • ,1) è un monoide, è vero che per ogni a ,b∈M , e per ogni n∈N , vale la regola (a •b)n=a

n• b

n ? NO!! NON SEMPRE!! Si, se (M , • ,1) è commutativo.

→(a b)n=(ab)(ab)=a (b(ab))=a ((ba )b)→ a

nb

n=(aa)(bb)=a (a (bb))=a((ab)b)

Note: Per il monoide (M ,+,0) si ha che n (a+b)=na+nb .

Esempi:

(S ,•)=semigruppo ;(T 1,•) ,(T 2, •)=sottosemigruppi

Se T 1T 2={t1 •t 2 : t 1∈T 1, t 2∈T 2} allora (T 1T 2 , •) è sottosemigruppo di (S ,•) ?

Non sempre!!

Prendendo due elementi arbitrari di T 1T 2 , (t 1• t 2)•(t 11• t 2

1)=(t 1• t11)(t 2• t 2

1)∈T 1T 2 .

Note: Se (S ,♦ ) è commutativo allora (T 1T 2 ,♦) è sottosemigruppo di S.

Esempi:

Sia S il monoide delle parole su { 0, 1 }:

S=({0,1}* ,♦ , ε ) dove ♦ è l'operazione di concatenazione e {0,1}× è l'insieme di tutte

le sequenze finite dei simboli 0, 1, e ε è la stringa vuota.

01010100010010111∈{0, 1}*

NON E' COMMUTATIVA

Sottogruppi e sottomonoidi

T 1=({0 }*,♦ , ε)

T 2=({1}*,♦ , ε)

Otteniamo che T 1T 2=0* 1*oppure ({0n1m}, n , m∈N ,♦ , ε ) quindi T 1T 2 non è

sottosemigruppo di S.

Sia M un monoide. Se T, S sono sottomonoidi di M, allora S∩T è un sottomonoide di M.E invece S∪T ? Non sempre.

Esempi:

Sia M=({0, 1}R ,♦ , ε ) dove ♦ è l'operazione di concatenazione e ε è la stringa vuota.

Siano T=({0n :n⩾0},♦ , ε) e S=({1m :m⩾0 },♦ , ε ) .

S∩T=(nel peggiore dei casi )({ε},♦ , ε )S∪T={0n :n⩾0}∪{1m :m⩾0 }→ e ad esempiola stringa 10∉S∪T

Determiniamo quindi [S∪T ] che è il monoide di M più piccolo che contenga S∪T , e

allora S∪T=M .

Sia M un monoide e sia x⊆M , allora [ x] è il più piccolo sottomonoide di M contenente x, e che chiamiamo sottomonoide generato.

Esempi:

[M ]=M

[∅]={elemento neutro}

Dimostriamo ora che è davvero il più piccolo sottomonoide, utilizzando la chiusura per

intersezione dei sottomonoidi.

Se M è un monoide e {S i}(i∈ I) sottomonoidi di M allora ∩(i∈I ) S i è sottomonoide di M.

In poche parole, [ x] è l'intersezione di tutti i sottomonoidi di M che contengono x.

[ x]=∩{S : S sottomonoide di M e S⊇ x }

Esempi:

(N ,+, 0) e X={3, 2}→[ x]= infiniti elementi.

Lemma ( caratterizzazione di [ x ]):

[ x]={1n}∪{x1♦ x2♦ ...♦ xn | n>1 e xi∈X e ∀ i=1 ...n}

Siano S, T monoide. Definisco il loro prodotto diretto S x T:

(S ,+S ,1S) (T ,+T ,1T) (S×T ,+S×T ,1S×T )

(s1 , t1)+S×T (s2 , t 2)=(s1+S s2 ,t 1+T t 2) in cui si∈S (i=1,2) e t j∈T ( j=1, 2)

L'elemento neutro invece 1S×T=(1S ,1T)e infatti (s , t )+S×T (1S ,1T )=(s+S 1S , t+T 1T)=(s , t )

• OMOMORFISMI

Dati due monoidi (M ,+M , 1M ) e (N ,+N ,1N) , si definisce omomorfismo una funzione f : M →N tale che:

f (x+M y )= f (x )+N f ( y) e f (1M )=1N con x , y∈M

Esempi:loge :(R+

, • ,1)→(R ,+ ,0)loge (x • y )=log e( x)+loge( y )loge (1)=0

Lemma: Sia f : M →N omomorfismo di monoide.f (M )={ f ( x) : x∈M } è allora un sottomonoide di N.

Dimostrazione: Dati due monoidi (M ,+M ,1M ) e (N ,+N ,1N) , dimostriamo che:- 1N∈ f (M ): per definizione, f (1M )=1N quindi 1N∈ f (M ).- dati due elementi z , y∈ f (M ) , dimostriamo che z+N y∈ f (M ) . Se z , y∈ f (M ) , dimostro che esistono due elementi z1, y1∈M tali che z= f ( z1) e y= f ( y1) . Allora:

z+N y= f ( z1)+N f ( y1) che sappiamo essere uguale a f (z1+M y1) .

Lemma: Sia f : M →N omomorfismo di monoide.f 1(N )={x∈M : f (n)∈N } è allora un sottomonoide di M.

Dimostrazione: Dati due monoidi (M ,+M ,1M ) e (N ,+N ,1N) , dimostriamo che:

- 1M ∈ f 1(N ) : per definizione, f

1(1N)=1M quindi 1M∈ f 1(N ).

- dati due elementi z , y∈ f 1(N ) , dimostriamo che z+M y∈ f

1(N ) . Se z , y∈ f

1(N ) , dimostro che esistono due elementi z1, y1∈N tali

che z= f 1(z 1) e y= f

1( y1) . Allora:

z+M y= f 1(z 1)+M f

1( y1) che sappiamo essere uguale a f 1(z1+N y1) .

• ENDOMORFISMO

E' un omomorfismo di un monoide in se stesso. f : M →M .

Dato un monoide (M M,∘ , id M ) , definiamo l'insieme degli endomorfismi di M.

(End (M ) ,∘ , id M ) è sottomonoide di MM se, dati f , g∈End (M ) ,

allora f ∘g∈End (M ) :

- dimostriamo che ( f ∘g ) è un endomorfismo:( f ∘g )( x+M y )= f (g (x+M y))= f (g (x)+M g ( y))=( f ∘g )(x )+M ( f ∘g )( y) ;

- dimostriamo che ( f ∘g )(1M )=1M →( f ∘ g)(1M )= f ( g (1M ))= f (1M )=1M ;

- dimostriamo che id M ( x+M y)=id M ( x)+M id M ( y)= x+M y ;

- dimostriamo che id M (1M )=1M ;

Esempio: Siano(End (N ) ,∘ , id N) (N ,+ ,0) f , g , h∈End (N )

• ISOMORFISMO

E' un omomorfismo biettivo, formato cioè da funzioni biettive.

*Note: una funzione è biettiva quando è sia suriettiva ( f : A→ B ∀ y∈B ,∃ x∈A | f ( x)= y ) che

iniettiva ( f : A→ B se f (x)= f ( y) allora x=y ).

• AUTOMORFISMO

E' un isomorfismo di un monoide in se stesso.

GRUPPI

Introduzione

Nel caso del monoide (M ,+M ,1M ) , diciamo che un elemento a∈M è invertibile ( a destra ) se esiste un elemento c∈M tale che a+m c=1 .Diciamo poi che è invertibile ( a sinistra ) se esiste un elemento b∈M tale che b+m a=1 .E' un elemento invertibile se è invertibile sia a destra che a sinistra.

Lemma: sia (M ,• ,1) un monoide, scritto in notazione moltiplicativa, e a∈M invertibile. Allora inverso destro e inverso sinistro coincidono, e l'inverso si denoterà

con a 1.

Dimostrazione: sia b inverso sinistro e c inverso destro.

b=b •1=b •(a • c)=(b• a)• c=1• c=c

Se invece utilizzo la notazione additiva (M ,+ , 0) allora l'inverso si denoterà con a .

Un gruppo è un monoide (M ,+, 0) in cui ogni elemento di M è invertibile. Siccome ogni elemento ha un inverso, posso pensare allora che un gruppo sia un monoide dotato di una funzione unaria ( che usa un elemento ) che mappa a→ a e che soddisfa la seguente proprietà:

a+( a)=0 e ( a )+a=0 ( in cui 0 è l'elemento neutro del monoide ).

Esempi:

(Q {0} ,• ,1) è un gruppo. Difatti x •1x=1

(Z ,+ , 0) è un gruppo. Difatti x+( x)=0

(P (N ) ,∪ ,∅) non è un gruppo. Per essere un gruppo, dovrebbe esistere un insieme Y tale che X∪Y (X ,Y∈P (N ))=∅ .

(P (N ) ,∩ , N ) non è un gruppo. Per essere un gruppo, dovrebbe esistere un insieme Y tale che X ∩Y (X , Y∈P (N ))=N .

(End (M ) ,∘ , id M ) è un monoide, ma non è un gruppo. Per essere invertibile, per ogni

funzione f deve esistere un funzione g tale che f ∘g=g ∘ f =id M e si indica con g= f 1 .

Una funzione è invertibile se è biettiva.

Sia (G ,• ,0) un gruppo e x∈G . L'operazione che mappa x→ x è un'involuzione cioè l'inverso dell'inverso. (x 1) 1= x

Dimostrazione:

x • x=1 e x • x=1 entrambe vere per definizione.

Sia (G ,• ,0) un gruppo. Allora: (a •b) 1≠a 1

• b 1 ma (a •b) 1=b

1• a

1

Dimostrazione:

(a •b) 1≠a 1

• b 1

Dimostro poi che: (ba )(a• b) 1=1→ a 1(b 1

b)a=1

SOTTOGRUPPO DI UN GRUPPO

Un sottogruppo di un gruppo è un sottomonoide in cui vale lo stesso elemento inverso.

OMOMORFISMO DEL GRUPPO

E' un omomorfismo di monoidi f :G →H (G, H gruppi) in cui f (x 1)= f (x) 1.

SOTTOGRUPPO DI UN GRUPPO

Sia G gruppo, H è sottogruppo di G ( H≤G ) se H è un sottomonoide di G tale che a 1∈H per

ogni a∈H .

PRODOTTO DIRETTO DI GRUPPI

Siano G, H gruppi.Il prodotto G x H è un gruppo avente insieme inverso G x H={(g , h): g∈G ,h∈H } e avente operazione: (g ,h)∗( g

1, h

1)=(g •G g1

, h•H h1) .

L'elemento neutro è (1G ,1H ) .

Esempi:

(N ,+ , 0) non è un gruppo.(Z ,+ , 0) È un gruppo.

Per ogni n∈N con n>1→ nZ={n• q : q∈Z }Contiene lo 0E' chiuso per la somma nq+nq1=nq ( che è multiplo )E' chiuso per l'inverso di nq che è n ( q)

INSIEME DELLE CLASSI RESTO ( cap. 2.8 )

E' un insieme in cui gli elementi sono insiemi

Z /( ≡n )={[a ](≡n )

:a∈Z } con n∈N

≡n è la congruenza modulo n:

a≡nb a congruo b modulo n se e solo se n divide ( a - b ).

[a]≡n={b∈Z :a≡n b} è la classe di equivalenza di a modulo n ( ogni classe avrà n elementi ).

Esempi: [2]≡3={2,5, 8, 7, 4, 1}

MONOIDE DELLE CLASSI RESTO

(Z /≡n

,+ ,[0]≡n) è un gruppo solo se n è primo.

[a]+[b ]=[a+b] e [a ]+[0 ]=[a]Conclusione: la somma è un'operazione compatibile con la congruenza ≡n .

ANELLO ( cap. 4.24 )

Un anello è una struttura con due operazioni e un elemento particolare.

(R ,+ , • ,0)

Proprietà:

- (R ,+ ,0) è un gruppo commutativo o abeliano;

- (R ,•) è un semigruppo;- in queste strutture vale la distributività dell'operazione del semigruppo:

a (b+c)=ab+ac e (b+c)a=ba+ca per ogni a ,b , c∈R

Esempi:

(Z ,+ , • ,0) è un anello.

ANELLO CON IDENTITA'

Un anello con identità è un anello con un elemento neutro del monoide (R ,• , 1) e 0≠1 .

ANELLO COMMUTATIVO

E' un anello (R ,+ , • , 0) tale che (R ,•) è commutativo.

Lemma ( cap. 24.4 ): Sia R un anello. Allora 0 • a=a • 0=0 .

Dimostrazione:0 • a=(0+0)• a=0 a+0 a quindi posso sommare o sottrarre e resta uguale. 0 a=0 a+0 a

Decido di sommare 0 a → 0a 0a=0a+0a 0 a=0 a e 0 a 0 a=0 .

Osservazione: ( a)b=a ( b)= (a b) a ,b∈R

Quindi ( a)b+(a b)=0=(ab)+( a)b → ( a+a )b=0 b=0

ANELLO COMMUTATIVO CON IDENTITA'

Esempi:

(R ,+ , • ,0, 1)

DOMINII DI INTEGRITA'

Un dominio di integrità è un anello commutativo con identità tale che non vi sono divisori dello 0.Un divisore dello zero è un elemento a∈R {0} per il quale esiste un b∈R {0} tale che

a • b=0 ).

CAMPO

Un campo è un anello commutativo con identità in cui ogni elemento non nullo è invertibile.

DIMOSTRAZIONE lemma 24.10 ogni campo è un dominio di integrità

(R {0} ,• ,1) è un gruppo

Esempi:

(Z /( ≡5 ),+ ,• ,[0] ,[1]) è campo solo se n è primo. ( Dimostrazione cap 4.27 VEDERE )

L'inverso moltiplicativo di [3] è un [b ] tale che [3]• [b ]=[1]→ per esempio [2]

* [0] [1] [2] [3] [4]

[0] [0] [0] [0] [0] [0]

[1] [0] [1] [2] [3] [4]

[2] [0] [2] [4] [1] [3]

[3] [0] [3] [1] [4] [2]

[4] [0] [4] [3] [2] [1]

+ [0] [1] [2] [3] [4]

[0] [0] [1] [2] [3] [4]

[1] [1] [2] [3] [4] [0]

[2] [2] [3] [4] [0] [1]

[3] [3] [4] [0] [1] [2]

[4] [4] [0] [1] [2] [3]

ANELLO DI POLINOMI

Un anello di polinomi, è un anello tale che:

sia R un anello → R [ x]={∑i=1

n

a i• x i

(n): a i∈R , n≥0} in cui x è indeterminata.

Esempi:

L'anello R[ x ] ( con R = numeri reali )

3x2+3x+1∈R[ x ]

in cui 0 è l'elemento neutro per la somma in R[x] e 1 è l'elemento neutro per il prodotto in R[x].Se R è campo, allora R[x] è campo a sua volta? No. Poiché un b tale che (x2+ x)•(b)=1 non esiste.

ANELLO DELLE MATRICI

Una matrice è una tabella formata ordinata di elementi di n righe e m colonne.Due casi particolari di matrice, sono il vettore riga ( formato da una sola riga ) e il vettore colonna

( formato da una sola colonna).

Date due matrici A, B, la loro somma è a sua volta una matrice in cui ogni elemento sarà:

A+B=(a ij+bij )

La somma fra due matrici, non è definita se entrambe le matrici non sono della stessa dimensione.

Il prodotto invece è:

A • B=∑i=1

p

ai bi

Note: Il prodotto, poi, non è commutativo.

Una matrice n x m ad elementi in R ( anello ) è una matrice nella quale ogni elemento a ij∈R per ogni i=1,2, ... , n e ogni j=1, 2, ... ,m .

Il prodotto fra due matrici A(n x p) e B( p x k ) è uguale a:

(a ij)•(b ij)=(c ij)

(cij) è il prodotto fra l'i-esima riga di A(ai1 , a i2 , ... , a ip) e la j-esima colonna diB(b1j , a2j ,... , b pj) .

A • B=(c1j)=∑h=1

p

a ih• bhj

Se n=m posso definire l'anello delle matrici quadrate di dimensione n sull'anello R:

(M n(R) ,+ ,• ,0 ,1)

0= 1=

SPAZIO VETTORIALE

Uno spazio vettoriale è una coppia costituita da un campo (K ,+K ,•K , 0K , 1K) ed un gruppo abeliano (V ,+V ,0V ) e un'operazione detta prodotto scalare che è una funzione binaria

f : K xV →V.

Note: Gli elementi del campo sono chiamati coefficienti oppure scalari, mentre gli elementi del gruppo

abeliano sono chiamati vettori.

In uno spazio vettoriale sono dimostrabile tre proprietà:

- Associatività: (a b)v=a (b v) per ogni a ,b∈K e v∈V

- Distributività: a (v+w)=av+aw e (a+b)v=av+bv per ogni a , n∈K e v ,w∈V

- Identità: 1K v=v per ogni v∈V

Esempi:

Sia K un campo. Allora l'insieme Kn(n≥1) è uno spazio vettoriale su K.

Kn={(a1 , a2 ,... , an):a i∈K , i=1, 2, ... , n}

Esempio ( 34.4 ~ gruppo dei polinomi ~ p. 300 ):

Sia K [ x] il gruppo di polinomi a coefficienti in un campo K con x indeterminata.

(K [ x] ,+ , 0) è un gruppo abeliano ed è spazio vettoriale su K.Il prodotto scalare è: (a , p(x ))→q( x) con a∈K e p(x ) , q (x )∈K [ x ]

p (x )=∑i=0

n

bi xi quindi q (x )=a ( p(x ))=∑

i=0

n

(abi) xi

Poiché le proprietà del prodotto scalare valgono, K [ x] è spazio vettoriale di K.

Note: Ogni campo è spazio vettoriale su se stesso ( dimostrazione esempio 34.4 ).

Sia V spazio vettoriale su K. Per ogni a in K valgono i seguenti assiomi:

- a⋅0V=0V ;

- 0K⋅v=0V

- ( a)⋅v=a⋅( v)= (a⋅v )

- a⋅v=0V ( se e solo se a=0K oppure v=0V )Dimostrazione

a) Supponiamo che a=0K oppure v=0V :- se a=0K →0K⋅v=0V ;

- se v=0V →a⋅0V=0V ;

b) Supponiamo ora che a≠0K. Allora esiste un a 1 tale che:

- v=1K v=(a 1⋅a)⋅v=a 1⋅(a⋅v)=a

1⋅0v=0v

SOTTOSPAZIO VETTORIALE

Sia V uno spazio vettoriale su K.U⊆V È un sottospazio vettoriale di V ( su campo K ) se U è sottogruppo di V e U è chiuso per il

prodotto scalare ( ∀a∈K∧∀u∈U (a⋅u∈U ) ).

Esempi:Sia K [ x]≤n l'insieme dei polinomi a coefficiente in K e indeterminata x di grado al più n.

K [ x]≤n={∑i=0

n

a i xi :a i∈K per ogni i=1,... , n}

R[ x ]≤2={x2, 1+2x2,

x , 0 ,2x , ...}

Allora K [ x]≤n è sottospazio vettoriale di K [ x] su campo K.

Al contrario, un gruppo abeliano come (Z ,+ , 0) , dove Z è l'insieme dei numeri interi, è spazio vettoriale su Z, ma non è spazio vettoriale su R, dove R è l'insieme dei numeri reali.Infatti il prodotto scalare fra a∈R e v∈Z mi darebbe come risultato un numero reale che non è contenuto nel gruppo (Z ,+ , 0) .

SOTTOSPAZIO VETTORIALE GENERATO

Sia V spazio vettoriale su K e X⊆V .<X> è il più piccolo sottospazio vettoriale di V su K.

Possiamo descrivere in maniera esplicita < X >.

Sia X={v1, … ,vm}⊆V

<X>={∑i=1

m

a i⋅v i :a i∈K e i=1,…, m} quindi < X > è la somma delle

combinazioni di vettori di X a coefficienti in K.

Per convenzione, stabiliamo che <∅>={0V } .

Esempi:

(R3,+ ,0) è spazio vettoriale su Z ( numeri interi )

X ={(2,0 ,0) ,(4,0,0) , (0,6, 0)}

<X>={a1⋅v1+a2⋅v2+a3⋅v3 :a1, a2, a3∈Z }

a2⋅v2=a2⋅(4, 0,0) → 2⋅a2⋅(2,0 ,0)=2⋅a2⋅v1

→ <X>={a1⋅v1+a3⋅v3}=<{v1, v3}>={(2⋅a1 , 6⋅a2 , 0): a1, a2∈Z }Verifichiamo che sia: - chiuso per la somma: (2⋅a1 ,6⋅a2 ,0)+(2⋅b1 ,6⋅b2 , 0)=(2⋅(a1+b1) ,6⋅(a2+b2) ,0) ;

- chiuso per il prodotto scalare: λ⋅(2⋅a1 , 6⋅a2 ,0)=(2⋅(a1⋅λ) ,6⋅(a2⋅λ) ,0) ;

Se V è spazio vettoriale su K e X⊆V tale che <X>=V diciamo che X è un insieme di generatori di V ( cioè V è generato dai vettori di X ).

Esempi:(R3

,+ ,0) è spazio vettoriale su R ( insieme dei numeri reali )X={e1 , e2 , e3}={(1, 0, 0) ,(0, 1,0) ,(0, 0,1)}

<X>={α⋅e1+β⋅e2+γ⋅e3:α , β , γ∈R}=R3 quindi v=(α , β , γ) con

α , β , γ∈R .

Sia <X1>={α⋅e1+β⋅e2+γ⋅e3+δ⋅(4, 7,9) :α , β , γ ,δ∈R}=v+δ (4, 7,9)

→ <X>⊆<X1>

Conclusione: Se V è spazio vettoriale su K e X⊆V tale che <X>=V , allora per ogni Y⊆V tale che X⊆Y si ha che <Y>=V .

SPAZIO VETTORIALE DELLE MATRICI

Su un campo K sia(M m x n(K ) ,+ , 0) dove 0 è la matrice nulla.

Il prodotto scalare è

GENERATORI PER M m x n(K )

Sia dove 1 è l'elemento di coordinate (i , j) .

L'insieme X={e ij : 1≤ i ≤m ∧ 1≤ j ≤m} è tale che lo spazio generato <X>=M m x n(K )

Esempi:

Sia

e

allora

perché, sia

allora

Esempi:

Sia (K [ x]≤n ,+ ,0) spazio vettoriale su K e X={0, x , x1,

x2, ... , x

n}

<X>=K [ x]≤n ( preso un polinomio p∈K [ x ]≤n è per definizione una ∑i=0

n

αi⋅xi )

~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~ • ~

Sia (K X,+ ,0) dove K

X={ f : X →K } + è l'operazione di K tale che( f +g )(x )= f (x )+g ( x) ( x∈X e f , g∈K

X ) e 0={ f : x→0} .

(K X,+, 0) è spazio vettoriale su K con prodotto scalare (α⋅ f )(x )=α⋅ f (x ) dove • è la

moltiplicazione di K.

LE FUNZIONI LINEARI

Siano U, V due spazi vettoriali su uno stesso campo K.

f :U →V è una funzione lineare se soddisfa le seguenti proprietà:

- f (x+ y )= f (x )+ f ( y ) per ogni x , y∈U ;- f (α x)=α⋅f (x ) per ogni x∈U e α∈K ;

Proprietà che seguono:

- f (OU )=OV ;

- f ( u)= f (u) per ogni u∈U ;

Note: Se f :U →V è una funzione lineare biettiva, prende il nome di isomorfismo lineare.

Esempi:

e spazi vettoriali su K

f (x , y , z )=(2x , 3y+z )

Presi u=( x1 , x2 , x3) e v=( y1 , y2 , y3)

a) f (u+v)= f ( x1+ y1 , x2+ y2 , x3+ y3)=(2( x1+ y1) ,3( x2+ y2)+( x3+ y3))

f (u)+ f (v )=(2 x1 , 3 x2+x3)+(2 y1 , 3 y2+ y3)=(2( x1+ y1) ,3( x2+ y2)+( x3+ y3))

b) α⋅ f (u )=α (2 x1 , 3 x2+x3)=(2α x1 ,3α x2+α x3)

f (α u)= f (α x1 ,α x2 ,α x3)=(2α x1 ,3α x2+α x3)

Lemma: Sia f :U →V funzione lineare tra spazi vettoriali su K. Se X è sottospazio di U allora f (X ) è sottospazio di V.

Dimostrazione: Siano f (u) e f (u1) due elementi di f (X ) ( u ,u1∈X ) f (u)+ f (u1) = f (u+u1)∈ f (X ) α⋅ f (u )= f (α u)∈ f (X )

Lemma: Sia f :U →V funzione lineare tra spazi vettoriali su K. Se Y è sottospazio di V allora f

1( y) è sottospazio di U.

Dimostrazione: Siano f 1(v ) e f

1(v1) due elementi di f 1(Y ) ( v , v1∈Y )

f 1(v )+ f

1(v1) = f 1(v+v1)∈ f

1(Y ) α⋅ f

1(v )= f 1(α v )∈ f

1(Y )

Approfondimento: f A

Sia Kn spazio vettoriale su K.

( _ , _ , … , _ ) è un elemento di Kn

Da una matrice A∈M mx n(K ) è possibile definire f A :

f A: Kn→K

m

in cui f A(v)=A⋅v con v∈Kn ( e vediamo il vettore v come un vettore colonna ).

Proprietà di f A :

- f A(v+u)= f A(v )+ f A(u) per ogni u ,v∈Kn ;

- f A(β v )=β⋅ f A(v )→ A⋅( β v)=β (A v) per ogni v∈Kn e β∈K :

Dimostrazione:

A⋅( β v)=ci 1 ∧ β (A v )=d i 1

Dobbiamo dimostrare che c i 1=d i 1

c i 1=∑h=1

n

a i h( β⋅αn)=β⋅∑h=1

n

a i hαn=d i 1

NUCLEO ( KERNEL )

Sia f :U →V funzione lineare.

ker f ={u∈U : f (u )=OV }

ker f ⊆U

Siano u ,u1∈ f :

- f (u+u1)= f (u)+ f (u1)=0V+0v=0v ;- f (α u)=α⋅ f (u)=α⋅0V=0V ;

DIPENDENDENZA E INDIPENDENZA

INSIEME DI VETTORI LINEARMENTE INDIPENDENTI E DIPENDENTI ( cap. 6.36 )

Sia V spazio vettoriale su K e siano v1, … , vm∈V.

Si dicono linearmente indipendenti se e solo se per ogni combinazione lineare che coinvolgeα1 v1+α2 v2+...+αm vm=0V abbiamo che α1=α2=αm=0K .

Si dice invece che sono linearmente dipendenti se e solo se esiste una sequenza α1, …,αm di

scalari non tutti nulli tali che ∑i=1

m

αi v i=0V .

Esempi:Dipendenti

Se α1=1 ,α2= 1 ,α3=0 allora α1 v1+α2 v2+α3 v3=0V

Accorgimenti: se ci sono doppioni fra i vettori ( v, v, u ) oppure se fra i vettori è presente 0V , allora abbiamo dipendenza.

Indipendenti

Se prendiamo dove e1=(0,… ,1 ,…,0) dove l'uno è in posizione i, abbiamo che

e1=(1 , 0 ,0) e2=(0 ,1 ,0) e3=(0 ,0 ,1)

∑i=1

3

αi e i=0 allora: α11+α2 0+α30=α11=0

α1 0+α2 1+α30=α2 1=0

α1 0+α2 0+α31=α31=0

Quindi e1 , e2 , e3 sono linearmente indipendenti.

Proposizione ( 36.4 )

Dei vettori v1 ,… ,vm∈V sono linearmente dipendenti se e solo se uno è combinazione lineare degli altri.

Esiste cioè j∈1 ,… ,m e α1 , … ,α j 1 ,α j+1 , … ,αm tale che v j=∑k=1

m

αk vk con k≠ j .

Dimostrazione:

=> Supponiamo che v1 ,… , vm siano linearmente dipendenti cioè esistono coefficienti

α1 ,… ,αm ed esiste j tale che α j≠0 , allora ∑k=1

m

αk vk=0

Portiamo gli addendi a destra isolando α j v j α j v j=∑k=1

m

( αk vk )

Trovandoci in un gruppo abeliano, esiste l'inverso di α j (α j

1)(α j v j)=(α j

1)∑k=1

m

( αk vk )

Valendo la associatività nel gruppo abeliano (α j

1α j)(v j)=(α j

1)∑k=1

m

( αk vk )

Infine valendo la commutatività della moltiplicazione v j=∑k=1

m

( αk α j

1)vk

Ottenendo che v j è combinazione lineare degli altri.

<= Supponiamo che v j=∑k=1

m

αk vk con k≠ j

Portiamo v j a destra 0= v j+∑k=1

m

αk v k

Otteniamo che il membro destro non è altro che una combinazione lineare in cui α j= 1 e quindi

α j≠0 .

Quindi v1 ,… , vm sono linearmente dipendenti.

Proposizione ( 36.8 )

Se <{v0 ,… , vm}> ( insieme di vettori ) genera V.

<{v0 ,… , vm}>=V e v0 è combinazione lineare di v1 ,… , vm allora l'insieme<{v1 ,… , vm}>=V .

Dimostrazione: Supponiamo che <{v0 , … ,vm}> genera V, dimostro che ogni vettore in V è combinazione lineare di v1 ,… ,vm . Sia u∈V

u=∑k=0

m

αk v k=(∑k=1

m

α k vk )+α0(∑k=1

m

βk v k)=∑k=1

m

(ak+α0 βk )vk

BASE DI UNO SPAZIO VETTORIALE

Sia V spazio vettoriale su K.Sia B⊆V , dove B è un insieme finito di vettori.B è base di V se <B>=V e B è linearmente indipendente.

Note: sia X ⊆V . Più grande è X più cose può generare, ma diminuisce la possibilità che sia linearmente

indipendente.

Una base è un insieme massimale di vettori linearmente indipendenti, cioè per ogni B' tale che

B⊂B' , B

' non è linearmente indipendente.

Proposizione ( 36.15 )

Sia B⊆V ( finito ), allora le seguenti affermazioni sono equivalenti:a) B è base di V;b) B è un insieme linearmente indipendente massimale;c) B è un insieme minimale di generatori ( cioè se B è una base che genera V ed esiste un B

' tale che B'⊂B , allora <B

'>≠V ).

Dimostrazione:

(a )→(b)

Sia B una base. Per definizione B è linearmente indipendente. Sia B'⊃B , dimostro che B

' non è linearmente indipendente.

Sia v∈B'– B , allora poiché <B>=V abbiamo che v=∑

i=1

m

αi ui dove B={u1 ,… , um} .

Quindi B' è linearmente dipendente visto che v è combinazione lineare degli altri vettori.

(b)→(a)

Supponiamo che B sia un insieme lineare indipendente massimale.

B è linearmente indipendente per ipotesi, quindi ci resta da dimostrare che <B>=V.

Siano v∈V e B={u1, …, um}. Abbiamo due casi:

- v∈B : esiste i∈{1 ,… , m} tale che u i=v e scelgo αi=1 e α j=0 per ogni j={1 , …, m}– {i}.

v=∑j=1

m

α j u j

- v∉B : B1={v }∪B estende propriamente B quindi B

' non è linearmente indipendente a causa di v e cioè v è combinazione lineare dei vettori di B, quindi v∈<B> .Allora <B>=V .

(a )→(c )

Suppongo che B sia base di V. Per definizione B è un insieme di generatori. Sia B'⊂B . Voglio

dimostrare che <B'>≠V .

Sia v∈B – B' . Poiché B genera V, v è combinazione lineare dei vettori di B. Voglio dimostrare che

v∉<B'>

Se per assurdo v∈<B'> allora anche v∈<B – {v }> cioè B non sarebbe linearmente

indipendente.

(c)→(a )

Sia B insieme minimale di generatori di V.Per ipotesi <B>=B . Ci manca da dimostrare che B è linearmente indipendente.Per il lemma 36.14, B contiene una base di B e B deve essere quella base, perché è insieme minimale di generatori.

Lemma 36.14

Se X è un insieme che genera V allora X contiene una base di V.

TEOREMA DI SOSTITUZIONE DELLE BASI ( 36.16 )

Sia V spazio vettoriale su K e sia B={v1 ,… ,vn} una base di V.Siano w1 ,…, wm vettori linearmente indipendenti in V. Allora m≤n e l'insieme

B'={w1 ,… ,wm ,wm+1 , … , vn} è una base di V.

Esempi:

(R3,+ ,0) e B={e1 , e2 , e3} è base.

w1=(0 , 3 ,2) w2=(7,1 ,0)→ posso sostituirli al posto di due vettori di B.

Corollario 36.17

Tutte le basi di uno spazio vettoriale hanno la stessa cardinalità.

Kn ha base B={e1 , … ,en}

DIMENSIONE DI UNO SPAZIO VETTORIALE

Si indica con Dim (v ) la cardinalità di una base qualsiasi di V se c'è altrimenti Dim (v )=∞ .

Esempi: ( 36.1 )

Q [ x ]≤2

A={2,1+ x , 1 x2

, 2 x x2, x

2}={q1 , q2 , q3 , q4 , q5}

Dimostriamo che <A>=Q [ x ]≤2 .

Sia p∈Q [ x]≤2 dimostro che p è combinazione lineare dei vettori di A.

Mostro che esistono αi(i=1,... ,5) tali che p=∑i=1

5

αi q i .

p=a+bx+cx2 quindi a+bx+cx

2=∑i=1

5

αi qi=(2α 1+α2+α3)+(α2 2α4) x+( α3 α4+α5) x2

TEOREMA DI COMPLETAMENTO DELLE BASI

Corollario 36.19

Sia V spazio vettoriale di dimensione finita. Siano w1 ,…, wm vettori di V che sono tra loro linearmente indipendenti.Allora esiste una base di V contenente w 1 ,…, wm .

Dimostrazione:

Sia dim(V )=n . w1 ,…, wm sono linearmente indipendenti.

Allora m≤n ed esiste una base {v1 , …,v n} tale che {v1 , …,v m , vm+1 ,… ,vn}.Per il teorema di sostituzione delle basi, posso sostituire {w1 ,… ,wm , v m+1 ,… , vn} che saràbase di V.

Proposizione 36.20

Se V è spazio vettoriale di dimensione finita e U è sottospazio di V, allora dim(U )≤dim(V ).

ESTENSIONE PER LINEARITA' ( cap. 6.38 )

Teorema 38.1

Siano V, W spazi vettoriali su campo K. Sia B={v1 ,… , vn} di V e sia w1 ,…, wm una n-upla di vettori di W. Allora esiste un'unica applicazione lineare f :V →W tale che

f (v i)=wi per i=1, … , n .

Dimostrazione:

- Esistenza: Definisco f come segue. Devo definire f (v ) per v∈V arbitrario.

Sia v in V. Siccome B è base, esistono coefficienti α1 , … ,αm tali che v=∑i=1

n

αi v i .

Quindi: f (v )=∑i=1

n

αi w i

Dimostro che f è una funzione lineare:

a) f ( β v)=β f (v )

f ( β v)= f ( β∑i=1

n

αi v i)=∑i=1

n

( β αi)wi

β f (v)=β∑i=1

n

αi wi=∑i=1

n

( β αi)wi

b) f (v+u)= f (v)+ f (u) con v , u∈V

f (v+u)= f (∑i=1

n

αi v i+∑i=1

n

β i v i)= f (∑i=1

n

(αi+β i)v i)=∑i=1

n

(αi+β i)wi

f (v )+ f (u )= f (∑i=1

n

αi v i)+ f (∑i=1

n

β i v i)=∑i=1

n

αi w i+∑i=1

n

β i w i=∑i=1

n

(αi+β i)wi

Dobbiamo dimostrare che soddisfa f (v )=w.

f (v k)= f (∑i=1

n

αi v i)=∑j=1

n

α j w i=w k con αk=1 e α j=0

- Unicità: Devo dimostrare che f è l'unica funzione lineare tale che f (v i)=wi ( i=1 ,… ,n)Sia g :V →W lineare tale che g (v i)=wi (i=1 ,…, n) .g deve essere uguale a f . Sia v∈V .

f (v )=∑i=1

n

αi w i

g (v)=∑i=1

n

g (αi v i)=∑i=1

n

αi g (v i)=∑i=1

n

αi wi

Lemma 38.3

Siano V, W spazi vettoriali su K. Sia B={v1 ,… ,vn} base di V.Allora f è isomorfismo se e solo se { f (v1) ,… , f (vn)} è base di W.

Dimostrazione ( => ):

Supponiamo che f sia isomorfismo. Dimostro che { f (v1) ,… , f (vn)} è base di W.

Siano α1 , … ,αn coefficienti tale che ∑i=1

n

αi f (v i)=0W .

Quindi ∑i=1

n

αi f (vi)=0W diventa f (∑i=1

n

αi vi)=0W .

Per iniettività sappiamo che f (0V )=0W quindi ∑i=1

n

αi v i=0V , ma allora

α1=α2=…=αn=0K e quindi { f (v1) ,… , f (vn)} sono linearmente indipendenti.

Dimostro ora che sono una base.Sia w∈W . Per la suriettività, esiste un v∈V tale che f (v )=w .

Ma v=∑i=1

n

αi v i quindi f (v )=∑i=1

n

αi f (v i)=w .

Dimostrazione ( <= ):

Suppongo f (B) ( { f (v1) ,… , f (vn)} ) base di W. Devo dimostrare che f è iniettiva:- suriettività:

Per ogni w∈W , esiste una combinazione lineare ∑i=1

n

αi f (v i)=w .

Quindi f (∑i=1

n

αi vi)=w quindi è suriettiva.

- iniettività: ( una funzione lineare è iniettiva se e solo se ker f ={0V } ) .Se f (v )= f (u) allora dobbiamo dimostrare che v=u .Essendo all'interno di un gruppo abeliano, sappiamo che esiste l'opposto di ogni elemento, quindi:

f (v )= f (u ) → f (v)+( f (u))= f (u )+( f (u))→ f (v)+ f ( u)=0W → f (v u)=0W

Sappiamo che f (0V )=0W quindi v – u=0V →v=u .Usiamo l'implicazione ker f ={0V }→ f iniettiva.Prendiamo v∈V e ipotizziamo che f (v )=0W . Dimostriamo che v=0V .

Sappiamo che ∑i=1

n

αi f (vi)=0W .

Sappiamo anche che gli elementi di f (B) sono linearmente indipendenti quindi

f (∑i=1

n

αi vi)=0W con α1=α2=…=αn=0K quindi v=0V .

Quindi abbiamo dimostrato che il ker f ={0V } quindi f è iniettiva.

Teorema 38.4

Sia W spazio vettoriale su K e sia dim(W )=n . Allora W è isomorfo di K^n (

Dimostrazione:

Sia dim(W )=n . Sappiamo che dim(Kn)=n perché ha base {e1 , e2 , …, en}.

W ha base w1 ,…, wn . Allora posso associare e1→w1 , e2→w2 ,…,en →wn .

Quindi esiste un'unica funzione lineare f : Kn→W tale che

f (e i)=w i per ogni i=1,… , n

e questa f è isomorfismo per il lemma 38.3 precedentemente dimostrato.

Proposizione 38.5

Sia f :V →W funzione lineare e W, V spazi vettoriali su K e sia V di dimensione finita.( Sappiamo che f (V ) è sottospazio di W e ker f è sottospazio di V ).Allora f (V ) ha dimensione finita e dim(V )=dim(ker f )+dim( f (V )) .

Se f è iniettiva cosa possiamo dire?Se f è iniettiva, allora ker f ={0V } e quindi dim(ker f )=0 .Di conseguenza dim(V )=dim( f (V )) . Allora sono isomorfi ( f è isomorfismo.

Corollario 38.7

Sia f :V →V quindi endomorfismo lineare e sia V di dimensione finita.Allora f è suriettiva se e solo se f è iniettiva.

Dimostrazione ( <= ):

Se f è iniettiva, allora ker f ={0V } quindi dim(ker f )=0 .Ma se dim(V )=dim( f (V )) allora f (V )=V .

Dimostrazione ( => ):

Supponiamo f suriettiva. Allora dim(V )=dim( f (V )) . Quindi dim(ker f )=0 .Ne segue che ker f ={0V } e allora f è iniettiva.

MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE

Sia f :V →W con V, W di dimensione finita dim(W )=m con base {w1 ,… ,wn} edim(V )=n con base {v1 , …,v n} .

f (v j) è un vettore di W per ogni j=1 ,… ,n ed è combinazione lineare di w1 ,…, wm .

Per ogni j esistono m coefficienti a1 j ,… , am j tali che f (v j)=∑i=1

m

ai j wi .

Questa matrice descrive completamente la funzione f dovea1 j ,… , am j sono i coefficienti che esprimono f (v j)

come combinazione lineare della base di W.

A f è la matrice associata ad f rispetto alle basi considerate v1 , … , vn e w1 ,…, wm .

A f ∈M m x n(K )

Come si calcola f (v ) per un qualsiasi v∈V ?

v=∑j=1

n

a j v j quindi

f (v )=∑j=1

m

a j f (v j)=∑j=1

n

a j(∑i=1

m

ai j wi)=∑j=1

n

∑i=1

m

(a i j a j w i)=∑i=1

n

(∑j=1

m

(a i j a j))w i

Se C v sono i coefficienti di v, i coefficienti con cui esprimere f (v ) come combinazione lineare di w1 ,…, wm sono:

Quindi alla fine: f (v )=∑i=1

n

β i w i

Passaggi riassuntivi per calcolare f(v):

1) Trovare il vettore colonna dei coefficienti di v tali che v=∑j=1

n

a j v j ;

2) Trovare f(v_j) per j= 1 , … , n ;

3) Riempire la matrice A_f;

4) Calcolare il vettore colonna dei coefficienti con cui esprimere f(v);

5) Calcolare f (v )=∑i=1

n

β i w i ;

Esempio 39.7:

f (e1)=e1

f (e2)=e1+e2

f (e3)=e1 – 2⋅e2

Voglio scrivere la matrice A f rispetto alle forme canoniche:

f (1,0,0)=(1,0, 0)f (0,1,0)=(1,1,0)f (0,0,1)=(1, 2,0)

Se v=( 2,7,9) allora:

f ( 2,7,9)=14⋅e1+( 11)⋅e2+0⋅e3

La regola universale sarà:

f (x , y , z )=∑i=1

3

β i wi=∑i=1

3

β i e i=(x+ y+z )⋅e1+( y 2z)⋅e2=( x+ y+z , y 2z ,0)

Lemma: Abbiamo W con base {w1 ,… ,wm} e u∈W . Quante m-uple β1 , …, βm esistono tali

che u=∑i=1

m

β i wi ? Una solamente.

Sia W spazio vettoriale su K e sia {w1 ,… ,wm} una sua base. Allora per ogni u∈W , esiste

un'unica m-upla ( β1 , …, βm) tale che u=∑i=1

m

β i wi .

Dimostrazione:

Sia u∈W. Sicuramente esiste una m-upla β1 , …, βm tale che u=∑i=1

m

β i wi .

Supponiamo che α1 , … ,αm sia tale che u=∑i=1

m

αi w i allora ∑i=1

m

β i w i=∑i=1

m

αi w i .

Essendo in un gruppo abeliano posso spostare i membri.

Quindi ∑i=1

m

β i wi ∑i=1

m

αi w i=0W e ∑i=1

m

( βi αi)wi=0W .

Per indipendenza lineare di w1 ,…, wm abbiamo che β i αi=0K quindi β i=αi .

Definizione:

Sia W spazio vettoriale su K e sia {w1 ,… , wm} una sua base. Possiamo definire due funzioni.Sia f :W →K

n e v∈W.

dove v=∑i=1

m

αi wi .

Sia g : Kn→W e v∈W.

Teorema: Le funzioni f e g sono biettive, lineari e inversa l'una dell'altra. Quindi W è isomorfo di K

m .

SOMMA DI SPAZI VETTORIALI ( pag. 321 )

Sia V spazio vettoriale su K. U , W⊆V sottospazi. Allora U∩W è sottospazio di V.U ⊕ W={u+w :u∈U∧w∈W } è sottospazio di V.

Teorema 37.1 ( formula di Grassman ):

Sia V spazio vettoriale su K. U , W⊆V Sottospazi di V di dimensione finita.Allora U∩W e U ⊕ W hanno dimensione finita e

dim(U )+dim(W )=dim(U ⊕ W )+dim (U∩W )

Dato uno spazio vettoriale V, esso è oggetto atomico o può essere decomposto in “mattoncini” più semplici?

Lemma 37.2: Sia V spazio vettoriale su K. U ,W⊆V Sottospazi di V. Allora le due affermazioni seguenti sono equivalenti:

a) se U ⊕ W=V e U∩W={0V } allora dim(V )=dim(U )+dim(W ) ;b) ogni v in V si scrive come somma di vettori di U, W in maniera unica: ∀v∈V ∃!u∈U ∪ ∃!w∈W : v=u+w

Dimostrazione: ( a => b )

Supponiamo che a valga. Dimostriamo b.Sia v∈V . Siccome V=U +W esistono u∈U e w∈W tali che v=u+w.

Supponiamo che esistano u'∈U e w

'∈W tali che v=u'+w

' .Allora u+w=u

'+w' . Trovandoci in un gruppo abeliano u – u

'=w – w' che sono il

primo in U e il secondo in W.Poiché U∩W={0V } , u – u

'=0V e w' w=0V , quindi u=u

' e w=w' .

Dimostrazione: ( b => a )

Supponiamo che b valga. Dimostriamo a.Allora V⊆U +W ma U+W⊆V quindi U +W = V.Ora sia x∈U∩W. Sicuramente 0V=u+w per opportuni u∈U e w∈W .Posso scegliere u=0V e w=0V e quindi 0V+0V=0V.

Oppure posso dire che 0V=x+(– x) . Quindi 0V , x∈U e 0V , x∈W.

Ma per l'unicità dell'ipotesi abbiamo che x=0V quindi U∩W={0V }.

FUNZIONI LINEARI E MATRICI

Siano V, W spazi vettoriali su K con dim(V )=n e dim(W )=m.

L'insieme delle funzioni lineari da V →W ( Homk (V ,W ) ) è associato all'insieme delle matriciM mx n(K ).

M mx n(K ) e Homk (V ,W ) sono spazi vettoriali su K e sono isomorfi.

Proposizione 39.8: La funzione µ : Homk (V ,W )→M mx n(K ) , in cui V, W sono spazi vettoriali didimensione finita ( dim(W )=m e dim(V )=n ), è un isomorfismo lineare di spazi vettoriali.

∈Homk (V ,W ) ∈M n(K )

f A A

f B B

f A∘ f B= f A⋅B A⋅B

idKn I

In cui f A∘ f B= f A⋅B= f I=idK n

Corollario 39.7: Sia km spazio vettoriale. Sia A∈M n(K ) . Allora A⋅B=I se e solo se

B⋅A=I. B si dice matrice inversa di A e quindi possiamo indicarla come A 1 .

RANGO DI UNA MATRICE

Sia A∈M mx n(K ). Il rango è il massimo numero di colonne/righe linearmente indipendenti.

A=A1 | A2 | ... | An con Ai∈Km

rg (A)≤m e rg (A)≤n allora rg (A)≤min(m , n)

RANGO DI UNA FUNZIONE

Sia f :V →W . Il rango di f è la dimensione dell'immagine di f.

rg ( f )=dim( f (V ))

Proposizione 39.11: Il rango di f è uguale al rango della matrice associata.

rg ( f )=rg (A f )

Cosa succede se rg ( f )=m ? dim( f (V ))=m=dim(W ) quindi f (V )=W. Allora la funzione è suriettiva.

Se invece m≠n , f non è un isomorfismo.

Proposizione 39.12: Sia A∈M n(K ) . Allora A è invertibile se e solo se rg (A)=n.

Dimostrazione ( => ): Suppongo che A sia invertibile, dimostro che rg (A)=n .

Sia A∈M n(K )

A definisce f A: Kn→K

n

Quindi f A( x)=A⋅x

rg ( f A)=rg (A) perché applichiamo la proposizione 39.11, sapendo che la matrice

associata a f A , rispetto alle basi canoniche di Kn , è A ( [A f A

=A] ).

Siccome A è invertibile, esiste A 1 inversa.

Allora f A è suriettiva perché per ogni y∈Kn

y=I y=(A⋅A 1)⋅y=A⋅(A

1⋅y )= f A⋅(A 1⋅y)

Allora f A è endomorfismo di Kn ed è suriettivo, è biettivo, e quindi f A è invertibile.

Quindi rg (A)=rg ( f A)=dim( f A(Kn))=dim (K n)=n

Dimostrazione ( <= ): Suppongo che rg (A)=n. Dimostro che A è invertibile.

rg ( f A)=n=dim( f A(Kn)) cioè f A(K

n)=Kn perché f A(K

n)⊆Kn con dimensione n.

cioè f A è suriettiva e quindi biettiva.Quindi A è invertibile.

SISTEMI DI EQUAZIONI LINEARI ( cap. 6.41 )

Un sistema di equazioni lineari è una lista di equazioni in cui compaiono delle incognitex1 ,… , xn , dei coefficienti e dei termini noti, legati da vincoli.

Ogni equazioni è lineare poiché xn è al più al primo grado ed è un sistema perché tutte le

equazioni devono essere verificate simultaneamente.

Possiamo scrivere allora il sistema in forma matriciale:

A∈M m x n(K ) è la matrice incompleta del sistema.

B∈Kn è il vettore colonna dei termini noti.

(A∣B) (A∣B)∈M mx (n+1 )(K ) è la matrice completa del sistema.

Una soluzione di un sistema è un vettore colonna C∈Kn tale che sostituendo c i per

x i(i=1,… ,n) tutti i vincoli risultano validi.Sia X un vettore di incognite.

Allora

Il sistema si indica allora con A⋅X =B , quindi una soluzione è un vettore C∈Kn tale che

A⋅C=B .

Sia A⋅X =B un sistema di equazioni lineari di m equazioni e n incognite.Ad esso è associata una funzione lineare f A: K

n→Km tale che

f A(C)=A⋅C

Una soluzione è allora un vettore C∈Kn tale che f A(C)=B cioè un elemento di f A

1(B) .

Dato un sistema AX =B posso avere le seguenti situazioni:

- il sistema è impossibile, cioè f A

1(B)=∅ ;

- il sistema è possibile, cioè ha soluzioni. Se è così, abbiamo due sotto casi:

- il sistema ha una sola soluzione: affinché ci sia una sola soluzione, è necessario che ilker f A={∅}∈K

n , quindi che f A sia iniettiva.

- il sistema ha più soluzioni: sia v∈ker f A e C una soluzione del sistema. Allora v+C è soluzione perché:

f A(v+C )= f A(v )+ f A(C)=0+ f A(C )

dim(Kn)=n dove n è il numero delle incognite e f A: K

n→Km dove m è il numero delle

equazioni. Se n>m , f A non può essere iniettiva.

TEOREMA DI CRAMER ( 41.1 )

Sia AX =B un sistema in cui e A=(a ij)∈M n(K ) .

Allora il sistema ha un'unica soluzione se e solo se la matrice incompleta A ha rango n se e solo se Aè invertibile ( Possibile se e solo se f A è isomorfismo K

n→Kn cioè automorfismo di K

n ).

In tal caso, la soluzione la possiamo trovare esplicitamente: A 1⋅B .

Dimostrazione ( => ) :

Supponiamo ci sia un'unica soluzione.Allora ker f A={∅} quindi f A: K

n→Kn .

f A è allora iniettiva e essendo automorfismo è anche biettiva.

Quindi dim( f A(Kn))=n per la suriettività e dim(K

n)=n allora, per definizioni, il rangodi f A è n, che è uguale anche al rango della matrice associata:

rg ( f A)=rg (A)=n

Sempre sotto ipotesi che ci sia una sola soluzione, dimostriamo che essa è A 1⋅B .

Sia C una soluzione del sistema. Ma A è invertibile quindi:

A⋅(A 1⋅B)=(A⋅A 1)⋅B=I⋅B=B quindi A

1⋅B è l'unica soluzione C.

Dimostrazione ( <= ) :

Supponiamo che rg (A)=n .Allora A è invertibile. Esiste allora A

1 e A⋅(A 1)⋅B=B cioè A 1⋅B è soluzione.

Sia C soluzione del sistema. Dimostriamo che C=A 1⋅B .

Siccome C è soluzione, A⋅C=B . A

1⋅(A⋅C )=B⋅A 1

C=B⋅A 1

Cioè B⋅A 1 è l'unica soluzione.

IL DETERMINANTE

Il determinante è un elemento del campo dal quale è possibile ricavare i coefficienti della matrice associata.

Sia A∈M n(K ) , il determinante si indica con det (A)∈K.

Fatto: A è invertibile se e solo se det (A)≠0K

Data una matrice A(aij ) definiamo la sotto-matrice Aij che si ottiene cancellando da A la riga i ela colonna j.

Esempio:

FORMULA DI ESPANSIONE PER CO-FATTORI

Questa formula è definita in maniera ricorsiva e serve per determinare il det (A).Può essere applicata sia alla riga arbitraria i che alla colonna arbitraria j.

Sia A∈M n(K ) dove n è la dimensione della matrice.Caso base: n=1→det (A)=a11

det (A)=∑j=1

n

( 1)i+ j⋅a ij⋅det (Aij)

i è un numero di riga arbitrario mentre j varia sulle colonne della matrice.

Esempio:

i=2

det (A)=∑j=1

3

( 1)2+ j⋅a2j⋅det(A2j)

det (A21)=∑j=1

2

( 1)1+ j⋅a2j⋅det (A1j)=2

det (A22)=∑j=1

2

( 1)2+ j⋅a2j⋅det((A2j)2j)=2

det (A23)=0

det (A)=( 1)2+1⋅0⋅2+( 1)2+2⋅1⋅2+( 1)2+3⋅1⋅0=2

CASI PARTICOLARI E REGOLA DI SARRUS ( p.360 )

det (A)=a11⋅a22 a12⋅a21

La regola di Sarrus è un altro metodo per ricavare il determinante di una matrice.

det (A)=a11⋅a22⋅a33 a11⋅a23⋅a32 a12⋅a21⋅a33+a12⋅a23⋅a31+a13⋅a21⋅a32 a13⋅a22⋅a31

Conclusioni:Se A è la matrice di un sistema AX =B , allora:

det (A)≠0 sse A è invertibilesse rg (A)=n

sse AX =B ha un unica soluzione

Quindi det (A)=0 sse esiste una combinazione lineare delle colonne della matrice che da il vettore nullo utilizzato non tutti i coefficienti nulli ( rg (A)<n ).

TRASPOSIZIONE DI UNA MATRICE

Data una matrice B∈M m x n(K ) , la sua trasposta è BT∈M mx n(K ) .

BT=(B ji )

L'elemento di posizione ij in BT è l'elemento di posizione ji in B.

Esempio:

COME COSTRUIRE LA MATRICE INVERSA

Per poter costruire la matrice inversa A, utile poi a definire la soluzione di un sistema, abbiamo bisogno di definire la matrice dei suoi complementi algebrici.Un complemento algebrico di ordine ij è:

C ij=( 1)i+ j⋅M ij

Dove M ij è il minore complementare di ordine ij :

M ij=det (Aij )

Definiamo ora A* come la matrice trasposta della matrice dei complementi algebrici di A.

A*=C

T

A questo punto, se voglio calcolare A^{-1}, calcolo il determinante di A e, se det(A)<>0 allora

A 1=

1det (A)

⋅A*

PROPRIETA' DEL DETERMINANTE

1) Scambiando due colonne di una matrice, il determinante cambia di segno.

2) Se due colonne sono uguali ( linearmente dipendenti ) allora il determinante è 0.

3) Se A=(A1 ... Ai ... An) con B=α⋅Ai , allora:det (A1 ... B ... An)=α⋅det (A)

4) Se C=(X 1 ... X i ... X n) , A=(X 1 ...Y ... X n) , B=(X 1 ...Z ... X n) e X_i = Y + Z allora:det (C )=det(A)+det (B)

5) Se una matrice A è triangolare superiore, allora il suo determinate è dato dal prodotto della sulla diagonale principale.

det (A)=∏i=1

n

a ii

METODO DI ELIMINAZIONE DI GAUSS

Sia AX=B sistema.

α Ri=α a i1 x1+αa i2 x2+...+α ai n xn=α bi

βRk=β ak1 x1+β ak2 x2+...+β akn xn=β bi

Posso applicare l'operazione elementare su righe e sostituirne una:

Ri=(α a i1+β ak1) x1+(α ai2+β ak2) x2+...+(α a¿+β akn) xn=αb i+β bk

Esempio:

A | B→R1← R1+R2 M '

M ' rappresenta un sistema equivalente a AX =B.

COME SCEGLIERE LE OPERAZIONI ELEMENTARI IN MANIERA FURBA?

Bisogna cercare di combinare le equazioni del sistema, cercando di ottenere una matrice triangolare superiore, così da poter ottenere facilmente il suo determinante.

Vediamo ora l'algoritmo che usava Gauss:

1. Se la prima riga ha il primo elemento nullo, scambiarla con una riga con primo elemento non nullo. Se tutte le righe hanno elemento nullo, vai al punto 3.

2. Per ogni riga Ai con primo elemento non nullo, eccetto la prima ( i>1 ), moltiplica la prima riga per un coefficiente scelto in maniera tale che la somma tra la prima riga e Ai abbia il primo elemento nullo. Sostituisci Ai con la somma appena ottenuta.

3. Sulla prima colonna tutte le cifre tranne la prima sono uguali a 0. Ripetere il passo 1 per A11 .

Ci sono due operazioni fondamentali:

- R j=α R j+β Ri ;- è possibile scambiare R j e Ri .

REGOLA DI CRAMER ( teorema 43.5 )

Sia AX=B un sistema di equazioni lineari a coefficienti in un campo K e sia A in M_n (K).Allora il sistema ha unica soluzione sse det (A)≠0 .In tal caso, la soluzione si trova come segue.

x i=det (Ai

' )

det (A)dove Ai

' si ottiene sostituendo la colonna i con la colonna dei termini noti:

TEOREMA DI ROUCHE' – CAPELLI ( Teorema 42.1 )

Sia AX =B sistema con m equazioni e n incognite, con coefficienti in K.Il sistema AX =B ha almeno una soluzione se e solo se la matrice incompleta A e la matrice completa A | B hanno lo stesso rango.In tal caso, se C 0 è soluzione del sistema, W è il sottospazio di K

n i cui elementi sono soluzioni del sistema omogeneo ( quando B=0 ) e r è il rango di A , allora le soluzioni

AX =B sono tutte e sole quelle del tipo C0+H con H ∈W a dimensione n r .

Note: Perché W è sottospazio di Kn

.

- 0∈W : A0=0 ;- chiuso per prodotto scalare: sia S∈W e quindi AS=0. Allora A(α S )=A(α S )=A(0)=0 ;- chiuso per la somma: siano S 1 , S2∈W e quindi AS 1=0∧AS1=0 . Allora A(S1+S 2)=AS1+AS 2=0+0=0 ;

AUTOVALORI E AUTOVETTORI ( cap. 6.44 )

Definizione 44.1: Sia V un K spazio vettoriale, e sia f endomorfismo lineare f :V →V . Un sottospazio W di V si dice f invariante se f (W )⊆W.

Esempio:

Sia f : R2→ R

2 lineare dove R è l'insieme dei numeri reali.f : (x , y )→(2x ,2 y )

Sia W={(x , y)∈R2 | x+ y=0} sottospazio di R

2 .f (W )={ f (w): w∈W }= {(2x ,2y) :(x , y )∈W }.

W è sicuramente invariante di f.

Siano v≠0 , v∈V e λ∈K.

Se f (v )=λv allora diciamo che λ è un autovalore rispetto ad f e v è un autovettore.Nell'esempio precedente, tutti i vettori di R

2 sono autovettori relativi a f, con lo stesso autovalore 2.

Sappiamo che a f è associata un'opportuna matrice.Sia V un K spazio vettoriale e sia A una matrice quadrata a elementi in K.Siano v≠0 , v∈V e λ∈K.

Se Av= λv allora v è autovettore e λ è un autovalore, relativi ad A.

Fissiamo un autovettore. Quanti autovalori possono essere a lui associati? Uno soltanto.Siano α, λ autovalori di v relativi ad A.Allora Av= λv e Av=αv. Quindi λv=αv.

Per commutatività, λv αv=0.Per distributività, (λ α)v=0. Sapendo che v≠0 , allora (λ α)=0.Concludendo, λ=α.

Fissando invece un autovalore, possono esserci tanti autovettori associati.

COME SI TROVANO GLI AUTOVETTORI E GLI AUTOVALORI DATA UNA MATRICE?

Data A, considero Av= λv un equazione a due incognite.Av= λv → Av λv=0 → (A λ)v=0 → (A λI )v=0.

Faccio finta di conoscere λ e cerco di risolvere rispetto a v.Affinché ci sia almeno un autovettore, il determinante di A λI=0.Quindi:

det (A λI )= polinomio nell'incognita λ ( chiamato Polinomio caratteristico di A )

Quindi devo risolvere l'equazione: p A( λ)=0.

Proposizione 40.8: sia p A( λ) il polinomio caratteristico della matrice An x n . p A( λ) è un polinomio di grado n.

Supponiamo ora di avere le radici λ1 ,… , λn di p A( λ).Per ogni autovalore, risolvo il sistema (A – λi I )v=0.

Esercizio 44.5

Sia Q3 un Q spazio vettoriale, dove Q è l'insieme dei numeri razionali.

Sia

Ottengo che: p A(λ)=( 1 λ)((1 λ)2 1) e risolvendo l'equazione ( 1 λ)((1 λ)2 1)=0 , ottengo che gli autovalori sono λ1= 1 , λ2=0 , λ3=2 .Gli autovettori di λ1 sono le soluzione del sistema (A – λ1 I )v=0 :

Otteniamo che x , z=0 e y qualsiasi, quindi W 1={(0,α ,0) :α∈Q – {0}}