61
UNIVERSIDAD DE CUENCA NOMBRE: Paúl Montalván Cobos CURSO: Curso 1 – 2 do Ciclo – Ingeniería Civil TEMA: Valores Propios y Vectores Propios MATERIA: Algebra Lineal PROFESOR: Ing. Hernán Pesantez

Valores Propios y Vectores Propios

Embed Size (px)

DESCRIPTION

Algebra lineal

Citation preview

Page 1: Valores Propios y Vectores Propios

UNIVERSIDAD DE CUENCA

NOMBRE:

Paúl Montalván Cobos

CURSO:

Curso 1 – 2do Ciclo – Ingeniería Civil

TEMA:

Valores Propios y Vectores Propios

MATERIA:

Algebra Lineal

PROFESOR:

Ing. Hernán Pesantez

AÑO LECTIVO:

2011 – 2012

Page 2: Valores Propios y Vectores Propios

INTRODUCCIÓN

El siguiente trabajo consta de un estudio de la teoría de los valores y vectores propios pertenecientes a matrices cuadradas. Este trabajo esta estructurado de manera progresiva de modo que antes de dar teorías y demostraciones, se dan conceptos y definiciones necesarias para entender dicha teoría.

La teoría de los valores y vectores propios usados en la diagonalización de matrices es la cúspide de la teoría dictada en este curso, ya que combina casi todos los conceptos estudiados anteriormente, como por ejemplo, la generación de bases, la orto-normalización de las mismas, las operaciones matriciales, determinantes, entre otros; he aquí la importancia de estudiar los valores y vectores propios, centrada en la aplicación de los mismos a procesos que mas adelante nos servirán de manera practica dentro de la carrera, tales como los crecimientos poblacionales y las formas cuadráticas.

Los temas están planteados de manera progresiva de modo que es necesario comprender un capitulo antes de avanzar al siguiente capitulo, por ejemplo en el primer capitulo se conoce la definición de valores y vectores propios además de otros conceptos como eigenespacio, ecuación característica, etc.

OBJETIVOS:

Definir los conceptos de valores y vectores propios. Conocer el proceso y la aplicación de la diagonalización de matrices a través del uso

del polinomio y ecuación característica. Aprender el método de diagonalización ortogonal, aplicando los procesos de

generación de bases y orto-normalización de las mismas. Definir operaciones matriciales adicionales tales como la potenciación de las

mismas. Definir los conceptos de matrices Hermitianas y sus casos especiales. Conocer las aplicaciones practicas de los valores propios dentro del algebra líneal.

Page 3: Valores Propios y Vectores Propios

1. VALORES PROPIOS Y VECTORES PROPIOS DE MATRICES REALES Y COMPLEJAS............................4

1.1 DEFINICIÓNES GENERALES..................................................................................................5

1.3. DEFINICION DE VALOR PROPIO Y VECTOR PROPIO.....................................................................5

1.3.1. INTERPRETACIÓN GEOMETRICA...............................................................................................6

1.4 EJEMPLOS BREVES........................................................................................................................6

1.5. DETERMINACIÓN DE VALORES Y VECTORES PROPIOS EN MATRICES..........................................7

1.6. PROPIEDADES DE LOS VALORES PROPIOS...................................................................................8

1.7. VALORES PROPIOS COMPLEJOS..................................................................................................9

1.8. EJERCICIOS CON MATRICES.......................................................................................................10

2. DIAGONALIZACIÓN DE MATRICES................................................................................................13

2.1. TRANSFORMACIÓN DE SIMILARIDAD........................................................................................14

2.2. PROCESO PARA DIAGONALIZAR UNA MATRIZ...........................................................................15

2.3. EJERCICIOS SOBRE DIAGONALIZACION......................................................................................15

3. MATRICES SIMETRICAS Y DIAGONALIZACIÓN ORTOGONAL.........................................................20

3.1. CONDICIONES PARA LA DIAGONALIZACIÓN ORTOGONAL........................................................21

3.2. DIAGONALIZACION DE LAS MATRICES SIMETRICAS..................................................................21

3.3. PROCESO DE ORTONORMALIZACION DE GRAM-SCHMIDT)......................................................21

3.3 EJERCICIOS SOBRE DIAGONALIZACION ORTOGONAL.................................................................21

4. POTENCIAS DE MATRICES.............................................................................................................27

4.2. EJERCICIOS SOBRE POTENCIACION DE MATRICES.....................................................................28

5. MATRICES: UNITARIAS, NORMALES Y HERMITIANAS...................................................................30

5.1. MATRIZ UNITARIA.....................................................................................................................31

5.2. MATRIZ NORMAL......................................................................................................................32

5.3. MATRIZ HERMITIANA................................................................................................................33

6. APLICACIONES: CRECIMIENTO DE UNA POBLACIÓN....................................................................35

7. APLICACIONES: FORMAS CUADRÁTICAS......................................................................................38

7.1. TEOREMA DE LOS EJES PRINCIPALES.........................................................................................41

CONCLUSIONES:...............................................................................................................................43

BIBLIOGRAFIA...................................................................................................................................44

Page 4: Valores Propios y Vectores Propios

1. VALORES PROPIOS Y VECTORES PROPIOS DE MATRICES REALES Y COMPLEJAS.En álgebra lineal, los vectores propios, “autovectores” o “eigenvectores” de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre valor propio, “autovalor”, valor característico o “eigenvalor”. A menudo, una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, “autoespacio” o “eigenespacio” es el conjunto de vectores propios con un valor propio común.

La palabra alemana “eigen”, que se traduce en español como “propio”, se usó por primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó previamente con un significado parecido). “Eigen” se ha traducido también como inherente, característico o el prefijo “auto-”, donde se aprecia el énfasis en la importancia de los valores propios para definir la naturaleza única de una determinada transformación lineal. Las denominaciones vector y valor característicos también se utilizan habitualmente.

HISTORIA DE PERSONAJES QUE INFLUYERON

Jean-Baptiste-Joseph Fourier

(21 de marzo de 1768 en Auxerre - 16 de mayo de 1830 en París), matemático y físico francés conocido por sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas convergentes llamadas Series de Fourier, método con el cual consiguió resolver la ecuación del calor. La transformada de Fourier recibe su nombre en su honor. Fue el primero en dar una explicación científica al efecto invernadero en un tratado. Se le dedicó un asteroide que lleva su nombre y que fue descubierto en 1992.

David Hilbert

Page 5: Valores Propios y Vectores Propios

Joseph Louis Lagrange

Bautizado como Giuseppe Lodovico Lagrangia, también llamado Giuseppe Luigi Lagrangia o Lagrange (25 de enero de 1736 en Turín - 10 de abril de 1813 en París) fue un matemático, físico y astrónomo italiano que después vivió en Rusia y Francia. Lagrange trabajó para Federico II de Prusia, en Berlín, durante veinte años. Lagrange demostró el teorema del valor medio, desarrolló la mecánica Lagrangiana y tuvo una importante contribución en astronomía.

1.1 DEFINICIÓNES GENERALES

Las transformaciones lineales del espacio pueden interpretarse mediante el efecto que producen en los vectores.

Antes de continuar con el estudio de estos valores y vectores propios, tenemos que definir los siguientes conceptos:

Vectores Propios.- En transformaciones lineales, son vectores que, o no se ven afectados por la transformación o se ven multiplicados por un escalar, y por tanto no varían su dirección

Valor Propio.- En un vector propio, es el factor de escala por el que ha sido multiplicado.

Espacio Propio.- Es un espacio formado por todos los vectores propios del mismo valor propio, además del vector nulo, que no es un vector propio.

Multiplicidad Geométrica.- En un valor propio, es la dimensión del espacio propio asociado.

Espectro.-En una transformación en espacios vectoriales finitos, es el conjunto de todos sus valores propios.

1.3. DEFINICION DE VALOR PROPIO Y VECTOR PROPIOSea A una matriz de n×n. Al escalar λ se le denomina “valor propio” de A si existe un vector x diferente de cero tal que:

Ax=λx

Es decir:

x (A−λI )=0

Page 6: Valores Propios y Vectores Propios

Donde λ puede ser real o complejo. Al vector x se le denomina “vector propio” correspondiente a λ.

1.3.1. INTERPRETACIÓN GEOMETRICADefinamos un plano en R2; si λ es un valor propio de la matriz A y x es el vector propio de A correspondiente a λ, entonces la multiplicación de x por la matriz A produce un vector λx paralelo al vector x.

1.4 EJEMPLOS BREVES Un ejemplo sería una lámina de metal que se expandiera uniformemente a partir de

un punto de tal manera que las distancias desde cualquier punto al punto fijo se duplicasen. Esta expansión es una transformación con valor propio 2. Cada vector desde el punto fijo a cualquier otro es un vector propio, y el espacio propio es el conjunto de todos esos vectores.

Una onda estacionaria en una cuerda fija en sus cabos o, más concretamente, una función propia de la transformación correspondiente al transcurso del tiempo. A medida que varía el tiempo, la onda estacionaria varía en amplitud, pero su período no se modifica. En este caso el valor propio es dependiente del tiempo.

Page 7: Valores Propios y Vectores Propios

1.5. DETERMINACIÓN DE VALORES Y VECTORES PROPIOS EN MATRICESSea λ un valor propio de la matriz cuadrada A, así que existe un vector x0 diferente cero, tal que:

A x0=¿ λ0 x0=¿ λ0I

0x

0¿ ¿

Por lo tanto:

A x0−λ0 I 0 x0=( A−λ0 I n x0 )=0

Si B=A−λ0 I n ; lo anterior significa que el sistema homogéneo n×n

Bx=0

Tiene además de la solución trivial, otra solución (x=x0≠0). Por consiguiente, no tiene

solución única; y por tanto, el determinante de la matriz B debe ser 0.

det (B )=det ( A−λ0 I n )=0

Resumiendo; todo valor propio λ0 debe ser raíz del polinomio característico asociado a la matriz A:

Pᴀ ( λ )=det (A−λ I n)

El grado de este polinomio es igual al grado de la matriz, es decir a n. Y un vector propio asociado al valor propio λ debe ser solución al sistema homogéneo:

( A−λ I n )x=0

Polinomio característico de una matriz.- Es el polinomio que resulta del determinante de la matriz A menos el valor propio correspondiente multiplicado por la matriz identidad.

Pᴀ ( λ )=det (A−λ I n)

Ecuación característica de una matriz A.- Es el polinomio característico de dicha matriz A, igualado a 0.

det (A− λ I n )=0

Multiplicidad algebraica del valor propio.- Tenemos un polinomio característico de la forma:

P ( λ )=(λ−a1)k1(λ−a1)

k2…(λ−a1)km

Si k i=1, esto quiere decir que el valor se da una sola vez; caso contrario los resultados serán los siguientes:

Page 8: Valores Propios y Vectores Propios

λ=a1se repite k1 veces

λ=a2 serepite k2 veces, hasta llegar a:

λ=an serepite kmveces

A esta variable k i se le denomina multiplicidad algebraica de un valor propio.

1.6. PROPIEDADES DE LOS VALORES PROPIOS La suma de los n valores propios de la matriz A es igual a su traza:

traza (A )= λ1+λ2+. . .+λn=∑1

n

λi

El producto de los n valores propios de la matriz A es igual a su determinante:

det (A )=λ1 λ2. . . λn=∏1

n

λ i

Los valores de una matriz triangular (superior o inferior) son los valores de su diagonal.

Otras propiedades de los valores propios

El espectro es invariante bajo transformaciones semejantes: las matrices A y P-1AP tienen los mismos valores propios para cualquier matriz A y cualquier matriz invertible P. El espectro es también invariante a la trasposición de las matrices: A y A T tienen los mismos valores propios.

Dado que una transformación lineal en espacios de dimensiones finitas es biyectiva si y sólo si es inyectiva, una matriz es invertible si y sólo si cero no es un valor propio de la matriz.

Otras consecuencias de la descomposición de Jordan son:

Una matriz es matriz diagonalizable si y sólo si las multiplicidades geométrica y algebraica coinciden para todos sus valores propios. En particular una matriz n×n que tiene n valores propios diferentes es siempre diagonalizable;

Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la equivalencia unitaria, la forma normal de Jordan constata que es igual a la suma de sus valores propios.

Page 9: Valores Propios y Vectores Propios

De forma similar, dado que los valores propios de una matriz triangular son las entradas de la diagonal principal su determinante es igual al producto de los valores propios (contados de acuerdo con su multiplicidad algebraica).

Algunos ejemplos de la localización del espectro de ciertas subclases de matrices normales son:

Todos los valores propios de una matriz hermítica (A = A*) son reales. Además, todos los valores propios de una matriz definida positiva son positivos;

Todos los valores propios de una matriz antihermítica (A = −A*) son imaginarios puros;

Todos los valores propios de una matriz unitaria (A-1 = A*) tienen valor absoluto uno;

Si A es una matriz m×n con m ≤ n, y B es una matriz n×m, entonces BA tiene los mismos valores propios de AB más n − m valores propios nulos.

A cada matriz se le puede asociar una norma vectorial, que depende de la norma de su dominio, el operador norma de una matriz cuadrada es una cota superior del módulo de sus valores propios, y por tanto de su radio espectral. Esta norma está directamente relacionada con el método de las potencias para calcular el valor propio de mayor módulo. Para matrices normales, el operador norma (la norma euclídea) es el mayor módulo entre de sus valores propios.

1.7. VALORES PROPIOS COMPLEJOSExisten matrices en donde la ecuación característica con elementos reales, tenga soluciones complejas; por ejemplo, el polinomio característico de la siguiente matriz:

A=[−2 −15 2 ]

Es:

det ( λI−A )=det [ λ+2 1−5 λ−2]=λ2+1

De modo que la ecuación característica es λ2+1=0, cuyas soluciones son los números imaginarios λ=i y λ=−i; por lo que nos vemos obligados a considerar valores propios complejos, inclusive para matrices reales (se puede extender a matrices complejas). Esto a su vez nos lleva a la posibilidad de considerar espacios complejos, donde los escalares pueden tomar valores imaginarios.

Si se tiene una matriz A de n×n y λ es un número real, entonces las siguientes proposiciones son equivalentes:

Page 10: Valores Propios y Vectores Propios

a) λ es un valor propio de A.b) El sistema de ecuaciones ( λI−A ) x=0 tiene soluciones no triviales.

c) En Rn existe un vector de x diferente de cero tal que Ax=λ

d) λ es una solución de la ecuación característica det ( λI−A )=0

1.8. EJERCICIOS CON MATRICES

Para la matriz A, indique cuales de los siguientes son vectores propios.

A=[1 22 1]

x=[11]; y=[23]; z=[−11 ]; w=[02]

Solución:

Ax=[1 22 1] [11]=[33 ]=3 [11]

Ay=[1 22 1][23]=[87]≠k [23]

Az=[1 22 1] [ 1

−1]=[ 1−1]=−1[−1

1 ]Ax=[1 2

2 1] [02]=[42 ]≠k [02]∴Solamente xe y sonvectores propiosde A

Determine los valores y vectores propios de la siguiente matriz:

A=[1 10 1]

Solución:

Page 11: Valores Propios y Vectores Propios

Pᴀ ( λ )=det ([1 10 1][ λ 0

0 λ ])=det ([1−λ 10 1−λ ])

Pᴀ ( λ )=|1− λ 10 1−λ|=(1−λ)2

λ=1 ;valor propio

Para calcular el vector propio:

( A−λ I 2 )x=0

([1 10 1]−(1)[1 0

0 1])x=0

[1−1 10 1−1] x=0

Aplicando Gauss-Jordan

[0 1 ⋮ 00 0 ⋮ 0]→[0 1 ⋮ 0

0 0 ⋮ 0]Convirtiendo en ecuación

y=0→( xy)=x (10)Esto quiere decir que, cualquier vector de la forma:

x (10)Es un vector propio asociado a λ=1; pero como solo necesitamos un vector, tomamos

y=1 ;que dacomovector propio a: v=(10) Calcular los valores y vectores propios de la siguiente matriz:

A=[4 −52 −3]

Solución:

Page 12: Valores Propios y Vectores Propios

det (A−λI )=det [4−λ −52 3− λ]=0

(4− λ ) (−3−λ )+10= λ2−λ−2=0

( λ+1 ) ( λ−2 )=0

Entonces los valores propios son:

λ1=−1

λ2=2

Ahora buscamos los vectores propios:

1) Para λ1=−1

( A−λ1 I )x=0=[5 −52 −2] [x1

x2]=[00]

Este sistema tiene infinitas soluciones de la forma x=[ x1 , x2 ]t

Por ejemplo si queremos obtener solo un vector, tomaríamos:

x=[ 1 1 ]t

El cual es un vector propio correspondiente a λ1=−1

2) Para λ2=2

( A−λ2 I )x=0=[2 −52 −5] [x1

x2]=[00]

Este sistema también tiene infinitas soluciones de la forma x=[ x1 ,0.4 x1 ]t

Y podemos tomar como solución:

x=[ 5 2 ]t

El cual es un vector correspondiente a λ2=2

Calcular los valores propios para la siguiente matriz:

A=[2 1 −12 5 31 2 1 ]

Solución:

Page 13: Valores Propios y Vectores Propios

det (A−λI )=det [2−λ 1 −12 5− λ 31 2 1−λ]=0

(2− λ ) ( (5− λ ) (1−λ )−6 )−1 ( (2 ) (1−λ )− (1 ) (3 ) )−( (2 ) (2 )−(5−λ ) )=0

(2− λ ) (5−5 λ−λ+ λ2−6 )−(2−2 λ−3 )−(4−5+ λ )=0

(2− λ ) (λ2−6 λ−1 )−(−1−2λ )−(−1+λ )=0

(2 λ2−12λ−2− λ3+6 λ2+ λ )+1+2 λ+1−λ=0

−λ3+8 λ2−10 λ=0

λ3−8 λ2+10 λ=0

{λ1=4−√6λ2=6−√4

λ3=0

Determine los valores propios y sus multiplicidades algebraicas para la matriz:

A=[2 −3 60 5 −60 3 −4 ]

Solución:

Primeramente determinemos el polinomio característico:

pA ( λ )=det (A−λI )=[2−λ −3 60 5−λ −60 3 −4−λ ]

pA ( λ )=(2 – λ )[5− λ−63−4− λ]

¿(2−λ)((5− λ)(−4−λ)−(3)(−6))

pA ( λ ) ¿−4+3 λ2− λ3

Factor izando tenemos:

pA( λ)=−(λ−(−1))( λ−2)2

Por lo tanto:

Page 14: Valores Propios y Vectores Propios

{λ1=−1λ1=2

Sus multiplicidades algebraicas son:

para λ1=1

para λ2=2

2. DIAGONALIZACIÓN DE MATRICES

Es en este punto en donde se unen dos conceptos que parecen distintos pero en realidad son equivalentes: estos conceptos son:

De los vectores Propios.- Dada una matriz A de orden n×n; ¿Existe una base para n integrada por vectores propios de A?

De la diagonalización (forma matricial).- Dada una matriz A de orden n×n; ¿Existe una matriz invertible P tal que P−1 AP sea una matriz diagonal?

De este segundo concepto surge la definición de la diagonalización de matrices:

Definición.- Se dice que una matriz cuadrada A es diagonalizable si existe una matriz invertible P tal que P−1 AP es una matriz diagonal; se dice que la matriz P diagonaliza a la matriz A.

Si A es una matriz n×n, entonces las siguientes proposiciones son equivalentes:

a) A es diagonalizable.b) A tiene n vectores propios linealmente independientes.

2.1. TRANSFORMACIÓN DE SIMILARIDAD

Dada una matriz cuadrada A, y una matriz invertible T ; a la matriz B=T−1 AT se la llama

matriz similar a A y a la operación T−1 AT se la llama transformación de similaridad.

Propiedades básicas: Una transformación de similaridad es una relación de equivalencia porque es:

Reflexiva: Una matriz es similar a sí misma. Simétrica: Si A es similar a B, B es similar a A. Transitiva: Si A es similar a B y B es similar a C, entonces A es similar a C.

Page 15: Valores Propios y Vectores Propios

Otras propiedades: Las siguientes características de una matriz son invariantes (no se alteran) bajo una transformación de similaridad:

El determinante La traza Los valores y vectores propios

Observaciones:

No todas las matrices tienen forma diagonal. Si una matriz tiene todos sus n valores propios distintos tiene n vectores propios

linealmente independientes, y por lo tanto tiene forma diagonal. Si una matriz tiene valores propios repetidos puede y no tener forma diagonal. Toda matriz tiene una forma diagonal por bloques llamada Forma de Jordan. Una matriz simétrica tiene valores propios reales y vectores propios ortogonales que

siempre se pueden convertir en orto-normales para formar una matriz diagonalizante T tal que T−1=T t (Una matriz que cumple esta propiedad se llama matriz ortogonal).

De acuerdo a lo anterior, una matriz simétrica A se puede diagonalizar mediante la transformación: D=T t AT

2.2. PROCESO PARA DIAGONALIZAR UNA MATRIZ

No es una regla pero si ayuda mucho seguir los siguientes pasos para encontrar una matriz que diagonalice a otra.

1) Encontrar los n vectores propios linealmente independientes de A; por ejemplo:p1 , p2 , p3 ,. . . , pn.

En este paso se puede aplicar el método de encontrar bases de los espacios propios de A.

2) Formar la matriz P con p1 , p2 , . .. , pn como sus vectores columna.

3) Entonces, la matriz P−1 AP será diagonal con λ1 , λ2 , . .. , λn como sus elementos

diagonales sucesivos donde λ1 es el valor propio correspondiente a p1 para i=1 ,2 ,…,n.

2.3. EJERCICIOS SOBRE DIAGONALIZACION

Obtener la forma diagonal para la matriz:

A=[4 −52 −3]

Solución:

Page 16: Valores Propios y Vectores Propios

Como ya calculamos los vectores propios de esta matriz (En el punto 1), formamos la matriz P, usando como columnas los vectores propios ya calculados:

P=[1 51 2]

P−1=[−23

53

13

−13

]B=P−1 AP=[−1 0

0 2] Encontrar la matriz P que diagonalice a la siguiente matriz:

A=[0 0 −21 2 11 0 3 ]

det ( λI−A )=det [− λ 0 −21 λ−2 −1

−1 0 λ−3 ]=0

λ ( λ−2 )+( λ−3 ) λ ( λ−2 )=0

( λ−2 ) (λ2−3 λ+2 )=0

{λ1=2λ2=2λ2=1

Para λ1=2

[− 2 0 21 0 −1

−1 0 −1] [x1

x2

x3]=[000]

[ 2 0 2 ⋮ 0−1 0 −1 ⋮ 0−1 0 −1 ⋮ 0 ]→ [1 0 1 ⋮ 0

0 0 0 ⋮ 00 0 0 ⋮ 0]

x1+ x3=0

Page 17: Valores Propios y Vectores Propios

x1=−t ; x2=s ; x3=t

v=[ tst ]=t [−101 ]+s [010]

Entonces los eigenvectores son:

v1=(−1 ,0 ,1 ) y v2=(0 ,1 ,0 )

Ahora buscamos para λ2=1

[− 1 0 21 −1 −1

−1 0 −1][ x1

x2

x3]=[000]

[ 1 0 2 ⋮ 0−1 −1 −1 ⋮ 0−1 0 −2 ⋮ 0]→[0 −1 1 ⋮ 0

1 1 1 ⋮ 00 0 0 ⋮ 0]

{x1+x2+x3=0−x2+ x3=0

x1=−2 t ; x2=t ; x3=t

v=[−2 ttt ]=t [−2

11 ]

Entonces el eigenvector es:

v3=(−2 ,1 ,1 )

Como hay 3 vectores, la matriz si se puede diagonalizar, entonces:

P=[−1 0 −20 1 11 0 1 ];|P|=1

P−1=[ 1 0 21 1 1

−1 0 −1]Y ahora si podemos expresar la siguiente relación para encontrar la matriz que diagonaliza

a la matriz A

Page 18: Valores Propios y Vectores Propios

D=P−1 AP=[ 1 0 21 1 1

−1 0 −1][0 0 −21 2 11 0 3 ][−1 0 −2

0 1 11 0 1 ]

D=[2 0 00 2 00 0 1 ]

Probar que, si A es diagonalizable y A semejante a B, entonces B es también diagonalizable.

Solución

Si A es diagonalizable, entonces existe D matriz diagonal y P matriz de paso tal que

A=PDP−1

Por otro lado, si A semejante a B, entonces existe Q matriz de paso tal que:

A=QBQ−1

Y de la unión de estos dos se tiene que:

QBQ−1=PDP−1

B=Q−1PDP−1Q

Pero T=Q−1 P es una matriz invertible (por ser el producto de dos matrices invertibles tal

que B=TDT−1 asi que B es diagonalizable con la forma diagonal D.

Determine si A es diagonalizable. Si lo es encuentre P que diagonalice ha A y luego de

determine P−1 AP.

A=[2 1 03 2 00 0 4]

Det(λ-A)=0

[ λ−2 −1 0−3 λ−2 00 0 λ−4]=0

(λ – 2)( λ –2)(λ – 4) –3( λ – 4)=0

λ3 – 8 λ2+17 λ – 4=0

(λ – 4)( λ2– 4 λ+1)=0

Page 19: Valores Propios y Vectores Propios

λ1=4 λ2=2+√3 λ3=2 – √3

(λI – A) x=0

Si λ1=4

[4−2 −1 0−3 4−2 00 0 4−4 ][ x1

x2

x3]=[000]

2 x1+2 x2+0=0

−3 x1+2 x2+0=0

0=0

X 3=t x2=0 x1=0

X=t [00t ]P1=[001]Si λ2=2+√3

[√3 −1 0−3 √3 00 0 −2+√3][ x1

x2

x3]=[000]

√3 x1– x2=0

−3 x1+√3 x2=0

−2+√3 x3=0

X 3=0 x2=5 x1=√3/3(5)

X=5[√3/310 ]P2=[√3/3

10 ]

Si λ3=2– √3

Page 20: Valores Propios y Vectores Propios

[−√3 −1 0−3 −√3 00 0 −2−√3][ x1

x2

x3]=[000]

−√3 x1 – x 2=0

−3 x1 – √3 x2=0

−2 –√3 x3=0

X 3=0 x2=v x1=−√3/3(v)

X=5[−√3/310 ] P2=[−√3/3

10 ]

Lugo P=[0 √3/3 −√3/30 1 01 0 0 ]

P−1=[ 0 0 1−√3

212

0

−√32

12

0]Luego

P−1 AP=[0 √33

−√33

0 1 11 0 0

] [2 1 03 2 00 0 4] [ 0 0 1

−√32

12

0

−√32

12

0]P−1 AP=[4 0 0

0 2+√3 00 0 2−√3]

Page 21: Valores Propios y Vectores Propios

3. MATRICES SIMETRICAS Y DIAGONALIZACIÓN ORTOGONAL

Antes de definir este proceso, debemos tener claros algunos conceptos:

Matriz Simétrica.- Una matriz de n×melementos:

[ a11 ⋯ a1m

⋮ ⋱ ⋮an1 ⋯ anm

]Es simétrica, si es una matriz cuadrada m=n y a ij=a ji para todo i distinto de j con i , j=1,2,3,4 ,…,n. Nótese que la simetría es respecto a la diagonal principal.

Ejemplo: Para n=3

[ 1 −1 3−1 2 43 4 7 ]

A es también la matriz traspuesta de sí misma: At = A. Esta última igualdad es una definición alternativa de matriz simétrica. Las matrices simétricas son un caso particular de las matrices hermíticas que estudiaremos mas adelante.

Propiedades.- Si A es una matriz simétrica (solo con elementos reales), entonces:

a) Todos los vectores propios de A son números reales.b) Vectores propios de espacios propios diferentes, son ortogonales.

Estas propiedades no cumplen cuando la matriz esta compuesta de elementos complejos.

Matriz Ortogonal.- Una matriz ortogonal es un matriz cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representación lineal del grupo ortogonal O(n , R).

Geométricamente las matrices ortogonales representan transformaciones isométricas en espacios vectoriales reales (o más exactamente espacios de Hilbert reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestión.

Definición.- Sea n un número natural y sea A una matriz cuadrada n×n, con entradas reales. Se dice que la matriz es ortogonal si:

A× AT=I

Page 22: Valores Propios y Vectores Propios

Donde AT representa la matriz traspuesta de A; I representa la matriz identidad.

3.1. CONDICIONES PARA LA DIAGONALIZACIÓN ORTOGONAL

Si A es una matriz n×n, las siguientes proposiciones son conjuntas:

A es diagonalizable ortogonalmente. A tiene un conjunto orto-normal de n vectores propios. A es simétrica.

3.2. DIAGONALIZACION DE LAS MATRICES SIMETRICAS

Se puede aplicar el siguiente procedimiento para diagonalizar ortogonalmente una matriz simétrica:

1. Encontrar una base para cada eigenespacio de A.2. Aplicar el proceso de Gram-Schmidt a cada una de estas bases a fin de obtener una

base ortonormal para cada eigenespacio.3. Formar la matriz P cuyas columnas son los vectores básicos obtenidos en el paso 2;

esta matriz diagonaliza ortogonalmente a la matriz A.

3.3. PROCESO DE ORTONORMALIZACION DE GRAM-SCHMIDT)

Dada una base B= (u1 , u2 ,…,un), del espacio vectorial euclideo V de dimensión finita,

existe bases ortogonales de V, que denotaremos por (e1 ,e2 ,…,en), tales que V (e1 ,…,e p)=

V (u1 , u2 ,…,up) para p=1, 2,…, u. una de estas bases es aquella en la que e p vale:

e p=up – (α 1 e1+…+α p−1e p−1) con α i=u p . e i

¿|e i|¿2 (para i=1,…., p-1)

Si se <<normaliza>> la base (e1 ,e2 ,…,en), se obtiene la base ortonormal (e ´ 1 , e ´2 ,… ,e ´n),

donde e ´ p=ep/¿∨e p||; para esta ultima base también se cumple que V (e1 ,…,e p)= V (u1 ,…,u p) para p=1, 2, …, n.

3.3 EJERCICIOS SOBRE DIAGONALIZACION ORTOGONAL

Encontrar una matriz ortogonal P que diagonalice a la matriz:

Page 23: Valores Propios y Vectores Propios

A=[4 2 22 4 22 2 4 ]

Solución:

La ecuación característica de A es:

det ( λI−A )=det [ λ−4 −2 −2−2 λ−4 −2−2 −2 λ−4]=0

( λ−2 )2 ( λ−8 )=0

Así, los eigenvalores de A son λ=2 y λ=8.

u1=[−110 ] yu2=[−1

01 ]

Forman una base para el eigenespacio correspondiente a λ=2. Aplicando el proceso de gran-Schmidt a {u1, u2} se obtienen los siguientes eigenvectores ortonormales:

v1=[−1/√21/√2

0 ] y v2=[−1/√6−1/√62/√6 ]

El eigenespacio correspondiente a λ=8 tiene a

u3=[111]Como base. Aplicando el proceso de Gram-Schmidt a {u3} se obtiene

v3=[1/√31/√31/√3]

Finalmente, usando a v1, v2 y v3 como vectores columna se obtiene

Page 24: Valores Propios y Vectores Propios

P=[−1/√2 −1/√6 1 /√31/√2 −1/√6 1 /√3

0 2/√6 1 /√3]Que diagonaliza ortogonalmente ha A .

Diagonalizar ortogonalmente a la matriz:

A=[ 3 −2 4−2 6 24 2 3 ]

Solución:

P ( λ )=det ( λI−A )

P ( λ )=−( λ−7 )2(λ+2)

λ1=7doble∩ λ2=−2 simple

Los eigenespacio asociados a cada eigenvalor son:

Sλ1=gen {[ 1 01 ]T , [−1 20 ]T }

Sλ2=gen {[−2−12]T }

Ahora buscamos las bases orto-normales de cada espacio

b.o.n. de Sλ2 es B2={[−23

−13

23 ]

T }Aplicando Gram Schmidt a la base de Sλ1 y luego normalizando los vectores resultantes

obtenemos la b.o.n. de Sλ1 igual a:

B1={[ 1

√20

1

√2 ]T

,[ −1

√184

√181

√18 ]T}

Finalmente, considerando

Page 25: Valores Propios y Vectores Propios

P=[1

√2−1

√18−23

04

√18−13

1

√21

√1823

] y D=[7 0 00 7 00 0 −2]

Tenemos que la diagonalización ortogonal de A buscada es:

A=PDPT

Hallar la matriz diagonal asociada, los sub-espacios propios, una base ortonormal de vectores propios, y las matrices de paso que permiten la descomposición de la matriz inicial:

A=[3 0 00 −4 20 2 −1]

Solución:

[ A – λI ]=|3−λ 0 00 −4− λ 20 2 −1−λ|=(3−λ)|−4−λ 2

2 −1−λ|=

¿ (3−λ ) [ (−4−λ ) (−1−λ )−4 ]=(3−λ ) (λ2−5 λ )=(3− λ ) λ ( λ+5 )

Los valores propios son λ=3 ,0 ,−5. La matriz diagonal asociada es:

[3 0 00 0 00 0 −5]

Hallemos una base ortonormal de cada sub-espacio propio.

Para el valor propio λ=3 se tiene que

ker ( A−3 I )={ 0=0−7 y+2 z=02 y−4 z=0 }=¿ (1,0,0 )>¿

Para el valor propio λ=0 se tiene que

Page 26: Valores Propios y Vectores Propios

ker ( A−3 I )={ 3x=0−4 y+2 z=0

2 y− z=0 }=¿ (0,1,2 )>¿

Para el valor propio λ=−5 se tiene que

ker ( A−3 I )={ 8x=0y+2 z=0

2 y+4 z=0}=¿ (0 ,−2,1 )>¿

Luego las bases ortonormales de los subespacios propios son:

{ (1,0,0)‖(1,0,0)‖}= {(1,0,0)}

{ (0,1,2)‖(0,1,2)‖}= {(0,1,2)}

{ (0 ,−2,1)‖(0 ,−2,1)‖}={(0 ,−2,1)}

∴S={(1,0,0 ) , (0,1,2 ) ,(0 ,−2,1)}

Por tanto las matrices de paso son

P=[1 0 0

01

√5−2

√5

02√5

1√5

] y P−1=Pt=[1 0 0

01

√5−2

√5

02√5

1√5

] Consideremos la matriz simétrica.

A=[ 1 −1 0−1 2 −10 −1 1 ]

Page 27: Valores Propios y Vectores Propios

Su polinomio característico es

Det (A−λI )=[1− λ −1 0−1 2−λ −10 −1 1−λ ]=−λ3+4 λ2−3 λ .

Por lo tanto, la ecuación característica es

−λ3+4 λ2−3 λ .=−λ (λ−1)(λ−3)=0

Y los valores propios son reales y distintos: λ1=0, λ2=1, λ3=3. Para cada valor propio λi buscamos un vector propio correspondiente xi.

λ1=0: (A−0 I ) x1=[ 1 −1 0−1 2 −10 −1 1 ]x 1=[000] , y x 1=[111]

λ2=1: (A−I ) x2=[ 0 −1 0−1 1 −10 −1 1 ] x2=[000] , y x 2=[111]

λ3=1: (A−3 I )x 3=[−2 −1 0−1 −1 −10 −1 −2] x3=[000] , y x3=[111]

Ortonormalizamos los vectoresx1 , x2 , x3

x1=[111]=z1[1/√31/√31/√3]

x2=[ 10

−1]=z2[ 1/√20

−1/√2]x3=[ 1

−21 ]=z3 [ 1/√6

−2/√61/√6 ]

Siendo:

P=[1/√3 1/√2 1/√61/√3 0 −2 /√61/√3 −1/√2 1/√6 ]

Page 28: Valores Propios y Vectores Propios

Por lo tanto es:

PT AP=[0 0 00 1 00 0 3]

Determine una matriz ortogonal P que diagonalice ortogonalmente a

A=[−2 22 1]

Solución:

El polinomio característico de A es

¿ λI – A∨¿[ λ+2 −2−2 λ−1]=( λ+3 )(λ−2)

Por tanto, los valores característicos son λ1=−3 y λ2=2

Para cada valor característico se encuentra un vector característico al convertir matriz λI−A, a la forma escalonada reducida.

−3 I−A=[−1 −2−2 −4 ]=[1 2

0 0 ]=[−21 ]

2 I−A=[ 4 −2−2 −1]=[1 −1

20 0 ]=[12]

Los vectores característicos (-2,1) y (1,2) constituyen una base ortogonal de cada uno de estos vectores se normaliza para obtener una base ortonormal.

P1=(−2 ,1)

¿|−2 ,1|∨¿= 1√5

(−2,1 )=(−2√5

1√5 )¿

P2=(1,2)

¿|1,2|∨¿= 1√5

(1,2 )=( 1√5

2√5 )¿

Debido a que la multiplicidad de cada valor característico es, se pasa directamente al paso 4.

Usando p1 y p2 como vectores columna, se constituye la matriz P.

Page 29: Valores Propios y Vectores Propios

P=[−2

√51

√51√5

2√5

]Para comprobar que P es correcta se calcula P-1AP=P´AP.

P´ AP=[−2

√51

√51√5

2√5

][−2 22 1] [−2

√51

√51√5

2√5

]=[−3 00 2]

4. POTENCIAS DE MATRICES.

Una primera aplicación a la diagonalización de una matriz es que se puede fácilmente encontrar la potencia n‐ésima de una matriz. Supongamos que la matriz A se ha diagonal izado y por lo tanto podemos decir que A=PDP-1.El resultado de elevar A2 es:

El producto de una matriz por su inversa es la matriz identidad, es decir:

P-1DP=I

Entonces:

El resultado de elevar A3 es:

El producto de una matriz por su inversa es la matriz identidad, es decir:

Page 30: Valores Propios y Vectores Propios

Entonces:

Entonces por inducción podemos concluir que:

Y la matriz Dn se puede encontrar fácilmente.

4.2. EJERCICIOS SOBRE POTENCIACION DE MATRICES

Elevar la matriz A=[a 00 b] al cuadrado y a la cuarta potencia.

Solución:

A2=A× A=[a 00 b]×[a 0

0 b]=[a2 00 b2]

A4=A3× A=[a3 00 b3]×[a 0

0 b]=[a4 00 b4 ]

Podemos afirmar que la enésima potencia de A se escribe como:

An=[an 00 bn]

Elevar la matriz A, al cuadrado, cubo y cuarta potencia:

A=[1 43 5 ]

A=PDP−1=[−2 21 3 ][−1 0

0 7 ] 18 [−3 2

1 2]Elevando al cuadrado ambos miembros:

A2=P D2 P−1=[−2 21 3] [−12 0

0 7] 18 [−3 2

1 2]A2=[13 24

18 37]

Page 31: Valores Propios y Vectores Propios

Entonces elevando al cubo:

A3=P D3 P−1=[−2 21 3] [−13 0

0 73] 18 [−3 2

1 2]A3=[ 85 172

128 257 ]Entonces elevando a la cuarta potencia:

A4=P D4 P−1=[−2 21 3] [−14 0

0 74] 18 [−3 2

1 2]A3=[601 1200

900 1801]En forma general la enésima potencia de A es:

An=PD nP−1=[−2 21 3 ][−1n 0

0 7n] 18 [−3 2

1 2]Realizando la multiplicación:

An=[ 2 (7n )+6 (−1 )n 4 (7n )−4 (−1 )n

3 (7n )−3 (−1 )n 6 (7n )+2 (−1 )n ] 18

Encontrar la matriz An y su quinta potencia de:

A=[ 8 2 −23 3 −1

24 8 −6]Solucion:

An=13 [−18−3.3n+3.23+n −6−2n+1+2n+3 6−3.2n+1

−9+9.2n −3+3.2n+1 3−3.2n

−72+9.2n+3 −24+3.2n+3 24−21.2n]A5=[218 62 −62

93 63 −31744 248 −216]

Page 32: Valores Propios y Vectores Propios

Encontrar la matriz An y quinta potencia de:

A=[ 2 2−1 5 ]

Solución:

An=[2.3n−4n −2.3n+22n+1

3n−4n −3n+22n+1 ]

A5=[−538 1562−781 1805]

5. MATRICES: UNITARIAS, NORMALES Y HERMITIANAS

Debemos definir algunos conceptos antes de proceder a las definiciones independientes de cada tipo de matriz:

Dado A∈L(H ) un operador en un espacio, decimos que A es:

1. Hermitiano si: A=A¿

2. Anti-Hermitiano si: A=−A¿

3. Unitario si: A A¿=A¿ A=I4. Normal si AA¿=A¿ A5. Definido positivo si ⟨ Ax , x ⟩>0 para todo x∈H . En tal caso de escribe A>0.

6. Semi-definido positivo si ⟨ Ax , x ⟩≥0 para todo x∈H . En tal caso de escribe A≥0

Los mismos nombres tendrán las matrices de M n(C), al ser pensadas cono operadores en

H=Cn con el producto escalar y la norma usuales. Además usaremos las siguientes

notaciones:

1. H (n )={A∈M n (C ) : A=A¿}

2. U (n )={U∈M n (C ) :U esunitaria }

3. M n (C )+¿={A∈M n (C ) :A ≥0 }⊆H (n )¿.

4. Gl (n )={A∈M n (C ) : Aes invertible}

Page 33: Valores Propios y Vectores Propios

5.1. MATRIZ UNITARIA

Es una matriz compleja U, de n por n elementos, que satisface la condición:

U ×U=UU ¿=In

Donde I n es la matriz identidad y U ¿ es el traspuesto conjugado, también llamado el hermitiano adjunto o la hermítica de U. Esta condición implica que una matriz U es unitaria si tiene inversa igual a su traspuesta conjugada U ¿.

Una matriz unitaria en la que todas las entradas son reales es una matriz ortogonal, y por tanto preserva el producto escalar de dos vectores reales.

⟨Gx ,Gy ⟩=⟨ x , y ⟩

Así que una matriz unitaria U satisface

⟨Ux ,Uy ⟩=⟨ x , y ⟩

Para todos los vectores complejosxey ´,donde ⟨…… ⟩ representa al producto escalar en Cn

. Si A es una matriz n×n entonces las siguientes condiciones son equivalentes:

A es unitaria A¿ es unitaria

Las columnas de A forman una base ortonormal de Cn con respecto al producto escalar usual.

Las filas de A forman una base ortonormal de Cn con respecto al producto escalar usual.

A es una isometría con respecto a la norma de su producto escalar

Se desprende de la propiedad de isometría que todos los autovalores de una matriz unitaria son números complejos de valor absoluto. Esto también se cumple para su determinante.

Todas las matrices unitarias son normales, y el teorema espectral se aplica a ellas. De esta forma, toda matriz unitaria U tiene una descomposición de la forma.

U=VβV ¿

Donde V es unitaria, y β es diagonal y unitaria. Para todo n, el conjunto de todas las matrices unitarias n×n forman un grupo. Una matriz unitaria es especial si su determinante es1.

Características de matrices unitarias

U es invertible U−1=U ¿

Page 34: Valores Propios y Vectores Propios

¿det (U )∨¿1 U ¿

Longitud unitaria del coto de las matrices

Las matrices unitarias son de gran importancia ya que, en muchos casos, son la herramienta principal para obtener distintos resultados en el análisis matricial.

5.2. MATRIZ NORMAL

Recordemos que una matriz A∈M n(C ) es normal si A¿ A=AA¿, es decir si A conmuta

con su adjunta.

Si A∈M n(C ) es unitariamente equivalente a una matriz diagonal, entonces se dice que A

es unitariamente diagonalizable.

Notación: Si a=(a1 ,…,an)∈Cn, denotaremos por diag(a) a la matriz diagonal

diag (a )=diag (a1 ,…,an )=(a1 0 0⋮ ⋱ ⋮0 0 an

)∈M n(C )

Teorema.- Si A=[aij ] tiene autovalores λ1 , ..., λn, las siguientes condiciones son equivalentes:

A es normal. A es unitariamente diagonalizable.

∑i , j=1

n

¿aij∨¿2=∑j=1

n

¿ λij∨¿2¿¿

Para todo x∈Cn,||Ax||=¿|A¿ x|∨¿

Demostración.- La equivalencia entre a) y d) la obtenemos del siguiente hecho: para cada

x∈Cn,

||Ax||2= ⟨ A¿ Ax , x ⟩ y||Ax||2=⟨ AA ¿x , x ⟩

Recordar que si B∈M n(C) cumple que ⟨Bx , x ⟩=0 para todo x∈Cn, entonces B=0. Por el

Teorema de Schur existe una matriz unitaria U y una matriz triangular superior T tal que T = U*AU. Además como A es normal, T es normal, es decir T*T = TT* y esto más el hecho de que T es triangular superior implican que T es una matriz diagonal.

Page 35: Valores Propios y Vectores Propios

Entonces A es unitariamente diagonalizable. Por lo tanto a) implica b). Recíprocamente si A es unitariamente diagonalizable, A = U*TU con U unitaria y T diagonal, por lo tanto T es normal. Entonces A es normal. Luego queda demostrado que a) y b) son equivalentes.

Si A es unitariamente diagonalizable, A = U_DU con U unitaria y D diagonal y tenemos que:

∑i , j=1

n

¿aij∨¿2=∑j=1

n

¿ λij∨¿2¿¿

Asumamos la condición c). El teorema de Schur nos dice que A es unitariamente equivalente a una matriz T triangular superior, entonces:

∑i=1

n

¿ λi∨¿2=∑i , j=1

n

¿ aij∨¿2=∑i=1

n

¿ λi∨¿2+∑i< j

n

¿ tij∨¿2¿¿¿¿

Por lo tanto t ij = 0 para i < j y T es diagonal.

Corolario.- Si A∈M n(C ) es normal, entonces ¿|A|∨¿sp=p(A)¿. Recordemos que

¿|A|∨¿sp=max {||Ax||:||x||=1 }¿.

Demostración. Es fácil verificar que matrices unitariamente equivalentes tienen la misma norma espectral. A es unitariamente equivalente a diag(λ1 ,…, λn). Finalmente, una fácil cuenta muestra que la norma espectral de una matriz diagonal es el máximo de los módulos de sus elementos diagonales.

5.3. MATRIZ HERMITIANA

La práctica nos enseña que, por lo general, no es fácil calcular los autovalores de una matriz, pero en muchos casos es suficiente saber que los autovalores están en un intervalo especificado. El objetivo de esta sección es estudiar algunas de las principales características que distinguen a las matrices Hermitianas y conocer principios variacionales que se utilizan para localizar el espectro de una matriz Hermitiana sin la necesidad de conocer los autovectores asociados en forma exacta.

Recordemos las notaciones H (n )={A∈M n (C ) : A=A¿} y M n (C )+¿={A∈M n (C ): A≥ 0} . ¿

Teorema.- Si A∈H (n), entonces A es unitariamente diagonalizable y σ (A )⊆R.

Demostración. Se deduce del Teorema de autovalores de matrices normales (expuesto anteriormente en matrices normales).

Page 36: Valores Propios y Vectores Propios

Definición.- Sea A∈H (n). Por el Teorema anterior σ (A )⊆R. Por lo tanto, sus autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes notaciones:

λ ( A )=( λ1 (A ) ,…, λn ( A )) Es el vector de autovalores de A ordenados en forma creciente.

u (A )=(u1 (A ) ,…,un ( A )) Es el vector de autovalores de A ordenados en forma decreciente,

es decir uk ( A )≥uk+1 (A ) ,1≤k ≤n−1. También uk ( A )≥ λn−k +1 ( A )

Se llamarán:

λmin (A )= λ1 (A )=un ( A )=minσ (A)

Y, análogamente,

λmax (A )= λn (A )=u1 (A )=maxσ (A)

Así, cuando escribamos λ i ( A ) o, directamente λ i (si el contexto es claro) estaremos

asumiendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en

forma decreciente si escribimos ui (A ) o ui.

Para matrices generales la única caracterización conocida de sus autovalores es que son las raíces del polinomio característico de la matriz. Pero cuando las matrices son Hermitianas, el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones más interesantes. El próximo teorema describe el máximo y el mínimo de los autovalores de la

matriz en función de las expresiones ⟨ A¿Ax , x ⟩

⟨ x , x ⟩(0≠ x∈Cn), conocidas como cocientes de

Rayleig-Ritz.

5.3.1. Teorema de Rayleigh-Ritz.- Sea A∈H (n). Entonces:

Para todo x∈Cn, λmin (A ) ¿|x|∨¿2≤ ⟨ Ax , x ⟩≤ λmax ( A ) ¿|x|∨¿2¿¿

λmax (A )= λn (A )=maxx≠ 0

⟨ Ax , x ⟩⟨ x , x ⟩

=max||x||=1

⟨ Ax , x ⟩

λmin (A )= λ1 (A )=minx ≠0

⟨ Ax , x ⟩⟨ x , x ⟩

= min¿∨x∨¿=1

⟨ Ax , x ⟩

En particular, A∈M n ¿ si y sólo si λmin (A )≥0.

Page 37: Valores Propios y Vectores Propios

Demostración.- Como A es Hermitiana, es unitariamente diagonalizable, es decir A =

U*DU, con U∈∪(n) unitaria y D=diag (λ1 (A ) ,…, λn (A )). Notar que

⟨ Ax , x ⟩=⟨DUx ,U x ⟩ , x∈Cn. Como U es una isometría:

U ( {x∈M n (C ) :||x||=1 })={x∈M n (C ) :||x||=1}

Y, además, λ i (D )= λi (A ) ,1≤ i≤n, es fácil ver que es suficiente probar el Teorema para

matrices diagonales. Pero, para x∈Cn,

⟨Dx ,x ⟩=∑i=1

n

λ i(A )¿ x i∨¿2 ¿

Con esta expresión, el resultado se torna inmediato.

6. APLICACIONES: CRECIMIENTO DE UNA POBLACIÓN

Las matrices pueden aplicarse para elaborar modelos que describan el crecimiento de una población. El primer paso es agrupar la población en clases de edad de la misma duración. Por ejemplo, si el tiempo que vive un miembros de la población es L años, entonces las clases de edad se representan por los n siguientes intervalos.

[ 0 ,Ln ) ,[ Ln , 2L

n ) , …,[ (n−1 )Ln

,L)El numero de elementos de la población en cada clase de edad se representa entonces por el vector de distribución de edades.

x=[x1

x2

⋮xn

]Durante un período de

Ln

años, la probabilidad de que un element de la clase de la i-ésima

edad sobreviva para convertirse en un elemento de la clase de la (i+i)-ésima edad está dada por Pi donde.

Clase de primera edad

Clase de segunda edad

Clase de n-ésima edad

Número en la clase de primera edad

Número en la clase de segunda edad

Número en la clase de n-ésima edad

Page 38: Valores Propios y Vectores Propios

0≤ Pi≤1 ;i=1,2,3 ,… ,n

El número medio de descendencia producido por un miembro de la clase de la u-ésima edad esta dado por b i, donde:

0≤bi ; i=1,2,3 ,…,n

Los números dados pueden escribirse en forma matricial como se muestra a continuación:

A=[b1 b2 b3 … bn−1 bn

P1 0 0 … 0 00 P2 0 … ⋮ ⋮⋮ ⋮ ⋮ … ⋮ ⋮⋮ ⋮ ⋮ … ⋮ ⋮0 0 0 … Pn−1 0

]Al multiplicar esta matriz de transición de edades por el vector de distribución de edades durante un periodo específico se obtiene el vector de distribución de edades para el siguiente periodo. Es decir:

Axi=x i+r

Ejemplo 1: Un modelo del crecimiento de una población.

Una población de conejos criados en un laboratorio tiene las siguientes características.

a) La mitad de conejos sobrevive el primer año. De estos, la mitad sobrevive el segundo año. La duración máxima de vida es de tres años.

b) Durante el primer año los conejos no producen descendencia. El número medio de descendencia es 6 durante el segundo año y 8 durante el tercer año.

Actualmente, la población de laboratorio consta de 24 conejos en la clase de la primera edad, 24 en la segunda y 20 en la tercera. ¿Cuántos habrá en cada clase de edad en un año?

Solución:

x1=[242420 ]

Y la matriz de transición de edades es:

A=[ 0 6 80.5 0 00 0.5 0]

0≤edad ≤10≤edad ≤10≤edad ≤1

Page 39: Valores Propios y Vectores Propios

Al cabo de un año el vector de distribución de edades será:

x2=Ax1=[ 0 6 80.5 0 00 0.5 0 ][24

2420]=[304

1212 ]

Si el patrón de crecimiento del ejemplo 1 continúa durante otro año, entonces la población de conejos será:

x3=Ax2=[ 0 6 80.5 0 00 0.5 0][304

1212 ]=[168

1526 ]

A partir de los resultados de x1 , x2 , x3 se observa que el patrón cambia cada año; pero si se quiere establecer un patrón constante para todos los años se debe hacer lo siguiente:

El i-ésimo vector de distribución de edades debe ser un múltiplo escalar del i-ésimo vector de distribución de edades. Es decir: Axn=xn+1=λ xn

En el siguiente ejemplo se muestra como realizar este procedimiento:

Ejemplo 2: Determinación de una distribución estable de edades

Encuentre una distribución estable de edades para la población del ejemplo 1.

Solución: Para resolver este problema es necesario encontrar un valor característico λ y un vector característico correspondiente x tales que:

Ax=λx

El polinomio característico de A es:

|λI−A|=| λ −6 −8−0.5 λ 0

0 −0.5 λ |¿ λ3−3 λ−2=( λ+1 )2( λ−2)

Lo cual implica que los valores caracteristicos son -1 y 2. Con el valor positivo se hace λ=2. Para encontrar un vector característico correspondiente, la matriz 2 I−A se reduce por renglones para obtener:

0≤edad ≤10≤edad ≤10≤edad ≤1

0≤edad ≤10≤edad ≤10≤edad ≤1

Page 40: Valores Propios y Vectores Propios

[ 2 −6 −8−0.5 2 0

0 −0.5 2 ]→[1 0 −160 1 −40 0 0 ]

Por lo tanto, los valores característicos de λ=2 son de la forma:

x=[x1

x2

x3]=[16 t

4 tt ]=t [16

41 ]

Por ejemplo, si t=2, entonces el vector inicial de distribución de edades sería:

x1=[3282 ]

Y el vector de distribución de edades para el año siguiente sería:

x3=Ax2=[ 0 6 80.5 0 00 0.5 0][32

82 ]=[64

164 ]

Obsérvese que el porcentaje en cada clase de edad permanece igual.

7. APLICACIONES: FORMAS CUADRÁTICAS

Los valores y vectores característicos pueden usarse para resolver el problema de rotación de ejes.

En una ecuación cuadrática ax2+bxy+cy 2+dx+ey+f =0; la resolución es bastante directa si la ecuación no contiene termino en xy, es decir, b=0. Sin embargo si la ecuación si contiene este termino, su resolución se logra de manera más sencilla al realizar una rotación de ejes que elimine el término xy. La ecuación resultante, con respecto a los nuevos ejes, será entonces de la forma:

a ´ (x ´ )2+c ´ ( y ´ )2+d ´ x ´+e ´ y ´+ f ´=0

Se verá que los coeficientes de a ´ y c ´ son los valores característicos de la matriz:

0≤edad ≤10≤edad ≤10≤edad ≤1

0≤edad ≤10≤edad ≤10≤edad ≤1

Page 41: Valores Propios y Vectores Propios

A=[ a b2

b2

c ]La expresión: a x2+bxy+c y2 se denomina forma cuadrática asociada con la ecuación

cuadrática a x2+bxy+c y2+dx+ey+ f=0; la matriz A se denomina matriz de la forma cuadrática. Obsérvese que la matriz A es simétrica por definición. Además la matriz A será diagonal si y solo si su forma cuadrática correspondiente no tiene termino xy.

Ejemplo: Determinación de la matriz de una forma cuadrática.

Encuentre la matriz de la forma cuadrática asociada con cada una de las siguientes ecuaciones cuadráticas.

a) 4 x2+9 y2−36=0b) 13 x2−10 xy+13 y2−72=0

Solución:

a) Como a=4, b=0 y c=9, entonces la matriz es:

A=[4 00 9]

Matriz Diagonal (sin termino xy)

b) Como a=13, b¿−10, c¿13, la matriz es:

A=[ 13 −5−5 13 ]

Matriz Diagonal (con termino xy)

En la forma estandar, la ecuación 4 x2+9 y2−36=0 es:

x2

32 + y2

22 =1

Que es correspondiente a la ecuación de la elipse de la figura mostrada a continuación:

Page 42: Valores Propios y Vectores Propios

Aunque no es evidente por simple inspección, la grafica de la ecuación

13 x2−10 xy+13 y2−72=0 es semejante. De hecho si los ejes se rotan a 45° en sentido

contrario a las manecillas del reloj para formar un nuevo sistema de coordenadas x ´ y ´, entonces la ecuación asume la forma

(x ´ )2

32 +¿¿

Para ver como se puede usar la matriz de la forma cuadrática para efectuar una rotación de ejes sea:

X=[ xy ]

Page 43: Valores Propios y Vectores Propios

Entonces la expresión cuadrática a x2+bxy+c y2+dx+ey+ f puede escribirse en forma matricial como sigue:

XT AX+ [d e ] X+ f=[ x y ][ a b2

b2

c ][ xy ]+[de+ f ][ xy ]

¿a x2+bxy+c y2+dx+ey+f

Si b=0, entonces no es necesaria ninguna rotación. Pero si b≠0, entonces como A es simétrica se puede aplicar el Teorema Fundamental de las Matrices Simétricas para comprobar que existe una matriz ortogonal P tal que:

P ´ AP=D

Es diagonal. Por lo tanto, si se hace:

P ´ X=X ´=[ x ´y ´ ]Se concluye que X=PX ´ , y se tiene que:

XT AX=(PX ´ )T A (PX ´ )

¿(X ´ )T PT APX ´

¿(X ´ )T DX ´

La elección de la matriz P debe hacerse con cuidado, ya que si P es ortogonal, entonces su determinante es ±1. Se puede demostrar que si P se elige de modo que |P|=1, entonces P será de la forma:

P=[cosθ −senθsenθ cosθ ]

Donde θ da el angulo de rotación de la cónica medido del eje x positivo al eje x ´ positivo. Todo esto conduce al siguiente teorema.

7.1. TEOREMA DE LOS EJES PRINCIPALES

Para una cónica cuya ecuación es a x2+bxy+c y2+dx+ey+ f=0, la rotación definida por X=PX ´ elimina al termino xy si P es una matriz ortogonal, con |P|=1, que diagonaliza a A. Es decir,

Page 44: Valores Propios y Vectores Propios

P ´ AP=[ λ1 00 λ2

]Donde λ1 y λ2 son valores característicos de A. La ecuación de la cónica rotada esta dada por:

λ1( x ´ )2+ λ2( y ´ )

2+ [de ] PX ´+ f=0

Observación: Nótese que el producto matricial [d e ] PX ´ es de la forma:

[d e ] PX ´=(d cosθ+e senθ ) x ´+ (−d senθ+ecosθ ) y ´

7.2.1. Pasos para aplicar el teorema de los ejes principales:

1. Forme la matriz A y determine sus valores característicos λ1 y λ2.

2. Encuentre los vectores característicos correspondientes a λ1 y λ2. Normalice estos vectores característicos para formar las columnas de P.

3. Si|P|=−1, entonces multiplique por −1 una de las columnas de P para obtener una matriz de la forma:

P=[cosθ −senθsenθ cosθ ]

4. El ángulo θ representa el ángulo de rotación de la cónica.5. La ecuación de la cónica rotada es:

λ1( x ´ )2+ λ2( y ´ )

2+ [de ] PX ´+ f=0

Page 45: Valores Propios y Vectores Propios

CONCLUSIONES:El aprendizaje de la teoría de los valores y vectores propios resulta ser, además de muy importante para el cálculo de ciertas operaciones matriciales, muy interesante para extender ciertas aplicaciones que vimos en el transcurso del ciclo en las horas de clase.

La diagonalización matricial ortogonal resulta ser como una cúspide del conocimiento que adquirimos en las horas de clase en este ciclo, ya que para este proceso se deben aplicar otros procesos como el de Gram-Schmidt, el de orto normalización de las bases de un espacio, el calculo matricial, generación de espacios que en este caso son denotados como autoespacios, entre otros; y así, mucha de la teoría aprendida en este semestre que nos hemos dedicado a entender la teoría de los espacios vectoriales pero con un énfasis muy notorio en la teoría de matrices.

Dentro de las aplicaciones de los valores y vectores propios encontré una que en lo personal me pareció muy interesante, y es la del crecimiento poblacional; esta aplicación resulta ser muy útil en nuestra carrera, como lo indico el profesor, un ingeniero debe tomar en consideración muchas variables en el campo real, en este caso el crecimiento poblacional nos da una idea matemática que nos permite calcular resultados futuros, de ciertas obras, con gran aproximación.

Con esta teoría creo que avanzamos mucho en el conocimiento de las matrices, si bien es cierto aun falta mucho, con el aprendizaje adquirido, tenemos una buena base con la cual podemos ampliar nuestra mente e investigar por cuenta propia mas aplicaciones del calculo lineal (en este caso matricial) en la practica dentro de nuestra carrera, ingeniería civil.

Page 46: Valores Propios y Vectores Propios

BIBLIOGRAFIA

INTRODUCCION AL ALGEBRA LINEAL – Howard Anton – Tercera Edición INTRODUCCION AL ALGEBRA LINEAL – Roland E. Larson, Bruce H.

Edwards – Primera Edición - Editorial Limusa.

http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio http://lc.fie.umich.mx/~jrincon/apuntes%20intro%20valores%20propios.pdf http://www.monografias.com/trabajos16/valores-vectores/valores-vectores.shtml http://www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-09.pdf http://personales.upv.es/jbenitez/cajon_sastre/val_prop.pdf http://www.mancomunidadcg.es/Universidad/Docs/TeresaMediavilla/MATEMATICAS

%201%C2%BA%20CCEE/tema2.pdf http://lc.fie.umich.mx/~jrincon/apuntes%20intro%20valores%20propios.pdf http://es.wikipedia.org/wiki/Matriz_sim%C3%A9trica http://es.wikipedia.org/wiki/Matriz_ortogonal http://es.wikipedia.org/wiki/Matriz_unitaria http://www.multilingualarchive.com/ma/enwiki/es/Unitary_matrix http://www.famaf.unc.edu.ar/publicaciones/documents/serie_b/BMat47-1.pdf http://www.clasesba.com.ar/uba/ingenieria/algebra%202/mancilla/Simetricas_2do08.pdf http://cvb.ehu.es/open_course_ware/castellano/experimentales/algebra/rel6.pdf http://es.wikipedia.org/wiki/Jean-Baptiste_Joseph_Fourier https://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r44188.PDF http://www.vadenumeros.es/segundo/ejercicios-resueltos-de-matrices.htm