Click here to load reader
Upload
juanpahugo
View
99
Download
3
Embed Size (px)
DESCRIPTION
Por el gran profesor Mansilla.
Citation preview
1
ÁÁLLGGEEBBRRAA IIII
Indice
Revisión de Matrices............................................................................................................. 2
Práctica 1: Espacios Vectoriales ........................................................................................... 3
Práctica 2: Producto Interno ................................................................................................. 4
Práctica 3: Proyecciones y Matrices de Proyección ............................................................. 5
Práctica 4: Transformaciones Lineales ................................................................................. 8
Práctica 5: Autovalores y Autovectores .............................................................................. 10
Práctica 6: Diagonalización de matrices hermíticas, formas cuadráticas, DVS .................. 12
Ecuaciones Diferenciales .................................................................................................... 15
Sistemas de Ecuaciones Diferenciales Lineales ................................................................. 18
2
con
Revisión de Matrices
1) Propiedades de las matrices
a.
b.
c.
d.
e.
2) Propiedades de los determinantes
Sean :
a) ,
b) ,
c) Si una fila de A se suma a k.(otra fila) para producir una matriz B, ,
d) Si dos filas de A se intercambian de lugar para producir B, ,
e) Si una fila de A se multiplica por k para producir B, ,
f) Si toda la matriz A se multiplica por k para producir B, ,
g) Si es una matriz triangular, .
3) Espacios fila, nulo y columna de matrices
Sea :
Sean y , entonces:
a) (son iguales si )
b) (son iguales si
c) Si
d) Si
e)
4) Matrices equivalentes y semejantes
Matrices equivalentes: dos matrices A y B son equivalentes si existen otras dos matrices E y F
regulares tal que . Dos matrices equivalentes pueden pensarse como dos descripciones
de una misma TL, pero con respecto a bases distintas.
Matrices semejantes: dos matrices cuadradas A y B son semejantes (notamos si y solo
si existe una matriz P invertible tal que ó . Dos matrices semejantes pueden
es inversible es inversible
3
pensarse como dos descripciones de un mismo operador lineal, pero con respecto a bases
distintas. Estas dos matrices cumplen que:
a)
b)
c)
d)
Práctica 1: Espacios Vectoriales
1) Propiedades de los subespacios
es un subespacio vectorial del espacio
2) Independencia lineal
es una combinación lineal de si y no
son todos nulos.
es LI si y
Dos vectores son LD si son proporcionales.
Un subconjunto de un conjunto LI sigue siendo LI.
3) Operaciones con subespacios
Sean subespacios de .
a) Intersección:
.
b) Suma:
, donde es base
de .
c) Unión: es un subespacio cuando
ó .
d) Suma directa: están en suma directa la unión de sus bases es
base de .
Dos subespacios son suplementarios cuando están en suma directa y su suma es todo el
espacio.
4) Bases
Si , es base de
5) Coordenadas de un vector en una base
Si y , entonces
Dado un vector y una base, las coordenadas de ese vector en esa base son únicas.
y
es LI es LI para cualquier base B.
dim n
dim n
dim 2n
dim
dim n+1
dim
4
6) Matriz de pasaje
Sean y bases del espacio .
Además: si y son bases ortonormales, entonces es una matriz ortogonal.
7) Teorema de la dimensión
Práctica 2: Producto Interno
1) Axiomas
Sea
a. y
b.
c. , y
d. , y
e. ,
f. , (si entonces )
2) Productos internos canónicos (PIC)
3) Definiciones
a. Ortogonalidad: .
b. Norma de un vector: . La norma depende del PI.
Propiedades:
i.
En :
En :
En :
En :
En :
En :
En :
En :
5
ii. ( )
iii.
iv. Desigualdad de Cauchy-Schwarz: , . Son iguales si .
v. Desigualdad triangular: .
vi. Teorema de Pitágoras: si entonces . La recíproca sólo
vale para
vii. Identidad del paralelogramo: , .
c. Ángulo entre 2 vectores:
con , EPI real.
d. Complemento ortogonal de un conjunto en un EPI: Sea .
. Para el cálculo del complemento ortogonal a un subespacio de dimensión finita,
alcanza con exigir la ortogonalidad a un sistema de generadores.
e. Función distancia:
4) Matriz asociada a un PI
Sea base de . Entonces es la matriz del
producto interno.
a)
b) .
c) es definida positiva.
d)
5) Expresión matricial de un PI
Si B es base de y G es la matriz del PI en esa base, entonces
Propiedades:
La matriz de un PI en una BOG es una matriz diagonal.
La matriz de un PI en una BON es la matriz identidad.
6) La mejor aproximación es EPIs
Sea un espacio vectorial de funciones, y un subespacio de . Si se quiere aproximar
con una función , la mejor aproximación será la proyección ortogonal de sobre el
subespacio .
Práctica 3: Proyecciones y Matrices de Proyección
Sea y su complemento ortogonal:
1) Propiedades de la proyección
a) es el vector de S más próximo a .
6
b) y además .
c) Por Pitágoras:
.
d) (si entonces )
e)
2) Expresión de la proyección y la reflexión
Sea un subespacio de , y una BOG de . Entonces:
.
3) Proyecciones y TLs
Sea una transformación lineal tal que
Sea
una base de , entonces la matriz de la TL es:
(tantos 1 como la dimensión del espacio sobre el cual
proyecto, y tantos 0 como la dimensión del complemento ortogonal)
Nota: la matriz de un operador proyección en una BON es una matriz de proyección. En
cualquier otra base, no lo es.
4) Reflexiones y TLs
Sea una TL tal que
Sea
una base de , entonces la matriz de la TL es:
(tantos 1 como la dimensión del espacio sobre el cual
reflejo, y tantos -1 como la dimensión del complemento ortogonal)
5) Matriz de Householder
La matriz de reflexión sobre un subespacio de que es ortogonal a un vector en
un espacio de se puede obtener mediante la expresión:
Propiedades:
a) Es involutiva: .
7
b) Es simétrica: .
c) Es inversible: y
d) Es ortogonal: .
6) Rotaciones en
Sea una BON de y sea T la rotación de grados alrededor del eje .
7) Proceso Gram-Schmidt
Dada una base para un subespacio de , defina
Entonces es una BOG para .
8) Matrices de Proyección
Trabajamos con el producto interno canónico y sobre , o .
es una matriz de proyección
Propiedades:
i. .
ii. .
iii. Si es matriz de proyección sobre y es matriz de proyección sobre ,
entonces .
iv. Las columnas de P son una base del espacio sobre el cual proyectan.
v. .
vi.
vii. Si y son matrices de proyección, y , entonces es
matriz de proyección y .
Obtención de la matriz de proyección:
i. Sea Q una matriz cuyas columnas son una BON de . Entonces la única matriz de
proyección sobre es . La matriz de proyección sobre es
ii. Sea una base de , y A la matriz que tiene por columnas a
Entonces la única matriz de proyección sobre se obtiene mediante
9) Inversas y pseudoinversas
Pseudoinversa: Sea tal que . La matriz pseudoinversa de A es:
Propiedades:
8
a) Si es cuadrada e invertible,
b)
c)
d)
e)
10) Cuadrados mínimos
Sea , , . Si tiene una solución exacta, entonces . Si
, intentamos hallar una solución (la solución por cuadrados mínimos) tal que:
a) ,
b) ,
c) (son iguales si ),
d) Ecuaciones normales de cuadrados mínimos:
e)
Observaciones:
Si . La recíproca solo es cierta si es inversible.
Si las columnas de son LI, la solución por cuadrados mínimos es única y se obtiene
mediante . Si las columnas de son LD, el sistema tiene
infinitas soluciones, y éstas son de la forma
.
Si , entonces toda solución de es una solución exacta y por
cuadrados mínimos.
El error es igual a .
11) Regresión lineal
Sean los puntos con . La recta que mejor aproxima a los puntos es
y se obtiene resolviendo el sistema
por cuadrados mínimos.
12) Solución por cuadrados mínimos de norma mínima
La solución por cuadrados mínimos de norma mínima pertenece al espacio y se
obtiene como , siendo la pseudoinversa de Moore-Penrose de .
Práctica 4: Transformaciones Lineales
Sea y con base de y base de la matriz de
1) Condiciones de TLs
a. con .
b. con y .
c.
9
2) Núcleo e imagen
a. . Es un subespacio.
b. . Es un subespacio.
La imagen de una TL puede obtenerse como lo que generan los transformados de una base
del espacio de partida.
Teorema de la dimensión: Sea y sea (finita). Entonces:
3) Clasificación de TLs
a. Inyectividad (monomorfismo):
Una TL es inyectiva si verifica: .
Una TL es inyectiva
Una TL inyectiva transforma conjuntos LI a conjuntos LI. La recíproca también es cierta: si A
es un conjunto LI y es transformado en otro conjunto LI, la TL es inyectiva. Es decir: si T es
inyectiva y A es LI, es LI.
Las matrices asociadas a TLs inyectivas tienen sus columnas LI.
Si , T no puede ser inyectiva.
b. Sobreyectividad (epimorfismo):
Una TL es sobreyectiva .
Las matrices asociadas a TLs sobreyectivas tienen sus filas LI.
Si , T no puede ser sobreyectiva.
c. Biyectividad (isomorfismo):
Si , y , T es biyectiva.
T es biyectiva si es base de , entonces es base de .
La matriz asociada a una TL biyectiva tiene sus filas y columnas LI, o sea que es una matriz
inversible, o sea que existe la TL inversa:
Si , entonces o bien T es inyectiva y sobreyectiva, o bien no es ninguna.
4) Matriz asociada a una TL
Sea , sea base de y base de .
Entonces T se puede escribir como , con tal que
Propiedades:
f)
g)
h)
i)
Teorema: sean y -espacios vectoriales ( ). Sea . Si y son
bases ordenadas de , y y son bases ordenadas de , entonces
10
5) Teorema Fundamental de las TLs
Sea base de y vectores de Entonces, existe y es única
la TL que verifica que , . Además, dada una TL y un par de
bases, existe una única matriz asociada. La recíproca también es verdadera: dada una matriz y un
par de bases, existe una única TL asociada.
6) Composición de TLs
y
Propiedades:
a)
b) )
7) Operadores lineales
Un operador lineal es una TL que va de un espacio en sí mismo. Se escribe como .
Propiedades:
a) Si y , entonces .
b) Si ,
Práctica 5: Autovalores y Autovectores
1) Autovalores y autovectores de una matriz cuadrada
Autovector: Sea . Un vector es autovector de A
Autoespacio: El autoespacio de asociado a un autovalor es .
Polinomio característico: . El polinomio característico de una matriz
tiene grado . Si , el polinomio tiene a lo sumo raíces. Si , tiene
exactamente raíces.
Autovalores: Los autovalores de una matriz son las raíces de su polinomio característico.
Espectro de una matriz: es autovalor de
2) Multiplicidad geométrica y algebraica de un autovalor
número de veces que aparece como raíz del polinomio característico.
Siempre se verifica que: .
3) Propiedades
Sea
I. es singular es un autovalor de .
II. Dos autovectores asociados a autovalores distintos son LI.
III. Si , entonces .
IV. Si todas las filas o columnas de suman entonces .
11
V. Sea . Si es autovalor de , Entonces se
cumple que es autovalor de , y para cada autovalor de existe un
autovalor de tal que .
VI. Si es autovalor de …
i. es autovalor de ,
ii. es autovalor de y ,
iii. es autovalor de ,
iv. es autovalor de ,
v. es autovalor de .
4) Autovalores y autovectores de operadores lineales
Un vector es autovector de T con autovalor de .
.
Si es base de y es la matriz de en esa base, entonces:
base de
es autovector de es autovector de
5) Propiedades
1. .
2. Si es autovalor de , es autovalor de .
3. Si es un polinomio en y , entonces
4. es regular
6) Diagonalización
es diagonalizable existe una base de compuesta por autovectores
de tiene autovectores LI inversible y diagonal tal
que:
7) Propiedades de la diagonalización de matrices
1) Matrices trivialmente diagonalizables:
a. nula: autovalor 0, autovectores: cualquier vector no nulo.
b. identidad: autovalor: 1, autovectores: cualquier vector no nulo.
c. diagonales (
: autovalores: , autovectores: los que tienen
sus componentes nulas excepto la n-ésima.
d. escalares (
): autovalor: , autovectores: cualquier vector no
nulo.
e. de proyección ( : autovalor 1 con , autovalor
0 con
12
f. de reflexión: autovalor 1 con , autovalor -1 con
2) Si es diagonalizable es diagonalizable ( y ). La
recíproca es falsa.
3) Si tiene autovalores distintos es diagonalizable. La recíproca es falsa.
4)
5)
8) Autovalores complejos de una matriz real
Supongamos que con , es un autovalor de . Entonces
también es autovalor de y es autovector de asociado a si y sólo si es
autovector de A asociado a . En particular, si es base de entonces es base
de .
9) Diagonalización de TLs
, con , es diagonalizable base de tal que es diagonal
base de formada por autovectores de tiene autovectores LI. Esa base es y
. Si , cualquier base, entonces es diagonalizable si y sólo si es
diagonalizable.
Práctica 6: Diagonalización de matrices hermíticas, formas cuadráticas, DVS
1) Diagonalización de matrices simétricas y hermíticas
Matriz antisimétrica: Si es antisimétrica entonces:
Los autovalores de son imaginarios puros o nulos,
Los autovectores asociados a autovalores distintos son ortogonales,
es diagonalizable unitariamente.
Matriz simétrica (hermítica): es simétrica ( es hermítica) si y solo si:
es diagonalizable ortogonalmente: ( es diagonalizable unitariamente
con real: )
Propiedades:
tiene autovalores reales.
Los elementos de la diagonal de son reales,
,
,
Los autovectores asociados a autovalores distintos son ortogonales,
Matriz ortogonal (unitaria): es ortogonal ( es unitaria) si y solo si:
( ),
( ),
Las columnas de son BON de ( ).
Propiedades:
. Si , es la matriz de una rotación,
Los autovalores tienen módulo 1, y pueden ser reales o complejos,
Son matrices unitariamente diagonalizables,
13
Los autovectores asociados a autovalores distintos son ortogonales,
Preservan los productos internos y las normas )
Si es unitaria, y son unitarias.
2) Descomposición espectral de matrices simétricas
Si , las columnas de P son autovectores ortonormales de A y
los autovalores correspondiendes están en la matriz diagonal . Entonces:
3) Subespacios invariantes por una matriz o por una TL
es invariante por
es invariante por
Propiedades:
Si es autovalor de , entonces es un subespacio invariante por , puesto
que .
No todo subespacio invariante es un autoespacio de , pero sí los subespacios
invariantes de dimensión 1.
4) Formas cuadráticas
Una forma cuadrática en es una función tal que , donde es una
matriz simétrica de .
Teorema de los ejes principales: sea una matriz simétrica de . Entonces existe un
cambio ortogonal de variable, , donde es una matriz ortogonal tal que e es
un nuevo vector, que transforma la forma cuadrática a una forma cuadrática sin
términos de producto cruzado:
Perspectiva geométrica de los ejes principales: sea la forma cuadrática , con
. El conjunto de todas las es una elipse, una hipérbola, dos rectas, un
punto o ningún punto. Si es diagonal, la gráfica está en posición estándar. Si no es diagonal, la
gráfica está girada hasta salirse de la posición estándar. Los “ejes principales” son los autovectores
de y son el nuevo sistema de coordenadas para los cuales la gráfica está en posición estándar.
5) Clasificación de formas cuadráticas
Una forma cuadrática es:
Definición Criterio I Criterio II
Definida positiva y
los autovalores de A son
positivos
Semi definida
positiva
los autovalores de A son
positivos o cero
Definida negativa y
los autovalores de A son
negativos
Semi definida
negativa
. los autovalores de A son
negativos o cero
14
Indefinida
los autovalores de A son tanto
positivos como negativos
6) Optimización restringida
Teorema de Rayleigh: sea la forma cuadrática , con simétrica. Se verifica:
Sea extremar una forma cuadrática , ( simétrica), sujeto a la
restricción . El máximo de es y se alcanza en .
El mínimo de es y se alcanza en .
Sea extremar una forma cuadrática , ( simétrica), sujeto a la
restricción , y sea definida positiva tal que . Mediante un cambio de
variable (
), esto es equivalente a extremar
sujeto a la restricción . Entonces: , y
. Los en donde se alcanza ese extremo se hallan realizando la cuenta
.
7) DVS
Valores singulares: .
Sea una matriz de con rango . Entonces existe una matriz , y existen una matriz
U ortogonal de y una matriz V ortogonal de tales que , donde:
es tal que
, y las entradas diagonales de D son los primeros
valores singulares de A, ordenados en forma descendente: .
es una matriz cuyas columnas son una BON de autovectores
asociados a los autovalores de .
es una matriz cuyas primeras columnas son los vectores
. Las
otras columnas se obtienen completando una BON para . Las columnas de U son autovectores
de .
8) Aplicaciones de las DVS
Sea
. Si entonces:
es BON de ,
es BON de ,
es BON de ,
es BON de .
15
9) Propiedades de las DVS
es inversible tiene VS positivos
Si
Si es cuadrada y definida positiva,
Si , entonces
Si es ortogonal, , y tienen los mismos valores singulares
Si es cuadrada y simétrica, entonces
Si tiene filas BON, los VS no nulos de son 1. Si tiene columnas BON, los VS de
son 1
La matriz (matriz de Gram de ) es siempre simétrica y semi definida positiva, con
lo cual nunca habrá valores singulares negativos. Será definida positiva cuando
tenga columnas LI
Sea una transformación lineal tal que . Sea la forma cuadrática
. Entonces:
o El máximo de sujeto a es . Entonces el máximo de
es y se alcanza en .
o El mínimo de sujeto a es . Entonces el mínimo de
es y se alcanza en .
10) DVS reducida con matrices de proyección y pseudoinversa
DVS reducida: Sea . Si , y , entonces una DVS reducida de A
es siendo , ,
.
Pseudoinversa de Moore-Penrose de A:
Propiedades:
Sea
cuando
Ecuaciones Diferenciales
1) Independencia lineal y Wronskiano
Sea funciones definidas en un intervalo , a valores en , con derivada
hasta el orden continua en . La matriz de wronski de es, para cada :
.
El wronskiano es
16
Propiedades:
a. Si existe un tal que , entonces las funciones son LI.
b. Si un conjunto es LD en un , su wronskiano es la función nula. La recíproca es
falsa; es verdadera solo si las funciones que componen el wronskiano son
soluciones de una ED lineal de orden superior.
c. La derivada del wronskiano es el determinante obtenido derivando la última fila. La
derivada del wronskiano es la suma de “q” determinantes.
2) Identidad de Abel
Sea la ecuacion diferencial
en un
intervalo , sea el conjunto de las soluciones de ED, y sea el wronskiano
de este conjunto. Entonces se verifica que:
3) Ecuaciones diferenciales lineales
1. Condicion de existencia y unicidad de un PVI:
Sea el problema
La condición de existencia y unicidad de la solución del PVI es:
a) ED normal en : .
b) .
2. Variables separables:
con .
Separamos la ecuación en e integrando ambos miembres se tiene
.
3. Homogéneas: con
Hacemos un cambio de variable:
(donde ). Entonces, .
4. Lineales de 1er orden:
Obtenemos primero la solución general de la homogénea ( ) y luego una particular de la no
homogénea ( ). La solución buscada es .
a) Solución de la ecuación homogénea asociada ( ): es de variables
separables. Una solución es .
b) Solución de la no homogénea: una solucion se obtiene multiplicando toda la
ecuación por el factor integrante de Lagrange: . Entonces, la ecuación a resolver
será
5. Diferencial exacta:
17
Es diferencial exacta si existe tal que , es decir si
y
. En ese caso, la solución general es . Se cumple que la ecuación
anterior es diferencial exacta si y solo si
.
Se dice además que es un factor integrante de la ecuación
si al multiplicar la ecuación por la ecuación resultante es diferencial exacta.
6. Lineales homogéneas de orden superior con coeficientes constantes:
(I)
Polinomio característico de (I):
Espectro de (I)
es una solución de la ED si , multiplicidad “ ”, .
Si la ED es de coeficientes constantes reales, las raíces del polinomio característico
aparecerán conjugadas. Esto es, . Luego, e
. Entonces, .
7. Lineales no homogéneas de orden superior con coeficientes constantes:
La solución general es de la forma , donde:
a) se obtiene como antes.
b) Método de variación de parámetros: aplicable en cualquier caso.
, siendo las soluciones de , y las funciones que
satisfacen
c) Método de coeficientes indeterminados: aplicable cuando es exponencial, polinomio,
seno y coseno.
Siendo
con
.
.
a. Si no es solución de la EDO homogénea asociada (i.e. no es raíz de
), es un polinomio del grado de .
b. Si si es solución de la EDO homogénea asociada (i.e. si es raíz de
), es un polinomio de un grado mayor que con coeficientes
a determinar.
c. Una vez armada la se reemplaza en la ED original, e igualando los términos
semejantes se hallan los coeficientes indeterminados.
18
Sistemas de Ecuaciones Diferenciales Lineales
1) Sistemas homogéneos con diagonalizable
La solución de ( ), con autovalor de y autovector de asociado a
, es:
2) Sistemas no homogéneos con diagonalizable
Sea el sistema . La solución es con:
siendo tal que
3) Sistemas homogéneos con no diagonalizable
Sea el sistema , proponemos una factorización de la forma , donde
es la matriz de Jordan de A que tiene la siguiente estructura en bloques:
donde cada bloque es una matriz de la forma
para algún autovalor de . (Dado un autovalor , su multiplicidad geométrica es el número de
bloques de Jordan correspondientes a , y su multiplicidad algebraica es la suma de los tamaños
de los bloques correspondientes a ese autovalor.)
Luego: . Resolvemos este sistema y la solucion
general del problema se expresará como
Caso
necesariamente posee un autovalor doble de multiplicidad geométrica 1, con lo cual
la matriz posee un solo bloque correspondiente a :
Respecto de la matriz deber ser inversible y La matriz P se obtiene
hallando un par de vectores y LI que satisfagan las condiciones y
. Observamos que es autovector de asociado a .
Caso
1) tiene un autovalor triple de multiplicidad geométrica 1. En este caso:
19
Respecto de , deben ser LI y satisfacer las condiciones
Observamos que es autovector
de asociado a .
2) tiene un autovalor triple de multiplicidad geométrica 2. En este caso:
Respecto de , deben ser LI y satisfacer las condiciones
Observamos que y son
autovectores de asociados a .
3) tiene un autovalor doble de multiplicidad geométrica 1 y un autovalor
simple. En este caso debe tener dos bloques de Jordan:
Respecto de , deben ser LI y satisfacer las condiciones
Observamos que y son
autovectores de asociados a y respectivamente.